Promienie pokazane na rysunku są dokładnie prześledzone, ale układ jest narysowany w większej skali w Y niż w X, aby wyraźniej pokazać separację promieni. Oczywiście promienie nie skupiają się ostro. ABERRACJA KULISTA SA na rysunku jest widoczna w ognisku osiowym. Promienie zewnętrzne skupiają się jako pierwsze i już się rozchodzą tam, gdzie skupiają się inne promienie. COMA jest również widoczna na rysunku w obrazie pozaosiowym. Promień przechodzący przez środek APERTURY wejściowej, zwany promieniem głównym, jest przesunięty w bok od ogniska promieni zewnętrznych. Obraz ma wygląd komety z głównym promieniem na czele. Jest również oczywiste, że oba ogniska nie znajdują się w tej samej płaszczyźnie, co jest ABERRACJĄ zwaną krzywizną Petzvala. Kolejną aberracją jest ASTIGMATYZM, w którym promienie zewnętrzne, prostopadłe do płaszczyzny rysunku, skupiają się dalej od obiektywu, ale nie są one widoczne. Poradnik na temat aberracji można znaleźć w katalogu Mellesa Griota: http://www.mellesgriot.com. Dla danej Ogniskowej aberracja sferyczna jest proporcjonalna do sześcianu średnicy apertury. Koma jest proporcjonalna do kwadratu apertury i wprost proporcjonalna do kąta pola. Astygmatyzm jest proporcjonalny do kwadratu kąta pola i jest wprost proporcjonalny do przysłony. Barwa osiowa jest wprost proporcjonalna do apertury, natomiast barwa boczna jest niezależna od apertury i jest wprost proporcjonalna do kąta pola. W przypadku soczewki singletowej aberracja sferyczna jest mniejsza, jeśli szkło ma wysoki współczynnik załamania światła, N, ponieważ dla danej ogniskowej potrzebna jest mniejsza krzywizna. Jednakże okulary o wyższym indeksie mają zwykle wyższą dyspersję, która zwiększa ABERRACJĘ CHROMATYCZNĄ. Jednowarstwowa powłoka przeciwodblaskowa na soczewce wykonanej ze szkła o wysokim współczynniku odbicia ma mniejszy współczynnik odbicia szczątkowego przy jednej długości fali, ale większe średnie straty niż w przypadku szkła o niskim współczynniku w szerokim paśmie długości fal. Zatem soczewka singletowa o wysokim współczynniku jest optymalna dla efektów monochromatycznych, ale szkło o niskim współczynniku i niskiej dyspersji jest lepsze dla szerokiego zakresu widma. Kolejnym czynnikiem branym pod uwagę przy wyborze szkła jest ciemnienie radiacyjne i fluorescencja
W porównaniu z teleskopem z dwoma zwierciadłami, który ma odległą źrenicę wyjściową nad zwierciadłem wtórnym, NGST ma swoją końcową źrenicę znacznie bliżej ogniska i dlatego jest mniej telecentryczny niż większość teleskopów. Celem odkształcalnego zwierciadła DM na NGST jest kompensacja resztkowych niedoskonałości kształtu aktywnego zwierciadła głównego. Jeśli teleskop kosmiczny ma ograniczoną dyfrakcję, wówczas kamery w instrumentach mogą być mniejsze i mieć dłuższe ogniskowe niż odpowiedniki w dużym teleskopie naziemnym, którego rozdzielczość jest ograniczona przez turbulencje atmosferyczne, zwane WIDZENIEM. Spektrograf przeznaczony dla małego teleskopu naziemnego będzie dobrze współpracował z dużym teleskopem kosmicznym.
Składa się z dziewięciu elementów: dubletu sprzężonego z cieczą, singletu, trójki sprzężonej z cieczą, dubletu i wreszcie soczewki spłaszczającej pole singletowe w pobliżu ogniska. Pokazano także filtr i okno Dewara. Największy element ma średnicę 36 cm i wykonany jest z fluorku wapnia. Dla porównania, jeśli teleskop znajduje się w kosmosie, minimalny rozmiar obrazu gwiazdy można ograniczyć jedynie poprzez dyfrakcję, a zatem w ognisku na detektorze jego rozmiar jest taki sam, niezależnie od średnicy teleskopu, dla danej liczby F. Zatem na przykład prosta kamera spektrografowa zaprojektowana dla teleskopu o średnicy 1 m będzie działać z pełną wydajnością, jeśli zostanie użyta w połączeniu z teleskopem kosmicznym o średnicy 8 m. Dzięki temu bardziej wykonalne staje się wykorzystanie wydajnych spektrografów w gigantycznych teleskopach kosmicznych przyszłości, takich jak być może 100-metrowy teleskop zwierciadła ciekłego na Księżycu.
W przypadku obserwacji satelitów przywracane jest zerowe zniekształcenie poprzez usunięcie decentracji i pochylenia elementów. Gdyby teleskop został przeniesiony do Obserwatorium Cloudcroft na 31° szerokości geograficznej, zmniejszenie zniekształceń gwiazdowych w tym miejscu można by osiągnąć poprzez odpowiednią zmianę położenia elementów. Zaletą skanowania dryftu jest to, że różnice w czułości detektora piksel po pikselu są zmniejszone, ponieważ odpowiedź jest uśredniana dla wszystkich pikseli CCD w kolumnie. Sterowane teleskopy są czasami używane do skanowania dryfu poprzez śledzenie po wielkim okręgu z szybkością inną niż gwiazdowa i obracanie detektora. W tym przypadku efekty nieliniowe są zminimalizowane bez konieczności stosowania korektora asymetrycznego. Jednakże, ze względu na fizyczny ruch wymagany od kamery, długość toru wielkiego koła jest ograniczona. Obserwacje musiałyby zostać przerwane, gdy pozycja kamery jest ustawiona tak, aby podążała za różnymi torami wielkiego okręgu. Dla porównania LMT, czyli dowolny teleskop zatrzymany w zenicie, może integrować się w sposób ciągły z detektorem stacjonarnym.
Widmo widzialne każdego składnika (środkowa krzywa, górne panele) uzyskano poprzez obrotowe wygładzenie śladu słonecznego za pomocą odpowiedniego v sin i; cecha absorpcji w pobliżu 6339 Å jest nierozwiązanym bliskim połączeniem. Pionowa linia przerywana oznacza położenie spoczynkowe środkowej ostrej absorpcji. Dla przejrzystości przyjęto, że widmo pierwotne jest o 10% jaśniejsze niż widmo wtórne przy tej długości fali czerwonej (co odpowiada V ∿ 0,1 mag); widmo wtórne jest zacienione. Zwróć uwagę na wyblakły wygląd tego ostatniego. Kiedy oba widma zostaną połączone w celu uzyskania kompozytu na górze każdego panelu, ostre linie pierwotnego rozmywają się we względnym strumieniu około 2 razy i opadają na falujące tło zapewniane przez rozmazany obrotowo element wtórny. Nic dziwnego, że tak trudno było wyizolować wtórny udział w historycznych, zaszumionych widmach fotograficznych.
61 Cygni
Gwiazda 61 Cygni jest ważna ze względu na jej duży ruch własny, po raz pierwszy zmierzony w Obserwatorium w Palermo przez Giuseppe Piazziego (1746-1826). Gwiazda stała się popularnie nazywana "latającą gwiazdą Piazziego". Jej zmierzony roczny ruch własny wynosi 5,23″ jest nadal siódmą co do wielkości znaną gwiazdą i największą gwiazdą widzianą gołym okiem (pozorna jasność 4,8 mag). Ta gwiazda była również pierwszą, której roczna paralaksa została wiarygodnie określona przez Friedricha Bessela (1784-1846). Pomiar Bessela wynoszący 0,314″, wykonany w Königsberg za pomocą 6,25-calowego heliometru Fraunhofera w 1838 r., całkiem dobrze wypada w porównaniu ze współczesną wartością 0,286″. Oznaczenia paralaksy gwiazd wykonane w tym samym roku przez innych obserwatorów były znacznie mniej dokładne. Jest to jedenasta najbliższa gwiazda, znajdująca się w odległości 11,4 lat świetlnych. 61 Cygni jest również dobrze znanym systemem podwójnym, którego okres wynosi 653,3 lat. Jego składniki są
obecnie oddzielone o 30,3″ przy kącie położenia 150°. Główna gwiazda 61 Cyg A to pomarańczowy karzeł typu widmowego K5V o pozornej wielkości 5,20 i bezwzględnej 7,5. Jego towarzysz 61 Cyg B jest również pomarańczowym karłem typu widmowego K7V, o jasności pozornej 6,05 i jasności bezwzględnej 8,3. Układ ten jest uważany za najszerzej obserwowaną gwiazdę podwójną, uzupełnioną o kilka tysięcy obserwacji wizualnych ponad 34 000 klisz fotograficznych. Precyzyjne pomiary astrometryczne tych płyt wykazały, że układ ma co najmniej jeden niewidoczny składnik, uważany za planetę o masie podobnej do Jowisza i być może aż trzy, z okresami orbitalnymi od 5 do 12 lat.
Gromady Abella
Gromady Abella to najbardziej rzucające się w oczy skupiska galaktyk zidentyfikowane przez George′a Abella na płytach z pierwszego przeglądu fotograficznego wykonanego za pomocą TELESKOPU SCHMIDT na Mount Palomar w latach pięćdziesiątych XX wieku. Czasami termin gromady Abella jest używany jako synonim pobliskich, optycznie wybranych gromad galaktyk. George Abell stworzył katalog zawierający 2712 najbogatszych takich zgrupowań na niebie północnym, który później rozszerzono na niebo południowe. Nie będzie przesadą stwierdzenie, że całkowita próbka 4076 kandydatów na gromady na całym niebie zrewolucjonizowała badania wielkoskalowej struktury we Wszechświecie. Katalog Abella stworzył podstawę do pierwszych badań ilościowych najgęstszego składnika wielkoskalowej struktury we wszechświecie lokalnym. W ostatnich latach definicja próbek klastrów kandydujących z płyt do badań szerokiego pola została powtórzona za pomocą automatycznych maszyn do skanowania płyt. Pokazało to obiektywnie, że subiektywny czynnik
wizualnej selekcji Abella jest dość mały, przynajmniej dla bogatszych i bliższych gromad. Rzeczywistość kandydatów na gromady w katalogu Abella była przedmiotem pewnej debaty, dopóki obserwacje spektroskopowe dużej liczby galaktyk w kierunkach gromad Abella nie wykazały przekonująco, że tylko niewielka część bogatych gromad jest wynikiem przypadkowych superpozycji. Oznacza to, że bardzo duża część kandydatów na bogate gromady w katalogu sporządzonym przez Abella (lub, włączając gromady południowe, przez Abella, Corwina i Olowina) reprezentuje zwarte, zlokalizowane piki w przestrzennym rozmieszczeniu galaktyk, głównie z przesunięciami ku czerwieni mniejszym niż 0,2 i utrzymywane razem grawitacyjnie. Już w latach trzydziestych XX wieku Fritz ZWICKY doszedł do wniosku, że świetlista materia (tj. galaktyki) w gromadach stanowi tylko około 10% całkowitej masy gromady, z czego większość można zatem wykryć jedynie za pomocą jej grawitacji. Doprowadziło to do oszacowania całkowitej masy (zarówno widocznej, jak i
ciemnej materii) na różne sposoby. Najczęstsze z nich to prędkości galaktyk w gromadzie, ilość i temperatura gorącego (emitującego promieniowanie rentgenowskie) gazu oraz zniekształcenie obrazów galaktyk w odległości znacznie większej niż gromada przez soczewkowanie grawitacyjne. Przez długi czas kilka lepiej znanych gromad Abell, takich jak te w konstelacjach COMA BERENICES i PERSEUS, kształtowało naszą wizję klas bogatych, zaludnionych gromad. W tym schematycznym widoku bogate gromady są gładkimi, okrągłymi i zwirializowanymi strukturami. Ten wyidealizowany obraz współistniał ze świadomością, że istnieją znaczne różnice w różnych właściwościach gromad Abella. Doprowadziło to do wielu badań tych właściwości i korelacji między nimi, a także do kilku prób opisania powstawania i ewolucji bogatych klastrów. Obecnie zdano sobie sprawę, że klastry nadal tworzą się i ewoluują w obecnej epoce. Wśród właściwości gromad, które można badać i dla których dokonano teoretycznych przewidywań, są kształt 3D (a raczej
osiowe proporcje rozkładu galaktyk), skład populacji galaktyk (tj. frakcje galaktyk o różnych typach morfologicznych ), rozkłady jasności galaktyk, szczegółową dynamikę różnych klas galaktyk, dynamiczną podstrukturę i segregację oraz ułamek masy całkowitej składający się z materii barionowej (tj. "zwykłej" materii nukleonowej). Ważnym niedawnym osiągnięciem jest poszukiwanie i badanie gromad galaktyk w bardzo dużych odległościach (tj. przy dużych przesunięciach ku czerwieni), które są "przodkami" lokalnych bogatych gromad w katalogu Abella. W przypadku tych młodszych gromad z dużymi przesunięciami ku czerwieni gromady Abella służą jako lokalna, współczesna populacja referencyjna. Gromady Abella jako podzbiór całej populacji gromad Podczas poszukiwania kandydatów na gromady na płytach Palomar Sky Survey, Abell nie miał informacji o odległościach (lub przesunięciach ku czerwieni) galaktyk. Dlatego wykorzystał rozkład galaktyk w pozornej wielkości, aby wybrać te piki w rzutowanym rozkładzie galaktyk, które naj
prawdopodobniej odpowiadają przestrzennie zwartej strukturze. Przyjmując wielkość 10. najjaśniejszej galaktyki jako przybliżoną "świecę standardową", oszacowano przesunięcie ku czerwieni; daje to kąt określony przez ustalony rozmiar liniowy 1,5h-1 Mpc w odległości gromady (gdzie h jest wartością obecnego parametru Hubble′a, wyrażoną w jednostkach 100 km s-1 Mpc-1). W okrągłej aperturze o promieniu równym temu kątowi zliczono liczbę galaktyk o wielkości nie większej niż dwie magnitudo słabszej niż trzecia pod względem jasności galaktyka. Ostatecznie liczbę niepowiązanych galaktyk w aperturze (i do tej samej granicy jasności) oszacowano na podstawie gęstości galaktyk w polach tła bez oczywistych kandydatów na gromady. Skorygowana liczba galaktyk (liczba bogactw, tj. szacowana liczba członków w aperturze powyżej granicy jasności) ma niepewność około 17. Dlatego Abell uznał, że tylko gromady ze skorygowaną liczbą galaktyk wynoszącą co najmniej 50 zostały pobrane w obiektywny sposób z przesunięciami ku czerwieni wynoszącymi 0,1-0,2. W oryginalnym ("północnym") katalogu Abella 1682 z 2712 kandydatów na klastry ma liczbę co najmniej 50. Dolna granica bogactwa musi być stosowana, jeśli korzysta się z katalogu Abella do celów statystycznych. Oczywiście istnieje wiele mniej bogatych klastrów, ale przy większych odległościach przesunięcia ku czerwieni ich kontrast w stosunku do pola jest zbyt niski, aby umożliwić solidne zdefiniowanie statystycznie wiarygodnej próbki. W ostatnich latach obszerne badanie przesunięcia ku czerwieni (ESO Nearby Abell Cluster Survey) zostało przeprowadzone na blisko 6000 galaktyk w około 100 kandydatach na gromady (głównie z południowej części katalogu Abell, Corwin i Olowin) o bogactwie wynoszącym co najmniej 50 i szacowane przesunięcia ku czerwieni mniejsze niż 0,1. Zanieczyszczenie w tych przeglądach przesunięcia ku czerwieni przez galaktyki, które nie należą do głównej gromady, jest dalekie od pomijalnego, tj. około 25%. Jednak większość przeglądów przesunięć ku czerwieni zawiera przestrzennie zwartą gromadę, do której należy co najmniej 50% galaktyk ze zmierzonymi przesunięciami ku czerwieni. Tylko około 10% kandydujących gromad wydaje się być superpozycją dwóch prawie równie bogatych (ale stosunkowo ubogich) systemów przy różnych przesunięciach ku czerwieni wzdłuż tej samej linii widzenia. W przypadku systemów zwartych przestrzennie dyspersja prędkości wykazuje globalną korelację z liczbą bogactw (klastry o większej liczbie bogactw mają średnio większe dyspersje prędkości), ale korelacja jest bardzo szeroka (co najmniej współczynnik 2 w obu wielkościach). Można by sądzić, że niepewność oszacowanych wizualnie zliczeń bogactwa jest za to odpowiedzialna, ale szerokość relacji nie zmniejsza się, jeśli użyje się zliczeń bogactwa opartych na skanowaniu maszynowym zamiast oryginalnych. Dla próbki około 150 gromad Abella z przesunięciami ku czerwieni mniejszymi niż 0,15, masy klastrów obliczono na podstawie względnych prędkości i pozycji galaktyk, zakładając, że twierdzenie wirialne zachodzi w centralnych obszarach gromad. Masy klastrów dość dobrze korelują z dyspersją prędkości, ale rozkłady mas w różnych przedziałach zliczeń bogactwa wydają się w znacznym stopniu pokrywać. Dlatego zastosowanie limitu zliczania bogactwa do próbki gromad Abella (co jest konieczne ze względów praktycznych) indukuje dość rozproszony limit masy. Gromady, a raczej kandydaci na klastry, w katalogu Abella o bogactwie co najmniej 50, są zatem podzbiorem wszystkich klastrów w zakresie mas od około 4×1013 do 2×1015MM⊙. Jednak dla klastrów o rozkładzie prędkości co najmniej 800 km s-1 zasadniczo wszystkie zliczenia bogactwa są większe niż 50. Innymi słowy, wszystkie klastry o rozkładzie prędkości co najmniej 800 km s-1 są zawarte w próbce z graniczna liczba 50, a oszacowanie ich gęstości przestrzennej jest bezstronne. Gromady z pozornymi dyspersjami prędkości większymi niż około 1200 km s-1 okazują się albo superpozycjami, albo mają dużo dynamicznej podstruktury. Wraz z pojawieniem się przeglądów rentgenowskich całego nieba, takich jak te z misji EINSTEIN (HEAO-2) i ROSAT, stało się możliwe konstruowanie kompletnych próbek gromad, dla których strumień promieniowania rentgenowskiego z gorącego gazu w studni potencjału klaster jest większy niż wartość progowa. W ten sposób powstają katalogi klastrów, które zasadniczo różnią się od katalogu Abell, a tym samym są do niego komplementarne, chociaż w pewnym stopniu się pokrywają. Masa gazu rentgenowskiego jest na ogół co najmniej tak duża, jak masa gromad galaktyk, ale łączna masa tych dwóch składników barionowych wynosi zazwyczaj tylko 10-15% masy całkowitej. Kiedy całkowitą masę gromady można oszacować zarówno na podstawie kinematyki galaktyk, jak i temperatury i jasności w promieniach rentgenowskich, te dwa oszacowania ogólnie dość dobrze się zgadzają.
Właściwości populacji galaktyk w gromadach Abella
W przeszłości zaproponowano kilka schematów klasyfikacji klastrów Abella. Wszystkie z nich podsumowują w taki czy inny sposób rozmieszczenie galaktyk w gromadzie pod względem pozycji, wielkości lub typu morfologicznego lub dowolnej ich kombinacji. Przewidywany rozkład galaktyk ma wiele form i waha się między następującymi skrajnościami. Może występować centralna koncentracja jasnych galaktyk, na ogół wczesnego typu, tj. eliptycznych, a często jedną z nich jest galaktyka cD, tj. gigantyczna eliptyczna otoczona rozciągniętą otoczką. Na drugim biegunie znajdują się klastry, które nie mają wyraźnej koncentracji centralnej. W niektórych gromadach rozkład galaktyk jest dość gładki i generalnie gromady te zawierają stosunkowo niewiele galaktyk spiralnych. Kiedy frakcja galaktyk spiralnych jest duża, rozkład galaktyk jest generalnie mniej regularny. Względne frakcje galaktyk wczesnego i późnego typu są skorelowane z liczbą bogactw, co jest przejawem relacji morfologia-gęstość. Ta ostatnia pokazuje wyraźną korelację między względnymi frakcjami galaktyk eliptycznych, soczewkowatych (S0s) i spiralnych, a (lokalną) rzutowaną gęstością galaktyk (a zatem odległością promieniową). S0 mogą stanowić do 50% w centrum, z galaktykami eliptycznymi tuż za nimi i galaktykami spiralnymi około 10%. W zewnętrznych częściach galaktyki eliptyczne są prawie nieobecne, podczas gdy galaktyki spiralne mogą stanowić do 60%. Należy zauważyć, że są to wartości globalne: poszczególne klastry wykazują znaczny rozrzut wokół nich. Chociaż w znacznej części gromad Abell rozkład galaktyk nie jest bardzo regularny lub kołowo-symetryczny, zawsze można wyprowadzić uśredniony azymutalnie rzutowany profil gęstości liczbowej Σ(R), w którym R jest rzutowaną odległością od centrum gromady, tj. najkrótsza odległość między linią widzenia przez galaktykę a centrum gromady. Zaproponowano kilka wyrażeń do matematycznego opisu Σ(R), z których wszystkie mają trzy parametry. Są to centralna wartość Σ(R), tj. ΣR = 0), charakterystyczna długość Rc (odległość, przy której Σ(R) zmniejszyła się o zadany współczynnik, powiedzmy 2) i miarę spadku Σ(R) w częściach zewnętrznych (ogólnie nachylenie logarytmiczne ? Σ(R)). Ostatnio Σ(R) została wyprowadzona dla galaktyk o różnych typach morfologicznych w około 70 bogatych gromadach Abella. W poszczególnych gromadach liczba galaktyk określonego typu jest generalnie niewystarczająca, aby umożliwić dokładne oszacowanie trzech parametrów Σ(R). Odpowiednio łącząc dane dla wielu gromad można porównać reprezentacje Σ(R) dla galaktyk eliptycznych, S0, spiralnych i galaktyk z liniami emisyjnymi (głównie bardzo 'późne' spirale, takie jak Sc i S d, ze zjonizowanym gazem w ośrodku międzygwiazdowym). Innymi słowy, poświęcając szczegółowe właściwości poszczególnych klastrów, uzyskuje się obraz średnio bogatej gromady Abella. Wydaje się, że istnieje wyraźna korelacja między typem galaktyki a Σ(R): charakterystyczna długość Rc znacznie wzrasta od wczesnego do późnego typu galaktyki (od około 0,1 do 0,5 Mpc). Pokazuje to, że galaktyki eliptyczne są rzeczywiście znacznie bardziej skoncentrowane centralnie niż galaktyki spiralne, podczas gdy galaktyki linii emisyjnych tworzą najbardziej rozległą populację. Tym różnicom muszą towarzyszyć różnice w kinematyce galaktyk różnych typów, ponieważ wszystkie klasy galaktyk poruszają się w tym samym potencjale gromady, który w większości determinowany jest przez ciemną materię. Takie różnice kinematyczne są rzeczywiście obserwowane: eliptyczne i S0 wykazują najmniejsze rozproszenie składowej ich prędkości w linii wzroku, a rozproszenie to zmienia się nieznacznie wraz z rzutowaną odległością od środka. Spirale, a w szczególności galaktyki z liniami emisyjnymi, mają większą dyspersję prędkości (nawet o 20-30%), która wyraźnie maleje wraz z większymi rzutowanymi odległościami. Właściwie kinematyka linii emisji galaktyk wskazuje, że nie przeszły one jeszcze przez gęste jądra centralne, co jest prawdopodobnie powodem, dla którego nie straciły one jeszcze gazu emitującego linie w spotkaniach z innymi galaktykami. Łącząc przewidywane rozkłady galaktyk z kinematyką, można oszacować rozkład masy całkowitej (widocznej i ciemnej) za pomocą równania dynamiki gwiazd Jeansa. Porównując rozkład ciemnej materii z jasnością galaktyk, można w zasadzie badać zmiany tak zwanego stosunku masy do światła wraz z odległością od centrum gromady. Może to dać wskazówki dotyczące szczegółów procesu powstawania, takich jak skutki zderzeń galaktyk, rola halo ciemnej materii w galaktykach itp.
Gromady Abella jako sondy kosmologiczne
Kilka właściwości obserwacyjnych gromad Abell zostało wykorzystanych do ograniczenia teorii powstawania wielkoskalowych struktur we Wszechświecie i parametrów w tych teoriach. Właściwości te obejmują rozkład przestrzenny klastrów Abella, ich kształty i masy. Wszystkie one na różne sposoby niosą ze sobą informacje o tym, w jaki sposób największe, dobrze rozwinięte struktury we wszechświecie powstały poprzez wzrost początkowych fluktuacji gęstości materii. Przestrzenny rozkład klastrów Abella przeanalizowano za pomocą dwupunktowej funkcji korelacji ξ(r), tj. ułamka par klastrów z pewną separacją, przekraczającą oczekiwaną liczbę par dla rozkładu losowego, którą wyprowadzono dla skupiska o różnym bogactwie. Ogólnie rzecz biorąc, funkcja korelacji ma postać potęgową: ξ(r) = (r/r0)-γ ; wykładnik γ (około 2) nie wydaje się zależeć od granicznej liczby bogactw, ale wartość długości korelacji r0 tak, i jest większa dla bogatszych klastrów (z charakterystyczną wartością około 20 Mpc). W zasadzie dane te pozwalają wyprowadzić wartość gęstości kosmologicznej, jak również amplitudę widma fluktuacji. Innym aspektem rozmieszczenia bogatych gromad Abella jest to, że generalnie znajdują się one w wierzchołkach, w których spotykają się arkusze i włókna w ogólnym rozmieszczeniu galaktyk. Dlatego rozkład bogatych klastrów był czasami porównywany z rozkładem wierzchołków w tak zwanych teselacjach Woronoja, które są geometrycznymi podziałami przestrzeni. Kształty gromad Abella zostały wyprowadzone z przewidywanych rozkładów galaktyk. Korzystając z pozycji galaktyk niezależnie od typu galaktyk, można obliczyć pozorną eliptyczność gromady. Ogólnie rzecz biorąc, bogatsze klastry są mniej wydłużone niż mniej bogate. Pozorne eliptyczności dla próbki gromady około 100 północnych gromad Abella sugerują, że wydłużone gromady są raczej wydłużone (podobne do cygar) niż spłaszczone. Porównanie tych danych z wynikami numerycznych obliczeń N-ciałowych może zawęzić teorie powstawania struktur. Pełny rozkład mas ograniczonej objętościowo próbki klastrów Abella (tj. jej kształtu i normalizacji) może również dostarczyć informacji dla teorii tworzenia struktur kosmologicznych. Ponieważ próbka gromad Abella o granicznej liczbie bogactw wynoszącej 50 ma raczej źle zdefiniowaną kompletność przy mniejszych masach, należy ograniczyć porównanie między obserwacjami i przewidywaniami do najbardziej masywnych gromad, dla których katalog Abella jest kompletny. Uzyskanie niezależnych informacji dla kilku parametrów w teoriach formacji, które wpływają na właściwości najbardziej masywnych struktur, nie jest wcale trywialne. Wydaje się jednak, że istnieje ogólna zgoda co do tego, że te ostatnie są bardziej zrozumiałe we wszechświecie, w którym gęstość materii jest znacznie mniejsza niż gęstość krytyczna.
Widmo absorpcyjne
Wzór ciemnych linii lub pasm nałożonych na widmo ciągłe. Kiedy ciągłe widmo promieniowania (szeroki zakres długości fal) przechodzi przez ośrodek materialny (na przykład chłodny gaz o niskim ciśnieniu), przy pewnych określonych długościach fal zachodzi selektywna absorpcja. Prowadzi to do serii spadków intensywności (linii absorpcyjnych), które w widocznym obszarze widma wyglądają jak ciemne linie na jasnym tle "tęczowego" pasma kolorów, które obejmuje widmo ciągłe. Fotony promieniowania elektromagnetycznego mogą być pochłaniane przez wzbudzenie radiacyjne, proces, który zachodzi, gdy elektron na jednym z niższych poziomów energetycznych atomu lub jonu absorbuje foton o energii dokładnie równej różnicy energii między tym poziomem a jednym z wyższych poziomów dozwolonych poziomów i w rezultacie przeskakuje (dokonuje "przejścia w górę") z poziomu niższego na wyższy. Ponieważ energia fotonu jest odwrotnie proporcjonalna do długości fali, im większa przerwa energetyczna, tym krótsza długość fali promieniowania,
które jest absorbowane, gdy elektron dokonuje określonego przejścia. Elektron zwykle nie pozostaje długo na poziomie wzbudzonym (zwykle 10-8 s). Kiedy spada ponownie, emituje foton lub fotony, które mogą mieć taką samą długość fali jak ta, która została pierwotnie wchłonięta, ale nie muszą (w zależności od tego, czy spada bezpośrednio do swojego pierwotnego poziomu, czy też opada w serii mniejszych kroków). Jeśli spada w serii kroków, z których każdy odpowiada emisji fotonu o niższej energii (i większej długości fali) niż ten, który został pierwotnie zaabsorbowany, całkowita liczba fotonów pierwotnej energii zostanie zmniejszona, a widmo zostanie wyczerpany przy długości fali wejściowej. Co więcej, chociaż wszystkie fotony wejściowe poruszały się zasadniczo w tym samym kierunku (od źródła do obserwatora), ponownie wyemitowane fotony oddalają się w przypadkowych kierunkach. W konsekwencji do obserwatora dociera znacznie mniej fotonów o długości fali absorpcji niż fotonów o innych długościach fal. Powstała
linia absorpcyjna jest ciemniejsza niż sąsiednia część widma ciągłego, ale ponieważ niektóre fotony o tej długości fali docierają do obserwatora, nie jest całkowicie czarna. Ponieważ każde dozwolone przejście odpowiada pochłanianiu światła o określonej długości fali, atomy lub jony określonego pierwiastka wytwarzają linie absorpcyjne przy wielu różnych długościach fal, przy czym każdy pierwiastek chemiczny ma swój własny charakterystyczny wzór linii absorpcyjnych "odcisków palców". Linie o najkrótszej długości fali odpowiadają największym przerwom energetycznym (tj. przejściom z najniższego, "podstawowego" poziomu atomu lub jonu). Jeśli elektron pochłonie foton o energii przekraczającej energię jonizacji (lub "potencjał jonizacji"), zostanie usunięty z atomu. Widmo absorpcyjne określonego rodzaju atomu składa się z kilku serii linii odpowiadających różnym dozwolonym przemianom, przy czym granica krótkofalowa szeregu odpowiada energiom fotonów, powyżej których zachodzi jonizacja. Ponieważ fotony jonizujące
mogą w zasadzie mieć dowolną wartość energii powyżej energii jonizacji, absorpcja może zachodzić w ciągłym zakresie długości fal, krótszym niż granica serii. Absorpcja tego rodzaju nazywana jest kontinuum absorpcji. Wyraźność ("siła") danej linii zależy od liczby atomów odpowiedniego pierwiastka chemicznego, które mają elektrony rezydujące na poziomie energii, od którego następuje odpowiednie przejście w górę (stopień wzbudzenia). To z kolei zależy od obfitości danego pierwiastka chemicznego (względny udział tego pierwiastka w substancji pochłaniającej) oraz od szeregu innych czynników, w szczególności od temperatury (im wyższa temperatura, tym większy udział elektronów w stanach wzbudzonych). Oprócz wytwarzania absorpcji poprzez przemiany elektronowe (takie jak atomy i jony), cząsteczki mogą również absorbować (lub emitować) promieniowanie, zmieniając swoje stany wibracyjne (ich składowe atomy wibrują względem siebie) lub obracając się (cząsteczka mająca kształt fizyczny , może obracać się wokół określonej
osi). Widma absorpcji molekularnej są złożone, a ich różne linie często łączą się w szersze pasma.
Akrecja
Proces, w którym ciało niebieskie zwiększa swoją masę poprzez agregację mniejszych obiektów, które się z nim zderzają. Kilka typów obiektów rośnie przez akrecję. W gwiazdach podwójnych, w których zachodzi wymiana masy, jeden członek rośnie kosztem drugiego; czarne dziury, w tym supermasywne czarne dziury, o których uważa się, że są obecne w aktywnych jądrach galaktyk, również zwiększają swoją masę poprzez akrecję. W obu przypadkach materia gromadzi się poprzez dysk akrecyjny krążący wokół obiektu akrecyjnego. Proces ten jest szczególnie ważny w procesie formowania się planet. Ziarna pyłu w dysku protoplanetarnym (lub proplydzie) wokół młodej gwiazdy zderzają się i łączą, stopniowo budując większe obiekty, które z kolei zderzają się i łączą. Obiekty akreowane w tej początkowej fazie formowania się planet, a ich rozmiary mieszczą się w przedziale od milimetrów do dziesiątek kilometrów, nazywane są planetozymalami. Gdy rozmiar obiektu można zmierzyć w kilometrach, jego własna grawitacja staje się czynnikiem akrecji. Kolizyjne łączenie się planetozymali umożliwia budowanie większych ciał, które nazywane są protoplanetami, obiektami o długości co najmniej tysiąca kilometrów. Późniejsza ewolucja protoplanet przebiega przez wzajemne zderzenia o wzrastającej sile i narastanie fragmentów powstałych w tych zderzeniach. Ciała pozostawione na orbicie gwiazdy po zakończeniu tej ostatniej fazy bombardowania nazywane są planetami.
Dyski akrecyjne
Przez akrecję rozumie się w astrofizyce akumulację materii na ciężki obiekt pod wpływem jego grawitacji. Obiektem może być na przykład gwiazda, czarna dziura lub gwiazda neutronowa. Większość obiektów tego typu jest dość odizolowana, bez dużej ilości gazu wokół, który mógłby zostać wciągnięty przez ich grawitację. W związku z tym zdecydowana większość gwiazd nie wykazuje żadnych oznak akrecji, podczas gdy większość gwiazd neutronowych i czarnych dziur w naszej galaktyce jest z tego powodu nieobserwowalna. Dyski akrecyjne, choć nieco egzotyczne w porównaniu ze zwykłymi gwiazdami lub galaktykami, przyciągają uwagę, ponieważ biorą udział w wielu bardzo widocznych zjawiskach. Obejmują one formowanie się naszego układu planetarnego i pierścieni Saturna, rentgenowskie układy podwójne w naszej galaktyce i skolimowane dżety z protogwiazd i akreujących czarnych dziur. Obserwowalne efekty akrecji mogą wahać się od skromnych do dość dramatycznych. Zależy to od ilości masy narastającej w jednostce czasu, ale jeszcze bardziej od głębokości studni potencjału pola grawitacyjnego akretora. Najprostszym modelem akrecji byłaby swobodna cząstka spadająca promieniowo do akretera z dużej odległości. Jeśli zaczyna się od spoczynku w nieskończoności, dociera do powierzchni R akretera o masie M z prędkością ucieczki ve = (GM/R)1/2. Możemy to również zapisać jako ve/c = (rg/2R)1/2, gdzie rg = 2GM/c2 = 2,8M/M⊙ km to promień Schwarzschilda o masie M. Dla gwiazdy neutronowej o M = 1,4M⊙ i R = 10 km, na przykład cząstka dotarłaby do powierzchni z prędkością około 30% prędkości światła. Akrecji na obiekty zwarte, w których M/R jest duże, towarzyszy zatem uwolnienie dużych ilości energii. Cząstka swobodna przyciągana do zwartego obiektu z dużej odległości ma tylko niewielką szansę na trafienie. Jeśli jego początkowy ruch nie jest skierowany bardzo dokładnie na obiekt, po prostu zatoczy orbitę i powróci na tę samą dużą odległość. Innymi słowy, przekrój poprzeczny dla akrecji przez wolne cząstki jest mały. Ten sam efekt odgrywa rolę, gdy rozważamy bardziej realistyczny przypadek akrecji gazu i nazywa się go "problemem momentu pędu", omówionym poniżej. Gaz akrecyjny może być na przykład dostarczany przez obłok protogwiazdy w przypadku rosnącej protogwiazdy lub przez gwiazdę towarzyszącą w układzie podwójnym. Jeśli gwiazda akreująca jest gwiazdą neutronową lub czarną dziurą, taki układ podwójny nazywa się UKŁADEM DWUKŁADOWYM PROMIENIOWANIEM RENTGENOWSKIM; jeśli jest to biały karzeł, układ podwójny nazywa się KATAKLIZMOWYM BINARNYM. Wreszcie akrecja jakiejś formy materii międzygwiezdnej na masywną czarną dziurę w jądrze galaktyki tworzy AKTYWNE JĄDRO GALAKTYCZNE (AGN). Prawie wszystkie dyski są tak małe, jak widać z Ziemi, że ich geometrię można wywnioskować jedynie pośrednio. Dyskami, które można obserwować bezpośrednio, są nasz układ planetarny, pierścienie Saturna i galaktyki spiralne. Żaden z nich nie jest jednak typowy dla gazowych dysków akrecyjnych. Nasz Układ Słoneczny jest tylko stałą pozostałością dysku akrecyjnego, który istniał podczas jego formowania. W przypadku pierścieni Saturna cząsteczki tworzące pierścienie również zachowują się bardziej jak cząstki swobodne niż jak gaz. Dyski w galaktykach spiralnych są znacznie bardziej skomplikowane niż dyski gazowe. Ponadto dyski galaktyczne nie są wystarczająco stare, aby od czasu ich powstania nagromadziły się w galaktycznym jądrze. Najlepszą perspektywą na bezpośrednie obserwowanie dysków akrecyjnych są protogwiazdy. Są to największe dyski pod względem średnicy kątowej widziane z Ziemi, a dzięki obecnie rozwijającym się obrazom w podczerwieni i falach milimetrowych o wysokiej rozdzielczości możliwe będą szczegółowe obserwacje ich struktury. Duże "proplydy" (dyski protoplanetarne) zostały sfotografowane w zakresie optycznym przez Kosmiczny Teleskop Hubble′a;. W przypadku układów podwójnych, informacji o rozmiarze, grubości i temperaturze dysku dostarczają zaćmienia. Jeśli układ podwójny jest zorientowany w taki sposób, że Ziemia znajduje się blisko swojej płaszczyzny orbity, dysk i dostarczająca masy gwiazda wtórna zaćmiewają się regularnie, gdy składniki krążą wokół siebie. Kształt krzywej blasku przy różnych długościach fal można następnie wykorzystać do określenia właściwości dysku, takich jak jego rozmiar i temperatura
Temperatury akrecji
Charakterystyczną temperaturą w problemach akrecyjnych jest temperatura wirialna,
Tv = |Φ |/R (1)
gdzie R = 8,314 × 107 erg g-1 K-1 mol-1 jest molową stałą gazową Φ głębokością studni potencjału. W odległości r od masy punktowej w grawitacji newtonowskiej Φ = ?GM/r. Gdyby cała energia kinetyczna uzyskana podczas wpadania do studni potencjału została rozproszona w energię wewnętrzną (ciepło), gaz osiągnąłby temperaturę rzędu Tv. Dla gwiazdy neutronowej Tv ∼2×1012 K, co odpowiada średniej energii cieplnej protonu rzędu 1GeV. Promieniowanie faktycznie obserwowane z systemów akrecyjnych wskazuje na znacznie niższe temperatury. Dzieje się tak dlatego, że plazma termiczna w tej temperaturze emituje energię z ogromną szybkością, znacznie większą niż może być dostarczona przez opadający gaz. Zamiast Tv gaz osiada w niższej temperaturze, tak że rozproszona energia jest z grubsza równoważona przez energię traconą przez promieniowanie. Drugą charakterystyczną temperaturę uzyskuje się przy założeniu, że promieniowanie emitowane jest jakby przez ciało doskonale czarne z powierzchni akreującego obiektu. Przyrównując jasność L = 4πr2σT4 ciała doskonale czarnego o promieniu R i temperaturze TB do energii generowanej przez akrecję z szybkością ˙M (masa na jednostkę czasu) otrzymujemy

gdzie σ = 5,6692 × 10?5 erg cm?2 K?4 s?1 jest stałą w prawie Stefana-Boltzmanna. Rzeczywiste temperatury różnią się od tego, ponieważ emitowane widmo różni się od widma ciała doskonale czarnego, powierzchnia emitująca nie jest równa powierzchni obiektu akrecyjnego lub, w przypadku czarnych dziur, większość energii akrecyjnej jest pochłaniana przez dziurę, a nie niż być napromieniowanym. Mimo to T>B często zapewnia dobrą kolejność i wielkość dla obserwowanych temperatur. Powodem jest to, że w takich przypadkach gaz akrecyjny jest optycznie gęsty, więc w wyniku powtarzających się procesów emisji i absorpcji fotonów energia akrecji jest ponownie przetwarzana na coś w rodzaju widma ciała doskonale czarnego. Dla zmiennych kataklizmicznych, protogwiazd i AGN, T>B ∼ 104-105 K, dla rentgenowskich układów podwójnych około 107K, co odpowiada energii fotonów odpowiednio 1-10 eV i 1 keV. Mogą jednak również zachodzić optycznie cienkie procesy akrecji , wytwarzające fotony o znacznie wyższych energiach.
Ciśnienie promieniowania i granica Eddingtona
Fotony uwalniane przez akreujący obiekt wywierają siłę na akreujący gaz. Poprzez rozpraszanie (lub absorpcję i reemisję) na atomie, jonie lub elektronie, zewnętrzny kierunek fotonu zmienia się na bardziej losowy. Pęd fotonów na zewnątrz jest w ten sposób przenoszony na gaz: promieniowanie wywiera siłę skierowaną na zewnątrz. Jeśli F = L/4π?r2 jest strumieniem energii radiacyjnej w odległości r, a κ nieprzezroczystością gazu (rozpraszanie plus absorpcja), przyspieszenie wywołane tą siłą wynosi grad = Fκ/c. Ta siła jest po prostu równoważona przez przyspieszenie grawitacyjne w kierunku g = GM/r2, gdy jasność L ma wartość zwaną granicą Eddingtona lub jasnością Eddingtona:
LE = 4πGMc/κ. (3)
Stałe źródło fotonów, związane grawitacją, nie może mieć jasności znacznie przekraczającej tę granicę. Przy większej jasności atmosfera źródła jest wydmuchiwana przez promieniowanie (dzieje się tak np. podczas wybuchu NOVA). Wartość jasności Eddingtona zależy od nieprzezroczystości gazu, a tym samym od jego stanu jonizacji. To zależy od masy źródła, ale nie od jego wielkości. W pobliżu zwartego obiektu w rentgenowskim układzie podwójnym gaz jest prawie całkowicie zjonizowany, zwykle o normalnym składzie gwiazdowym, a dominującym procesem promieniowania jest rozpraszanie elektronów, z nieprzezroczystością κ ∼ 0,3 cm2g-1. Granica Eddingtona wynosi zatem
LE ≈ 1,5 × 1038M/M⊙ erg s-1 (4)
W przypadku gwiazdy neutronowej o wielkości 1,4 M⊙ jest to jasność około 50 000 razy większa od Słońca. Jeśli ta jasność jest generowana przez akrecję, przyrównanie jej do energii akrecji określa współczynnik akrecji Eddingtona ˙
ME = 4πcR/κ (5)
lub około 1,5 × 10-8M⊙ yr-1 dla gwiazdy neutronowej o promieniu 10 km. Gwiazda neutronowa nie może akreować znacznie więcej. Narastające ciśnienie promieniowania zapobiegłoby dalszej akrecji, a gaz gromadziłby się w rozszerzonej atmosferze wokół gwiazdy, zamiast osiadać na powierzchni gwiazdy neutronowej. (Przy założeniu, że promieniowanie pochodzi tylko od fotonów: przy dostatecznie wysokiej temperaturze i gęstości straty energii przez neutrina stają się istotne.) Szybkość akrecji na czarną dziurę może być znacznie większa niż ˙ME. Atmosfera otaczająca dziurę nie jest podtrzymywana u podstawy, ale przepływa przez horyzont. W procesie zabiera ze sobą fotony uwięzione w gazie. W zależności od gęstości takiej atmosfery tempo akrecji może być dowolnie wysokie. Jasność widziana z Ziemi nie staje się jednak dużo większa niż LE.
Dyski
Transfer masy w systemie binarnym
Jako przykład formowania się dysku akrecyjnego rozważ układ podwójny, w którym jedna z gwiazd jest wystarczająco duża, aby wypełnić płat Roche′a, a druga jest gwiazdą zwartą (biały karzeł, gwiazda neutronowa lub czarna dziura). Gwiazda wypełniająca płat Roche′a nazywana jest drugorzędną, ponieważ jest mniej masywną gwiazdą w takich układach podwójnych. Masa wypływa z wtórnego w wewnętrznym punkcie Lagrange′a L1. Orbita hipotetycznej swobodnej cząstki z tego punktu jest pokazana na rycinie 3. Z wyjątkiem punktu bezpośrednio w L1, prędkość orbitalna jest bardzo duża w porównaniu z prędkością dźwięku gazu. W konsekwencji jego tor jest prawie balistyczny, tj. zbliżony do toru cząstki swobodnej. Ponieważ jednak chmury gazu nie mogą przepływać przez siebie, przepływ balistyczny ustaje w pierwszym punkcie przecięcia orbity. Naddźwiękowy względny ruch dwóch części strumienia gazu jest tutaj rozpraszany przez fale uderzeniowe, które ogrzewają gaz i odchylają strumień. Dalsza ewolucja strumienia zależy od dodatkowych czynników fizycznych, takich jak szybkość, z jaką gaz może się ochładzać. Przykład tego, jak może wyglądać strumień po kilku okresach orbitalnych układu podwójnego, pokazano na rycinie 4. Gaz na orbicie zgromadził się w pierścieniu; nowo przybywający gaz jest wprowadzany do pierścienia przez system fal uderzeniowych. Silnie niekołowy ruch gazu ustabilizował się na spokojniejszej orbicie kołowej; większość energii rozproszonej w procesie została wypromieniowana. Pomijając zakłócenia powodowane przez uderzający strumień i przy braku sił lepkości, gaz może krążyć po takich okrągłych orbitach w nieskończoność.
"Problem momentu pędu"
W procesie osadzania się na orbicie kołowej duża część energii jest rozpraszana, ale moment pędu gazu wokół pierwotnego nie zmienił się (pomijając poprawki spowodowane przyciąganiem grawitacyjnym wtórnego). Ponieważ orbita kołowa ma najniższą energię dla danego momentu pędu, gaz może zanurzyć się głębiej w potencjale grawitacyjnym i akreować na pierwotną tylko wtedy, gdy może stracić trochę momentu pędu. Znalezienie procesu, w którym odbywa się to w rzeczywistych układach, nazywa się problemem momentu pędu. Zilustrowaliśmy to tutaj na przykładzie transferu masy w układzie podwójnym, ale ten sam problem pojawia się w przypadku formowania się gwiazd z obłoków międzygwiazdowych lub akrecji gazu na masywnych czarnych dziurach w AGN. W tych przypadkach początkowy moment pędu spowodowany przypadkowy ruch obłoków gazu jest o wiele rzędów wielkości większy, niż może pomieścić akreujący obiekt. Zamiast akrecji bezpośrednio, gaz tworzy dysk, działając jak tymczasowa "orbita parkingowa". Orientacja dysku jest określona przez kierunek wektora całkowitego momentu pędu chmur, podczas gdy czas potrzebny na spiralne przejście gazu przez dysk zależy od procesów rozwiązujących problem momentu pędu.
Lepkie dyski
W wielu przypadkach (nowe karłowate i transjenty rentgenowskie) akrecja na zwarty obiekt ma charakter epizodyczny, w postaci rozbłysków. Rozpad takiego wybuchu dostarcza pewnych informacji na temat czasu akrecji, to znaczy czasu, jaki zajmuje gazowi spiralne przejście od gwiazdy drugorzędnej do akrecyjnej gwiazdy pierwotnej. Na przykład w przypadku nowych karłowatych czas ten wynosi kilka dni, co pokazuje, że proces przenoszenia momentu pędu pozwala na akrecję w ciągu kilku dni lub mniej masy, która jest zaangażowana w wytwarzanie wybuchu. Chociaż rzeczywiste liczby zależą od modelu, obserwacje te wskazują, że transport momentu pędu jest o 12-15 rzędów wielkości bardziej wydajny niż oczekiwano na podstawie naturalnej lepkości gazu. Proces odpowiedzialny za przenoszenie momentu pędu w dyskach nie jest do końca znany. W obliczu tej niepewności teoria dysków akrecyjnych przyjmuje arbitralne założenie dotyczące procesu transportu momentu pędu. Zakłada się, że dysk zachowuje się w efekcie jak płyn o bardzo dużej
lepkości. Taka zwiększona lepkość rzeczywiście rozwiązuje problem momentu pędu. Jako eksperyment myślowy rozpocznij od pierścienia gazu krążącego w pewnej odległości od źródła potencjału grawitacyjnego. Lepkie naprężenie między sąsiednimi orbitami obracającymi się z nieco inną prędkością powoduje, że pierścień rozszerza się zarówno na zewnątrz, jak i do wewnątrz, tworząc dysk. To rozprzestrzenianie się ma niezwykłą właściwość: jeśli jest wystarczająco dużo czasu, prawie cała masa gromadzi się na centralnym obiekcie. Niewielka ilość masy w zewnętrznych częściach dysku rozszerza się w nieskończoność, przenosząc prawie cały moment pędu pierwotnego pierścienia. Czas rozprowadzenia na określoną odległość jest odwrotnie proporcjonalny do lepkości. Charakterystyczną prędkością w dysku jest izotermiczna prędkość dźwięku cs = (RT )1/2, gdzie T jest temperaturą w płaszczyźnie środkowej dysku (powierzchnie są chłodniejsze). Częstotliwością charakterystyczną jest częstotliwość orbitalna Ω.
Nieznaną lepkość dysku ν można następnie zmierzyć za pomocą bezwymiarowej lepkości α, określonej przez
ν = αc2s/Ω . (6)
Tam, gdzie dostępne są wskazania obserwacyjne, takie jak czas zaniku wybuchu, wskazują one lepkości w zakresie α = 10-3-1. Takie wartości są następnie wykorzystywane przy dokonywaniu teoretycznych szacunków struktury dysków akrecyjnych. Założenie, że procesy transportu momentu pędu można przedstawić równaniem (6), gdzie α jest czymś rzędu jedności, nazywa się α-lepkością założenia.
Cienkie dyski
Dyski akrecyjne są zwykle chłodne, ponieważ czasy akrecji są długie i jest wystarczająco dużo czasu, aby wypromieniować rozproszoną energię grawitacyjną. Jeśli są chłodne, wpływ ciśnienia gazu jest niewielki. Aby to zobaczyć, rozważmy równanie ruchu gazu doskonałego w potencjale grawitacyjnym o masie punktowej M, Φ = ?GM/r:

gdzie v to prędkość, ρ gęstość masy, a p ciśnienie gazu. W odległości r0 charakterystyczna skala czasu t0 jest odwrotnością częstotliwości Keplera, t0 = Ω

gdzie
jest wektorem jednostkowym w kierunku promieniowym, a Tv temperaturą wirialną wprowadzoną powyżej. Dla procesów zachodzących w skali długości r0 i skali czasu t0 wyrazy w tym równaniu są rzędu jedności, z wyjątkiem członu ciśnienia, który obejmuje współczynnik T/Tv. T/Tv jest rzędu jedności, jeśli cała rozproszona energia pozostaje w gazie, ale gdy chłodzenie jest skuteczne, może być bardzo mała. Składnik ciśnienia jest wtedy mały, a gaz przepływa balistycznie w potencjale . Dysk z T/Tv << 1 obraca się w przybliżeniu po kołowych orbitach Keplera. Ruch orbitalny jest naddźwiękowy, z liczbą Macha M = Ωr/cs ∼ (Tv/T )1/2. Grubość dysku oblicza się, biorąc pod uwagę pionowy rozkład gazu na pewnej odległości r0, zakładając, że znajduje się on w równowadze hydrostatycznej w ramie obracającej się z prędkością keplerowską Ω(r0). Gaz izotermiczny j∼est następnie rozprowadzany na wysokości z nad płaszczyzną orbity jako ρ ˜ exp[?1/2(z/H)2], gdzie H jest wysokością skali, H = r0(T /Tv)1/2 = cs/Ω . Jeśli straty promieniowania są małe, dysk jest gorący, a współczynnik kształtu H/r0 jest rzędu jedności. Z drugiej strony wydajnie promieniujące dyski są chłodne i geometrycznie cienkie, H/r << 1. Przy założeniu H/r << 1 równania hydrodynamiczne dla osiowosymetrycznego, płaskiego, lepkiego dysku są proste. Do najniższego rzędu radialne równanie ruchu redukuje się do v? = Ωr. Azymutalne równanie ruchu można połączyć z równaniem ciągłości w jedno równanie rządzące gęstością powierzchniową
(9)
Zgodnie z oczekiwaniami równanie to jest typu dyfuzyjnego. Pokazuje, że dla chłodnego dysku wszystkie czynniki fizyczne wpływające na ewolucję dysku wchodzą tylko przez lepkość ?. Ta lepkość zawiera oczywiście również większość założeń dotyczących nieznanych procesów. Zwykle potrzebne są dodatkowe równania, aby określić, w jaki sposób chłodzenie radiacyjne wpływa na strukturę temperatury dysku, od której zależy ?. Dla stałej akrecji i niezbyt blisko centralnego obiektu, szybkość akrecji jest związana z lepkością o ˙
M ≈ 3πνΣ . (10)
Wysoka lepkość implikuje niską gęstość powierzchniową, ponieważ masa akrecyjna spędza niewiele czasu w dysku. Charakterystyczny czas ta dla gazu orbitującego w odległości r do akrecji to lepka skala czasu,
W przypadku chłodnych dysków jest to dużo w porównaniu z orbitalną skalą czasu. Z drugiej strony, długa skala czasowa oznacza, że dysk ma dużo czasu na ochłodzenie przez promieniowanie, więc w mechanizmie, który ustala temperaturę dysku, występuje pewna kolistość. W danej sytuacji (masa centralna, odległość) o temperaturze dysku decyduje szybkość przyrostu masy i dominujący proces chłodzenia. W niektórych przypadkach dyski mogą istnieć w jednym z dwóch stabilnych, stale akreujących stanów: chłodnego z długimi czasami akrecji i gorącego z krótkimi czasami akrecji. W innych przypadkach okazuje się, że modele dysków są niestabilne dla pewnych szybkości przenoszenia masy, oscylując między stanami wysokiej i niskiej akrecji. Szczegóły procesów chłodzenia określają, kiedy takie wielokrotne stany akrecji istnieją (patrz "Procesy radiacyjne, akrecja dwutemperaturowa" poniżej).
Niestabilność dysku
Pionowa struktura dysku jest zdeterminowana potrzebą transportu lepko rozproszonej energii do powierzchni promieniujących. Dla danej gęstości powierzchniowej Σ ta struktura określa temperaturę i lepkość dysku. W warunkach, w których proces transportu energii zmienia się szybko wraz z temperaturą, naprężenie lepkie ?Σ może zależeć niemonotycznie od powierzchniowej gęstości masy, w postaci "krzywej S", jak pokazano na rycinie 5. Jeśli średnia szybkość akrecji, która jest narzucona (na przykład przez gwiazdę wtórną przenoszącą masę) mieści się w zakresie, w którym Σ maleje wraz ze wzrostem v Σ (porównaj równanie (10)), dysk jest niestabilny. Zamiast równomiernej akrecji, wykonuje cykl graniczny, naprzemiennie między stanami wysokiej i niskiej akrecji. Zwykle warunki takie jak na rycinie 5 występują tylko w ograniczonych obszarach dysku, na przykład w obszarze częściowej jonizacji wodoru. Jeśli jednak ten region zawiera wystarczającą masę, cykl graniczny wpłynie na cały dysk. Uważa się, że jest to przyczyną wybuchów nowych karłowatych w zmiennych kataklizmicznych.
Procesy przenoszenia momentu pędu
Historycznie pomysł, że w dyskach istnieje jakaś forma turbulencji hydrodynamicznych, odegrał znaczącą rolę. Było to już częścią koncepcji Kanta i Laplace′a, którzy sugerowali, że Układ Słoneczny powstał z początkowo gazowej chmury przypominającej dysk. Jeśli ?m jest mikroskopową lepkością gazu, liczba Reynoldsa r2/?m w dysku akrecyjnym jest bardzo duża, co w mechanice płynów nazywa się sytuacją "gwałtownej turbulencji" (gdzie wysokie liczby Reynoldsa i turbulencje są uważane za równoważne). Zakłada się, że przepływ ścinający w dysku byłby niestabilny i przekształciłby się w turbulencję, jak w przepływach ścinających w laboratorium. Zostało to zakwestionowane w społeczności astrofizycznej ze względu na fakt, że przepływ w chłodnym dysku jest zbliżony do orbit Keplera, które są bardzo stabilne. W chwili pisania tego tekstu kwestia ta jest nadal kontrowersyjna, ale wydaje się całkiem możliwe, że przepływ gazów keplerowskich w rzeczywistości nie powoduje turbulencji hydrod∼ynamicznych. Ściśle analogicznym przypadkiem laboratoryjnym jest wirujący przepływ Couette′a. Co istotne, ten eksperyment nie wykazał turbulencji dla warunków odpowiadających dyskowi akrecyjnemu, w którym częstotliwość rotacji maleje wraz z odległością, ale właściwy moment pędu wzrasta (chociaż turbulencje obfitują w inne wartości parametrów). Próby wykazania turbulencji w tym przypadku za pomocą badań analitycznych lub symulacji numerycznych eksperymentu również zakończyły się niepowodzeniem. Wśród procesów, o których wiadomo, że działają, są spiralne fale uderzeniowe. W dużym dysku (w tym sensie, że promień zewnętrzny jest znacznie większy niż promień wewnętrzny) małe zaburzenie ściskające rozchodzące się do wewnątrz zmienia się w słabą falę uderzeniową. Rozproszenie podczas wstrząsu tłumi falę, ale ponieważ fala rozchodzi się również w przepływ o rosnącej prędkości, interakcja między falą a średnim przepływem przez wstrząs zwiększa jego amplitudę. W przypadku braku innych procesów tłumiących falę, szok o skończonej sile rozwija się dzięki równowadze między rozproszeniem wstrząsu a pobraniem energii ze średniego przepływu. Proces ten wytwarza niewielką ilość transportu momentu pędu, odpowiadającą α = 0,01(H/r)3/2. W przypadku dysków protogwiazdowych mieści się to w zakresie wartości wywnioskowanych z obserwacji, ale jest zbyt niskie dla zmiennych kataklizmicznych i rentgenowskich układów podwójnych. Jeśli dysk jest na tyle masywny, że grawitacja własna jest ważna, możliwy jest transport momentu pędu przez niestabilność grawitacyjną. Wewnętrzne tempo wzrostu niestabilności grawitacyjnej jest rzędu (2πG?)1/2. Jeśli jest większa niż szybkość ścinania ?Ω, niestabilność dysku może wzrosnąć; jeśli jest mniejszy, potencjalne perturbacje zostają rozerwane, zanim będą mogły się rozrosnąć. W odniesieniu do charakterystycznej masy dysku Md = 2π?r2ρH warunek ten można zapisać jako Md > MH/r. Takie dyski nazywane są samograwitującymi. Własna grawitacja jest ważniejsza w chłodnych dyskach o małym współczynniku proporcji H/r. Przy przyjętych lepkościach można oszacować masy dysków w obserwowanych układach. W przypadku rentgenowskich układów podwójnych i zmiennych kataklizmicznych okazują się one dość małe, mniejsze niż 10-8 M⊙ , a grawitacja własna nie ma znaczenia. Natomiast w zewnętrznych częściach dysków w AGN, a w szczególności w dyskach protogwiazdowych, istotna może być grawitacja własna. W takim przypadku rozważmy chłodzenie dysku przez promieniowanie, tak że H/r maleje z czasem. Po osiągnięciu progu niestabilności powstają nieosiowosymetryczne nieregularności o skalach długości rzędu H, które wywierają na siebie siły. Przepływ ścinający działający na te siły rozprasza energię, która z kolei ogrzewa dysk. Równowaga zostaje osiągnięta w temperaturze tuż powyżej progu niestabilności grawitacyjnej, a moment pędu jest przenoszony przez siły grawitacji i ciśnienia między zaburzeniami. Proces ten prawdopodobnie będzie ważny w przypadku młodych dysków protogwiazd, o masach rzędu kilku procent masy Słońca. Obecnie ulubiony proces dysków niegrawitujących polega na tym, że większość dysków jest częściowo lub całkowicie zjonizowana, a zatem wspiera pola magnetyczne. Możliwość, że rzeczywisty transport momentu pędu w dyskach jest wykonywany przez jakąś formę pola magnetycznego o małej skali, została już zaproponowane przez Shakura i Sunyaev wraz z wprowadzeniem przez nich założenia α-lepkości. Można wykazać, że początkowo słabe pole magnetyczne w dysku akrecyjnym jest niestabilne, a jego gęstość energii rośnie poprzez pobieranie energii z przepływu ścinającego. Matematyka tego procesu została obliczona około 1960 roku przez Velikhova i Chandrasekhara, jego fizyczną interpretację podali Fricke w 1972 roku, a jego znaczenie dla dysków akrecyjnych ostatecznie zrealizowali Balbus i Hawley w 1992 roku. Liczne trójwymiarowe symulacje numeryczne od tego czasu pokazały, jak ta niestabilność daje powstanie postulowanej wcześniej turbulencji magnetycznej. Dla wystarczająco zjonizowanych dysków proces daje efektywną lepkość α ˜ 0,1. Jest to pole magnetyczne o małej skali, ze skalą długości w kierunku promieniowym rzędu grubości dysku H i wydaje się zachowywać z grubsza zgodnie z oczekiwaniami procesu lepkiego. Wydaje się, że pole magnetyczne przełamuje ograniczenia dynamiczne, które zapobiegają turbulencji przepływu keplerowskiego za pomocą środków czysto hydrodynamicznych. Pod pewnymi względami proces ten przypomina zaproponowaną wcześniej turbulencję hydrodynamiczną, ale różni się też w ważnych aspektach. Na przykład transport momentu pędu jest zdominowany przez naprężenia magnetyczne (Maxwella), a nie przez ruchy płynu.
Planety wewnątrz dysków
Planety wyrastają z dysku protogwiazdy w tym samym czasie, w którym powstaje gwiazda . Planeta taka jak Jowisz jest wystarczająco masywna, aby znacząco wpłynąć na dynamikę tego dysku. Dzięki efektowi pływowemu usuwa szczelinę, obszar o niskiej gęstości gazu wokół swojej orbity, jak pokazano na rycinie 6. Siła pływowa wzbudza fale w dysku, które rozchodzą się z dala od planety. Poprzez siły pływowe, planeta przyciąga gaz z boków szczeliny, który gromadzi się na niej w postaci dwóch strumieni. Z drugiej strony dysk wywiera również na planetę moment grawitacyjny. Pod wpływem tej siły zmienia się moment pędu planety. Porusza się na inną orbitę, zwykle bliżej gwiazdy. Planety w naszym Układzie Słonecznym prawdopodobnie nie znajdują się zatem w odległościach, w których rozpoczęło się ich formowanie. Ekstremalnym przykładem tego procesu "dryfujących planet" mogą być masywne planety obserwowane na bardzo ciasnych orbitach wokół niektórych pobliskich gwiazd
Procesy radiacyjne, akrecja dwutemperaturowa
Promieniowanie wytwarzane przez dysk zależy od jego grubości optycznej τ . Energia uwolniona w dysku w wyniku rozpraszania lepkości, na jednostkę powierzchni i czasu, w odległości r od centralnej masy M jest rzędu W = GMM˙/r3. Ciepło to rozprasza się przez promieniowanie. Jeśli τ (dokładniej grubość optyczna dla procesów absorpcji) jest duże, promieniowanie emitowane na powierzchnię jest w przybliżeniu widmem ciała doskonale czarnego. Przybliżona temperatura powierzchni Ts chłodnego optycznie grubego dysku jest następnie określona równaniem (2), gdzie R zastąpiono odległością r. Jeśli akrecja jest stała, tak że ˙M jest niezależne od r, przewidywana temperatura zmienia się jako r-3/4. W przypadku dysków protogwiazdowych i dysków w zmiennych kataklizmicznych temperatury te są zbliżone do normalnych powierzchni gwiazd, a te same procesy promieniowania decydują o szczegółach emitowanego widma. Podczas akrecji czarnych dziur i gwiazd neutronowych przewidywane temperatury s∼∼ą rzędu 1 keV (107 K). Rzeczywiście, widma rentgenowskie tych obiektów często pokazują składową, która zgadza się z tą prognozą. Zwykle jednak występuje dodatkowy twardy składnik znacznie bardziej energetycznych fotonów, około 100 keV. Często dominuje w promieniowanej energii. W tych układach podwójnych znajduje się dodatkowy składnik plazmy akrecyjnej, który zachowuje się inaczej niż optycznie gruby dysk. Dokładna natura tej plazmy jest jednym z klasycznych problemów astronomii rentgenowskiej, który w chwili pisania tego tekstu nie został całkowicie rozwiązany. Z obserwowanego widma wydaje się, że jest to plazma termiczna o niewielkiej grubości optycznej (τ ˜) i temperaturze około 100 keV, znacznie wyższej niż chłodny dysk. Głównym procesem wytwarzania twardych fotonów w takich warunkach jest odwrotne rozpraszanie Comptona miękkich fotonów przez gorące elektrony. W sąsiedztwie czarnych dziur i gwiazd neutronowych akrecja jest możliwa nie tylko przez chłodny optycznie gruby dysk. Teoria przewiduje również możliwość akrecji poprzez stan gorący (por. omówienie powyżej w części "Cienkie dyski"). W tym stanie protony mają temperaturę zbliżoną do temperatury wirialnej, podczas gdy elektrony są znacznie chłodniejsze. Przepływ akrecyjny jest geometrycznie gruby (H/r ˜ 1), ale optycznie cienki. W tych warunkach oddziaływania kulombowskie między jonami i elektronami mogą być powolne w porównaniu z czasem akrecji (w zależności od szybkości akrecji i parametru lepkości). Ponieważ elektrony promieniują znacznie wydajniej i są nieefektywnie ogrzewane przez jony, pozostają znacznie chłodniejsze niż jony: plazma akrecyjna nie jest w równowadze termicznej. Szybkość interakcji Coulomba maleje wraz ze wzrostem temperatury elektronu, podczas gdy straty promieniowania przez odwrotny Compton i promieniowanie synchrotronowe rosną. W przepływie o niewielkiej głębokości optycznej odwrotne straty Comptona rosną wykładniczo powyżej około 100 keV, więc jest to nieco naturalna temperatura aby spodziewać się emitowanego promieniowania. Możliwość takiego dwutemperaturowego przepływu akrecyjnego w celu wyjaśnienia twardych widm rentgenowskich układów podwójnych została już zaproponowana na początku ery astronomii rentgenowskiej. Geometria takiego przepływu i charakter jego interakcji z komponentem chłodnego dysku są jednak nadal niepewne.
Dżety z dysków
Wydaje się, że większość systemów z dyskami akrecyjnymi jest zdolna do wytwarzania silnie skolimowanych wypływów zwanych dżetami, przynajmniej w niektórych okresach swojego istnienia . Dżety z relatywistyczną prędkością przepływu są znane z akrecyjnych czarnych dziur, zarówno dziur o masie gwiazdowej w rentgenowskich układach podwójnych, jak i masywnych dziur w AGN. Dżety o mniejszych prędkościach są wytwarzane przez protogwiazdy. Są również znane z co najmniej jednej akrecyjnej gwiazdy neutronowej (Cir X-1) i akrecyjnego białego karła (R Aqr). Związek między dyskami i dżetami jest zatem sugestywny, ale jednocześnie zagadkowy. Chociaż dżety zawsze wydają się być kojarzone z systemami akrecyjnymi, w których istnieją bezpośrednie lub pośrednie dowody na istnienie dysku, nie wszystkie systemy z dyskami wytwarzają dżety lub nie zawsze. Dobrym przykładem są OBIEKTY HERBIG-HARO wytwarzane przez dżety z protogwiazd, które wyraźnie pokazują, że dżety w tym przypadku są epizodyczne lub wysoce zmienne w czasie.
Podsumowanie typów dysków
W skali gwiezdnej dyski są wytwarzane w układach podwójnych przez przelewanie się gazu z jednego ze składników na drugi. Rozmiary tych dysków są tak duże, jak normalne gwiazdy, od kilku dziesiątych do kilku promieni słonecznych. Jeśli gwiazda pierwotna (gwiazda odbierająca masę) jest białym karłem, tak jak w zmiennych kataklizmicznych, wewnętrzne części dysku promieniują głównie w zakresie UV, a zewnętrzne w świetle widzialnym. Przenoszenie masy przez te dyski jest często niestabilne, powodując wybuchy nowych karłowatych. Jeśli pierwotną jest gwiazda neutronowa lub czarna dziura o masie gwiazdowej, wewnętrzny dysk promieniuje w promieniach rentgenowskich. Transfer masy w tych dyskach jest również niestabilny przy niskich szybkościach transferu, powodując tak zwane miękkie transjenty rentgenowskie. Czasami wytwarzają dżety z relatywistycznymi prędkościami. Dyski wokół gwiazd w procesie formowania, dyski protogwiazdowe, są znacznie większe (około 100 jednostek astronomicznych). Ich wewnętrzne regiony promieniują w zakresie widzialnym, a zewnętrzne w zakresie fal radiowych i podczerwonych. Prawdopodobnie są również niestabilne, powodując wybuchy FU Ori i są związane z dżetami i obiektami Herbiga-Haro. Dyski w AGN obracają się wokół masywnych ((106-109)M ) czarnych dziur w centrach aktywnych galaktyk. Ich centralne obszary promieniują zarówno w zakresie UV, jak i rentgenowskim i często wytwarzają relatywistyczne dżety obserwowane w dwupłatowych źródłach radiowych. Ich rozmiary są nieco niepewne, ale prawdopodobnie rzędu parseka lub większe. Dyski są również widoczne wokół BE STARS. Uważa się, że masa w tych dyskach jest powoli wyrzucana przez szybko obracającą się gwiazdę. Niektóre z ich właściwości są podobne do dysków akrecyjnych, ale z masą raczej odpływającą niż akrecyjną na gwiazdę. Czasami nazywane są dyskami wydalającymi lub wydalającymi.
Aktywne jądra galaktyczne: zmienność
Badania zmienności miały zasadnicze znaczenie dla zrozumienia fizyki AKTYWNYCH JĄDR GALAKTYCZNYCH, AGN, ponieważ rozmiar obszaru emitującego ogromną ilość energii charakterystycznej dla AGN jest zbyt mały, aby można go było rozdzielić nawet za pomocą istniejących lub planowanych INTERFEROMETRÓW optycznych/podczerwonych (IR). AGN emitują promieniowanie kontinuum pochodzące z okolic CZARNA DZIURA. Emitują również intensywne i szerokie linie emisyjne pochodzące z szybko poruszających się chmur gazu znajdujących się w małym obszarze wokół źródła kontinuum: regionie szerokich linii lub BLR. Poziom strumienia kontinuum i intensywność widmowych linii emisyjnych emitowanych przez AGN podlegają zmianom w skali czasowej od godzin do lat, w zależności od zakresu energii i wewnętrznej jasności AGN. Kiedy strumień emitowany przez źródło energii zmienia się znacząco (powiedzmy o współczynnik 2) w skali czasu t, ta zmiana strumienia wyznacza granicę rozmiaru R obszaru emitującego, tak że R ≤ ct. W AGN połączenie ogromnej ilości emitowanej energii i bardzo małych rozmiarów obszarów emisji określonych przez krótką skalę czasową zmienności nie jest zgodne z energią wytwarzaną w normalnych procesach gwiezdnych. Najpopularniejszym modelem produkcji energii w AGN i podstawą obecnego paradygmatu jest to, że AGN/kwazary są zasilane przez akrecję materii na SUPERMASYWNĄ CZARNA DZIURĘ. Przy wyższych energiach fotonów obserwuje się szybszą i większą zmienność amplitudy, m.in. zdjęcia rentgenowskie są różne niż optyczne. Skale czasowe zmienności są zwykle dłuższe w obiektach z natury rzeczy jaśniejszych. Skale czasowe oraz korelacje i opóźnienia między zmianami strumienia kontinuum i różnymi intensywnościami linii widmowych dostarczają informacji o naturze procesów fizycznych emitujących linie i kontinuum oraz o lokalizacji regionów, z których one pochodzą. Termin AGN jest tutaj używany niezależnie od przesunięcia ku czerwieni i jasności, a zatem obejmuje terminy Seyfert 1 i QSO lub kwazar, które są często używane do oddzielnego oznaczania AGN o średniej i wysokiej jasności. Ogólnie rzecz biorąc, dla 1 Seyferta dostępnych jest więcej danych o wyższej jakości niż dla kwazarów. Powodem jest to, że jest ich wiele, a całkiem sporo znajduje się w odległości 100 Mpc od Ziemi i można je łatwo zaobserwować za pomocą obecnego instrumentarium. Natomiast kwazary są rzadkie, a nawet te najbliższe znajdują się w tak dużych odległościach od nas, że strumień odbierany na Ziemi jest znacznie mniejszy niż z 1s Seyferta (jest jeden wyjątek, 3C 273). Podsumowując, zasób wiedzy o zmienności AGN jest zdominowany przez obserwacje Seyferta 1s, które doprowadziły do modeli fizycznych, które w zadowalający sposób wyjaśniają obserwowane zjawiska. Pozostaje zbadać, w jaki sposób modele te odnoszą się do znacznie jaśniejszego i znacznie słabszego AGN. AGN, które są przedmiotem tego artykułu, to te, w których centralne źródło promieniowania optycznego, UV i rentgenowskiego jest obserwowane bezpośrednio i gdzie zmiany nie są wzmacniane przez efekty relatywistyczne . W przypadku prawie tuzina Seyferta 1, a zwłaszcza trzech z nich (NGC 4151, NGC 5548 i NGC 7469) oraz kwazara 3C 273, duża międzynarodowa współpraca zorganizowała długie, spójne kampanie obserwacyjne, niektóre obejmujące jednoczesne obserwacje w zakresie optycznym, Zakresy promieniowania UV i rentgenowskiego, generujące duże ilości danych o jednolitej jakości i gromadzonych z optymalnym czasem próbkowania. Szereg 1 Seyferta (∿30) było monitorowanych mniej intensywnie, ale wciąż wystarczająco, aby ustalić, że wyniki z najlepiej zbadanych 1 Seyferta są reprezentatywne.
Zmienność strumienia kontinuum
Widmo elektromagnetyczne (widmo kontinuum) radio-cichego AGN, po odjęciu kontinuum gwiazd emitowanego przez galaktykę macierzystą, rozciąga się od ∿1 mm do ∿100 keV z wyraźnym szerokim pikiem w zakresie ekstremalnego UV (EUV) i drugorzędny pik w IR . Emisja promieniowania rentgenowskiego jest zdominowana przez składową prawa mocy (1-10 keV; α ≃ 0,9 gdzie f? ∝ ? ? α), która narasta w zakresie twardego promieniowania rentgenowskiego (> 50 keV), prawdopodobnie z odcięciem około 100 keV. Przypomnijmy tutaj, że w teorii dysków akrecyjnych, narosła materia wiruje w kierunku centrum pod wpływem przyciągania grawitacyjnego czarnej dziury. Sprawa jednak nie toczy się swobodnie. Ma wewnętrzne naprężenie (najprawdopodobniej pochodzenia magnetycznego), którego rozpraszanie wytwarza ciepło, a także wyznacza skalę czasową propagacji narosłej materii w kierunku centrum. Astronomowie mówią o ogrzewaniu dysku przez lepkość i o lepkich skalach czasowych, a teoretycy mogą obliczyć energię wytwarzaną przez lepkość, wynikające z tego widmo emitowane przez dysk oraz skale czasowe, w których zmienia się promieniowanie z dysku w odpowiedzi na zmieniającą się szybkość akrecji (DYSK AKRECJI). Obserwowany kształt widmowy kontinuum AGN w zakresie 1200-5000 Å (lub 10-2,5 eV) jest z grubsza zgodny z emisją termiczną z dysku akrecyjnego. Jednak wahania strumienia kontinuum UV występują w skalach czasowych dni, tygodni lub miesięcy, które są o wiele rzędów wielkości krótsze niż skale czasowe oczekiwane na podstawie zmian tempa narastania. Co ciekawe, w NGC 4151 i NGC 5548 strumień promieniowania rentgenowskiego o średniej energii (2-10 keV) oraz strumień optyczny/UV zmieniają się jednocześnie , przy czym wahania wysokoenergetyczne są znacznie większe niż wahania niskoenergetyczne. Podsumowując, obserwacje te sugerują model, w którym powierzchnia dysku jest naświetlana przez centralne zmienne źródło promieniowania rentgenowskiego. Uważa się, że sama zmienność źródła promieniowania rentgenowskiego jest spowodowana wybuchowymi ponownymi połączeniami linii pola magnetycznego przenikających dysk akrecyjny i koronę (gaz gorących elektronów otaczający centralne części dysku) poprzez zjawisko przypominające rozbłyski słoneczne w korona słoneczna. Znaczna część energii akrecji jest zużywana w ten sposób na ogrzewanie korony. Gorące elektrony przenoszą część swojej energii na otaczające fotony UV (emitowane przez dysk) i miękkie fotony rentgenowskie oraz wytwarzają fotony rentgenowskie o średniej i twardej energii poprzez odwrotną emisję Comptona. Ten "model komtonizacji i ponownego przetwarzania" wyjaśnia prostą korelację między promieniowaniem rentgenowskim a emisją UV w krótkich skalach czasowych w NGC 4151 i NGC 5548, a także wyjaśnia średnie nachylenie widma rentgenowskiego, granica wysokoenergetyczna i inne cechy widm rentgenowskich AGN. Ale życie nie jest takie proste, a dobra korelacja między promieniowaniem rentgenowskim a strumieniem UV obserwowana w NGC 4151 i NGC 5548 mogła być szczęśliwym zbiegiem okoliczności w skomplikowanej interakcji między gorącym gazem elektronowym, fotonami UV i fotonami rentgenowskimi ("który jest kurczakiem, a który jajkiem?"). W rzeczywistości, w trzecim jądrze Seyferta 1 intensywnie obserwowanym jednocześnie w promieniach UV i rentgenowskim, NGC 7469, zmiany UV czasami pozostają w tyle za zmianami rentgenowskimi, a czasami są jednoczesne ze zmianami rentgenowskimi. Ten przypadek stawia poważne wątpliwości co do przedstawionego wcześniej obrazu ponownego przetwarzania. Bliższe przyjrzenie się danym ujawnia jednak uderzające podobieństwo zmian w dwóch zakresach energii, co sugeruje podstawowy związek między emisją w dwóch zakresach energii, np. jak ogólnie zapewnia Comptonization. Najbardziej ekstremalna zmienność miękkiego promieniowania rentgenowskiego występuje w wąskich galaktykach Seyferta 1 (NLS1), podzbiorze AGN z bardzo intensywną emisją miękkiego promieniowania rentgenowskiego i bardzo stromymi widmami miękkiego promieniowania rentgenowskiego, wąskimi optycznymi liniami emisyjnymi i wyraźną optyczną emisją Fe II . Aby wyjaśnić brak szerokich linii w NLS1, zaproponowano, że intensywne miękkie promieniowanie rentgenowskie może zdmuchnąć wewnętrzny obszar szerokich linii (BLR) lub zjonizować go do stanów obecnie niewykrywalnych. Strome widmo miękkiego promieniowania rentgenowskiego NLS1 może wskazywać na dużą szybkość akrecji lub małą masę czarnej dziury. Przechodząc teraz do zakresu podczerwieni, zmiany, jeśli w ogóle zostaną wykryte, mają mniejszą amplitudę i dłuższą skalę czasową niż w zakresie optycznym i są zgodne z opóźnioną reakcją pyłu wokół centralnego źródła na długoterminowe zmiany promieniowania UV i strumień kontinuum rentgenowskiego.
Zmiany linii emisji
Metoda szacowania masy czarnej dziury
Monitorowanie zmian strumienia kontinuum i intensywności linii widmowych kilku jedynk Seyferta wykazało, że intensywności linii widmowych naśladują zmiany kontinuum optycznego/UV, ale z pewnym opóźnieniem czasowym τ. Opóźnienie to jest interpretowane jako czas potrzebny, aby światło ze źródła centralnego kontinuum znajdującego się w bezpośrednim sąsiedztwie czarnej dziury dotarło do obłoków gazowych emitujących linie widmowe (i znajdujących się wokół źródła centralnego kontinuum) i zwiększyło lub zmniejszyło emisyjność gaz . Opóźnienie czasowe τ jest miarą odległości d ∿ cτ chmur gazu emitującego linie od centralnego źródła kontinuum. Metodę tę można rozszerzyć, aby mapować obszar emisji liniowej i jest ona znana jako "mapowanie pogłosu". Zgrubne oszacowanie masy centralnej czarnej dziury można następnie obliczyć na podstawie zmian zmiennej składowej linii emisyjnej, łącząc szerokość składowej (która daje prędkość wirialną obłoków gazu) i τ (co jest opóźnieniem o w którym zmiany
składników następują po zmianach kontinuum). Założenie, że ruchy chmur są ruchami orbitalnymi w polu grawitacyjnym czarnej dziury, jest mocno poparte faktem, że niebieskie i czerwone skrzydło dowolnej linii lub składowej linii zmieniają się razem (tzn. jedno skrzydło nie zmienia się przed ani po drugim jeden, na pierwsze zamówienie; patrz poniżej). Ta metoda wyznaczania masy centralnej czarnej dziury została zastosowana do kilkunastu AGN i daje wartości w przedziale od kilku 106M⊙ do kilku 108M⊙ . Pole prędkości gazu Jednym z kluczowych elementów wniesionych przez badania lotności jest to, że najszersze linie emisyjne zmieniają się z największą amplitudą iw najkrótszej skali czasowej, co wskazuje, że najszybciej poruszający się gaz znajduje się najbliżej środka. Szczegółowe zmiany intensywności i profilu linii dostarczają odpowiedzi na kluczowe dla określenia masy pytanie, czy obłoki są związane grawitacyjnie z centralną czarną dziurą: Zmiany profilu
linii nie pokazują systematycznego wpływu jednej skrzydło reaguje przed drugim, czego można by się spodziewać w przypadku przepływów promieniowych: zaobserwowano, że niebieskie skrzydło zmienia się jako pierwsze w przypadku przepływów na zewnątrz i wiatrów kulistych, a skrzydło czerwone byłoby obserwowane jako pierwsze w przypadku akrecji sferycznej. To oraz fakt, że najszybciej poruszający się gaz znajduje się najbliżej środka, mocno sugeruje, że chmury o wysokiej jonizacji znajdują się w ruchu orbitalnym (ruchy chaotyczne lub rotacyjne) w polu grawitacyjnym czarnej dziury, z jedynie niewielkimi składnikami opadania netto lub odpływ. Ruchy chaotyczne są wykluczone, ponieważ chmury gazu zostałyby zniszczone podczas przechodzenia przez dysk akrecyjny. Najbardziej szczegółowe wyniki dotyczące pola prędkości w BLR pochodzą z intensywnego monitorowania profilu linii C IV podczas miesiąca życia NGC 4151′, z prawie całkowitym próbkowaniem 1 d w odstępie 35 dni. Analiza zmian w każdym przedziale prędkości w profilu linii C IV pokazuje, że zmiany są zgodne z ruchami grawitacyjnymi wokół masy około 107 M . Wartość ta zgadza się z wartością wynikającą z obserwacji całego widma UV NGC 4151 w innych epokach, które wykazują liniową zależność między czasem odpowiedzi linii a odwrotnością kwadratu szerokości linii. Podobne badanie NGC5548 daje masę (5 ± 3) × 107 M⊙ . Należy zauważyć, że zarówno w NGC 5548, jak i NGC 4151 istnieje prawdopodobnie słaba sygnatura składnika opadającego. Inne AGN dają spójne wyniki (choć mniej szczegółowe) i wstępnie stwierdza się, że szerokość linii jest zdominowana przez rotację. Stanowi to podstawę oszacowania masy czarnej dziury na podstawie odpowiedzi intensywności linii emisyjnych na zmiany strumienia kontinuum. Niepewność związana z tą metodą jest trudna do oszacowania i prawdopodobnie jest mniejsza niż współczynnik 10.
Model "dysku i wiatru".
W widmach AGN występują linie niskojonizacyjne, takie jak linie Balmera i linie Fe II i Mg II oraz linie highionizacji (najsilniejsze są linie C IV, N V, He II, Si IV). Z interpretacji obserwacji wynika, że linie o niskiej jonizacji pochodzą od płaskiego skupiska bardzo gęstych chmur (Ne ≥ 1011 cm-3 i całkowitej grubości optycznej 1024 cm-2), które utożsamiane są z częścią stosunkowo chłodną (temperatura powierzchni 5000 K) dysku akrecyjnego. Natomiast linie o wysokiej jonizacji pochodzą ze stosunkowo bardziej rozcieńczonego ośrodka, powyżej i poniżej dysku, przy czym linie najbardziej zjonizowanych pierwiastków są najszersze. Wskazuje to, że stopień jonizacji jest skorelowany z prędkością gazu. Co ciekawe, linie o wysokiej jonizacji nie znajdują się dokładnie na przesunięciu ku czerwieni linii o niskiej jonizacji (emitowanych przez dysk akrecyjny), które same znajdują się na przesunięciu ku czerwieni galaktyki macierzystej. Są przesunięte w kierunku błękitu (od 0 do ∿ 1500 km s-1) w stosunku do dysku i galaktyki macierzystej, co wskazuje, że silnie zjonizowany gaz płynie w naszą stronę. (Dzięki symetrii przepływ prawdopodobnie oddala się od nas, po drugiej stronie dysku, ale jest niewidoczny, ponieważ dysk jest nieprzezroczysty). Połączenie rotacji i wypływu z dysku sugeruje i jest zgodne z modelem, w którym linie o wysokiej jonizacji są emitowane przez chmury gazu wyłaniające się z dysku, wciąż zachowując dużą część momentu pędu, który gaz miał w dysku. Takie ruchy są przewidywane przez magnetohydrodynamiczny model dysków akrecyjnych, w których wiatry przyspieszone magnetycznie powstają z włókien wyciągniętych z pierwotnie gęstego, nisko zjonizowanego materiału dysku akrecyjnego i poddanych intensywnemu centralnemu polu jonizującemu. Tworzy to silnie zjonizowany wiatr nad i pod dyskiem. Fizyka tych zjawisk jest jednak skomplikowana i wiele cech tego obiecującego modelu pozostaje obecnie nieokreślonych.
Bieżące problemy i przyszły rozwój
Pozostaje wiele pytań i ekscytujących dróg dochodzenia. Po pierwsze, należy energicznie kontynuować teoretyczne badania efektów magnetohydrodynamicznych, które wraz z polem grawitacyjnym czarnej dziury dominują w fizyce w jej otoczeniu. Po drugie, zjawisko zmienności zostało najlepiej zaobserwowane i najlepiej zrozumiane w przypadku średniej jasności AGN (jasność całkowita L ∿ 1042 - 1045 erg s-1), ale dane zmienności dotyczące potężnych kwazarów (do 1049 erg-1) i przy bardzo małej jasności AGN (1039 erg s-1) jest wciąż bardzo mało. Na szczęście trwają stosowne obserwacje. Umożliwią one zbadanie całej przestrzeni parametrów definiowanej masą czarnej dziury i szybkością akrecji oraz zrozumienie specyfiki procesu akrecji w różnych obszarach tej przestrzeni parametrów (np. adwekcji, akrecji pojedynczych gwiazd, super- współczynnik akrecji Eddingtona). Wreszcie, chociaż ten artykuł koncentruje się na bezpośrednio obserwowalnej zmienności AGN, tj. występującej w skali czasowej od godzin do lat, wskazuje się, że inne zjawiska zmienności muszą zachodzić w dłuższych skalach czasowych, powiedzmy 102, 106 lub 109 lat. Szczególnie istotne w tym kontekście jest niedawne odkrycie (na podstawie pomiarów prędkości gwiazd w jądrach pobliskich galaktyk), że czarne dziury prawdopodobnie znajdują się w centrach nieaktywnych galaktyk, w tym w naszej Galaktyce, o masach mniej więcej w ten sam zakres wartości, co te określone w badaniach AGN. W naturalny sposób powstaje wtedy wiele pytań, takich jak to, czy AGN mogą być powtarzającymi się zjawiskami z fazami uśpienia i czy mogą być napędzane gazem wytwarzanym w wyniku ewolucji gwiazd w galaktyce macierzystej, czy też akreowana materia zawsze pochodzi spoza galaktyki macierzystej .
Aktywne galaktyki: Obserwacje
"Galaktyka aktywna" to ogólny termin odnoszący się do każdej galaktyki, która wytwarza znaczną emisję poza emisją swoich gwiazd składowych, gwiezdnych pozostałości i ośrodka międzygwiazdowego. Charakterystyka takich galaktyk jako "aktywnych" wynika z tego, że zazwyczaj zakłada się, że niezwykłe właściwości emisji są związane z wysokoenergetycznymi zjawiskami erupcyjnymi. Najwcześniejszy konsekwentny użytkownik wydaje się, że słowo "aktywność" w odniesieniu do jąder galaktyk pochodziło z V A Ambartsumian. W większości przypadków ta niegwiazdowa emisja wydaje się pochodzić z samego centrum lub jądra galaktyki, a źródła te są ogólnie znane jako "aktywne jądra galaktyczne" (AGN). Galaktyka zawierająca takie źródło jest znana jako host AGN. Historycznie rzecz biorąc, niektóre inne rodzaje źródeł, takie jak GALAXY STARBURST, które mają pewne fenomenologiczne podobieństwa do AGN (np. silna emisja bliskiego UV), były również znane jako aktywne galaktyki, chociaż w tych przypadkach aktywność może nie ograniczać się do regionów jądrowych . AGN to najjaśniejsze źródła o długiej żywotności wszechświata. Emitują silne promieniowanie w całym obserwowalnym zakresie długości fal, od promieniowania rentgenowskiego i promieniowania γ po fale radiowe o dużej długości. Pełen obraz emisji AGN można uzyskać jedynie obserwując go na wielu długościach fal, najlepiej jednocześnie w całym widmie, ponieważ są to źródła zmienne. Istnieje wiele różnych klas AGN; GALAKTYKI SEYFERTA stanowią niskojasny koniec zjawiska AGN, czyli ich jasność jąder jest z grubsza porównywalna z całkowitym światłem gwiazd z galaktyki macierzystej. AGN o wyższej jasności są znane jako "kwazary" lub "obiekty quasi-gwiazdowe" (QSO), przy czym te pierwsze są zarezerwowane (pierwotnie) dla silniejszych źródeł radiowych, a te drugie słabsze; w takich przypadkach światło optyczne z AGN może przekraczać, czasami ponad 100-krotnie, światło gwiazdowe z galaktyki macierzystej na wszystkich długościach fal. W ramach tych grup istnieje wiele różnych podklas, opartych na względnym znaczeniu optycznych linii emisyjnych UV, właściwościach radiowych i polaryzacji. W razie potrzeby zostaną one wymienione poniżej. W tej sekcji omówiony zostanie aktualny stan obserwacji w widmie elektromagnetycznym. Najpierw omówimy ciągłą emisję AGN pod względem ich "widmowych rozkładów energii" (SED), tj. ilości energii emitowanej w różnych pasmach fal. Następnie skupiamy się na widocznych liniach emisyjnych, które są wykrywane w widmach UV-optycznych (a ostatnio rentgenowskich) większości AGN, a następnie z krótkim opisem cech absorpcji w widmach AGN. Omówiono również przestrzennie rozdzielone struktury w AGN.
Widmowe rozkłady energii
SED normalnych gwiazd (i galaktyk) są dobrze przybliżone jako ciała doskonale czarne w zakresie temperatur . Dane Elvisa i innych, a zatem ich emisja jest silnie skoncentrowana w części widma od ultrafioletu (UV) do bliskiej podczerwieni (IR). W przeciwieństwie do tego, AGN emitują porównywalną energię (na jednostkę szerokości pasma logarytmicznego) w większości obserwowalnego widma. Jedynym wyjątkiem jest region radiowy, w którym AGN "radioloud" (RL) mają około 3 rzędów wielkości jaśniejszy niż ich "ciche radiowo" odpowiedniki (RQ). Te RLAGN stanowią ∼10% populacji. Rysunek

przedstawia medianę SED niskiego przesunięcia ku czerwieni dla obiektów RL i RQ z próbki ponad 40 AGN. Jest on wykreślany jako log (νLν ) w funkcji log ν, co pokazuje moc wyjściową energii w każdym paśmie fal, a także podkreśla ważną strukturę w SED. Nasza wiedza na temat tych SED jest ograniczona przez obecną technologię obserwacyjną do jasnych źródeł o dość niskim przesunięciu ku czerwieni i obejmuje (jak widać na rysunku ) ważne luki w różnych pasmach fal.
1. Brak obserwacji przy wysokich energiach (promienie γ) wynika z obecnych ograniczeń technicznych; detektory o wyższej energii nie są wystarczająco czułe, aby wykryć większość AGN. Te, które zostały wykryte do tej pory, to na ogół rdzeniowe (CD) RL AGN, tj. te, których emisja jest wzmacniana przez relatywistyczny przepływ wzdłuż naszej linii wzroku.
2. Luka EUV między obszarami dalekiego UV i miękkiego promieniowania rentgenowskiego widma (tj. między 912Å a około 0,1 keV, obejmująca około 10-krotny współczynnik energii fotonów) wynika z dużej nieprzezroczystości ośrodka międzygwiazdowego w naszą własną Galaktykę fotonom jonizującym wodór. Fotony w tym zakresie energii są szczególnie ważne, ponieważ napędzają silne linie emisyjne widoczne w widmie UV i optycznym AGN.
3. Przepaść między radiem submilimetrowym a krótkofalowym ponownie wynika z ograniczeń technologicznych. Nowe detektory i satelity ostatnio znacznie zmniejszyły te ograniczenia i ujawniły ostre przerwy widmowe w dalekiej podczerwieni dla wszystkich oprócz CD RL AGN.
Najbardziej widoczną cechą AGN SED jest silny pik w widmie UV. Cecha, często nazywana "dużym niebieskim guzem" (BBB), zaczyna się w bliskiej podczerwieni i może rozciągać się aż do energii miękkiego promieniowania rentgenowskiego. Obserwuje się go za pomocą kombinacji niskorozdzielczej spektroskopii optycznej i ultrafioletowej oraz/lub wielobarwnej fotometrii optycznej. Można wiarygodnie zidentyfikować, że powstaje w dysku akrecyjnym (AD) zawierającym materię o szerokim zakresie temperatur i krążącym wokół supermasywnej czarnej dziury. BBB osiąga szczyt w ekstremalnym UV, co jest zgodne z oczekiwaną emisją z AD wokół czarnej dziurya ∼108M⊙, która akreuje materię z szybkością Eddingtona. Emisja IR z RQ AGN jest obserwowana głównie za pomocą fotometrii wielokolorowej, chociaż spektroskopia IR jest szybko rozwijającą się dziedziną. Uważa się, że widmo IR jest zdominowane przez emisję termiczną z pyłu w galaktyce macierzystej lub torusa molekularnego otaczającego AGN. Najbardziej przekonujące dowody przemawiające za tą interpretacją są następujące.
1. W AGN SED występuje lokalne minimum przy długości fali około 1 μm. To prawdopodobnie reprezentuje emisję z najwyższej temperatury (około 1500 K) ziarna, które mogą istnieć w pobliżu AGN; w wyższych temperaturach, tj. mniejszych odległościach od centralnego źródła, pył będzie sublimował.
2. W niektórych AGN zaobserwowano, że kontinuum w podczerwieni zmienia się, najwyraźniej w odpowiedzi na wcześniejsze, podobne zmiany kontinuum w widmie optycznym UV. Wywnioskowany czas podróży światła jest zgodny z maksymalną odległością, na jaką ziarna wystawione na działanie pola promieniowania AGN powinny sublimować.
3. Ostra przerwa w submilimetrowym obszarze dalekiej podczerwieni SED we wszystkich AGN oprócz CD RL jest generalnie zbyt stroma, aby można ją było przypisać optycznie grubej emisji synchrotronowej lub emisji ciała doskonale czarnego w jednej temperaturze, ale jest zgodna z emisją termiczną z ziaren (w zależności od nieznanego prawa emisyjności ziarna).
W RL AGN IR jest prawdopodobnie mieszanką izotropowej emisji termicznej i wiązki nietermicznej. Emisja wiązki dominuje w CD RL AGN, ponieważ jest wzmacniana przez relatywistyczny odpływ wzdłuż naszej linii wzroku. Mocnych dowodów na tę interpretację dostarcza skoordynowana zmienność obserwowana w kilku z tych źródeł, w szczególności 3C 273, który jest najjaśniejszym pobliskim QSO i w konsekwencji był szeroko monitorowany. Wstępne wyniki w średniej i dalekiej podczerwieni z ISO satelitarnego ESA pokazują postęp od emisji nietermicznej do termicznej w małej próbce CD i RLAGN i RQAGN zdominowanej przez płatki, potwierdzając ten ogólny obraz. Podczas gdy emisja UV-optyczna-IR z AGN wydaje się być głównie pochodzenia termicznego, uważa się, że zarówno ekstremalne, jak i niskoenergetyczne obserwowalne SED są wytwarzane przez procesy nietermiczne. Obserwacje rentgenowskie AGN są w dużej mierze ograniczone do spektroskopii o bardzo niskiej rozdzielczości, która daje kształt globalnego kontinuum. Główną cechą widm
rentgenowskich RQ AGN jest kontinuum potęgowe (Fν ∝ ν-α, z α ≈ 0,9) w zakresie ∼1-100 keV. Widmo generalnie odwraca się przy energiach ≳ 100 keV i uważa się, że powstaje w wyniku powtarzającego się rozpraszania Comptona fotonów termicznych lub nietermicznych. RLAGN wykazują twardsze widmo rentgenowskie niż ich odpowiedniki RQ. Względna siła tego twardego komponentu wzrasta wraz z dominacją rdzenia źródła radiowego, co sugeruje, że emisja jest emitowana podobnie do radia i potwierdza pochodzenie fotonów radiowych synchrotronowych w rozpraszaniu w górę Comptona. CD RLAGN są jak dotąd jedynymi AGN wykrytymi w wysokoenergetycznych promieniach γ, co sugeruje, że promienie są kluczowym czynnikiem. Dokonano kilku bardzo wysokoenergetycznych obserwacji, w tym naziemne wykrycie pęków Czerenkowa, które występują, gdy fotony o energii TeV uderzają w ziemską atmosferę. Jak dotąd wszystkie AGN wykryte tą metodą to wszystkie obiekty BL Lac. Podobnie jak w przypadku CD RL AGN, obserwowana emisja z tych źródeł jest najwyraźniej zdominowana przez relatywistyczną wiązkę lub dżet skierowaną w stronę obserwatora. Przy energiach około 10 keV i wyższych widma RQ AGN mają również "twardy ogon" powyżej prawa mocy promieniowania rentgenowskiego, który jest silniejszy w źródłach o niższej jasności. Uważa się, że powstaje to w wyniku "odbicia Comptona" (połączenie nieelastycznego rozpraszania fotonów o wyższej energii i fotoelektrycznej absorpcji fotonów o niższej energii fotonów) ze stosunkowo chłodniejszego materiału. Cecha ta jest na tyle silna, że chłodniejszy materiał musi pokrywać około połowy nieba widzianego z samego źródła promieniowania rentgenowskiego, co doprowadziło do spekulacji, że odbijającym obiektem musi być sama AD, ze źródłem promieniowania rentgenowskiego znajdującym się gdzieś powyżej To. Przykład takiego widma pokazano na rysunku 2.

Zmienność widmowa
Jedną z najbardziej niezwykłych cech AGN jest ich silna zmienność strumienia. Rzeczywiście, samo istnienie zmienności kontinuum w ciągu dnia nakłada surową górną granicę (ustaloną przez argumenty dotyczące czasu podróży światła i spójności źródła) na rozmiar źródła kontinuum, a tym samym dostarcza jednego z najsilniejszych argumentów za identyfikacją AD wokół supermasywnej czarnej dziury jako źródło promieniowania ciągłego. Na poziomie podstawowym przyczyna zmienności kontinuum nie jest zrozumiała, chociaż AD niestabilności są czasami przywoływane jako mechanizm napędowy. Ogólnie rzecz biorąc, najszybsza i najwyższa amplituda zmian jest widoczne przy najwyższych energiach fotonów. Zmiany strumienia promieniowania rentgenowskiego wykryto w galaktykach Seyferta w skalach czasowych rzędu kilku minut. Dla celów fenomenologicznych możemy scharakteryzować siłę zmian jako funkcję czasu częstotliwości f przez ich "spektra gęstości mocy", które są konwencjonalnie modelowane jako prawo potęgowe, tj.
P(f) ∝ f-α, gdzie α zwykle mieści się w zakresie 1-2 dla większości AGN. Przypadek α = 0 to "biały szum", tj. amplituda zmienności jest niezależna od skali czasu, a α = 1 odpowiada zmianom, które można opisać jako błądzenie losowe. Większe wartości ? odpowiadają zwiększonym amplitudom zmienności w dłuższych skalach czasowych (niższe częstotliwości f ). W niektórych przypadkach, np. NGC 4151 i 3C 390.3, najbardziej widoczne zmiany wydają się zachodzić quasi-jednocześnie (tj. jednocześnie z dokładnością do mniej niż jednego dnia) od promieni rentgenowskich (lub nawet promieni γ dla NGC 4151) do pasm fal optycznych. Struktury o mniejszej amplitudzie na krzywych blasku różnią się w całym spektrum, z niższymi amplitudami i mniejszymi strukturami widocznymi przy niższych energiach fotonów. Niemal jednoczesność zmian wymaga, aby zmiany były napędzane przez promieniowanie, a nie na przykład propagację zaburzeń przez AD w znacznie dłuższej lepkiej skali czasu. Obserwacje te, wraz z wykryciem twardego ogona promieniowania rentgenowskiego i linii emisyjnej FeKα, wskazują na modele "ponownego przetwarzania", w których zmienne źródło promieniowania rentgenowskiego oświetla AD z góry, przy czym zaobserwowano zmiany w pochłoniętej energii promieniowania rentgenowskiego przy niższych energiach fotonów. Jednak w co najmniej jednym przypadku (galaktyka Seyferta NGC 7469) zmiany rentgenowskie nie korelują dobrze ze zmianami optycznymi UV; zmiany podobnej amplitudy ułamkowej są widoczne zarówno w obszarach rentgenowskich, jak i UV-optycznych, ale nie ma między nimi wyraźnego związku przyczynowego. Jednak to w tym samym obiekcie wykryto opóźnienie czasowe między zmianami UV i optycznymi. Jest to jedyna galaktyka Seyferta, która została wystarczająco dobrze monitorowana, aby wykryć takie zależne od długości fali opóźnienia czasowe kontinuum. W stosunku do zmian w UV o najkrótszej długości fali, zmiany przy dłuższych falach są opóźnione o wartość τ ∝? γ4/3, co jest dokładnie taką zależnością od długości fali oczekiwaną, jeśli zmiany pojawiają się w cienkim AD, który jest napromieniowany zmiennym promieniowaniem rentgenowskim źródło. Oczywiście ta interpretacja całkowicie nie wyjaśnia obserwowanego braku korelacji między zmianami UV-optycznymi i rentgenowskimi. Obecnie wydaje się, że NGC 7469 stwarza poważne trudności w ponownym przetwarzaniu modeli, chociaż nie pojawiło się żadne inne wyjaśnienie sprzężenia (lub braku sprzężenia) między zmianami rentgenowskimi i UV-optycznymi. Ekstremalne zmiany strumienia obserwuje się również w obiektach BL Lac. Jednak w tym przypadku fundamentalne pochodzenie zmian jest prawdopodobnie związane z propagacją wstrząsów przez strumień relatywistyczny. W przeciwieństwie do Seyfertów, chociaż istnieje ścisła zgodność między zmianami w różnych pasmach, nie pojawił się jeszcze całkowicie spójny związek między opóźnieniem czasowym a długością fali; to samo źródło może najwyraźniej wykazywać różne zachowania w różnych momentach, a przyczyna tego nie jest zrozumiała.
Linie emisyjne
Podstawowe właściwości linii UV-optycznych
Silne szerokie linie emisyjne są cechą charakterystyczną wszystkich typów AGN, z wyjątkiem obiektów BL Lacertae, w których przypuszczalnie obecne linie emisyjne są zalane przez emisję kontinuum o wysokim promieniu z dżetu. W części widma UV-optyczne-IR najbardziej widoczne linie emisyjne (te o równoważnych szerokościach większych niż kilkadziesiąt Å) to zwykle Lyαλ 1215, C IV λ 1549, C III] λ 1909, Mg II λ 2798, Hβ λ 4861, Hα λ 6563 i Pα λ 1,88 μm . W większości Seyfertów i kwazarów obserwowana emisja powstaje w dwóch fizycznie odrębnych obszarach, przestrzennie zwartym (1015-1017 cm) "obszarze szerokoliniowym" (BLR) o stosunkowo dużej gęstości cząstek (ne ≈ 1011 cm-3) i dużej prędkości dyspersje (vFWHM ≈ 1000-10 000 km s-1) oraz przestrzennie rozciągnięty (100 pc-1 kpc) "region wąskoliniowy" (NLR) o stosunkowo małych gęstościach cząstek (ne ≈ 103 cm-3) i mniejszej prędkości dyspersji (vFWHM < 1000 km s-1). Pewne mgławicowe "zakazane" linie, takie jak [O III] λλ 4959, 5007, są wyróżniającymi się cechami w widmach wąskoliniowych, ale nie obserwuje się ich w widmach szerokoliniowych. W NIR o małej gęstości, zarówno linie Balmera, jak i [O III] znajdują się w granicy małej gęstości, w której emisyjność jest proporcjonalna do n2e. Jednak w gęstszym, ale o znacznie mniejszej masie BLR, linie Balmera nadal mieszczą się w granicy małej gęstości, ale linie [O III] znajdują się w granicy dużej gęstości, w której emisyjność jest proporcjonalna tylko do ne. Linie [O III] z regionu szerokich linii są zatem bardzo słabe w stosunku do linii Balmera, a linie zakazane są często określane jako "kolizyjnie stłumione". Galaktyki Seyferta tradycyjnie dzieli się na dwie podklasy spektroskopowe: Seyfert typu 1 ma emisję zarówno szerokoliniową, jak i wąskoliniową, podczas gdy Seyfert typu 2 ma tylko wąskie linie. W niektórych, a być może we wszystkich przypadkach, obiekty typu 2 to te, których BLR są zasłonięte przed naszym bezpośrednim widzeniem przez kurz. Widma kwazarów są zawsze podobne do widm Seyferta typu 1. Kwestia, czy istnieją jakieś prawdziwe "kwazary typu 2", pozostaje otwarta. Niedawna polarymetria ujawniła szerokie linie w niektórych ultrajasnych galaktykach podczerwonych: spektroskopowo można je czasami sklasyfikować jako nieuchwytne kwazary typu 2, ale zasadniczo są to wciąż zaciemnione kwazary typu 1. Poza semantyką pytanie brzmi, czy ujednolicone modele wyjaśniają wszystkie obiekty typu 2.
Zmienność linii emisji
Szerokie składowe linii emisyjnych AGN zmieniają strumień w odpowiedzi na zmiany strumienia kontinuum, z opóźnieniami czasowymi, które, jak się przyjmuje, są spowodowane efektami czasu podróży światła w BLR. Rzeczywiście, pomiar rozmiaru BLR opiera się na pomiarze średnich opóźnień czasowych (lub "opóźnień") między zmianami kontinuum i linii emisyjnych. Ten proces, znany jako "mapowanie pogłosu", został pomyślnie przeprowadzony przez ponad dwa tuziny AGN. Rozmiary BLR w galaktykach Seyferta mieszczą się w przedziale od kilku do około 100 dni świetlnych (tj. rBLR ≈ 1015-17 cm), a skala jasności w przybliżeniu wynosi rBLR ∝ L1/2, zgodnie z najprostszą teorią. Różne linie w danym AGN reagują z różnymi opóźnieniami czasowymi, zwykle w tym sensie, że linie o wyższej jonizacji reagują szybciej niż linie o niższej jonizacji; wskazuje to, że BLR ma radialnie uwarstwioną strukturę jonizacji i że maksymalna zmienność różnych linii występuje przy różnych
promieniach. Zakres odpowiedzi czasowych jest taki, że zewnętrzna krawędź BLR jest co najmniej 10 razy większa niż wewnętrzna krawędź. Zasadniczo mapowanie pogłosu powinno być w stanie określić pole prędkości BLR, ponieważ szerokie linie są rozdzielone w prędkości w linii wzroku (Doppler). Na przykład, gdyby obłoki BLR przemieszczały się promieniowo na zewnątrz od centralnego źródła, wówczas zewnętrzny obserwator zobaczyłby, że gaz o krótkiej długości fali (względnie przesunięty w kierunku błękitu) po bliższej stronie jądra reaguje na zmiany kontinuum, zanim zobaczy stosunkowo przesunięte ku czerwieni długie fale ) gaz po drugiej stronie jądra. Brak tak silnej sygnatury wskazuje, że dominujące ruchy gazu nie są promieniowe. Jednak obecne obserwacje nie są wystarczająco obszerne, aby określić, czy gaz BLR jest ograniczony do dysku, czy też ma inną geometrię. Niezależnie od szczegółów, jeśli przyjmiemy, że ruchy gazu BLR są głównie orbitalne wokół źródła centralnego, masę źródła centralnego
(Mblack hole) można zmierzyć łącząc pomiary wielkości obszaru z szerokością linii emisyjnej, tj. w obrębie pewnego zależnego od geometrii współczynnika jedności porządku, Mblack hole ≈ rBLRv2FWHM. Dla około dwóch tuzinów AGN o niskiej jasności, dla których to zrobiono, wywnioskowano masy w zakresie (106 -108)M⊙. Wąskie linie emisyjne na ogół nie zmieniają się w skalach czasowych wynoszących lata lub mniej, ponieważ dłuższe czasy podróży światła i rekombinacji mają tendencję do zacierania skutków wszelkich zmian kontinuum. Doniesienia o wąskiej zmienności są rzadkie. Prawdopodobnie najlepszym przypadkiem rzeczywistej zmienności wąskiej linii jest przypadek radiogalaktyki szerokopasmowej 3C 390.3, która wydaje się mieć nienormalnie zwarty NLR o dużej gęstości. Szerokości wąskich linii wydają się dobrze korelować z centralnymi masami galaktyki macierzystej AGN w skalach porównywalnych z rozmiarem NLR (tj. asymetrie wynikają z interakcji z dżetami.
Rentgenowska linia żelaza (Fe) Kα
W widmach o niskiej rozdzielczości zwykle uzyskiwanych w obszarze rentgenowskim przez satelity, takie jak ASCA (Japonia), SAX (Włochy) i RXTE (USA), powszechnie obserwuje się fluorescencyjną linię emisyjną Fe K?. Ta linia emisji jest zwykle silniejsza w źródłach o niższej jasności. Energia, przy której obserwuje się linię, z grubsza wskazuje na stan jonizacji emitującego materiału. Szeroki zakres zachowań jest widoczny z nierozwiązanych, chłodnych linii (tj. z materiału lowionizacyjnego), zgodnych z pochodzeniem materiału pochłaniającego wzdłuż naszej linii wzroku przez kwazar, np. torusa molekularnego, do gorących, rozdzielczych linii o szerokościach, vFWHM ≳ 10 000 km s-1, co implikuje materię znacznie bliższą centralnej AGN niż linie optyczne UV i omówione powyżej. W kilku z nich, w szczególności w MCG-6-30-15, obserwuje się złożone profile linii, które sugerują emisję z bardzo bliskiej odległości od centralnego AGN. Ta interpretacja jest bardzo atrakcyjna, ponieważ linia zapewnia wtedy naszą jedyną bezpośrednią obserwację wewnętrznej AD i jest niezwykle ważna dla diagnozowania i ograniczania zarówno modeli AD, jak i modeli centralnego źródła. Satelity rentgenowskie, takie jak XMM (ESA) i Obserwatorium Rentgenowskie Chandra (NASA), oba wystrzelone w 1999 r., będą w stanie obserwować emisję Fe Kα w większej części populacji AGN. Ich siatki zapewnią również niezwykle wysoką rozdzielczość widmową (E/ΔE > 100-1000), umożliwiając bardziej szczegółowe badania profilu, a także wykrywanie większej liczby i słabszych linii w jasnym, pobliskim AGN.
Struktury przestrzennie rozdzielcze w AGN
Region wąskiej linii
Podczas gdy rozmiar i strukturę BLR należy wywnioskować pośrednio za pomocą procesów takich jak mapowanie pogłosu, NLR jest wystarczająco rozszerzony, aby w bliższym AGN można go było przestrzennie rozdzielić za pomocą Kosmicznego Teleskopu Hubble′a lub, w niektórych przypadkach, nawet za pomocą naziemnego obserwacje oparte na NLR jest zwykle w przybliżeniu osiowosymetryczny, a jego długa oś pokrywa się z osią radiową w tych źródłach, w których wykryto rozszerzoną emisję radiową. W niektórych przypadkach wydaje się, że na granicy między plazmą emitującą promieniowanie radiowe a ośrodkiem międzygwiazdowym w galaktyce macierzystej występują fronty uderzeniowe. Podczas gdy emisja wąskoliniowa jest najwyraźniej napędzana głównie przez fotojonizację przez centralne źródło, wykryto również silną emisję z obszarów ochładzających się po wstrząsie. W niektórych przypadkach emisja wąskoliniowa wydaje się być ograniczona do "stożków jonizacyjnych" w kształcie klina, które emanują z jądra. Kąty otwarcia tych stożków wynoszą zwykle 30°-100°. Uważa się, że te stożki są wynikiem anizotropii w polu promieniowania AGN, która jest wprowadzana w znacznie mniejszych skalach przez zaciemniający torus otaczający centralne źródło.
Galaktyki macierzyste AGN
We współczesnym wszechświecie AGN stanowią mniej niż 5-10% wszystkich jasnych galaktyk. Dlaczego niektóre galaktyki są "aktywne", a inne nie? Czy zjawisko AGN reprezentuje przejściową fazę w ewolucji galaktyk (zauważając, że w odległej przeszłości było ich znacznie więcej niż obecnie? Próby rozwiązania tych problemów doprowadziły do badań "galaktyk macierzystych" AGN. Często jest to trudne przedsięwzięcie, ponieważ AGN zwykle znajdują się w dużych odległościach, więc galaktyki macierzyste są słabe i mają małe rozmiary kątowe, a zwłaszcza w przypadku kwazarów, większość światła galaktyki macierzystej jest po prostu tracona w blasku kwazara. Oryginalna lista galaktyk emisyjnych o wysokiej jasności powierzchniowej sporządzona przez Carla Seyferta składała się prawie wyłącznie z galaktyk spiralnych. Z biegiem czasu definicja "AGN" stała się przede wszystkim spektroskopowa (oparta na obecności silnych linii emisyjnych, z wyjątkiem obiektów BL Lac). AGN o wysokiej jasności znajdują się zarówno w galaktykach
eliptycznych, jak i spiralnych, chociaż przy niskim przesunięciu ku czerwieni RLAGN znajdują się preferencyjnie w galaktykach eliptycznych. Do niedawna powszechnie uważano, że istnieje korelacja między AGN a jasnością galaktyki macierzystej: jaśniejsze AGN znajdują się w jaśniejszych galaktykach. Istnieją jednak silne efekty selekcji, które mogą prowadzić do takiego wniosku. Niedawne obserwacje kwazarów za pomocą Kosmicznego Teleskopu Hubble′a (w celu pomocy w wykrywaniu słabych galaktyk macierzystych z AGN o wysokiej jasności) i nie tylko poprzez prace badawcze na pobliskich galaktykach (w celu znalezienia słabego AGN w jasnych hostach) nie potwierdziły istnienia silnej korelacji między AGN a jasnością galaktyki macierzystej. Słabe AGN znajdują się zarówno w galaktykach macierzystych o niskiej, jak i wysokiej jasności, podczas gdy AGN o wysokiej jasności występują tylko w jaśniejszych galaktykach macierzystych. W wyniku dużej części obserwacji za pomocą Kosmicznego Teleskopu Hubble′a wydaje się
obecnie, że praktycznie wszystkie galaktyki zawierają w swoich jądrach supermasywne czarne dziury. Identyfikacja obiektów supermasywnych wymaga pomiaru dyspersji dużych prędkości w małych skalach przestrzennych (a tym samym wymaga wysokiej rozdzielczości kątowej możliwej do uzyskania przy obrazowaniu kosmicznym), co prowadzi do pomiarów masy wirialnej. Najciekawsze wydaje się teraz przejście od "czy supermasywne czarne dziury istnieją?" do "dlaczego niektóre supermasywne czarne dziury gromadzą masę (AGN), podczas gdy inne nie są (normalnymi galaktykami)"? To, czy jądro jest zasilane, czy nie, może być związane z tym, jak łatwo jest wprowadzić gaz do jądra galaktyki, a to z kolei może zależeć od charakterystyki galaktyki macierzystej.
Rozszerzona emisja promieniowania rentgenowskiego
Wysoka (jak na promieniowanie rentgenowskie) rozdzielczość przestrzenna High Resolution Imager na satelicie rentgenowskim ROSAT (∼5″ ) ułatwiła obrazowanie jasnych, pobliskich galaktyk Seyferta, takich jak NGC 1068 i NGC 4151. że znaczna część (do ∼50%) emisji promieniowania rentgenowskiego może pochodzić z rozszerzonego obszaru wokół centralnego AGN. W kilku źródłach ta emisja promieniowania rentgenowskiego jest przestrzennie skorelowana z NLR. Źródłem rozszerzonej emisji promieniowania rentgenowskiego może być rozpraszanie elektronów centralnej emisji promieniowania rentgenowskiego lub emisja promieniowania rentgenowskiego z gorącego, wiejącego wiatru. Obserwatorium Rentgenowskie Chandra (NASA) ze swoją bezprecedensową rozdzielczością przestrzenną (∼0,5″) pozwoli na wykonanie znacznie większej liczby takich badań przestrzennych.
Emisja megamasera
Do najbardziej ekscytujących obserwacji AGN w ostatnich latach należy emisja maserów wodnych w reżimie radiowym. Obserwacje radiowe, ze względu na długie fale i odpowiednio większe teleskopy, które można zbudować lub zsyntetyzować, są obecnie niedoścignione pod względem rozdzielczości przestrzennej, jaką mogą uzyskać, zwykle do poziomu milisekundy kątowej (mas). Niedawne obserwacje emisji masera wody w słabo jasnej galaktyce Seyferta 1,9 NGC 4258 wykazały kilka składowych, których prędkości dokładnie odpowiadają krzywej rotacji Keplera. W połączeniu z ich pozycjami kątowymi, te źródła maserowe wskazują na wypaczony, nachylony, geometrycznie cienki dysk molekularny w skali poniżej parseka i prowadzą do oszacowania (3,5 ± 0,1) × 107 M⊙ dla masy centralnej czarnej dziury, pierwszy bezpośredni i precyzyjny taki pomiar. Obserwacje masera z innych źródeł również dostarczyły informacji w podobnej skali, ale jak dotąd żadne nie były tak szczegółowe jak NGC 4258.
Linie absorpcyjne
Optyczne i UV
Widma optyczne i UV AGN zawierają cechy absorpcji ze względu na materiał wzdłuż linii wzroku między nami a źródłem kontinuum optyczno-UV, zarówno w samym AGN, jak iw przestrzeni pośredniej. Interweniujące absorbery, których przesunięcia ku czerwieni są zawsze niższe niż przesunięcia ku czerwieni QSO w tle, są najliczniejsze w QSO z wysokim przesunięciem ku czerwieni z odpowiednio dłuższą linią wzroku. Dominują w nich linie z podstawowego przejścia obojętnego wodoru, Lyα λ 1215. Linie te, znane jako "las Lymana α", dostarczają wielu informacji na temat rozmieszczenia zimnej materii we wszechświecie. Zakres gęstości kolumn w tych układach absorbujących jest szeroki, NH ≈ 1013-1021 cm-2, tak że cechy metali, Mg II λ 2798, C IV λ 1549 i przerwy graniczne Lymana są obserwowane w podzbiorze. Przy wysokim przesunięciu ku czerwieni, gdzie tylko najjaśniejsze źródła, głównie QSO, są dla nas widoczne, las Lyman α zapewnia nam jedyny widok na zimną materię i dlatego jest bardzo ważnym oknem na wczesny Wszechświat dla badań kosmologicznych. Najciekawsza klasa absorberów, jeśli chodzi o badania QSO, jest związany z wewnętrznymi absorberami. Są to systemy linii metalowych o dużej gęstości kolumn, które występują w ponad 50% wszystkich AGN i których przesunięcie ku czerwieni jest bliskie, a czasem nawet nieco większe niż QSO tła. W widmach optycznych UV o wystarczająco wysokiej rozdzielczości (≲ 5Å) linie są często widoczne w szerokich profilach linii emisyjnych. Utrudnia to ich badanie, ponieważ ani ich profile, które często obejmują wiele składników, ani linie emisyjne, które pochłaniają, nie są znane. Wymagane są dane o wysokiej rozdzielczości i stosunku sygnału do szumu, a nawet wtedy niepewność jest zwykle wysoka. Uważa się, że absorpcja pochodzi z materiału znajdującego się blisko jądra QSO i poruszającego się względem niego, zwykle w kierunku na zewnątrz. Wykazują one zakres jonizacji od niskiego, gdzie dominuje Mg II, do wysokiego, gdzie przeważa C IV lub nawet O VI λ 1034. Uważa się, że te pochłaniacze o wysokiej jonizacji również odpowiedzialne za omówione poniżej pochłaniacze ciepła promieniowania rentgenowskiego.
Ciepłe pochłaniacze promieniowania rentgenowskiego
Obszar widmowy miękkiego promieniowania rentgenowskiego jest silnie uzależniony od absorpcji atomowej z powodu dowolnego materiału wzdłuż linii wzroku między nami a źródłem promieniowania rentgenowskiego w samym AGN. Nasza Galaktyka ma znaczną gęstość kolumn neutralnej (zimnej) materii, której sygnatura jest obecna w widmach miękkiego promieniowania rentgenowskiego AGN (w zakresie 0,1-5 keV). Galaktyka gospodarza AGN tworzy podobny podpis. Oprócz tej zimnej absorpcji, w miękkich widmach rentgenowskich często obserwuje się absorpcję przez zjonizowany (ciepły) materiał. Na ogół świadczy o tym obecność silnej absorpcji na krawędzi (krawędziach) silnie zjonizowanego tlenu (O VII lub O VIII) lub, w przypadku danych o niższej rozdzielczości, "wyciek" miękkich fotonów powyżej oczekiwań dotyczących zimnej absorpcji od nieprzezroczystość niskoenergetyczna zmniejsza się wraz ze wzrostem jonizacji. Wszystko wskazuje na to, że wszystkie lub prawie wszystkie QSO wykazujące ciepłą absorpcję promieniowania rentgenowskiego
mają również powiązane linie absorpcyjne w UV, które obejmują linie o wysokiej jonizacji, takie jak OVI i NV λ 1240. Niedawne prace wykazały, że wypływający materiał o dużej gęstości kolumn może wytwarzać zarówno właściwości rentgenowskie, jak i UV takich absorberów. Wynikająca z tego kombinacja ograniczeń związanych z promieniowaniem UV i promieniowaniem rentgenowskim nałożonym na materiał pochłaniający zapewniła nam bezprecedensowo skuteczną diagnostykę absorbera. Wydaje się, że jest to materiał o dużej gęstości kolumnowej (NH ≈ 1020-22 cm-2), wypływający z regionu centralnego przy prędkościach ∼100-1000 km s-1, położone między BLR i NLRat ≈1017 cm i często zawierające kilka odrębnych składników w ramach pojedynczego systemu.
Szerokie linie absorpcyjne
Najbardziej dramatycznymi cechami absorpcji widocznymi w widmach UV-optycznych QSO są szerokie linie absorpcyjne (BAL) . Są to wewnętrzne absorbery o wysokiej gęstości kolumnowej (NH ≈ 1020-23 cm-2) wypływające z jądra QSO. Mają zakres jonizacji (stąd C IV lub Mg II BAL) i szeroki zakres prędkości, czasami zbliżający się do ∼10% prędkości światła. Absorpcja generalnie zawiera dużo struktury, chociaż niewielki podzbiór ma gładkie profile typu P-Cygni, co wskazuje na gładki, kulisty odpływ. Ponieważ pochłaniają tak dużo kontinuum QSO i emisji liniowej, bardzo trudno jest je badać ilościowo. Widma o wysokiej rozdzielczości i wysokim stosunku sygnału do szumu są niezbędne wraz ze szczegółowym modelowaniem zarówno cech emisji, jak i absorpcji w celu uzyskania informacji o gęstościach kolumn w funkcji prędkości dla tego materiału. Interpretacja generalnie dotyczy turbulentnego, odpływającego wiatru w pobliżu jądra QSO i obejmującego znaczną część centralnego źródła
kontinuum i BLR. Źródła te są powszechnie emiterami słabego promieniowania rentgenowskiego, w większości niewykrywanymi do granic znacznie niższych niż inne QSO. Silna absorpcja obserwowana w tych nielicznych wykrytych do tej pory prowadzi do interpretacji w kategoriach absorpcji emisji promieniowania rentgenowskiego przez ten sam, wypływający wiatr i sugeruje, że gęstość kolumn jest na górnym końcu podanego zakresu.
Aktywne galaktyki: obserwacja ich zmienności przez amatorów
Amatorzy zaczęli interesować się obserwacjami jaśniejszych aktywnych jąder galaktycznych (AGN) stosunkowo wkrótce po ich odkryciu pod koniec lat 60. XX wieku, chociaż niewielką ich liczbę zaobserwowano tak, jakby wcześniej obserwowano gwiazdy zmienne. Czołowi amatorzy obserwowali zatem jaśniejszych AGN od ponad pięciu dekad monitorują zmiany ich jasności. Ponadto wielu obserwatorów rekreacyjnych wyśledziło wizualnie te słabe plamki, szczególnie 3C273 w Pannie, i zdumiało się tym widokiem, chociaż nie tyle ich wyglądem, ile ich niezwykłą naturą. Pierwszy formalny skoordynowany program dla amatorów monitorowania AGN rozpoczął się w Wielkiej Brytanii pod koniec lat 70-tych. Sekcja Gwiazd Zmiennych Brytyjskiego Stowarzyszenia Astronomicznego dodała do swojego programu 3C273, NGC 4151 i Markarian 421. Były one monitorowane wizualnie, jak słabe gwiazdy zmienne. Wraz ze wzrostem apertury teleskopowej w latach 80. do programu dodano więcej AGN. Zainteresowaniem zainteresowała się organizacja Astronomer, która dodała tę klasę obiektów do swojego programu, który pozostaje aktywny - obserwacje do dziś publikowane są w miesięczniku The Astronomer. Potencjał poważnych prac fotograficznych odkryto pod koniec lat 80. XX wieku, a technika umożliwiła dodanie kilku słabszych przykładów, które były zbyt słabe dla większości obserwatorów wizualnych. Był to ograniczony sukces, trudności w patrolowaniu fotograficznym ograniczały popularność. Dopiero pojawienie się URZĄDZENIA CHARGE-COUPLED DEVICE (CCD) i jego dostępność dla amatorów umożliwiły kolejny impuls do obserwacji AGN. Nie ma wątpliwości, że interesuje się zawodowo obserwacjami amatorskimi - wsparcie i zachętę udzieliło kilku międzynarodowych astronomów, CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW. Ogólne cele amatorskich obserwacji AGN są trojakie:
• monitorowanie widocznych zmian jasności dostępnych AGN ;
• zmierzyć takie zmiany i zbudować możliwie najdokładniejszą krzywą blasku w zakresie widzialnych długości fal;
• ostrzeganie zawodowych astronomów o niezwykłej i przewidywanej aktywności będącej przedmiotem zainteresowania oraz regularne przeprowadzanie rutynowych obserwacji.
W celu możliwie częstego monitorowania jak największej liczby AGN stworzono skoordynowany program. Obecnie dla dobrze wyposażonego amatora dostępnych jest ponad 20 AGN. Chociaż większość z nich jest stosunkowo słaba, kilka jest dostępnych wizualnie dla skromnych teleskopów i wszystkie powinny być dość proste cele dla użytkowników CCD. Zachęca się obserwatorów do prowadzenia obserwacji tak regularnie, jak pozwala na to niebo i warunki. Prawie wszystkie AGN w programie są wykreślone w Uranometria 2000, chociaż niektóre mają alternatywne oznaczenia w stosunku do bardziej popularnych terminów. Jednakże użycie współrzędnych powinno umożliwić identyfikację bez trudności. Po zlokalizowaniu jasność AGN można oszacować lub zmierzyć wizualnie, fotograficznie lub za pomocą CCD. Każdy ma swoje zalety i problemy. Na korzyść podejścia wizualnego przemawia możliwość obserwacji kilku obiektów w sesji; wyniki uzyskuje się szybko, a sprzęt jest stosunkowo niedrogi, chociaż realistycznie rzecz biorąc, w przypadku tak słabych
obiektów potrzebna jest większa apertura. Jednakże teleskop nie musi być montowany równikowo. Naprzeciw tym zaletom stoją problemy związane ze znalezieniem stosunkowo słabych obiektów z miejsc odbiegających od idealnych, przy problematycznych warunkach nieba, spowodowanych zanieczyszczeniem światłem, bimberem, wysokimi cirrusami i tak dalej. Niezbędne jest doświadczenie w pracy z gwiazdami zmiennymi. Nieuchronnie pojawia się pewna stronniczość obserwatora, chociaż można to skompensować, podobnie jak w przypadku innych obserwacji gwiazd zmiennych. Nawet jeśli sama AGN nie stanowi większego problemu, słabsze gwiazdy porównania mogą okazać się trudne. Choć liczba dostępnych AGN jest ograniczona, posiadacze teleskopu o średnicy 16 cali lub większej mogą obserwować ich jeszcze kilkanaście. Wydaje się, że fotografia zmniejsza niektóre z tych barier. Można osiągnąć słabsze jasności, dzięki czemu dostępne będą bardziej aktywne galaktyki i łatwiej będzie uzyskać porównania. Osobiste uprzedzenia są zmniejszone, a
wyniki można łatwo wyświetlić i odtworzyć. Jednakże niezbędny staje się teleskop równikowy lub napędzany, co zwiększa zaangażowanie finansowe. Aby uzyskać dokładne wyniki, na które zasługuje czas i nakłady finansowe, konieczna staje się standaryzacja i formalny pomiar. Wymagałoby to od obserwatora użycia standardowej kliszy (w przeszłości zalecano Kodak 103aB, ale jest on trudno dostępny i trzeba testować inne emulsje). Pożądane są również filtrowane obrazy, a do dokładnego oszacowania wielkości idealne są pomiary mikrodensytometryczne. Dodaj do tego żmudny proces samej fotografii i pracę w ciemni, a być może zrozumiałe jest, że programy fotograficzne końca lat 80. tak naprawdę nigdy nie doszły do skutku. Szansa na odkrycie nowej lub supernowej często stanowi odpowiednią zachętę do zaangażowania się w prace patrolowe, ale monitorowanie istniejącego obiektu rok po roku jest być może mniej kuszące. Odpowiedzią na to pytanie wydaje się być rewolucja CCD. Obrazy wykonane przy użyciu matryc CCD mogą sięgać bardzo
głęboko, nawet przy niewielkich przysłonach. Wiele AGN jest dostępnych dla posiadaczy 10 teleskopów wyposażonych w matrycę CCD. Znalezienie obiektów z mniejszymi chipami CCD było kiedyś niezwykle trudne, ale nowoczesne udogodnienia GoTo w wielu nowoczesnych teleskopach oznaczają, że można z pewnością znaleźć pole, a następnie zidentyfikować AGN na mapach i sfotografować go naprawdę dość szybko oraz wykonać pomiar. Oprogramowanie komputerowe staje się coraz bardziej wyrafinowane i przy zachowaniu ostrożności powinna być możliwa fotometria z dokładnością do około 0,1 magnitudo. Dane można łatwo przechowywać na dysku i odtwarzać w dowolnym czasie. Dzięki szybkiemu porównaniu z obrazem wzorcowym możliwe jest wykazanie znaczących zmian jasności. Ten szczęśliwy stan rzeczy łagodzony jest koniecznością wydania sporej sumy pieniędzy na sprzęt. Oprócz teleskopu napędzanego na wyposażeniu znajduje się kamera CCD i komputer oraz niezbędne oprogramowanie. Zatem uzyskanie pierwszego znaczącego obrazu CCD AGN może
kosztować obserwatora kilka tysięcy dolarów. Ponadto nie wszystkie matryce CCD mają tę samą czułość. Większość z nich ma odchylenie czerwone, co zniekształca wyniki, ale różne aparaty mają różne profile, więc aby fotometria była naprawdę użyteczna dla profesjonalistów, coraz wyraźniej widać, że potrzebna jest filtracja (patrz CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW, FILTRY ). Ostatecznie dopuszczalne może być użycie tylko filtrów B i V, nawet jednego z nich. Jednak proste monitorowanie bez fotometrii nie wymaga obrazów z filtrem, co może być nadal przydatne, nawet jeśli obserwator nie ma dostępu do żadnych filtrów. Obecnie większość obserwacji ma charakter wizualny, z pewnymi obrazami CCD, ale w miarę zwiększania się liczby użytkowników CCD poszukujących poważnych projektów, nacisk może się zmienić. AGN stanowią wspaniałe wyzwanie dla poważnego obserwatora-amatora, który pragnie wnieść swój niewielki wkład w dziedzinę nauki, w której profesjonaliści chętnie przyjmą pomoc, jeśli zostanie ona udzielona
ostrożnie. Choć nie zapewniają zbyt wielu spektakularnych widoków, AGN pobudzają wyobraźnię w sposób równie satysfakcjonujący dla dociekliwego umysłu. Techniki są udoskonalane, jakość wyników będzie coraz bardziej udoskonalona, a badania najgłębszych obiektów głębokiego nieba wkrótce nabiorą tempa.
Aktywne galaktyki: Przegląd
Zdefiniowanie "AKTYWNEGO JĄDRA GALAKTYCZNEGO" (AGN) może być trudne. Ostatnie dwa słowa są stosunkowo proste, ponieważ AGN jest wydarzeniem energetycznym, którego nigdy nie można znaleźć nigdzie we wszechświecie, z wyjątkiem centralnych parseków galaktyki. Nie jest to zaskakujące, ponieważ jakiekolwiek tarcie dynamiczne powinno wkrótce zmusić bardzo masywny, zwarty obiekt do osadzenia się w centrum galaktycznego pola grawitacyjnego ma potencjał. Mówi się, że JĄDRO AGALAKTYCZNE jest "aktywne", jeśli generuje "znaczną" (lub wykrywalną) ilość energii w wyniku procesów innych niż te występujące gdziekolwiek indziej w galaktykach. Oznacza to, że energia "aktywności" nie jest wytwarzana w wyniku ewolucji gwiazd i materii międzygwiazdowej. Definicja ta jest czysta, ponieważ jest teoretyczna. Rzeczywiste zadanie obserwacyjne polegające na identyfikacji AGN może być trudne, zwłaszcza gdy aktywność gwiazd pozagwiazdowych jest słaba w porównaniu z tłem normalnych procesów gwiezdnych, w tym narodzin i śmierci. Znacząca klasyfikacja AGN jest trudniejsza. Zrozumienie ich fizycznej natury jest jeszcze trudniejsze. Problemy są jeszcze bardziej skomplikowane, ponieważ aktywność niegwiazdowa uwalnia energię w wielu postaciach i przy długościach fal fotonów obejmujących prawie całe widmo elektromagnetyczne. Ponieważ instrumenty i metody obserwacyjne różnią się znacznie w zależności od pasma fal, zaproponowano wiele nakładających się schematów i modeli klasyfikacji specyficznych dla długości fali. Nic dziwnego, że astronomowie jako pierwsi dowiedzieli się o bardziej spektakularnych i świetlistych przykładach AGN. Jądra te były na tyle jasne, że mogły przyćmić całą galaktykę, w której się znajdowały. Były też bardzo odległe i często nie było możliwe, zanim bardzo czułe obrazowanie wykryło otaczającą galaktykę, odróżnienie ich wyglądu optycznego od wyglądu gwiazdy. Doprowadziło to do określenia ich jako obiektów quasi-gwiazdowych. Niektóre z pierwszych z nich były także potężnymi źródłami radiowymi i wkrótce termin ten został skrócony do "kwazaru", który obecnie ogólnie odnosi się do wszystkich AGN o dużej jasności. Ich wyjątkowa natura stała się bardziej oczywista, gdy badano ich widma, w niemal każdym obszarze długości fali. Te unikalne właściwości odkryto obecnie w aktywnych jądrach o niezwykłym zakresie jasności1. Istnieją jedynie zaskakująco subtelne różnice spektroskopowe pomiędzy kwazarem o jasności 1048erg s-1 a tym, co wcześniej zidentyfikowano jako "jądro galaktyki Seyferta" o jasności 1042erg s-1. Dowody są przytłaczające, że te dwie kategorie astronomiczne muszą mieć jedno wspólne wyjaśnienie fizyczne. Dlatego dzisiaj prawie nie dokonuje się rozróżnienia między "kwazarem" a "jądrem Seyferta 1", ponieważ ich główna różnica polega (nieco arbitralnie) na ich jasności.
Zrozumienie silnika centralnego w AGN
Istnieje kilka kluczowych pomysłów, które są wykorzystywane do organizowania i nadania sensu naszym obszernym i rosnącym informacjom obserwacyjnym na temat AGN.
Ujednolicone modele
Od najwcześniejszych badań AGN uznano, że mogą one wykazywać silne różnice obserwacyjne pomimo wielu innych podobieństw. Wydaje się, że dwie cechy mają wystarczająco bimodalny rozkład, aby uzasadnić użycie ich do podziału AGN na dwie pary klas: silna emisja radiowa (która odróżnia radiogłośną (RL) od radiosłabej (RW)AGN) i szeroko dozwoloną emisję liniową (która odróżnia jądra Seyferta typu 1 od typu 2). Większość kwazarów to jedynie umiarkowanie silniejsze źródła radiowe niż zwykłe galaktyki. (Czasami określa się je jako ciche radiowo (RQ) AGN, choć ściśle mówiąc szczerze, emitują pewien strumień radiowy, więc RW jest dokładniejszym opisem.) Ważna mniejszość kwazarów jest dobrze znana z wiązek wysokoenergetycznych cząstek, które przyspieszają. Emisja radiowa z tych odrzutowców jest prawie zawsze dwubiegunowa, co jest kluczowym wskaźnikiem tego, że silnik centralny może mieć symetrię osiową. W wielu modelach ta oś dżetu jest osią obrotu centralnej masywnej czarnej dziury. Najbardziej dramatyczna podpróbka RLAGN, "blazary" (luźno nazwana na cześć prototypowego obiektu BL Lacertae), silnie spolaryzowane, gwałtownie zmienne, strome czerwone kontinuum, została zidentyfikowana jako nietermiczna emisja synchrotronowa. Blazar to nieformalny termin używany do określenia prototypowych nietermicznych obiektów BL Lacertae (z bardzo słabymi liniami emisyjnymi), a także gwałtownie zmiennych optycznie kwazarów. Mapy interferometryczne pokazały, że emisja radiowa zdominowana przez jądro generalnie miała jednostronny dżet, który często wydaje się rozszerzać z pozornymi prędkościami poprzecznymi kilka razy większymi niż ok. Najbardziej ekstremalne z tych obiektów wydają się emitować znaczną część swojej energii w postaci promieni gamma, a być może nawet do energii TeV. Wszystkie te niezwykłe (i wyraźnie niegwiazdowe) właściwości blazarów zostały wkrótce zrozumiane jako wynik obserwacji relatywistycznego strumienia (elektronów i protonów lub pozytonów), który wyłania się z aktywnego jądra blisko naszej linii wzroku. Ten niemal "biegunowy" kąt widzenia powoduje kilka efektów relatywistycznych, takich jak wzmocnienie Dopplera "wiązki" emisji synchrotronowej i kompresja pozornych skal czasowych, co uwzględnia "ruch nadświetlny" bez naruszania szczególnej teorii względności. Jednostronny charakter najbardziej wewnętrznych dżetów przypisuje się zwykle "faworyzowaniu Dopplera". Jeśli obecnie występuje wypływ w przeciwnym kierunku (co przewidują niektóre modele teoretyczne, ale jeszcze nie zostało potwierdzone), jest on niewidoczny, ponieważ dewzmocnienie Dopplera powoduje, że jest on tysiące razy słabszy. Bezpośrednią konsekwencją wyjaśnienia RL AGN zdominowanego przez jądro jest to, że więcej AGN ze strumieniami radiowymi musi być skierowanych w stronę od Ziemi. Muszą one być wykrywalne na podstawie ich emisji izotropowej (linie lub rozległe płatki radiowe) jako RLAGN zdominowane przez płatki lub być może "radiogalaktyki" (których właściwości optyczne mogą obejmować obszary linii emisyjnych Sefyert 2 lub nawet obszary linii emisyjnych o niskiej jonizacji (LINER)). Linie emisyjne (niepromieniowane) mogą być wykrywalne lub nie, ale są trudniejsze do wykrycia w świetle wzmocnionego kontinuum nietermicznego strumienia. Badania te wykazały, że centralny silnik w AGN (przynajmniej RL) ma silną symetrię bipolarną, która została zachowana przez miliony lat lub dłużej w największych dwupłatowych źródłach radiowych. Udowodnili także, że obserwacyjny wygląd RLAGN może w ogromnym stopniu zależeć od kąta patrzenia. Jednakże nie jest jeszcze pewne, w jakim stopniu te same spostrzeżenia można przenieść do większości AGN, którymi są RW. Szerokie dozwolone linie emisyjne są zwykle uważane za jedną z cech charakterystycznych AGN. Powstają z fotojonizowanego gazu o dużej gęstości. Ich wysoki stan jonizacji i duży zakres prędkości wskazują, że powstają one w "obszarze szerokiej linii" (BLR) stosunkowo blisko centralnego silnika. Jednakże na każdą szerokoliniową AGN o danej jasności (sklasyfikowaną jako "Seyfert 1") przypada co najmniej jedno jądro galaktyczne, które w innym przypadku mogłoby zostać sklasyfikowane jako Seyfert, ale które nie ma emisji szerokoliniowych i jest klasyfikowane jako "Seyferta 2". W Seyfert 2 bezpośrednie oglądanie centralnego silnika i otaczającego go BLR jest trudne lub niemożliwe. W niewielkiej liczbie przypadków występują mocne dowody na istnienie silnika centralnego w postaci silnie pochłoniętego (NH ∼ 1023 cm-2) źródła kontinuum twardego promieniowania rentgenowskiego lub szerokich skrzydeł linii emisyjnej Balmera widocznych w widmie liniowym polaryzowane światło. Mniej bezpośrednim dowodem jest wykrycie emisji fluorescencyjnej z linii rentgenowskiej K? przy 6,4 keV. W niektórych Seyfertach 2 bardzo duża równoważna szerokość tej linii (około rząd wielkości większa niż w niezasłoniętych Seyfertach 1) jest interpretowana jako zasilana przez jądrowe źródło twardego promieniowania rentgenowskiego, z którego praktycznie nic nie jest widoczne wzdłuż naszej bezpośredniej odległości. linii wzroku do jądra. Podobny argument wysunięto na podstawie spektroskopii UV: zsumowanie wszystkich fotonów jonizujących wywnioskowanych z kontinuum UV wydaje się niewystarczające, aby uwzględnić cały wykryty strumień linii emisyjnej Seyferta, a zwłaszcza kontinuum podczerwieni powiązane z aktywnym jądrem. Zakładając, że kontinuum 2-10 μm w Seyfercie 1s i 2s to energia AGN, która została ponownie wypromieniowana przez ziarna pyłu (patrz sekcja "Przetwarzanie" poniżej), w Seyfercie 2 sugeruje się jeszcze więcej niewidocznej mocy niegwiazdowej. Ten "deficyt energii" przemawia za wysokoenergetycznym źródłem energii, które jest obecne, ale nie jest bezpośrednio obserwowalne. Jednakże argumenty te nie są rozstrzygające. Rachunek energii obarczony jest wieloma dużymi niepewnościami i istnieją inne wiarygodne wyjaśnienia linii emisyjnej K?, które nie wymagają istnienia zakopanego źródła promieniowania rentgenowskiego AGN. Chociaż trudno jest uzyskać bardzo czułe obserwacje wymagane w tych testach, wiele dokładnych obserwacji nie ujawniło żadnych bezpośrednich dowodów na niegwiazdowe kontinuum z centralnego silnika. Bardziej rozbudowane wskazania widoczne w tych Seyfertach 2 - linie wąskoemisyjne i źródła radiowe - mogły zostać wygenerowane przez AGN, który "wyłączył się" wieki temu. Rodzi to empiryczne pytanie, czy większość jąder Seyferta może włączać się i wyłączać na przestrzeni wieków. Chociaż żadnej nie obserwowano przez tak długi czas2, w ciągu dziesięcioleci obserwacji zaobserwowano bardzo niewiele kompletnych przejść Seyferta 2 ⟷ Seyferta 1. Niemniej jednak założenie ujednolicenia jest takie, że wszystkie Seyferty 2 mają obecnie aktywny silnik centralny, który jest po prostu bardzo zasłonięty. Nawet jeśli ujednolicenie jest ogólnie prawidłowe, wymaga po prostu optycznie gęstego gazu, co wiąże się z bardzo dużą ekstynkcją pyłu, pomiędzy nami a jądrami galaktyk Seyferta 2. Wiadomo jedynie, że ten zasłaniający obszar musi być wystarczająco duży, aby zakryć szeroki obszar linii emisyjnej, widziany przez znaczną część linii wzroku centralnego silnika3. Podobnie ziarna pyłu muszą przechwycić znaczną część centralnego kontinuum i ponownie je napromieniować, aby wytworzyć silną emisję w bliskiej do średniej podczerwieni, charakterystyczną dla jąder Seyferta 1 i 2. Popularna specjalna wersja unifikacji proponuje, aby ta pochłaniająca materia była silnie niesferyczna i rozmieszczona w grubym torusie (o charakterystycznej średnicy od parseków do dziesiątek parseków), który jest współosiowy z centralnym silnikiem. W modelu grubego torusa brak materiału zasłaniającego nad biegunami torusa umożliwia fotonom z centralnego silnika jądrowego rozproszenie się w wyraźnej linii wzroku do Ziemi. Rezultatem byłoby rozproszone widmo jądrowe - szerokie linie emisyjne i kontinuum niegwiazdowe - które obserwujemy tylko w świetle spolaryzowanym. Ponieważ torus ma być ustawiony w jednej linii z osią centralnego silnika, wektor polaryzacji E powinien być równoległy do osi radiowej. Ta ostatnia jest trudna do zmierzenia, ale jest w przybliżeniu równoległa do polaryzacji w niektórych z najlepiej zmierzonych Seyferta 2. Kolejnym słabym dowodem na preferowaną "oś ucieczki" dla jonizujących fotonów AGN jest luźna tendencja do tego, że rozszerzone zjonizowane linie emisyjne w Seyfercie 2 pochodzą z dwubiegunowych "stożków". Jednakże w wielu Seyfert 2 istnieją dowody (np. z obrazowania HST), że zamiast tego dużo zaciemnienia występuje w galaktycznych pasach pyłowych. Zaobserwowano, że mają one rozmiary setek parseków i w ogóle nie są powiązane z centralnym silnikiem, z wyjątkiem tego, że zdarza się, że zasłaniają nam widok. Nadal nie jest jasne, ile, jeśli w ogóle, Seyfertów 1 i 2 rzeczywiście zawiera kompletne, grube tori owinięte wokół centralnych silników.
Emisja cieplna z przepływu akrecyjnego
Uważa się, że ogromne ilości energii wytworzonej z bardzo małych objętości, które obserwuje się w świecących kwazarach, powstają w wyniku akrecji czarnych dziur. Aby uniknąć znacznego przekroczenia granicy Eddingtona, akreujące czarne dziury muszą mieć masy kilku 106 -109 Słońc. Jednak konwersja potencjalnej energii grawitacyjnej napływającej materii na promieniowanie nie jest wcale wydajna, jeśli występuje opad czysto promieniowy. Również ogólne rozważania na temat momenut pędu gazu głęboko w jądrze galaktycznym silnie sugeruje, że przepływ akrecyjny musi w końcu szybko się obracać, ponieważ zbliża się do czarnej dziury. Wtedy możeakreować i zasilać AGN tylko wtedy, gdy doświadcza tarcia. Choć nie jest to jeszcze dobrze poznane, ten kluczowy proces przenosi moment pędu na zewnątrz, umożliwiając zasilenie czarnej dziury. Akrecji tej towarzyszy duże uwolnienie energii radiacyjnej, która zasila AGN. Fakt, że moment pędu jest ważny w przepływie akrecyjnym, potwierdza obserwacja, że silnik centralny jest dwubiegunowy. Jej oś symetrii jest naturalnie zidentyfikowana z osią wirowania przepływu akrecyjnego i jest kierunkiem najbardziej prawdopodobnych wypływów. Istnieją również dowody obserwacyjne na to, że obserwujemy bezpośrednio promieniowanie emitowane termicznie z tego strumienia akrecyjnego, gdy spiralnie wpada on do czarnej dziury. Jedną z charakterystycznych cech widma centralnego źródła kontinuum AGN jest szeroki garb, który wydaje się osiągać szczyt gdzieś w zakresie UV. To przegięcie, określane jako "nadmiar ultrafioletu" lub "duży niebieski guz", często zawiera największą część całkowitej jasności AGN.
Główne argumenty przemawiające za termicznym pochodzeniem tego kontinuum niebieskiego - UV są następujące.
• Jego kształt widmowy. Szeroki pik w zakresie UV można dopasować poprzez sumę obszarów emitujących ciepło w zakresie temperatur, ze środkiem w okolicach ∼30 000 K. W prostym, optycznie grubym dysku akrecyjnym, jakiego można by się spodziewać w przypadku większości świecących AGN, temperatura termiczna przepływ akrecyjny jest proporcjonalny do r-3/4. Po uwzględnieniu poprawek relatywistycznych suma emisji cieplnej z pierścieni o różnych promieniach daje widmo z szerokim pikiem, które jest płaskie w jednostkach gęstości strumienia (F? = stała) i ma obrót o wysokiej częstotliwości. Modele, które traktują dysk jako sumę ciał doskonale czarnych, zapewniają wyjątkowo dobre dopasowanie do wszystkich rozkładów energii widmowej optycznej i UV obserwowanych w AGN.
• Częstotliwość szczytowa. Efektywna temperatura przepływu akrecyjnego jest w przybliżeniu określona przez równowagę pomiędzy grawitacyjną energią potencjalną uwolnioną w wyniku akrecji lepkiej a emitowanym promieniowaniem4. W cienkim dysku warunek ten wynosi Tackrecja = (3GMbhM˙/8πr3)1/4 = (30 000K) (M8)1/4(L/LEddington)1/2. Jasności i częstotliwości szczytowe obserwowane w widmach kontinuum jąder Seyferta 1 i kwazarów są zgodne z temperaturami równowagi przewidywanymi dla akrecji dysku. Wymagane odpowiednie szybkości opadania masy wynoszą ∼ kilka procent i ∼ dziesiątki procent wartości granicznej Eddingtona dla wywnioskowanych mas czarnych dziur
Nawet w przypadku najwyższych możliwych wartości lepkości (odpowiadających najszybszemu dopływowi) akrecji. W rzeczywistości momenty lepkie transportują część tej energii potencjalnej na zewnątrz, ale większość z niej powinna ostatecznie wyłonić się w postaci fotonów. Powyżej szybkości akrecji Eddingtona dysk powinien nieco pogrubić, ale jego ogólne właściwości obserwacyjne mogą nie ulec znaczącym zmianom. nadal oczekuje się, że przepływ będzie bardzo nieprzezroczysty dla rozpraszania elektronów i prawdopodobnie będzie faktycznie gruby optycznie (τefektywny = (τesτff)1/2 > 1). Najlepszym obserwacyjnym dowodem na to jest wysoka wnioskowana emisyjność gazu emitującyego kontinuum UV. Prawdą jest, że optycznie cienkie modele termiczne mogą również pasować do obserwowanego kontinuum optyczno-UV. Charakterystyczne temperatury emisji bremstrahlung musiałyby wynosić 100 000 K lub więcej, ponieważ szczyty emisji wolnych i wolnych gazów osiągają przy około νthin = kT /h, a nie wyższej wartości dla funkcji Plancka: νthick = 3kT /h. Linie emisji EUV, których można się spodziewać z tak jasnej plazmy jeszcze nie zaobserwowano. Najpoważniejszą trudnością związaną z hipotezą free-free jest wyjaśnienie, w jaki sposób bardzo duża jasność kontinuum kwazara jest emitowana z małego obszaru. Aby jasność UV świecącego kwazara, takiego jak 3C 273, zmieniała się w wielomiesięcznych skalach czasowych, potrzebny jest mały obszar emitujący ciepło o wysokiej emisyjności, w rzeczywistości tak wysokiej, że emiter musi mieć głębokość optyczna przekraczająca 1. W tym momencie emitowane widmo będzie bardziej przypominało emisję optycznie gęstą niż optycznie cienkie widmo Lν ∝ exp(?h?/kT ). Główne ograniczenia lub niekompletność modelu cienkiego dysku akrecyjnego to słabość wszelkich obserwowanych cech widmowych na granicy Lymana, mała ilość polaryzacji liniowej oraz dowody monitorowania wielofalowego dotyczące ponownego przetwarzania, omówione w następnej sekcji. Widmo wychodzące z dysku akrecyjnego przy danym promieniu zależy od pionowej struktury "atmosfery" dysku. Pierścień dysku akrecyjnego różni się radykalnie od atmosfery jakiejkolwiek gwiazdy, ale ostatnio stało się możliwe obliczeniowo stworzenie realistycznych modeli widma wschodzącego innego niż LTE. Wiele pierścieni dysku emitujących promieniowanie UV ma wystarczająco niskie temperatury, aby nadal zawierać pewną część obojętnego wodoru. Powinno to prowadzić do gwałtownego wzrostu nieprzezroczystości wolnej od wiązań wzdłuż krawędzi Lymana. Niektóre modele przewidują, że doprowadzi to do skoku widmowego, przy czym strumień powyżej granicy Lymana będzie wyższy lub niższy niż strumień poniżej. Nieciągłości tych na ogół nie obserwuje się. Nieprzezroczystość dysku akrecyjnego jest prawdopodobnie zdominowana przez rozpraszanie elektronów. Czysta atmosfera rozpraszająca elektrony o nieskończonej głębokości optycznej, oglądana przy średnim nachyleniu cos i = 0,5, powinna emitować kontinuum termiczne, które jest spolaryzowane liniowo prawie 3%. Kąt położenia wektora elektrycznego powinien być równoległy do rzutowanej głównej osi dysku - prostopadły do osi obrotu dysku. Jednakże obserwacje pokazują, że większość polaryzacji AGN wynosi poniżej 0,5% w zakresie UV. Ponadto w przypadkach, w których można zdefiniować "oś" radiową, zazwyczaj nie jest ona prostopadła do wektora E strumienia spolaryzowanego. Największą niepewnością w tym teście są założenia, że powierzchnia dysku jest idealnie płaska i że pola magnetyczne w dysku są na tyle małe, że nie powodują zauważalnej rotacji Faradaya. Jedną z wad prostych modeli cienkiego dysku akrecyjnego, która może być powiązana z tymi konfliktami obserwacyjnymi, jest prawdopodobna obecność gorącej, optycznie cienkiej korony nad fotosferą powierzchni dysku. Szybkie elektrony w tym gazie o małej gęstości mogą komptonizować fotony termiczne uciekające z gęstego dysku, modyfikując ich widmo i polaryzację.
Utylizacja
W najprostszych modelach dysku akrecyjnego cała energia cieplna emitowana przez dysk pochodziła bezpośrednio z energii potencjalnej grawitacji, która jest transportowana na zewnątrz przez lepkie momenty obrotowe. Wiemy jednak, że AGN emituje również do 10% lub 20% swojej jasności przy częstotliwościach rentgenowskich. Te energie fotonów są zbyt wysokie, aby można je było łatwo wytłumaczyć paradygmatem termicznego dysku akrecyjnego, a ich strumień w pobliżu centrum jest bardzo duży. W zależności od geometrii część promieni rentgenowskich może zostać ponownie wchłonięta przez gęsty optycznie gaz akrecyjny, zanim uda im się uciec. Aby wyjaśnić garb "odbicia Comptona" obserwowany wokół 10-30 keV, prawdopodobnie wymagana jest pewna absorpcja promieni rentgenowskich. Przypuszcza się, że przyczyną powstania silnej linii emisyjnej Fe K? obserwowanej w wielu AGN jest ponowne przetwarzanie promieni rentgenowskich. Ponowne przetwarzanie fotonów o promieniach znacznie większych niż te, z których pochodzą, ma tendencję
do degradacji energii uciekających fotonów. W najprostszym przypadku, gdy równowaga temperatury ciała doskonale czarnego materii poddawanej ponownemu przetworzeniu spada jako Tequil &prop L1/4r-1/2 (gdzie L jest jasnością centralnego źródła punktowego), powstałe widmo kontinuum termicznego ma tendencję do stromego opadania do nachylenia Lν ∝ ν?-1. Musi nastąpić pewne ponowne przetwarzanie; główne pytania brzmią: gdzie i za ile? Odpowiedź na pierwsze pytanie jest łatwa, zakładając, że zaabsorbowane fotony ulegają termizacji: promień ponownego przetwarzania określa poziom Tequil powstającego promieniowania, który powinien wynosić około kilku hν/kTequil. Na drugie pytanie można odpowiedzieć, jeśli potrafimy zmierzyć ułamek całkowitej ilości energii, która została pochłonięta. Jeśli założymy, że materia powtórna (gaz i pył, jeśli Tequil ma temperaturę poniżej 1000 K) jest nieprzezroczysta dla przychodzących fotonów o
wysokiej energii, wówczas budżet energii może nam powiedzieć, jaki jest jej całkowity ułamek pokrycia nieba, tj. ułamek nieba widziany przez centralne kontinuum "źródło punktowe", które jest pokryte absorberami. Z definicji przetworzona jasność nie może przekraczać jasności pierwotnego źródła kontinuum wysokiej energii w centrum. W rzeczywistości jest mało prawdopodobne, aby ich jasność była w ogóle równa, ponieważ oznaczałoby to, że 100% linii wzroku prowadzących do środka jest zablokowanych, a w takim przypadku nie powinniśmy w ogóle widzieć tego bezpośrednio. Najlepszym obserwacyjnym dowodem ponownego przetwarzania jest wykazanie, że zmienność czasowa w pierwotnym paśmie fali jest następnie powielana przez te same zmiany strumienia na długości fali poddanej ponownemu przetwarzaniu, z wyjątkiem opóźnienia. Czas opóźnienia w tym "pogłosie" powinien być równy czasowi potrzebnemu światłu na podróż przez obszar, którego promień jest określony przez wartość Tequila oczekiwaną dla długości fali ponownie
przetworzonego kontinuum. Najlepszym dowodem na ponowne przetwarzanie jest kontinuum bliskiej podczerwieni, które niesie ze sobą znaczną część (20% lub więcej) całkowitego budżetu energetycznego większości AGN. W kilku przypadkach jednoczesne monitorowanie bliskiej podczerwieni i kontinuum optycznego lub UV wykazało oczekiwane skorelowane rozjaśnianie i blaknięcie. Opóźnienie krzywej blasku w podczerwieni w stosunku do krzywej blasku przy krótszych falach jest zgodne z reemisją termiczną przez ziarna gorącego pyłu w ciągu roku świetlnego (lub nawet miesiąca świetlnego) centralnej elektrowni. Reakcją są głównie najgorętsze ziarna, które przeżywają w temperaturze tuż poniżej temperatury sublimacji wynoszącej około 1000-1500 K. Odległość od centralnego silnika, w której pył osiąga tę temperaturę, jest proporcjonalna do pierwiastka kwadratowego z centralnej jasności, co wyjaśnia zakres oczekiwanego promienia pogłosu pyłu. Mniej zdecydowane dowody sugerują, że część kontinuum optycznego, a być może nawet
kontinuum UV, w niektórych jądrach Seyferta 1, może mieć wymierny udział ponownie przetworzonych promieni rentgenowskich. Dzieje się tak na kilku dobrze próbkowanych krzywych rentgenowskich i optycznych-UV, w których wykryto korelację i opóźnienie. Opóźnienia są tak małe, że sugerują, że wpływ fotonów o wysokiej energii rozprzestrzenia się na zewnątrz, do obszaru emitującego niską energię, z bardzo dużą prędkością. Opóźnienia są zgodne z tą prędkością wynoszącą c, tak jak powinno być, jeśli wpływ przenoszą fotony, które są następnie ponownie przetwarzane. Jednakże zmienność promieni rentgenowskich (w innych galaktykach, a także w niektórych galaktykach Seyferta 1 w innych epokach) często nie jest skorelowana ze zmianami na innych długościach fal, co budzi wątpliwości, czy duża część światła optyczno-UV w większości AGN jest w rzeczywistości przetwarzany na podstawie promieni rentgenowskich.
Wpływ galaktyk macierzystych
Galaktyki posiadające jądra Seyferta stanowią jedynie ułamek wszystkich galaktyk. Oszacowanie to komplikuje trudność zidentyfikowania AGN przy bardzo niskich jasnościach gwiazd niegwiazdowych. Na przykład wiele galaktyk ma słabe widma linii emisyjnych ze stosunkami linii pośrednimi pomiędzy widmami obszarów HII i jąder Seyferta, które określa się mianem galaktyk typu "LINER". Chociaż widma LINER można wytłumaczyć szybkimi wstrząsami, nadal można je uwzględnić jako posiadające aktywne jądra (a przypadek staje się coraz silniejszy w przypadku przynajmniej niektórych członków tej heterogenicznej klasy). Jeśli tak, to jest nawet możliwe, że większość galaktyk jest w pewnym sensie "aktywna". Najbardziej ostatecznym dowodem na istnienie prawdziwie niegwiazdowego jądra jest prawdopodobnie zwarte centralne źródło twardego promieniowania rentgenowskiego, najlepiej zmiennego. Jednakże zostałoby to przesłonięte przez gaz o gęstości kolumny 1025 cm-2, który jest optycznie gruby w porównaniu z rozpraszaniem elektronów Thomsona twardych promieni rentgenowskich. Może nie być całkowicie zaskakujące, że poza jądrem "galaktyki macierzyste" same w sobie prawie nie różnią się od galaktyk pozbawionych oczywistego AGN. Bardzo silny AGN może mieć ograniczony wpływ na ośrodek międzygwiazdowy swojej galaktyki, np. jonizując go, szokując i ściskanie go, a w niektórych szczególnych przypadkach nawet wywoływanie formowania się gwiazd, na przykład w pobliżu wypływającego strumienia. Głębszą tajemnicą jest przede wszystkim to, jakie właściwości galaktyki powodują AGN. Dwa najbardziej oczywiste to pochodzenie masywnej czarnej dziury i zdolność do dostarczenia wystarczającej ilości paliwa blisko jądra, aby ją "zasilić". Powstawanie masywnej czarnej dziury prawdopodobnie wymaga dynamicznego zapadnięcia się gęstej gromady gwiazd w gęstym centrum galaktyki. Ponieważ uważa się, że pierwsze gęste struktury, które łączą się w młodym wszechświecie, to wybrzuszenia protogalaktyczne, istnieje słaba teoretyczna motywacja do łączenia masywnych czarnych dziur ze współczesnymi wybrzuszeniami. Dramatycznie wyższa (o rzędy wielkości) właściwa gęstość przestrzeni świecącego AGN we wczesnym Wszechświecie wymaga, aby wiele pozornie "normalnych" dzisiejszych galaktyk musiało kiedyś posiadać centralny silnik AGN. Jeśli była to czarna dziura, powinna nadal być obecna i może zostać wykryta na podstawie przyspieszenia grawitacyjnego gwiazd i gazu w ciągu kilkuset parseków. (Grawitacja czarnej dziury o masie Mbh dominuje w promieniu w przybliżeniu GMbh/σ2, gdzie σ jest charakterystycznym rozproszeniem prędkości w układzie gwiazdowym). Obszar ten jest na tyle mały, że można go rozróżnić optycznie jedynie w najbliższych galaktykach z najlepszymi spektrografami (Kosmiczny Teleskop Hubbl′a lub teleskopy naziemne o doskonałym widzeniu). Kinematyczne poszukiwania pobliskich masywnych czarnych dziur (przy użyciu spektroskopii Dopplera do pomiaru prędkości orbitalnych wokół jądra) są wciąż w początkowej fazie i dokonano mniej niż kilkudziesięciu odkryć . Dają one wstępną sugestię, że masa centralnej czarnej dziury może korelować liniowo z całkowitą masą wybrzuszenia galaktycznego, przy stałej normalizacji wynoszącej około pół procent. Jednakże ta rzekoma korelacja może mieć ogromny rozrzut lub nawet może nie okazać się znacząca, jeśli intensywnie bada się bezstronną próbkę galaktyk i uwzględni się wszystkie górne granice Mbh. W niedalekiej przyszłości zbiór galaktyk o wiarygodnych masach centralnych czarnych dziur będzie niestety w bardzo niewielkim stopniu przecinał się ze zbiorem aktywnych jąder, dla których można będzie podjąć próbę oszacowania masy. Dzieje się tak, ponieważ tę drugą mierzy się na podstawie emisji niegwiazdowej, podczas gdy ta pierwsza pochodzi z emisji nieaktywnej. Jeśli jeden z nich dominuje i można go łatwo zbadać, drugi nie będzie dobrze mierzony. Niemniej jednak obecne dowody na temat czarnych dziur, głównie w nieaktywnych galaktykach, sugerują, że jest to kluczowy potencjał i składnik centralnego silnika - masywna czarna dziura - może występować w wielu, a nawet w większości galaktyk. Fakt, że większość z nich dzisiaj nie jest Seyfertami, należy zatem przypisać brakowi paliwa. Nawet zakładając najbardziej wydajne znane modele, dyski akrecyjne czarnych dziur, energetyka najpotężniejszych kwazarów wymaga dostarczenia dziesiątek mas Słońca rocznie do centralnego parseka galaktyki. Aby osiągnąć tak mały promień, paliwo - prawdopodobnie gaz - musi zasadniczo stracić cały swój orbitalny moment pędu. Z podstaw teoretycznych wymagane momenty obrotowe mogą być zapewnione przez zniekształcenia i asymetrie potencjału grawitacyjnego galaktyki macierzystej, takiej jak słupki. Niestety, trudno było wykazać duży związek pomiędzy obecnością bliskich towarzyszy a aktywnym jądrem. Nie ma również korelacji między słupkami a aktywnością Seyferta. Jedną z możliwości jest to, że kraty i/lub spotkania wzmagają aktywność jądrową jedynie z dużym opóźnieniem (być może o miliard lat), ponieważ mogłoby to spowodować aby zająć tyle orbit, aby gaz ostatecznie opadł do jądra. Jedną z możliwych oznak tego jest odkrycie, że galaktyki Seyferta częściej wykazują pierścienie, które mogą być długowiecznymi reliktami poprzeczek, które już się rozproszyły. Prawdopodobnym powiązaniem pomiędzy aktywnością Seyferta a wcześniejszą aktywnością gwiazdotwórczą jest obserwacja, że dyski galaktyk macierzystych Seyferta mają zwykle wyższą jasność powierzchniową niż galaktyki inne niż Seyfert.
Perspektywy na przyszłość
Zrozumienie AGN jest problemem poważnie ograniczonym w zakresie danych. Jej typowa zmienność świadczy o tym, że silnik centralny nie jest w stanie ustalonym. Próbując to zrozumieć, możemy przekształcić to w atut, ale tylko wtedy, gdy uda nam się uzyskać obszerne, prawie ciągłe historie czasowe emisji z poszczególnych AGN. Oprócz ograniczonego próbkowania w czasie istnieją dwa najpoważniejsze ograniczenia obserwacyjne.
• Nieodpowiednie obserwacje wielu obszarów długości fal, w których emituje AGN. AGN należą do najbardziej szerokopasmowych emiterów we wszechświecie i wiele długości fal, przy których emitują, jest blokowanych przez atmosferę ziemską lub, co bardziej istotne, przez absorpcję H I w ośrodku międzygalaktycznym (krótko od długości fali spoczynkowej wynoszącej 912 Å).
• Nieodpowiednia rozdzielczość przestrzenna. Największe odpowiednie skale dla większości interesujących i ekstremalnych zjawisk AGN są rzędu 10 szt. lub nawet mniej.
Na szczęście oba te ograniczenia szybko znikają wraz z pojawieniem się nowych detektorów i obserwatoriów. Kluczowe obserwacje AGN w ciągu następnej dekady skorzystają z nowych i planowanych obserwatoriów kosmicznych oraz nowych technik naziemnych, takich jak interferometria. Ponadto, maksymalna rozdzielczość przestrzenna staje się dostępna dzięki intensywnemu monitorowaniu w celu wykrycia opóźnień w przejściu światła, jak w przypadku mapowania pogłosu.
Aktywne galaktyki: model ujednolicony
Obiekty znane jako "AKTYWNE JĄDRO GALAKTYCZNE" (AGN) można pogrupować w szeroką gamę fenomenologicznych podklas, które mają wiele nakładających się lub podobnych właściwości. Pierwszymi znanymi "galaktykami aktywnymi" były galaktyki spiralne o dużej jasności powierzchniowej, zidentyfikowane przez Carla Seyferta w 1943 r. Prawie dwie dekady później pierwsze radiowe przeglądy nieba doprowadziły do identyfikacji innych obiektów (galaktyk radiowych, takich jak Centaurus A i kwazary, takie jak 3C 48), które obecnie również uważamy za galaktyki aktywne, chociaż w momencie odkrycia podobieństwa między źródłami radiowymi a spiralami Seyferta nie były oczywiste. Wczesne niepowodzenia w rozpoznaniu podstawowych podobieństw tych obiektów wynikały głównie z zastosowania różnych technik identyfikacji izolowanych, ekstremalnych członków populacji aktywnych galaktyk: identyfikacja źródeł radiowych zwykle dawała kwazary o stosunkowo dużej jasności i dużym przesunięciu ku czerwieni (skrót od "kwazigwiazdowych źródeł radiowych" ), często należący do klasy "blazarów", w której większość obserwowanego widma dominuje emisja promieni z relatywistycznego dżetu. Z drugiej strony identyfikacja jasnych jąder galaktycznych doprowadziła do identyfikacji przestrzennie powszechnych, stosunkowo cichych radiowo jąder Seyferta o stosunkowo niskiej jasności . Dopiero pod koniec lat sześćdziesiątych i siedemdziesiątych XX wieku optyczne kryteria detekcji oparte na kolorze (albo wielokolorowa fotometria szerokopasmowa, albo spektroskopia niskodyspersyjna) zaczęły dostarczać wystarczająco duże próbki AGN zarówno o wysokiej, jak i niskiej jasności, że podstawowe podobieństwa zaczęły się ujawniać. jasne. Rzeczywiście, selekcja AGN na podstawie koloru doprowadziła do odkrycia, że większość AGN o dużej jasności nie należy do odmiany kwazarów "głośnych radiowo", ale są to źródła "ciche radiowo", które zaczęto nazywać "OBIEKTAMI KWASISTELLARNYMI" (QSO). ). Pomimo pojawiających się podobieństw pomiędzy galaktykami Seyferta i QSO, zidentyfikowano także istotne różnice pomiędzy typami AGN, co doprowadziło do szerokiej i dość złożonej taksonomii AGN. Porównanie różnych typów AGN powinno pomóc nam zrozumieć, które zjawiska mają fundamentalne znaczenie dla aktywności jądrowej, a które są w jakiś sposób przypadkowe lub wtórne. W niektórych przypadkach, jak zobaczymy poniżej, różnice między różnymi typami można wykorzystać do wnioskowania o strukturze źródła w skali zbyt małej, aby można ją było bezpośrednio określić. Niektóre z ważnych pytań, które pojawiają się w tym kontekście, są następujące. Dlaczego tylko około 10% aktywnych galaktyk jest głośnych w trybie radiowym? Dlaczego szerokie linie emisyjne są słabe lub nieobecne w widmach UV-optycznych obiektów BL Lac? Dlaczego niektóre galaktyki Seyferta nie mają szerokich linii emisyjnych?
Zjednoczenie
Zasady
Próbując wyjaśnić różnice pomiędzy różnymi klasami AGN, naszym celem jest wyjaśnienie jak najszerszej gamy zjawisk przy użyciu najprostszego modelu zgodnego z danymi. Prostą hipotezą wyjaśniającą znaczną część fenomenologii AGN jest to, że różnice między różnymi typami AGN wynikają z zależności orientacji; najprościej mówiąc, staramy się "ujednolicić" różne typy AGN w oparciu o jedną podstawową strukturę źródła, której wygląd dla obserwatora w dużym stopniu zależy od kąta patrzenia. Rzeczywiście istnieje wiele bezpośrednich dowodów na to, że AGN mają strukturę osiowosymetryczną i dlatego promieniują anizotropowo; obserwowalne właściwości konkretnego źródła będą zatem zależeć od lokalizacji obserwatora. W takich schematach "unifikacji AGN" postuluje się, że odmienny wygląd jednej klasy w porównaniu z drugą jest wynikiem oglądania tego samego typu obiektu pod innym kątem. Właściwości, które mogą zależeć od kąta widzenia i w ten sposób przyczyniać się do wewnętrznej anizotropii w tych źródłach, obejmują absorpcję przez pył lub gęsty optycznie gaz w dowolnym niesferycznie symetrycznym rozkładzie oraz ruch relatywistyczny, który prowadzi do dopplerowskiego wzmocnienia emisji, które osiąga szczyt w kierunku tego ruch. Schematy unifikacji obejmujące jedną lub obie te wewnętrzne właściwości źródła mają na celu wyjaśnienie przynajmniej części szerokiej różnorodności, którą obserwujemy w AGN pod względem różnic w kącie widzenia. Istnieje kilka schematów unifikacji mających na celu ujednolicenie dwóch lub więcej klas AGN, które odniosły pewien sukces; Oczywistym kluczowym elementem każdego planu unifikacji jest dowód jego wiarygodności. Jeśli postawimy na przykład hipotezę, że pewien specyficzny typ AGN (powiedzmy obiekty BL Lacertae) należy do jakiejś określonej szerokiej klasy lub "populacji rodzicielskiej" (powiedzmy, źródła radiowe klasy I Fanaroffa-Rileya), wówczas gęstość przestrzenna obiektów podklasa musi być zgodna z gęstością przestrzeni populacji macierzystej pomnożoną przez prawdopodobieństwo zaobserwowania członka populacji macierzystej w odpowiedniej orientacji. Określenie gęstości przestrzennej populacji rodzicielskiej jest często zadaniem samym w sobie trudnym i musi opierać się na identyfikacji źródła w oparciu o jakąś właściwość, która ma być izotropowa. Uważa się na przykład, że emisja twardego promieniowania rentgenowskiego jest emitowana w przybliżeniu izotropowo przez nieblazarowy AGN i w zasadzie emisja twardego promieniowania rentgenowskiego może być najlepszym sposobem na znalezienie jednorodnej próbki AGN. Rzeczywiście, twarde promienie rentgenowskie są prawdopodobnie warunkiem sine qua non aktywnego jądra. W praktyce jednak, stosunkowo niska czułość na twarde promieniowanie rentgenowskie ogranicza wykrywanie AGN do tych, które są stosunkowo blisko, a zatem pozornie jasne. W przypadku źródeł radiowych (w tym blazarów) zakłada się, że promieniowanie z optycznie cienkich, wydłużonych płatków jest emitowane izotropowo i w zasadzie można je wykorzystać do identyfikacji obiektów o wewnętrznie podobnej jasności.
Podstawowy model
Obecny paradygmat AGN opiera się na osiowosymetrycznym silniku centralnym, który składa się z dysku akrecyjnego otaczającego supermasywną (≳106M⊙) czarną dziurę. Przypuszcza się, że kontinuum optyczne UV powstaje głównie w dysku akrecyjnym. Z tego układu wzdłuż osi dysku wyłaniają się dwukierunkowe dżety relatywistyczne, emitując promieniowanie wzmocnione Dopplerem za pośrednictwem synchrotronu i odwrotnego mechanizmu Comptona. Uważa się, że zarówno dżety, jak i struktura dysku akrecyjnego przyczyniają się do emisji promieniowania rentgenowskiego. Szerokie linie emisyjne (których szerokość można scharakteryzować jako pełną szerokość w połowie maksimum, FWHM ≈ 1500-10 000 km s-1), które są tak widoczne w widmach UV-optycznych AGN, powstają w stosunkowo gęstych ( gęstości elektronowe ne ≈ 1011cm?3) obłoki gazu w odległościach od czarnej dziury od kilkuset do kilku tysięcy promieni grawitacyjnych (Rgrav = GM/c2, gdzie M to masa centralnej czarnej dziury, G to stała grawitacyjna, oraz c jest prędkością światła). W skali parseków cały ten układ jest osadzony w zakurzonym torusie, który jest nieprzezroczysty w większości widma elektromagnetycznego; torus ten odgrywa kluczową rolę w modelach unifikacji AGN, ponieważ osłania zarówno dysk akrecyjny, obszar broadline, jak i strukturę wewnętrznego strumienia przed bezpośrednim widokiem zewnętrznych obserwatorów w płaszczyźnie torusa. Torus pochłania promieniowanie ze źródła centralnego i ponownie emituje tę energię w podczerwieni. Wąskie linie emisyjne (FWHM ≲ 300-800 km s-1) powstają w chmurach o małej gęstości w skali torusa i poza nią, w większości napędzane promieniowaniem ze źródła centralnego, a zatem w dużej mierze ograniczone do położenia wzdłuż osi układu.
Schematy unifikacji AGN
Typy Seyferta
Prawdopodobnie najbardziej znanym schematem unifikacji jest schemat połączenia dwóch typów GALAKTYK SEYFERTA. W połowie lat 70. Khachikian i Weedman odkryli, że galaktyki Seyferta można podzielić na dwie klasy spektroskopowe: te z wąskimi i szerokimi liniami emisyjnymi (typ 1 lub Sy1) oraz te z tylko wąskimi liniami (typ 2 lub Sy2). Widma wąskoliniowe typów 1 i 2 są statystycznie nie do odróżnienia od siebie, więc Sy2 wydają się być Sy1 bez szerokich linii. Co więcej, Sy2 są zazwyczaj mniej świecące niż Sy1 o około 1 magnitudo w optycznej części widma. Doprowadziło to do hipotez unifikacyjnych, w których Sy2 są z natury Sy1, których kontinuum i emisja szerokopasmowa są tłumione w kierunku obserwatora. Hipoteza ta, choć prosta i atrakcyjna, miała dwie główne trudności: po pierwsze, dlaczego źródło kontinuum AGN wygasa tylko o kilka razy, a szerokie linie o widocznie większy czynnik? Po drugie, kształt kontinuum Sy2 nie wygląda jak kontinuum Sy1 AGN osłabione przez pył, tj. kontinuum Sy2 nie wydaje się być
silnie zaczerwienione w wyniku przejścia przez ośrodek, w którym przekrój poprzeczny absorpcji lub rozpraszania maleje wraz ze wzrostem długości fali. Przełom nastąpił na początku lat 80., kiedy Antonucci i Miller odkryli, że widma polaryzacyjne niektórych galaktyk Sy2, takich jak NGC1068, zawierają szerokie linie emisyjne, podobne do tych widocznych w widmach Sy1. Przynajmniej niektóre galaktyki Sy2 zawierają szerokie linie emisyjne, ale ich siła jest znacznie zmniejszona, tak że dominują w nich kontinuum i wąskie linie, z wyjątkiem oglądania w świetle spolaryzowanym. Ponieważ najczęstszą przyczyną polaryzacji jest rozpraszanie światła przez pył lub elektrony, obserwacja ta doprowadziła do interpretacji galaktyk Sy2 jako galaktyk Sy1 skierowanych krawędzią, w których optycznie gruby materiał o spłaszczonej geometrii przypominającej dysk zasłania nasz bezpośredni widok na galaktykę. szeroki obszar linii emisyjnej, jak opisano powyżej . Szerokie linie są widoczne w świetle spolaryzowanym, gdy są rozproszone w
naszym polu widzenia przez pył lub elektrony powyżej i/lub poniżej tego materiału. W przypadku NGC1068 światło kontinuum AGN jest spolaryzowane w ∼16%, niezależnie od długości fali w widmie UV-optycznym, co dowodzi, że mechanizmem rozpraszania są elektrony, a nie pył, ponieważ przekrój poprzeczny rozpraszania Thomsona jest niezależny od długości fali, podczas gdy pył rozpraszanie jest silnie zależne od długości fali. Istnieją jednak dowody na to, że w przypadku innych spolaryzowanych Sy2 rolę odgrywa również rozpraszanie pyłu. Widma polaryzacyjne tych Sy2 pokazują również, że linie emisyjne są silniej spolaryzowane niż kontinuum. Najwyraźniej istnieje drugi niespolaryzowany składnik pozbawionego cech kontinuum AGN, który stanowi około 60-90% całkowitego kontinuum i ma w przybliżeniu taki sam kształt widmowy jak składnik spolaryzowany. Pochodzenie składnika niespolaryzowanego jest niejasne, chociaż może wynikać z emisji swobodnej w samym obszarze rozpraszania. W każdym razie istnienie tego składnika
wyjaśnia, dlaczego kontinuum niegwiazdowe w Sy2 nie jest tak całkowicie stłumione, jak szerokie linie. Przewidywania względnych liczb każdej klasy stanowią ważny test, ale są bardzo wrażliwe na założenia, takie jak kąt otwarcia torusa i kątowa zależność jasności. W ramach tych ograniczeń liczby względne są zgodne z oczekiwaniami i wskazują kąty półotwarcia torusa wynoszące ∼60?. W miarę jak coraz więcej galaktyk Sy2 i AGN o niższej jasności, takich jak LINER (galaktyki z regionem emisji jąder o niskiej jonizacji), obserwuje się w świetle spolaryzowanym, odkrywanych jest więcej galaktyk Sy1 skierowanych krawędziowo. Nie jest jednak jeszcze jasne, czy wszystkie AGN, a nawet wszystkie galaktyki Seyferta pasują do tego schematu. Obecne badania pokazują, że współczynnik wykrywalności spolaryzowanych szerokich linii w galaktykach Sy2 wynosi około ∼50%, co sugeruje, że wiele galaktyk Sy2 albo nie posiada obszaru rozpraszającego, albo nie ma obszaru szerokich linii. Obserwacje rentgenowskie AGN również
ogólnie potwierdzają ten obraz zjednoczenia. Jasność promieniowania rentgenowskiego galaktyk Sy2 jest niższa niż galaktyk Sy1. Co więcej, galaktyki Sy2 mają znacznie większą absorpcję miękkiego promieniowania rentgenowskiego, co odpowiada równoważnym kolumnom obojętnego wodoru, NH ≈ 1022-23cm-2, w porównaniu z NH ≈ 1020-21 cm-2 dla galaktyk Sy1. Jest to zgodne z tym, że nasza linia wzroku przez AGN przebiega przez optycznie gruby torus zimnej materii. Podobny schemat unifikacji prawdopodobnie wyjaśnia różnicę pomiędzy "szerokoliniowymi galaktykami radiowymi" (BLRG), które można opisać z dokładnością pierwszego rzędu jako radiogalaktyki Sy1, a "wąskoliniowymi galaktykami radiowymi" (NLRG), które mają strukturę podobną do Sy2 widma optyczne. Schemat geometrii mającej na celu ujednolicenie radiogalaktyk o silnych liniach. Pozostałą zagadką jest widoczny brak równoważnego rozwidlenia w QSO o wyższej jasności; nie ma ogólnie przyjętej
klasy "QSO 2", która odpowiadałaby galaktykom Sy2 o niskiej jasności. Najbardziej prawdopodobnymi kandydatami na przesłane przez pył QSO są AGN wybrane w pobliżu podczerwieni, z których niektóre rzeczywiście pokazują szerokie linie w świetle spolaryzowanym, lub chłodniejsze, ultrajasne galaktyki IR (ULIRG), których emisja może być głównie spowodowana ponownym przetwarzaniem przez chłodny pył. W chwili obecnej jest jasne, że niektóre ULIRG zawierają niewidoczne AGN, ale inne są zasilane przez wybuchy gwiazd, a nie przez wierne AGN.
Kwazary i galaktyki radiowe zdominowane przez jądra i płatki
Jak zauważono wcześniej, tylko około 10% AGN to silne źródła radiowe. W tym podzbiorze istnieje szeroka gama radiomorfologicznych struktur od klasycznych źródeł podwójnego radia w skalach tak dużych jak megaparseki po małe źródła zdominowane przez rdzeń z niewielką lub żadną rozbudowaną strukturą. Źródła zdominowane przez jądro zwykle wykazują ruch nadświetlny, wskazując relatywistyczne prędkości wypływu w pobliżu naszej linii wzroku. Klasyczne podwójne źródła często mają jednostronne, silnie skolimowane struktury strumieniowe rozciągające się od ich zwartego rdzenia w kierunku jednego z wydłużonych płatów. Jednostronny charakter dżetów można zrozumieć w scenariuszu relatywistycznym, w którym zbliżający się dżet i przeciwnie skierowany oddalający się dżet są odpowiednio wzmacniane i przyciemniane metodą Dopplera przez efekty relatywistyczne. Zatem obie te właściwości są zgodne z relatywistycznymi dżetami powstającymi w rdzeniu źródła radiowego i zasilającymi płaty zewnętrzne. Sugeruje to, że główną zmienną rządzącą obserwowaną morfologią radioAGN jest jego orientacja w stosunku do naszej linii wzroku. W źródłach zdominowanych przez jądro patrzymy w dół na relatywistyczny dżet, podczas gdy w źródłach podwójnych dżet jest rzutowany na płaszczyznę nieba. Podstawowym testem tego schematu unifikacji jest porównanie względnej liczby źródeł zdominowanych przez rdzeń i płatek oraz rozkładu przewidywanych rozmiarów dla radioAGN z przewidywaniami modelu. Dżet jest wysoce skolimowany, więc główną niepewnością jest wielkość wzmocnienia spowodowana relatywistycznym ruchem w strumieniu, określona przez masowy współczynnik Lorentza γ = (1?V2/c2)?1/2, gdzie V jest wypływem prędkość, a c prędkość światła. Jest to zatem trudne aby dopasować obiekty zdominowane przez rdzeń i płatki pod względem wewnętrznej jasności, a tym samym zapewnić, że relatywistyczne efekty promieni nie będą uwzględniane w żadnych badaniach porównawczych. Ogólnie rzecz biorąc, badania te pokazują, że istnieje zbyt wiele źródeł zdominowanych przez rdzeń w porównaniu ze źródłami zdominowanymi przez płaty i że te pierwsze są zbyt duże, gdy zostaną odrzucone w oparciu o zaobserwowany współczynnik Lorentza. Brakuje także dżetów dwustronnych, czyli źródeł ustawionych w jednej linii z płaszczyzną nieba. Wiele z tych niespójności można rozwiązać, jeśli zjednoczenie obejmie bardzo jasne galaktyki radiowe FR II (BLRG i NLRG). W tym przypadku zdominowane przez płatki, głośno radiowe QSO są oglądane pod kątem pośrednim pomiędzy kątami radiogalaktyk, a QSO i większy rozmiar radiogalaktyk odpowiada rozmiarowi odrzutowanych źródeł z dominacją rdzeniową. Rozwiązanie to wprowadza jednak nowy problem, a mianowicie, że wąska emisja linii [O III] λλ 4959, 5007 jest znacznie (4-10-krotnie) słabsza w radiogalaktykach niż w kwazarach, co wymaga, aby linie te były emitowane również anizotropowo aby zjednoczenie zadziałało. Podobna siła dolnej linii jonizacji [O II] λ 3727 w obu klasach potwierdza ten scenariusz, ponieważ powstaje ona w większych odległościach od rdzenia AGN, a zatem oczekuje się, że będzie emitowana bardziej izotropowo. W kontekście tego obrazu orientacyjnego nachylenie źródła radiowego jest powiązane ze stosunkiem jasności rdzenia do płatka, głównie w wyniku relatywistycznego zwiększenia jasności rdzenia. Parametr ten, znany jako dominacja rdzenia R, można następnie wykorzystać do badania zależności innych parametrów od nachylenia. Na przykład szerokości szerokich linii emisyjnych Hβ i C IV wskazują, że obiekty skierowane twarzą w twarz (zdominowane przez rdzeń) mają zwykle stosunkowo wąskie szerokie linie (FWHM ≈ 1000-5000 km s-1, gdy są skierowane krawędzią (zdominowane przez płatek) mają szerszy zakres szerokości linii (FWHM ≈ 1000-10000 km s-1), co sugeruje, że orientacje szerokiego obszaru linii emisyjnej i zasłaniającego torusa są podobne.
Blazary i źródła radiowe
Wraz z uznaniem, że emisja blazarów ma swoje źródło w relatywistycznych dżetach skierowanych w stronę obserwatora, radiogalaktyki z dżetami na płaszczyźnie nieba okazały się kandydatami na "niewłaściwie ustawione" blazary. Same Blazary dzielą się na dwie odrębne kategorie: "BL Lacs" i "optyczne" gwałtownych zmiennych (OVV), które wydają się pochodzić z różnych rozkładów macierzystych radiogalaktyk. Podstawową różnicą między OVV i BL Lacs jest to, że OVV mają silne linie emisyjne UV i optyczne, więc ich widma UV-optyczne przypominają widma AGN bez wiązki, podczas gdy w BL Lacs inne cechy widmowe są zatapiane przez emisję ze strumienia. OVV mają również wyższą jasność i wyższe wywnioskowane współczynniki Lorentza niż BL Lac. Można przedstawić dość przekonujący argument, że BL Lacs znajdują się w radiogalaktykach FR I. Pomijając przestrzennie nierozwiązaną emisję jądra blazara i biorąc pod uwagę jedynie jasność "rozszerzonego" źródła radiowego (prawdopodobnie "płatków" widzianych wzdłuż ich osi), stwierdzono, że galaktyki FR I i BL Lacs mają porównywalną jasność radiową, co potwierdza tezę że pochodzą z jednej populacji. Funkcje jasności i gęstości przestrzenne są również zgodne z unifikacją tych dwóch typów obiektów. Należy przynajmniej wspomnieć, że same BL Lacs czasami dzielono na podkategorie wybierane radiowo i rentgenowskie, a źródła w tych kategoriach przeciętnie mają rozkład widmowy energii, który - co nie jest zaskakujące - osiąga szczyt przy niskich i niskich temperaturach. odpowiednio wysokie częstotliwości. Niedawne prace sugerują, że w rzeczywistości nie są to odrębne klasy, ale raczej reprezentują skrajności ciągłego rozkładu szczytowych długości fal dla całej klasy BL Lac. Jaśniejsze galaktyki radiowe FR II zapewniają wiarygodną populację macierzystą OVV. W porównaniu ze schematem unifikacji FR I - BL Lac jest to trudniejsze do wykazania, przynajmniej częściowo, ponieważ populacja FRII jest stosunkowo mniej jednorodna.
"Wielkie zjednoczenie": głośna i cicha radiowo AGN
Jednym z najdłużej zadawanych pytań w astrofizyce AGN jest to, dlaczego pomimo podobieństwa optycznego niewielka mniejszość (10%) AGN jest głośna radiowo, podczas gdy reszta jest cicha radiowa? Każdy schemat unifikacji, który może wyjaśnić różnicę między tymi dwiema głównymi klasami AGN, w znacznym stopniu przyczyni się do ogólnego wyjaśnienia zjawiska AGN i dlatego czasami nazywany jest "wielkim zjednoczeniem". Istnieje wyraźna dychotomia pomiędzy źródłami generującymi głośno i cicho radiowo; dla danej podczerwieni w świetle miękkiego promieniowania rentgenowskiego, AGN o głośności radiowej są o 2-3 rzędy wielkości jaśniejsze w radiu niż obiekty ciche radiowo. Istnieje bardzo niewiele obiektów o pośredniej jasności radiowej, więc rozkład mocy radiowej w stosunku do mocy na krótszych falach jest wyraźnie bimodalny. Innymi słowy, dowody wyraźnie wskazują na dwie odrębne populacje AGN określone na podstawie względnej jasności radiowej. Wczesna sugestia wysunięta przez Scheuera i Readheada była taka, że obiekty
głośne i ciche radiowo stanowią pojedynczą populację, w której głośniki radiowe reprezentują źródła z osiami skierowanymi w stronę obserwatora. Nie uwzględniało to jednak braku przedłużonej emisji radiowej w ciszy radiowej. Ciche i głośne radiowo AGN różnią się między sobą wyrazy szacunku. Głośne radiowo AGN są średnio około 3 razy jaśniejsze w promieniach rentgenowskich o średniej energii (0,2-3,5 keV) z nieco bardziej płaskimi nachyleniami widma (tj. Stosunkowo więcej fotonów o wysokiej energii). Uważa się, że jest to spowodowane obecnością emisji wiązki promieniowania rentgenowskiego związanej ze strumieniem emitującym fale radiowe i dostarcza dowodów na ujednolicenie omówionych powyżej, zdominowanych przez rdzeń i płaty, głośnych radiowo AGN. Jednakże różnica w nachyleniu widma rentgenowskiego byłaby trudna do uwzględnienia w scenariuszu wielkiej unifikacji. Widma linii emisyjnych obu typów obiektów również wykazują różnice, przynajmniej w sensie statystycznym (np. silniejsze mieszanki optyczne Fe II,
słabsze wąskie linie i węższe szerokie linie w obiektach radiocichych). Do stosunkowo niedawna sądzono, że szerokie, stosunkowo przesunięte w stronę błękitu cechy linii absorpcji, które wskazują na wypływy mas, występują tylko w cichych radiowo AGN; jest teraz jasne, że występują one również w AGN o głuchym radiowym, chociaż obecnie wydaje się, że przepływy w obiektach o głuchym radiowym mają stosunkowo niższe prędkości końcowe. Ogólnie uważa się, że wypływający materiał odpowiedzialny za absorpcję jest przyspieszany od powierzchni torusa, w związku z czym oczekuje się, że będzie obecny w określonych orientacjach zarówno w AGN głośnym, jak i cichym radiowo. Nie pojawiło się jeszcze zadowalające wyjaśnienie różnic między źródłami generującymi głośno i cicho radiowo. Chociaż było to trudne do zrozumienia, przez długi czas uważano, że natura galaktyki macierzystej determinuje klasę radiową z cichymi radiowo AGN w galaktykach spiralnych i głośnymi radiowo AGN w galaktykach eliptycznych. Jednak ostatnie
obserwacje za pomocą Kosmicznego Teleskopu Hubble′a wykazały, że przy dużej jasności prawie wszystkie AGN leżą w galaktykach eliptycznych. Obecnie powszechnie podejrzewa się, że moment pędu centralnej czarnej dziury może być czynnikiem decydującym, ponieważ ruchy orbitalne naładowanych obiektów wokół czarnej dziury mogą decydować o tym, czy efekty elektromagnetyczne będą wystarczająco silne, aby wygenerować i skolimować dżety.
Poświata
Poświata składa się z nietermicznego promieniowania emitowanego przez ZIEMSKĄ ATMOSFERĘ. Emisja cieplna Ziemi, nagrzana przez światło słoneczne, a następnie wypromieniowana w przestrzeń kosmiczną, ma miejsce w podczerwonej części widma, przy długościach fal dłuższych niż 7 μm. W najprostszej postaci poświata powietrza powstaje w wyniku odwzbudzenia cząsteczek, atomów lub jonów wzbudzonych przez słoneczne fotony UV lub cząstki energetyczne, a powstałe w ten sposób emitowane fotony zazwyczaj, choć nie wyłącznie, znajdują się w zakresie widzialnym i UV widma. Istnienie łuny nocnego nieba długo po zachodzie słońca pokazuje, że mechanizmy pośrednie odgrywają ważną rolę w wytwarzaniu poświaty. W tym przypadku energia początkowa, przyniesiona przez fotony słoneczne, jest magazynowana w wysokiej atmosferze w postaci rodników lub cząsteczek zdolnych do rekombinacji w wyniku reakcji egzotermicznych w nocy i wytwarzania atomów lub cząsteczek w stanie wzbudzonym, z następczą emisją fotonów . Poświata nie obejmuje promieniowania wytwarzanego przez pioruny i meteoryty. Chociaż rozróżnienie to jest trudniejsze do ustalenia, zjawiska zorzowe występujące na dużych szerokościach geograficznych i wynikające z miejscowych, intensywnych opadów cząstek, których pochodzenie znajduje się poza atmosferą, nie są uważane za poświatę. W przeciwieństwie do AURORÓW i pomimo tego, że ogólny mechanizm emisji (wzbudzenie-odwzbudzenie) jest tej samej natury, poświata występuje o każdej porze i pod każdą szerokością geograficzną, w znacznie mniej sporadyczny sposób. Historycznie rzecz biorąc, istnienie ziemskiej składowej światła na nocnym niebie rozpoznano już około roku 1900. Yntenna, który jako pierwszy stwierdził metodami fotometrycznymi istnienie poświaty, zwrócił uwagę na dużą zmienność tego zjawiska z nocy na noc i wykazał że światło gwiazd rozproszone przez cząsteczki atmosfery było niewystarczające, aby wyjaśnić światło nocnego nieba. Techniki spektroskopowe wykazały, że zielona linia tlenu atomowego przy 558 nm była przez cały czas obecna na całym niebie, co potwierdziło istnienie "trwałej zorzy polarnej". Rayleigh (JOHN WILLIAM STRUTT) wykazał w latach dwudziestych XX wieku, że układ geograficzny zielonej linii tlenowej różni się od wzorca zorzy polarnej oraz że na nocnym niebie nie widać pasów N+2 widocznych w zorzach polarnych. Rayleigh najpierw wyraził jasność zielonej linii jako liczbę przejść atomowych na sekundę w kolumnie o jednostkowym polu przekroju poprzecznego wzdłuż linii wzroku. Nadał swoją nazwę jednostce fotometrycznej powszechnie stosowanej dziś w badaniach poświaty powietrza: jeden rayleigh (lub 1 R) reprezentuje dookólną szybkość emisji wynoszącą 106 fotonów na centymetr kwadratowy na sekundę. Przewidywano i obserwowano czerwone linie tlenu przy 630-636 nm około 1930 r., a także linię D sodu. Chociaż naziemne instrumenty spektrofotometryczne zapewniają wygodny sposób monitorowania przestrzennych i czasowych zmian poświaty powietrza, nie są one odpowiednie do wyszukiwania pionowych profili emisji. Jedną z możliwości jest wykorzystanie fotometrów zenitowych przelatujących przez warstwy poświaty na pokładzie rakiety. Zróżnicowanie sygnału ze względu na wysokość pozwala na uzyskanie lokalnego natężenia emisji objętościowej w funkcji wysokości. Innym sposobem postępowania jest wykonanie pomiarów poświaty powietrza z platformy orbitalnej w geometrii oglądania kończyn. Technika ta ma kilka zalet. Ponieważ sygnał jest całkowany wzdłuż stycznej ścieżki, intensywność mierzonego sygnału jest znacznie zwiększona. Dzięki temu słabe cechy, takie jak emisja kontinuum poświaty, są łatwiejsze do wykrycia i scharakteryzowania. Po drugie, widok styczny umożliwia oddzielenie sygnału galaktycznego tła od blasku atmosferycznego, ponieważ sygnał galaktyczny jest bezpośrednio dostarczany przez pomiary przeprowadzane na bardzo dużych wysokościach, gdzie gęstość atmosfery jest praktycznie zerowa. Pionowe profile kilku zidentyfikowanych linii nocnej poświaty, zaobserwowane podczas misji promu kosmicznego STS-37 krążącego na wysokości 267 km, przedstawiono na rysunku 1. Dobrze znana zielona linia tlenu przy 557,7 nm, wytwarzana przez O(1S) Przejście ?O(1D), obejmuje stosunkowo wąski obszar wysokościowy i osiąga silne szczyty na wysokości około 100 km. Pewną emisję rejestruje się również na czerwonej linii tlenu przy 630 nm, w wyniku przejścia O(11D) ? O(33P). Sygnał przy 762 nm wynika z radiacyjnego odwzbudzenia stanu wzbudzonego O
H+O3 -> OH* +O*2
gdzie OH* jest wzbudzonym rotacyjnie poziomem OH, z wibracyjną liczbą kwantową ? mniejszą niż 9 (nie wykrywa się żadnych pasm pochodzących od ? > 9) i mechanizmem recyklingu typu
OH + O ->H+O2.
Pasmo 527 nm jest wytwarzane przez odwzbudzenie ? = 6 -> 0 OH*. Należy zauważyć, że silny pik na małej wysokości w emisji 630 nm wynika z pasma (9-3) OH. Ponieważ w całym cyklu skład chemiczny sodu obejmuje także ozon (O3).
Na + O3 -> NaO + O23
NaO + O -> Na + O2
można spodziewać się sprzężenia pomiędzy intensywnością OH poświaty powietrza i gęstością Na (wyprowadzoną albo z pomiarów lidarowych, albo z pomiarów poświaty powietrza), i jest to zdecydowanie wykazane w pomiarach. Istnieje również jasna emisja rozciągająca się od 400 do 600 nm. Dzieje się tak za sprawą O2 w zakresie bliskiego ultrafioletu i światła niebieskiego, do 480 nm, oraz NO2 przy dłuższych falach. Emisja pasma O2 składa się głównie z pasm Herzberga I, Herzberga II i Chamberlaina, jak opisano szczegółowo w następnej sekcji. Cechę rozproszonego NO2 można przypisać radiacyjnej rekombinacji NO i O i stanowi ona prawdziwe kontinuum. Profil wykonany przy 527 nm pokazano na rysunku.

Zaznaczony pik poświaty powietrza na wysokości od 95 do 105 km dobrze zgadza się z pomiarami mikrofalowymi termosferycznego NO dokonanymi podczas tego samego cyklu słonecznego, co sugeruje obszar maksymalnego stężenia pomiędzy 100 a 110 km. W badaniach emisji poświaty powietrza z górnych warstw atmosfery (poświaty dziennej i nocnej) za pomocą spektrometrii naziemnej lub przy użyciu spektrometrów i kamer na pokładach satelitów, takich jak Dynamics Explorer i prom kosmiczny, odnotowano bardzo znaczny postęp w ciągu ostatnich 20 lat. Pomiary te umożliwiły scharakteryzowanie procesów termosferycznych i jonosferycznych, zarówno w dziedzinie aeronomii, jak i dynamiki, przy pomocy postępów laboratoryjnych i teoretycznych. Interpretacja pomiarów poświaty powietrza jest niezwykle skomplikowana i obejmuje szczegółową charakterystykę strumieni wzbudzenia (słoneczne UV/EUV, cząstki), mechanizmy interakcji (bezpośrednie wzbudzenie cząsteczek, atomów lub jonów, pośrednie wzbudzenie poprzez procesy dysocjacji i jonizacji, a także chemiczne reakcje chemiczne), cykle chemiczne, radiacyjne przenoszenie światła poświaty powietrznej. Linie emisji tlenu w poświacie nocnej są teraz szczegółowe.
Wzbudzenie emisji tlenu w nocnej poświacie Ziemi
Czerwony dublet tlenu przy 630 nm i 636,4 nm, powstający w wyniku przejścia O(1D) -> O(3), czyli z pierwszego poziomu wzbudzonego do stanu podstawowego, z prawdopodobieństwem przejścia odpowiednio 0,0069 i 0,0022 s?1, obserwuje się przez kilka godzin po zachodzie słońca. Ponieważ średni czas emisji O(1D) jest równy odwrotności prawdopodobieństwa przejścia, czyli kilku minut, bezpośrednie wzbudzenie atomów tlenu przez słoneczne fotony UV, po którym następuje odwzbudzenie, nie może wyjaśnić utrzymywania się czerwonej poświaty przez długo po zachodzie słońca. Źródłem O(1D) w porze nocnej jest rekombinacja dysocjacyjna jonów O+2 O+2 + e? -> O+O(1D). Jony O+2 powstają w wyniku nocnego zaniku jonizacji, kontrolowanego przez reakcje wymiany ładunku, które przekształcają jony O+ w jony O+2. Pionowy rozkład emisji czerwonej linii jest złożony i można wykazać, że zmienia się z czasem w różny sposób na różnych wysokościach. Poniżej 200 km emisja czerwonej linii jest słaba, ponieważ O? jest dezaktywowany (lub "gaszony") w wyniku zderzeń z cząsteczkami powietrza w czasie krótszym niż czas emisji. Powyżej 200 km połączone efekty szybkości wygaszania kolizyjnego, która maleje wraz z wysokością, oraz pionowej zmiany gęstości elektronowej, która wzrasta wraz z wysokością, powoduje silny wzrost, w przypadku rosnących wysokości, świecenia czerwonej linii. Ważnym zastosowaniem pomiaru emisji termosferycznej poświaty nocnej, takiej jak czerwona linia tlenowa, jest wnioskowanie o wiatrach i temperaturach na podstawie spektroskopii o wysokiej rozdzielczości. Korzystając z interferometrów Fabry′ego - Perota i Michelsona, z linii emisyjnej O(1D) 630 nm uzyskano termosferyczny wiatr neutralny na poziomie 250 km poprzez pomiar powiązanego przesunięcia Dopplera, co daje wektor wiatru w linii wzroku. Temperatury neutralne można wywnioskować z szerokości linii. Spektroskopia Dopplera linii poświaty powietrznej jest skuteczną metodą badania dynamiki termosfery, silnie kontrolowanej przez pływy termiczne i ogólną aktywność fal. Wiadomo, że zielona linia tlenu przy 558 nm, będąca wynikiem przejścia O(1S) -> O(1D) pomiędzy drugim i pierwszym stanem wzbudzonym, powstaje w sąsiedztwie 100 km, czyli zdecydowanie niższych poziomach atmosferycznych niż czerwone linie. Chociaż część zielonej linii może powstać w wyniku rekombinacji dysocjacyjnej O+2 w obszarze F O+2 + e? -> O? +O? należy powołać się na inny mechanizm, aby wyjaśnić wysokość niskiej emisji tej linii. Sydney Chapman zaproponował mechanizm "wzbudzenia fotochemicznego"
O+O+O -> O2 +O(1S)
gdzie jeden z atomów O jest wzbudzany przez część energii wyzwolonej w połączeniu dwóch atomów O. W wyniku tego procesu maksymalne stężenie O występuje w odległości około 100 km, co jest zgodne z lokalizacją emisji zielonej linii. Odwzbudzenie O(1S) do O(1D) następuje poprzez wygaszenie przez cząsteczki otaczającego powietrza (głównie azot cząsteczkowy). Tak zwany proces Chapmana, choć może mieć udział w emisji zielonej linii, obecnie uważa się, że ma to drugorzędne znaczenie. Na początku lat sześćdziesiątych Barth i Hildebrandt odkryli w laboratorium, że emisja wytwarzana w poprzednim procesie jest o wiele za mała, aby uwzględnić obserwowany blask. Wynik ten zainspirował Bartha do zaproponowania w 1964 roku następującego dwuetapowego mechanizmu:
O+O+M -> O- 2 +M
gdzie M jest cząsteczką powietrza, a O-2 stanem wzbudzonym cząsteczki O2, po którym następuje proces przeniesienia wzbudzenia O- 2 +O(3P) -> O2 +O(1S). Efekt netto tych dwóch reakcji, uzyskany przez ich dodanie, jest podobny do efektu pojedynczej reakcji Chapmana. Inne procesy utraty to dezaktywacja poprzez wygaszenie przez zderzenie z cząsteczką powietrza O- 2 +M -> O2 +M lub promieniowanie fotonu poprzez odwzbudzenie radiacyjne O- 2 -> O2 + hv. Dlatego proces Bartha może powodować jednocześnie emisję zarówno O(1S) (zielona linia), jak i O2 (linia 762 nm). Można wykazać, że porównanie dwóch odpowiednich profili na rysunku jest zgodne ze schematem dwuetapowym, pomimo 10-kilometrowej różnicy pomiędzy wysokościami szczytowymi.
Emisja światła dziennego i zmierzchowego
Emisje poświaty powietrza obserwuje się również w ciągu dnia i odzwierciedlają one głównie dobowe wahania stężenia emitujących gatunków. Widma zmierzchowe można obserwować na przejściu pomiędzy atmosferą ciemną i w pełni oświetloną, gdy wysokość cienia przesuwa się pionowo w całym zakresie warstw emisyjnych. W ciągu dnia kilka linii i pasm jest bardzo jasnych, głównie ze względu na wyższą wydajność produkcji. Rzeczywiście, emisje światła dziennego i zmierzchowego wynikają głównie z bezpośredniego wzbudzenia przez fotony ultrafioletowe Słońca, fotoelektrony wytwarzane w procesach jonizacji w jonosferze oraz przez rozpraszanie rezonansowe lub fluorescencję promieniowania słonecznego. Takie zjawiska energetyczne skutkują złożonym widmem światła dziennego w ultrafiolecie, jak pokazano na rysunku

Pomiary te wykonano z satelity krążącego wokół Ziemi (STP78-1), ponieważ fotony ultrafioletowe nie mogą przedostawać się do ziemi ze względu na efekt ekranowania atmosfera. Nawet przy długościach fal bliskich UV lub widzialnych trudno jest uchwycić poświatę dzienną za pomocą instrumentów naziemnych ze względu na wysoki poziom rozproszonego światła słonecznego w tle. W widmie ultrafioletu o krótkich falach dominują pojedynczo zjonizowane i obojętne linie tlenu (O I, O II) i azotu (NI, N II). Linie te powstają w wyniku fotonów ultrafioletowych i uderzeń fotoelektronów. Linie krótkofalowe powstają w wyniku odwzbudzenia wyższych stanów o wysokiej energii, których nie można wzbudzić w reakcjach chemicznych ani rekombinacji. Kilka linii atomowych i jonowych w widmie światła dziennego to także linie pojawiające się w widmie Słońca, jak na przykład linia He I przy 584 Å. W przypadku helu zjawisko to wynika z rozproszenia rezonansowego linii emisyjnej promieniowania słonecznego He. Podobne cechy obserwuje się przy długościach fali 834 Å (triplet O II), 1216 Å i 1025 Å (HI, Lγα i L&gammalβ), 1302-1306 Å (triplet O I) i innych. Są one spowodowane rozpraszaniem rezonansowym lub fluorescencją.
Emisje tlenu cząsteczkowego w poświatach Ziemi, Wenus i Marsa
O ile przypadek stanu O(1S) jest dobrze poznany, o tyle szczegółowy proces emisji O2 nie jest jeszcze dobrze poznany. Oprócz dyskretnego pasma O2 o długości fali 762 nm, istnieje rozszerzona emisja w kolorze bliskim UV-niebieskiego przypisywana pasmom Herzberga i Chamberlaina. W poprzednich reakcjach wzbudzony stan związany O-2 O2 może wynosić A3Σ+u, A′3Δu lub c1Σ-u. Głównym prekursorem O(1S) mógłby być O2(c 1Σ?u ), ale nadal nie jest pewne, jaka jest natura prekursora i jest to nadal aktywny obszar badań. W atmosferze ziemskiej układ Herzberg I jest główną przyczyną kontinuum niebieskiej poświaty nocnej, ze średnią emisją 400 R. Z kosmicznych obserwacji poświaty Wenus prowadzonych przez radzieckie sondy Venera wykryto podobne poświaty tlenowe, chociaż w zupełnie innych \
ilościach . Nocna poświata tlenu cząsteczkowego Wenus wykazuje silną przewagę układu Herzberga II (2700 R). Tak duże różnice wynikają z odmiennego składu chemicznego środowiska atmosferycznego Ziemi i Wenus. W warstwach świetlnych gęstość otaczającego powietrza (N2+O2 dla Ziemi, CO2 dla Wenus) jest prawie 100 razy większa na Wenus niż na Ziemi, odwrotna sytuacja ma miejsce w przypadku O (trzy razy mniej na Wenus niż na Ziemi). Ponieważ wygaszanie kolizyjne O2(A3Σ+u ) jest realizowane głównie przez cząsteczki powietrza, podczas gdy O2(c1Σ-u) jest preferencyjnie wygaszane przez zderzenia z O, pasma Herzberga I są słabe na Wenus, a pasma Herzberga II są silnie wzmocnione pod względem w przypadku Ziemi (2700 R na Wenus w porównaniu do 100 R na Ziemi). Inną interesującą cechą jest ekstremalna słabość zielonej linii tlenowej w nocnej poświacie Wenus (5R w porównaniu do 120R na Ziemi), co było ważnym elementem faworyzującym mechanizm Bartha zamiast procesu Chapmana. Oczekuje się świecenia układu atmosferycznego w podczerwieni o masie 1Δg -> X3Σ?g w podczerwieni przy długości fali 1,27 μm. Świecenie to, po raz pierwszy odkryte na Wenus przez francuskiego spektroskopistę Pierre′a Connesa i jego współpracowników pod koniec lat 70. XX wieku, jest dość intensywne (>1 MR, czyli 106 R). Tak silną emisję mierzy się także na Ziemi. Ze względu na długi czas życia radiacyjnego O2(a1 &Dellta;g) (1 h) analizę komplikuje transport przez terminator. Fotoliza O3 w warunkach nasłonecznienia zgodnie z następującą reakcją
O3 + hv -> O2(a1Δ g)+O(1D)
stanowi część źródła światła dziennego Ziemi i Marsa, ale na Wenus jest nieistotna. Głównym źródłem poświaty nocnej wszystkich planet lądowych, poświaty dziennej Wenus i części poświaty dziennej Ziemi i Marsa, jest rekombinacja atomów O powstałych w wyniku fotolizy O2 na Ziemi oraz CO2 na Wenus i Marsie. Connes oszacował poszczególne linie rotacyjne tego pasma w widmie Marsa za pomocą 5-metrowego teleskopu na górze Palomar w latach 1973 i 1975. Z widm uzyskano temperatury rotacyjne i intensywność poświaty powietrznej. W każdym widmie zmierzono równoważne szerokości około 30 linii, które zwykle wynosiły 0,005-0,01 nm. Racjonując szerokość równoważna wytrzymałości linii i badając zależność tego stosunku od energii górnego stanu rotacyjnego przejścia, wywnioskowano temperaturę obrotową 200 K, co odpowiada rzeczywistej temperaturze uśrednionej na profilu wysokości poświaty. Stwierdzono typowe natężenie poświaty od 3 do 30 MR, w zależności od szerokości geograficznej. Zakładając, że
współczynnik szybkości wygaszania przez cząsteczki powietrza (CO2 na Marsie) jest znany, ilość ozonu można wywnioskować na podstawie pomiarów poświaty powietrza o średnicy 1,27 μm, choć w dość niedokładny sposób.
AM Herkulis
AM Herculis (AM Her) to prototyp i najjaśniejszy z klasy krótkookresowych układów podwójnych kataklizmicznych (CB), w których silnie magnetyczny BIAŁY KARZEŁ akreuje gaz z Rochelobe wypełniający towarzysz masy podsłonecznej. Pole magnetyczne jest wystarczająco silne (B1 ≳ 20 MG; MG = 106 gausów), aby wpłynąć jakościowo na najbardziej podstawowe właściwości układu podwójnego: zapobiegać tworzeniu się dysku akrecyjnego i wymuszać przenoszenie masy całkowicie przez jeden lub więcej strumieni gazu; kierowanie przepływu w pobliżu białego karła do prawie promieniowego lejka, który uwalnia energię akrecji w wyniku wstrząsu nad biegunem magnetycznym; oraz synchronizowanie rotacji białego karła z ruchem orbitalnym towarzysza, tak że wszystkie podstawowe zjawiska są zorganizowane we wspólnym okresie Pspin = Porb. Ponieważ gaz dociera do powierzchni białego karła podczas wirtualnego swobodnego spadku, temperatura plazmy po szoku jest wysoka, a układy podwójne typu AM He∼∼r są silnymi emiterami promieniowania rentgenowskiego. Większość z obecnego katalogu około 50 takich układów wynika z satelitarnych badań całego nieba w zakresie promieni rentgenowskich. Sama AM Her została skatalogowana jako GWIAZDA ZMIENNA pół wieku przed tym, jak jej identyfikacja ze źródłem promieniowania rentgenowskiego 3U 1809+50 przyciągnęła uwagę obserwatorów. Przy typowych okresach w zakresie 1,5 ≲ Porb 4 h i masach gwiazd M1 ˜ 0,6M⊙ , M2 ˜ 0,2M⊙ , cały układ podwójny typu AM Her zwykle zmieściłby się w dysku Słońca. Systemy są zatem kompaktowymi laboratoriami do badania fizyki wysokotemperaturowych, namagnesowanych PLAZM, a także oddziaływań magnetycznych między gwiazdami
Miejsce akrecji
Tradycyjnie cechą charakterystyczną układu podwójnego AM Hertype była silna optyczna polaryzacja kołowa (∼5%-30%) emisji cyklotronu wypromieniowanej w przepływie po szoku tuż nad powierzchnią białego karła. Emisja cyklotronowa to promieniowanie szybkich (ale nierelatywistycznych) elektronów krążących spiralnie wokół linii pola magnetycznego i jeden z nielicznych procesów astrofizycznych, który powoduje tendencję wektora elektrycznego emitowanego promieniowania do oscylacji według wzoru składnik kołowy netto, w przeciwieństwie do zachowania czysto liniowego (polaryzacja liniowa) lub braku preferencyjnego wzoru (niespolaryzowany). Ta właściwość jest tak wyjątkowa dla zsynchronizowanych magnetycznie CB, że zyskała miano polarnych. Widmo emisyjne elektronu wirującego w polu magnetycznym występuje przy wielokrotnościach częstotliwości kątowej Larmora ωL = eB/mec.
Przez analogię do izolowanych białych karłów, początkowo zinterpretowano, że silna optyczna polaryzacja kołowa AM Her występuje w pobliżu podstawy cyklotronu ωC = ωL, co sugeruje natężenie pola magnetycznego B1 ∼ 200 MG. Jednakże obserwacje spektropolarymetryczne podczas przerwy w ACCRETION ujawniły sygnaturę Zeemana w postaci pola magnetycznego o wartości zaledwie 10-20 MG w liniach absorpcyjnych szeregu wodoru Balmera. Ponieważ gwiazda wtórna była również widoczna w tym niskim stanie, widmo Zeemana przypisano uśrednionej na dysku fotosferze magnetycznego białego karła, a światło spolaryzowane w stanie wysokim przypisano emisji cyklotronu w liczbach harmonicznych 5 ≲ m ≲10. Następnie, W widmach stanów wysokich rozpoznano indywidualne termicznie poszerzone harmoniczne cyklotronu i wywnioskowano, że natężenie pola polarnego wynosi 14 MG. Strumień akrecyjny uderza w białego karła z prędkością

Oprócz promieniowania cyklotronowego, przepływ poszokowy chłodzi się za pomocą bremsstrahlung (emisji swobodnej) promieni rentgenowskich o charakterystycznej temperaturze kTbrem ∼ 20-30 keV. Około 50% każdego z tych składników, skierowanego w dół, jest pochłaniane i ponownie wypromieniowywane przez białego karła, tworząc trzeci, "ciało doskonale czarne", składnik, którego jasność według oryginalnych modeli przewidywała LBB ∼ Lcyc + Lbrem i temperatura kTBB ∼ 20 eV (w miękkim promieniowaniu rentgenowskim). Idee te były w dużej mierze zgodne z wczesnymi obserwacjami. Jednakże później zaobserwowano "odwrócony" tryb promieniowania rentgenowskiego AM Her, w którym twarde i miękkie promieniowanie rentgenowskie było silnie modulowane w okresie podwójnym, ale były względem siebie przeciwfazowe. Szybko zdano sobie sprawę, że tryb ten oznacza chwilową aktywację przepływu gazu na przeciwny biegun magnetyczny. Tutaj, z jakiegoś powodu, akrecja
najwyraźniej zachodzi głównie w postaci gęstych skupisk o masie ∼1016 g, które odkładają swoją energię kinetyczną głęboko w atmosferze białego karła, ogrzewając otaczającą fotosferę od dołu do ∼105 K. Bezpośrednie dowody na to Narost "blobby" występuje w postaci migotania na krzywych blasku optycznego i rentgenowskiego nawet w "normalnym" trybie rentgenowskim; stąd zlepki muszą mieć mniejsze lub większe znaczenie we wszystkich przepływach, a jest to cecha, która zniekształca równowagę energetyczną w stosunku do przewidywanej przez prosty model. Dla parametrów gwiazdowych wymienionych w tabeli ,

obserwowana całkowita jasność AM Her, L ∼ 5 × 1032 erg s-1, w stanie wysokim, implikuje szybkość akrecji ˙M = LR1 / GM1 ≈ 1 × 10-10M⊙yr?1 przy spadku szybkości przenoszenia masy w stanie niskim o rząd wielkości lub więcej. Jest mało prawdopodobne, aby emisja była jednolita w całym strumieniu; rdzeń o dużej gęstości będzie stosunkowo skompresowany i będzie promieniował głównie w twardych promieniach rentgenowskich, podczas gdy bardziej rzadka osłona będzie miała większą wysokość wstrząsu odstającego i będzie sprzyjać chłodzeniu cyklotronu. Ze względu na znaczenie naświetlania z góry i ogrzewania subfotosferycznego, oczekuje się, że miękkie promieniowanie rentgenowskie będzie pochodzić z jeszcze większych obszarów. Pomysły te potwierdzają różnorodne obserwacje, które ujawniają, że obszar plamki jako ułamek powierzchni białego karła waha się od f < 10-4 dla emisji bremsstrahlunga do f ∼ 0,1 dla podgrzanej czapy polarnej w bliskim zakresie UV.
Strumień gazu
W układzie podwójnym akrecji wypełnienia ROCHE-LOBE transfer masy następuje przez wewnętrzny punkt Lagrangianu L1, gdzie wypadkowa siła grawitacji we współbieżnym układzie współrzędnych wynosi zero. Wystrzeliwane dzięki niewielkiej prędkości termicznej atomy są szybko jonizowane przez intensywne promieniowanie rentgenowskie/UV i przyspieszają w kierunku białego karła pod połączonym wpływem rosnącego pola grawitacyjnego i efekty Coriolisa. Rezultatem jest skierowanie strumienia w kierunku postępowym. W niemagnetycznym CB gaz krąży następnie wokół białego karła, zderza się z przepływem powyżej i dyfunduje do DYSKA AKRECJI otaczającego zwartą gwiazdę. W układach typu AM Her pole magnetyczne białego karła zaczyna dominować w kinematyce zjonizowanego strumienia przy mniej więcej promieniu Alfvena, określonym przez B2/ 8π ∼ρv2/ 2. To przejście z obszarów przepływu kontrolowanych balistycznie do obszarów kontrolowanych magnetycznie następuje w odległości ∼5-10R1 nad ∼∼∼∼∼∼powierzchnią białego karła. Poniżej "obszaru sprzęgania" grudki plazmy są mniej więcej całkowicie splatane przez szybko rosnące pole magnetyczne i w przybliżeniu podążają po trajektoriach dipolarnych. Ogólnie rzecz biorąc, obejmuje to odchylenie przepływu od płaszczyzny orbity. Ponieważ pierwotny strumień ma niemożliwy do pominięcia przekrój poprzeczny, a sprzęganie zachodzi na znacznej odległości liniowej, różne części strumienia ostatecznie wyznaczają różne linie pola prowadzące do powierzchni, a powstały punkt akrecji lepiej przypomina łuk niż okrąg. Rzeczywiście, gaz już porusza się z prędkością ˜1000 kmˇs-1, kiedy napotyka magnetosferę białego karła, zatem jest mało prawdopodobne, aby nawlekanie było procesem przypadkowym. Kiedy AM Her znajduje się w trybie dwubiegunowym, przepływ najwyraźniej rozgałęzia się z obszaru sprzęgania do drugiego strumienia, który uderza w gwiazdę magnetyczną w miejscu mniej więcej naprzeciw głównego bieguna. Bardziej znanym przykładem tej samej fizyki są bliźniacze strefy zorzowe powstałe w wyniku wychwytywania cząstek rozbłysków słonecznych przez ziemską magnetosferę. Strumień zjonizowanego radiacyjnie gazu jest także obfitym emiterem promieniowania rekombinacyjnego. Ze względu na dużą prędkość kolimowanego przepływu linie emisyjne są szerokie i bardzo zmienne pod względem prędkości radialnej, a także profilu na całej orbicie. W przeciwieństwie do typowej astrofizyki mgławicy strumień liniowy strumienia pokazuje FHγ ˜ FH? ˜FHα, co wskazuje na duże głębokości optyczne w gęstym przepływie (Ne ≳ 1013 cm-3).
Gwiezdne komponenty
Nieprzezroczystości cyklotronu przy dużej liczbie harmonicznych są silnie zależne od kierunku i wrażliwe na polaryzację. W przypadku punktów widzenia w pobliżu kierunku lokalnego pola magnetycznego emisja jest stosunkowo słaba i spolaryzowana kołowo ze zwrotem (+/-), który odzwierciedla polaryzację pola. Prostopadłe linie wzroku mierzą silną polaryzację liniową i źródło wzmocnione efektami "promieniowania cyklotronowego". Ponieważ lejek akrecyjny i wynikający z niego wstrząs są przymocowane do mniej więcej promieniowych linii pola magnetycznego na współwirującym białym karle, zmiany strumienia i polaryzacja cyklotronu zależą od szczegółowej geometrii układu podwójnego: nachylenia i, współszerokości geograficznej bieguna magnetycznego β i długości osi pola względem linii środków gwiazd Ψ. Kiedy fazowo-rozdzielcze obserwacje spolaryzowanego światła cyklotronowego zostaną połączone z badaniami prędkości radialnych linii emisyjnych lejka i linii absorpcji gwiazd, wielkości te można mniej lub bardziej
jednoznacznie określić i uzyskać niezwykle szczegółowe obrazy skonstruowanych układów. Co więcej, porównanie natężenia pola magnetycznego w przeciwległych obszarach akrecji układów dwubiegunowych można wykorzystać do wywnioskowania morfologii układu pola na białym karle (np. dipol, dipol offsetowy, kwadrupol). Praktycznie we wszystkich CB masa cząsteczki wtórnej jest na tyle niska, że czas życia gwiazdy w ciągu głównym przekracza wiek Galaktyki i zakłada się, że jest ona w dużej mierze niewyewoluowana. Kiedy gwiazdę można obserwować bezpośrednio, na przykład w stanie małej akrecji, zmierzony typ widma jest generalnie zgodny z wywnioskowaną masą i promieniem. Jednakże dla M2 < M1 kontakt między gwiazdą dawcą a jej powierzchnią Roche′a może zostać utrzymany w obliczu przenoszenia masy tylko wtedy, gdy z układu zostanie usunięty moment pędu. Oznacza to, że orbita musi zanikać z czasem - a okres się zmniejszać - przynajmniej do czasu, gdy element wtórny ulegnie całkowitej degeneracji.
Obecne koncepcje utożsamiają mechanizm utraty pędu z promieniowaniem grawitacyjnym oraz, w przypadku wyższych szybkości przenoszenia masy obiektów z P ≳ 3h, hamowaniem magnetycznym przez wiatr typu słonecznego wymiatany na zewnątrz wzdłuż linii pola magnetycznego powiązanej pływowo gwiazdy magnetycznej. Argumentowano, że sytuacja ta ulega zmianie, gdy obecna jest silnie magnetyczna, zsynchronizowana gwiazda pierwotna, ponieważ duża część linii pola wtórnego kończyłaby się wówczas na białym karle. Zmniejszona liczba "otwartych" linii gwiazdy wtórnej zmniejszyłaby skuteczność magnetycznego mechanizmu hamowania. Wydaje się, że zsynchronizowane systemy - w tym AM Her - rzeczywiście wykazują tempo akrecji, które jest systematycznie niższe niż niemagnetyczne CB w tym samym okresie orbitalnym, więc możliwe jest, że pole magnetyczne wpływa nawet na ewolucję okresową układu podwójnego. Jednocześnie nie jest jasne, czy nawet dwie dekady obserwacji to wystarczająco długa linia bazowa, aby ocenić świeckie tempo
przenoszenia masy bliskiego układu podwójnego, którego ewolucyjna skala czasowa waha się od ∼103 -104 lat (w przypadku erupcji nowych) do prawie 109 lat (dla zaniku okresu orbitalnego). Nieznana jest również przyczyna stanów niskiej akrecji, które obejmują nagłe odcięcie strumienia rentgenowskiego AM Her 7-krotnie w ciągu zaledwie 40 minut i które mogą utrzymywać się przez wiele miesięcy.
Synchronizacja spinu/orbity
Główna gwiazda AM Her podlega momentowi akrecji
Nacc ∼ 2π/P R2L1 ˙M ∼ 5 × 1033 dyn cm
gdzie RL1 jest odległością punktu L1 od białego karła. Pozostawione samemu sobie spowodowałoby to obrót białego karła w skali czasu τ ∼ 108 lat. Zatem moment akrecyjny musi być zrównoważony momentem równoważącym, który utrzymuje okres wirowania białego karła równy okresowi orbity towarzysza. Ponieważ wszelka interakcja magnetyczna musi być słabsza, gdy separacja składników jest większa (młodsza binarnie), często uważa się, że musi zadziałać dodatkowy, rozpraszający moment obrotowy, aby spowolnić prędkość wirowania białego karła i początkowo zsynchronizować ruchy. Wśród proponowanych możliwości znajdują się oddziaływania magnetostatyczne z wewnętrznie magnetycznymi lub niemagnetycznymi gwiazdami wtórnymi oraz efekty magnetohydrodynamiczne, w których prądy elektryczne przepływają przez rozrzedzony ośrodek plazmowy układu podwójnego. Chociaż prawdopodobnie nie jest możliwe uzyskanie jednoznacznej odpowiedzi w każdym indywidualnym przypadku, wskazówki empiryczne co do natury interakcji są potencjalnie dostępne w rozkładzie długości dipolowych φ dla konfiguracji równowagowych oraz w możliwych dryfach lub powolnych oscylacjach kątowych dipol w układach podwójnych. Obserwacje w czasie rzeczywistym resynchronizujących magnetycznych układów NOVA, które zostały oddzielone przez erupcje nowej, również są obiecujące w zakresie wyjaśnienia tego unikalnego aspektu fizyki systemów typu AM Her.
Amatorskie Towarzystwa Astronomiczne
Astronomia amatorska ma długą i wybitną historię. Na przykład William Herschel, odkrywca planety Uran i być może największy ze wszystkich obserwatorów, rozpoczął swoją karierę jako amator; w 1845 roku trzeci hrabia Rosse zbudował wówczas najpotężniejszy teleskop na świecie - zamek Birr 72 w reflektorze - i wykorzystał go do odkrycia spiralnych form obiektów, które obecnie wiemy, że są galaktykami. Współcześni amatorzy wykonują prace, na które profesjonaliści nie mają czasu, ochoty lub nie są do tego wyposażeni. Jednak obserwator pracujący samodzielnie może wnieść stosunkowo niewielką wartość - i właśnie w tym przypadku amatorskie towarzystwa astronomiczne odgrywają tak ważną rolę. Należy zauważyć, że w znacznym stopniu stowarzyszenia amatorskie i zawodowe w znacznym stopniu pokrywają się. Na przykład w Wielkiej Brytanii ROYAL ASTRONOMICAL SOCIETY, główna organizacja zawodowa, zrzesza wielu członków-amatorów, a całkiem niedawno niektórzy amatorzy pełnili nawet funkcję prezesów (na przykład WH Steavenson, lekarz medycyny). BRITISH ASTRONOMICAL ASSOCIATION (BAA) to głównie amatorskie stowarzyszenie, ale zrzesza także wielu profesjonalistów, a wśród jego poprzednich prezesów było kilku członków rodziny Astronomers Royal. Ta sama sytuacja ma miejsce w większości pozostałych krajów. Nawet MIĘDZYNARODOWA UNIA Astronomiczna, organ kontrolujący światową astronomię, ma kilku członków-amatorów. Wielka Brytania zawsze odgrywała znaczącą rolę w badaniach astronomicznych, warto więc przedstawić krótki opis rozwoju różnych tamtejszych społeczeństw. Początki Królewskiego Towarzystwa Astronomicznego sięgają oczywiście lat dwudziestych XIX wieku, a jednym z pierwszych prezesów był Sir William Hershel. Obowiązywały ograniczenia wjazdu; w szczególności kobietom nie pozwolono zostać towarzyszami dopiero znacznie później. Istniało wyraźne zapotrzebowanie na krajowe stowarzyszenie amatorskie, a w latach osiemdziesiątych XIX wieku powstało Liverpool Astronomical Society, które rozrosło się w organizację międzynarodową. Potem nagle upadł, częściowo z powodu problemów finansowych, a częściowo z powodu złej administracji. To wtedy powstało BAA; jego pierwsze spotkanie odbyło się w Londynie w 1890 r. Od samego początku BAA miało być stowarzyszeniem obserwacyjnym i utworzono różne sekcje, z których każda była kontrolowana przez doświadczonego dyrektora. Przykładowo jeden dział w całości poświęcono obserwacjom planety Jowisz i regularnie publikowano raporty, zarówno w miesięczniku Stowarzyszenia, jak i w specjalistycznych Memoirach . Prawdopodobnie prawdą jest stwierdzenie, że publikacje te stanowią najlepszą i najbardziej ciągłą dostępną serię obserwacji Jowisza, a prace trwają do dziś, chociaż prawdą jest, że wyniki badań sond kosmicznych w pewnym stopniu wyparły jakikolwiek ziemski program obserwacyjny. Inne sekcje dotyczyły Słońca, Księżyca, Marsa, komet, gwiazd zmiennych i tak dalej. Początkowo Królewskie Towarzystwo Astronomiczne patrzyło na BAA z dezaprobatą, ale szybko stało się jasne, że nie będzie konfliktu interesów i od wielu lat siedziby obu towarzystw mieszczą się w tym samym budynku w Burlington House na Piccadilly. Powstały różne oddziały BAA, choć jedna po drugiej decydowały się na oderwanie i uzyskanie całkowitej niezależności. Do dziś pozostał jedynie oddział w Nowej Południowej Walii w Australii. Nie było żadnych ograniczeń dotyczących wstępu, a było kilku bardzo młodych członków. Jednakże w pewnym momencie uznano, że może zaistnieć potrzeba stworzenia społeczeństwa skupiającego się wyłącznie na młodych ludziach. Propozycja utworzenia sekcji młodszej została skierowana do Rady BAA, ale nie została przyjęta. Doprowadziło to do powstania Junior Astronomical Society (JAS) i założono, że młodzi entuzjaści dołączą do JAS, a następnie przejdą do BAA. Na początku tak się działo, ale w latach sześćdziesiątych JAS zdecydował się stać się organizacją równoległą; obecnie jest znane jako Towarzystwo Astronomii Popularnej. Nie ma wątpliwości, że BAA jest organizacją odnoszącą ogromne sukcesy i to od wielu lat był klasą samą w sobie. W pewnym stopniu jest to nadal prawdą, ale skupiało się to głównie w Londynie, a potrzebne były także społeczności lokalne. Obecnie prawie każde większe miasto i miasteczko na Wyspach Brytyjskich ma swoje własne stowarzyszenie, a wiele z nich jest stowarzyszonych z BAA. Wielką zaletą społeczności lokalnej jest możliwość założenia obserwatorium. Obserwatoria publiczne w Wielkiej Brytanii są rzadkością, a społeczności lokalne okazały się nieocenione w wypełnieniu tej luki. Niektóre są wyjątkowo dobrze wyposażone i zdolne do wykonywania pracy na profesjonalnym poziomie. Co więcej, wielu młodych entuzjastów, którzy zaczynają od przyłączenia się do najbliższego stowarzyszenia, zostaje zawodowymi astronomami. Społeczności szkolne rozkwitają, choć prawdą jest, że ich funkcjonowanie zależy od obecności przynajmniej jednego oddanego personelu. Kilka szkół ma nawet własne obserwatoria radioastronomiczne (na przykład szkoła Taunton w Somerset). W Szkocji, a także w Irlandii istnieje wiele stowarzyszeń amatorskich. Aktywne społeczeństwa istnieją także na Wyspach Normandzkich i na Wyspie Man. Wszystkie te różne społeczeństwa są ze sobą powiązane i współpracują dla obopólnych korzyści. Ponadto wiele z nich wydaje własne, regularne czasopisma, a ich działalność i wyniki są relacjonowane w czasopismach ogólnopolskich, takich jak Modern Astronomer i Astronomy Now. Z punktu widzenia obserwatorium publicznego sytuacja w Stanach Zjednoczonych jest znacznie lepsza, a stowarzyszenia amatorskie są rzeczywiście bardzo liczne. Szczególne znaczenie ma AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH (AAVSO), które jest największą organizacją tego typu na świecie i która prowadzi ogromną liczbę ważnych obserwacji. Jak można się spodziewać, tworzą ją zarówno amatorzy, jak i profesjonaliści, ale w przypadku czystej pracy wizualnej to amatorzy są najbardziej płodni, zwłaszcza teraz, gdy mogą korzystać z urządzeń elektronicznych, takich jak matryce CCD, i mogą dawać wyniki, które zadowolą każdego zawodowego badacza. Wyliczenie wszystkich innych głównych stowarzyszeń zajęłoby wiele stron, ale należy szczególnie wspomnieć o Towarzystwie Astronomicznym Pacyfiku, które zrzesza wielu członków-amatorów. W Kanadzie działają dwa główne stowarzyszenia: Kanadyjskie Towarzystwo Astronomiczne (głównie zawodowe) i KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE KANADY (częściowo profesjonalista, częściowo amator). Taka sama sytuacja ma miejsce w Australii i Nowej Zelandii. Społeczeństwa amatorskie rozkwitają niemal we wszystkich krajach europejskich i w Rosji. Japonia ma oczywiście wielką tradycję amatorskiej pracy obserwacyjnej i tutaj także działają organizacje zarówno krajowe, jak i lokalne. Naturalnie wszystkie stowarzyszenia - krajowe i lokalne - odbywają regularne spotkania, a te są bezcenne, ponieważ często można zaprosić znanych prelegentów, którzy będą mogli udzielić rad i zachęty. Względy finansowe są zawsze na pierwszym planie. Stawki abonamentu są utrzymywane na możliwie najniższym poziomie, ale rachunki trzeba płacić, szczególnie jeśli w grę wchodzą wszelkiego rodzaju lokale. Władze lokalne często pomagają, choć inne są znacznie mniej skłonne do współpracy (w Wielkiej Brytanii jedno stowarzyszenie zostało niedawno zmuszone do opuszczenia swojego obserwatorium, ponieważ rada zdecydowała się podnieść czynsz za grunt do niemożliwej kwoty). Jednak nawet stowarzyszenie, które nie ma siedziby ani obserwatorium, prawie na pewno będzie miało członków posiadających własne teleskopy i udostępniających je nowicjuszom. Obecnie istnieją również ambitne stowarzyszenia, które zakładają własne planetaria - a planetarium jest z pewnością najlepszą możliwą pomocą edukacyjną. Jest ich mnóstwo w Stanach Zjednoczonych i kilka w Wielkiej Brytanii, zwłaszcza planetarium wznoszone obecnie w pobliżu Chichester w Sussex przez Towarzystwo Astronomiczne South Downs. W ostatnich latach doszło do jednego niepowodzenia. Proponowano utworzenie międzynarodowej organizacji amatorskiej, mającej na celu korelację prac towarzystw na całym świecie, i w latach 60. XX w. na Zgromadzeniu Ogólnym Międzynarodowej Unii Astronomicznej faktycznie powołano taką organizację: Międzynarodową Unię Astronomów Amatorów ( IUAA). Wydała kilka publikacji i odbyła kilka spotkań w różnych krajach, ale trzeba przyznać, że nigdy nie odniosła prawdziwego sukcesu, także ze względu na ograniczenia finansowe. Można mieć nadzieję, że w przyszłości zostanie on rozbudowany i odegra naprawdę pożyteczną rolę, jest jednak trudny do zorganizowania i wiele pozostaje do zrobienia. Tymczasem amatorskie stowarzyszenia astronomiczne istnieją praktycznie we wszystkich krajach. Ich wartość jest nie do przecenienia, a dziś, w epoce kosmicznej, ich rola jest jeszcze ważniejsza niż w latach ubiegłych.
Współpraca amatorsko-zawodowa w astronomii
Prawdopodobnie prawdą jest stwierdzenie, że w większości dziedzin nauki dzień amatora dobiegł końca. Żaden współczesny amator nie może spodziewać się podjęcia ważnych prac badawczych na przykład w fizyce, gdzie niezbędny jest skomplikowany i kosztowny sprzęt; nie może też spodziewać się wielkiego odkrycia teoretycznego, ponieważ potrzebne jest bardzo rygorystyczne szkolenie. To prawda, że nadal jest miejsce na dobrą amatorską pracę w geologii i paleontologii, ale to w astronomii amator naprawdę odnajduje się w swoich możliwościach. Sto lat temu istniały różne gałęzie astronomii, w których królował amator. Najlepszych obserwacji Księżyca i powierzchni planet dokonywali amatorzy i tak było jeszcze niedługo przed drugą wojną światową. Warto również pamiętać, że w 1845 roku 3. Hrabia ROSSE, bez żadnej pomocy eksperta, zbudował najpotężniejszy wówczas teleskop zwierciadlany 72-calowy w zamku Birr w Irlandii i użył go do odkrycia form obiekty zwane wówczas mgławicami spiralnymi, a obecnie znane jako galaktyki
zewnętrzne. (Miło jest zauważyć, że po długim okresie zaniedbań teleskop Birra został przywrócony do pełnej sprawności, choć oczywiście w żadnym wypadku nie dorównuje współczesnemu teleskopowi o tej samej aperturze.) Około 1900 r. fotografia przejęła kontrolę nad okiem w większości dziedzin astronomii. Obecnie sama fotografia jest wypierana przez pomoce elektroniczne, takie jak URZĄDZENIA ŁADUJĄCE (CCD), które są znacznie bardziej czułe. Astronom nie musi już spędzać godzin w zimnej, ciemnej kopule, upewniając się, że jego teleskop jest nadal dobrze zamocowany na docelowym obiekcie; wcale nie musi przebywać w kopule ani nawet w tym samym kraju. Wszystko wyświetla się na ekranie telewizora. Ma to oczywiste zalety, poza wygodą, ale oznacza, że zawodowy astronom rzadko lub wcale nie patrzy przez teleskop i nie musi posiadać praktycznej wiedzy o niebie. Prawie na pewno prawdą jest stwierdzenie, że niewielu zawodowych astronomów jest w stanie rozpoznać więcej niż pół tuzina konstelacji1. Niektórzy amatorzy
natomiast mają wręcz encyklopedyczną wiedzę o niebie i bez problemu potrafią zidentyfikować wiele setek gwiazd. Sprzęt amatorski zmienił się znacząco w niedawnej przeszłości. Pięćdziesiąt lat temu przeciętny amator używał teleskopu o umiarkowanej aperturze - powiedzmy do 18 cali w przypadku REFLEKTORA - i był bardziej zainteresowany pracą wizualną niż fotografią. Dziś dobrze wyposażony amator nabył umiejętności w elektronice. Używając matrycy CCD z, powiedzmy, 15-calowym teleskopem, współczesny amator może uzyskać wyniki porównywalne z wynikami uzyskanymi w głównych profesjonalnych obserwatoriach bezpośrednio po wojnie. Są oczywiście amatorzy, którzy w ogóle nie korzystają z teleskopów. Praca gołym okiem może być przydatna, szczególnie w przypadku meteorów i zorzy polarnej (zobacz artykuł na temat ASTRONOMII GOŁYM OKIEM). Jednak lornetka może być naprawdę bardzo cenna, zwłaszcza w rękach amatorów, którzy spędzają czas na poszukiwaniu komet i nowych. George Alcock, angielski nauczyciel, odkrył teraz cztery
komety i trzy nowe, a wszystko to przy pomocy potężnej lornetki. "Przeczesuje" niebo, a jego znajomość układów gwiazd jest tak dobra, że na pierwszy rzut oka rozpoznaje przybysza. Nie jest w tym osamotniony; amatorzy odkryli ostatnio wiele komet - w tym dwie najnowsze "wielkie" komety, Hyakutake z 1996 r. i Hale-Bopp z 1997 r. Jednym z wybitnych współczesnych amatorów jest australijski duchowny, wielebny Robert Evans. Używa przenośnego teleskopu i skanuje zewnętrzne galaktyki w poszukiwaniu supernowych. Jak dotąd odkrył ich ponad 20. Supernowa to kolosalny wybuch gwiazdowy, oznaczający śmierć gwiazdy; w naszej Galaktyce od roku 1604 nie zaobserwowano żadnych supernowych gołym okiem, ale rzeczywiście zdarzają się one w układach zewnętrznych, oddalonych o wiele milionów lat świetlnych. Nikt nie jest w stanie przewidzieć, kiedy wybuchnie supernowa, dlatego ważne jest, aby przeprowadzić obserwacje tak wcześnie, jak to możliwe, aby wcześniejsze ostrzeżenia podawane przez amatorów takich jak Evans miały ogromne
znaczenie. Poszukiwania tego rodzaju są obecnie prowadzone przez wielu amatorów z dużym sukcesem. Niektórzy obserwatorzy, tacy jak Evans, pracują wzrokowo; inni używają sprzętu fotograficznego lub CCD. Nie trzeba dodawać, że wkład tego rodzaju jest bardzo ciepło przyjęty przez zawodowych astronomów. Zwykłe nowe mogą być również identyfikowane przez amatorów, dzięki ich znajomości nieba, a w ostatnich latach w ten sam sposób odkryto także kilka mniejszych planet lub asteroid. Bez wątpienia konieczne jest niezwłoczne powiadomienie o odkryciu. Ośrodki znajdują się w wielu krajach, ale każde potwierdzone odkrycie ogłaszane jest przez usługę telegramową MIĘDZYNARODOWEJ UNII Astronomicznej (IAU), która ma zasięg ogólnoświatowy. Prawdą jest również, że wiele rzekomych "odkryć" okazuje się fałszywymi alarmami i dokładamy wszelkich starań, aby je odfiltrować, zanim zaczną marnować cenny czas obserwacji. Prace nad gwiazdami zmiennymi zawsze stanowiły główną część amatorskiej astronomii obserwacyjnej. GWIAZD ZMIENNYCH
jest wiele rodzajów. Niektóre, jak cefeidy, są regularne jak w zegarku; inne, takie jak gwiazdy Mira, różnią się zachowaniem w zależności od cyklu; jeszcze inne są całkowicie nieregularne, tak że nigdy nie wiadomo, co zrobią dalej. Jest tak wiele gwiazd zmiennych, że zawodowi astronomowie nie są w stanie śledzić ich wszystkich, dlatego też w dużym stopniu polega się na pracy amatorskiej. Większość z nich ma charakter czysto wizualny. Procedura polega na porównaniu zmiennej z pobliskimi gwiazdami, które nie podlegają wahaniom. Przy odrobinie praktyki dokonanie szacunków z dokładnością do jednej dziesiątej wielkości nie jest trudne i w większości przypadków jest to wystarczające. Za pomocą fotometrów można uzyskać znacznie dokładniejsze szacunki i prawdą jest, że większość współczesnych amatorów poważnie zainteresowanych badaniami gwiazd zmiennych posiada sprzęt fotometryczny. Naprawdę duży teleskop nie jest niezbędny; reflektor o, powiedzmy, aperturze 6-12, da właścicielowi więcej pracy, niż jest on w stanie
udźwignąć. Wyniki są korelowane przez organizacje takie jak Sekcja Gwiazd Zmiennych BRYTYJSKIEGO STOWARZYSZENIA ASTRONOMICZNEGO i AMERYKAŃSKIE STOWARZYSZENIE GWIAZD ZMIENNYCH OBSERWATORÓW. Istnieją pewne zmienne, które można dostrzec gołym okiem; taka jest GammaCassiopeiae w Wof Cassiopeia, która jest niestabilną gwiazdą "powłokową". Zwykle ma jasność nieco poniżej drugiej magnitudo, ale pod koniec lat trzydziestych XX wieku pojaśniała gwałtownie o ponad połowę magnitudo, a następnie spadła poniżej 3 magnitudo, zanim powróciła do normalnego stanu. Wczesne obserwacje wybuchu z lat trzydziestych XX wieku były amatorskie i nigdy nie wiadomo, kiedy to samo stanie się ponownie. Za pomocą lornetki można śledzić dziesiątki zmiennych i sporządzać dokładne krzywe blasku. Jeśli chodzi o Księżyc, przez wiele lat dominowała praca amatorska. Przed pojawieniem się misji kosmicznych większość profesjonalistów zajmowała się wyłącznie ruchami Księżyca, a mapy amatorskie były w tamtych czasach najlepsze. Była też szansa na
dokonanie naprawdę ciekawych odkryć, jak np. formacji w obszarach libracji, w pobliżu krawędzi zwróconej ku Ziemi półkuli. Kiedy Rosjanie wysłali w 1959 roku swoją pierwszą sondę okołoksiężycową, Lunik 3, uzyskali zdjęcia odległej strony, która nigdy nie jest widoczna z Ziemi, ponieważ jest zawsze odwrócona od nas; mapy amatorskie wykorzystano do skorelowania wyników Lunika 3 z regionami obróconymi w stronę Ziemi. Jednak sytuacja uległa zmianie. Misje kosmiczne umożliwiły nam uzyskanie szczegółowych map całego Księżyca, a amatorska kartografia straciła na wartości, ale nadal jest nad czym pracować. Chociaż Księżyc jest mniej więcej obojętny, czasami zdarzają się bardzo krótkie, niejasne wybuchy, znane jako TLP lub przejściowe zjawiska księżycowe. Prawdopodobnie są one spowodowane łagodnym uwolnieniem gazów spod skorupy ziemskiej i były obserwowane tak często i przez tak wielu wiarygodnych obserwatorów (w tym kilku profesjonalistów), że trudno kwestionować ich realność. Potwierdzenie ich realności uzyskał w
1999 roku Adolfus za pomocą pomiarów wizualnych i polarymetrycznych. Badają je oddani amatorzy i rezultaty są takie z dużym zainteresowaniem. Zakrycia gwiazd przez Księżyc są nadal przydatne, a amatorzy są ekspertami w ich ustalaniu czasu. Zdarzają się również zakrycia gwiazd przez asteroidy, a ponieważ tory są tak wąskie, amator ma wielką przewagę; może zabrać odpowiedni teleskop we właściwe miejsce o właściwym czasie, czego profesjonalista nie jest w stanie zrobić. W ten sposób dokonano ważnych pomiarów pozycji i wymiarów asteroid. Coraz większego znaczenia nabiera także amatorska praca słoneczna. Codzienne śledzenie plam słonecznych jest interesujące, ale do prawdziwych badań Słońca potrzebna jest znaczna ilość złożonego sprzętu. Filtry H-alfa są obecnie powszechne i istnieje kilka doskonałych spektrohelioskopów; w istocie jeden z wiodących brytyjskich badaczy amatorów zajmujących się słońcem, komandor Henry Hatfield, posunął się tak daleko, że zbudował cały dom wokół swojego spektrohelioskopu. Amatorskie
obserwacje rozbłysków i zjawisk towarzyszących służą uzupełnieniu prac prowadzonych przy większych obserwacjach zawodowych. Teraz, gdy dysponujemy niezwykle szczegółowymi widokami planet z różnych misji kosmicznych, można by pomyśleć, że amatorskie obserwacje planet straciły całą swoją wartość. Z całą pewnością tak nie jest. Przykładowo, obecnie (2000 rok) Saturn nie jest monitorowany przez żadną sondę. Od czasu do czasu zdarzają się tam poważne epidemie, a wiele z nich po raz pierwszy widzą amatorzy; na przykład jasną białą plamę z 1933 r. odkrył amator WTHAY, prawdopodobnie najlepiej zapamiętany przez ogół społeczeństwa jako Will Hay, komik teatralny i filmowy. Nową białą plamę po raz pierwszy zauważył także amator Wilber; dopiero później został sfotografowany przez Kosmiczny Teleskop Hubble′a. Jest bardzo prawdopodobne, że następny gwałtowny wybuch na Saturnie, o ile do niego dojdzie, będzie również odkryciem amatorskim, a wczesne powiadomienie oznacza, że profesjonalny sprzęt będzie mógł zostać u
żyty tak szybko, jak to możliwe. Jowisz to kolejny ulubiony cel amatorów, ponieważ cechy powierzchni stale się zmieniają; na Gigantycznej Planecie nigdy nie brakuje czegoś nowego do zobaczenia. W przypadku Jowisza i być może Saturna z powodzeniem można zastosować skromny teleskop. Mars stanowi znacznie większy problem, ponieważ konieczne jest duże powiększenie, ale gdy planeta znajduje się blisko opozycji, amator z, powiedzmy, teleskopem 12 lub 15 cali może pomóc w monitorowaniu zjawisk chmur i zachowania czap polarnych - szczególnie jeżeli ma dostęp do sprzętu elektronicznego. Nawet w przypadku odległego Plutona istnieje zasięg. Bardzo rzadko Pluton zasłania gwiazdę, a kiedy to się ostatnio zdarzało, bardzo cenne były amatorskie pomiary; zanikanie gwiazdy przed zakryciem potwierdziło, że Pluton rzeczywiście posiada rozległą, choć bardzo rzadką atmosferę. W astronomii, podobnie jak we wszystkich innych naukach, współpraca jest sprawą najwyższej wagi. Nie ma sensu dokonywać obserwacji, jeśli inni pracownicy
o tym nie usłyszą. Organem kontrolującym światową astronomię jest IAU, która w rzeczywistości ma charakter międzynarodowy - i takim pozostała nawet podczas najgorszej części zimnej wojny. W IAU jest kilku członków-amatorów, byli nawet urzędnicy-amatorzy. Zgromadzenia Ogólne odbywają się co 3 lata w różnych krajach; rok 2000 przypada na Anglię (Manchester), po latach 1997 (Holandia) i 1994 (Argentyna). W latach sześćdziesiątych XX wieku podjęto próbę powołania analogicznej organizacji amatorskiej, Międzynarodowej Unii Astronomów Amatorów. Istnieje, ale bezsensem byłoby udawać, że odniósł taki sukces, jak oczekiwano, i że potrzebna jest lepsza organizacja. Tymczasem wszystkie kraje mają swoje stowarzyszenia krajowe - na przykład w Wielkiej Brytanii Brytyjskie Stowarzyszenie Astronomiczne, które ma głównie charakter amatorski i nie ma sobie równych w zakresie obserwacji. Większość większych miast na świecie ma własne stowarzyszenia i istnieje zadowalający poziom współpracy, zarówno krajowej, jak i międzynarodowej (zobacz także Podsumowując, można śmiało powiedzieć, że astronomowie-amatorzy podejmują się pracy, której profesjonalista nie chce zrobić, nie ma na to czasu lub rzeczywiście nie może tego zrobić. Prawdą jest również, że praca amatorska jest ceniona i ciepło witana oraz że astronom amator jest obecnie tak samo ważny, jak był w przeszłości.
Galaktyka Andromedy
Galaktyka Andromedy jest najbliższą DROGI MLECZNEJ GALAKTYKĄ SPIRALNĄ, widoczną gołym okiem w ciemną noc jako słaba smuga światła w gwiazdozbiorze Andromedy. Najwcześniejsze wzmianki o mgławicy Andromedy, jak wciąż często się o niej mówi, pochodzą z roku 964 n.e., z "Księgi gwiazd stałych" opublikowanej przez perskiego astronoma AL-SU? FI. Pierwszym Europejczykiem, który oficjalnie zauważył mgławicę Andromedy, był Simon Mayer, niemiecki matematyk i astronom, który nie był świadomy wcześniejszych prac Al-Sûfi. Obiekt ma numer 31 w słynnym KATALOGU MESSIERA, którego początki sięgają XVIII wieku i dlatego często nazywany jest M31. Innym pseudonimem galaktyki Andromedy jest NGC224, ponieważ zajmuje ona numer 224 w NOWYM KATALOGU OGÓLNYM (NGC) opracowanym przez DREYERA w 1888 roku. Współczesne pomiary oparte na zmiennych cefeidach umieszczają M31 w odległości 740 kpc, czyli około 2,4 miliona lat świetlnych. To czyni ją najbliższą Galaktyką spiralną Drogi Mlecznej. Jest dominującym członkiem GRUPY LOKALNEJ i jako taki odgrywa i nadal pełni ważną rolę w badaniach struktury, ewolucji i dynamiki galaktyk, populacji gwiazd, powstawania gwiazd i ośrodka międzygwiazdowego. Do najważniejszych osiągnięć historycznych należą prace HUBBLE′a z lat dwudziestych XX wieku dotyczące odległości do M31, które dowiodły, że istnieją galaktyki poza naszą Drogą Mleczną, oraz prace BAADE z lat czterdziestych XX wieku nad populacjami gwiazd, które doprowadziły do koncepcji starych (populacja II) i młodych (populacja ja) gwiazdy. Zidentyfikowano wiele małych galaktyk towarzyszących, które uważa się za powiązane z M31, niektóre dopiero w zeszłym roku. Są to M32 (eliptyczne o niskiej jasności), NGC 147, 185 i 205 (eliptyczne karłowate), IC 10 (nieregularne karłowate), LGS 3 (obiekt przejściowy między karłowatymi nieregularnymi a karłowatymi sferoidalnymi) oraz And I, II, III, V i VI (sferoidy karłowate). Jest prawdopodobne, że do odkrycia pozostało jeszcze więcej słabych towarzyszy. Rycina 1 przedstawia optyczny obraz galaktyki Andromedy.
Morfologia, masa i zawartość gwiazd
Galaktyka Andromedy to duża galaktyka spiralna wczesnego typu, należąca do KLASYFIKACJI HUBBLE′A Sb, o klasie jasności I-II. Posiada wyraźne centralne zgrubienie gwiazd o efektywnym promieniu 2 kpc, które płynnie przechodzi w wydłużony, spłaszczony sferoidalny składnik starych gwiazd. Jak w większości galaktyk spiralnych, oprócz zgrubienia lub składnika sferoidalnego, istnieje cienki dysk gwiazd i gazu z nałożoną strukturą ramion spiralnych. Łączne światło gwiazd dyskowych maleje wykładniczo wraz z odległością od centrum, co jest typowe dla galaktyk spiralnych. Długość skali dysku wynosi około 5-6 kpc, a M31 jest około 50% większa od naszej Galaktyki Drogi Mlecznej i około dwa razy jaśniejsza. Dysk staje się bardziej niebieski w większej odległości promieniowej od centrum, co może być spowodowane stosunkowo większą liczbą młodszych gwiazd lub mniejszą obfitością ciężkich pierwiastków. Oznaczenia obfitości tlenu, azotu i siarki w ośrodku międzygwiazdowym M31 rzeczywiście wykazują ogólny spadek tych pierwiastków w porównaniu z wodorem wraz ze wzrostem odległości radialnej. Struktura SPIRAL ARM M31 była trudna do określenia ze względu na jej orientację na niebie. Segmenty ramion spiralnych są wyraźnie widoczne w rozmieszczeniu młodych masywnych gwiazd i różnych znaczników ośrodków międzygwiazdowych, takich jak zjonizowany, obojętny i cząsteczkowy wodór oraz pył, ale nie było możliwe połączenie segmentów ramion spiralnych w jednoznaczną, wielką strukturę spiralną . Kolejną komplikacją jest to, że wydaje się, że interakcja z bliskim, małym eliptycznym towarzyszem M32 również zniekształciła ramiona spiralne. Zewnętrzne dyski gwiazdowe i gazowe, powyżej około 20 kpc, wyginają się z głównej płaszczyzny, powodując zjawisko znane jako wypaczanie. Biorąc pod uwagę rozmiar wybrzuszenia i jasność, nie ma wątpliwości, że M31 jest spiralą wcześniejszego typu niż nasza Droga Mleczna. Na przykład całkowita liczba Gromadad Kulistych, która, jak wykazano, jest powiązana z wybrzuszeniem lub jasnością sferoidy, wynosi prawdopodobnie od 400 do 500 w M31, czyli prawie 3-krotnie więcej niż w Drodze Mlecznej. Rozproszenie prędkości gwiazd w zgrubieniu M31 wynosi około 155 km s-1, podczas gdy dla Drogi Mlecznej jest to 130 km-1. Z prędkości obrotowej H I do promienia 30 kpc można wywnioskować, że M31 ma masę co najmniej 3 × 1011 mas Słońca, ale całkowita masa będzie prawdopodobnie znacznie większa w zależności od nieznanego promieniowego zasięgu halo CIEMNEJ MATERII, będącego powszechnym składnikiem galaktyk spiralnych wywnioskowano z wysokich prędkości obrotowych obłoków gazu w odległych dyskach zewnętrznych. Argument czasowy dla Grupy Lokalnej implikuje masę M31 wynoszącą kilka razy 1012 mas Słońca. Biorąc pod uwagę te liczby, ciemna materia musi silnie dominować nad masą wynikającą z widocznych gwiazd i gazu. Populacje gwiazd w M31 zostały omówione w artykule M31: STARYCH POPULACJACH GWIAZD, więc tutaj wystarczy krótkie podsumowanie. Populacja zgrubienia i sferoid jest stara, chociaż znaczne rozproszenie ilości metali w gwiazdach w zgrubieniu, a także w zewnętrznym halo implikuje bardziej skomplikowany scenariusz powstawania niż bardzo szybkie początkowe zapadnięcie się. W przeciwieństwie do sytuacji w Drodze Mlecznej, w wewnętrznym zgrubieniu nie ma obecnie formacji gwiazdowej. Właściwości gromad kulistych M31 są pod wieloma względami podobne do właściwości Drogi Mlecznej, tj. gromady kuliste są stare, wykazują różną zawartość metali i takie same ogólne korelacje pomiędzy rozproszeniem prędkości a jasnością, centralną i średnią jasnością powierzchniową, jak gromady kuliste Galaktyki. Na dysku znajduje się niewielka liczba młodych masywnych gromad, około 10 kpc od centrum. Gromady takie są powszechne w galaktykach późnego typu, takich jak M33 i Obłoki Magellana, ale najwyraźniej są rzadkie we wczesnych typach spiralnych. Mogą to być przodkowie gromad kulistych (o małej masie). Co ciekawe, obiekty te skupiają się głównie w południowo-zachodnim ramieniu spiralnym zakłócanym przez pływy i mogą być podobne do młodych niebieskich gromad obserwowanych w oddziałujących galaktykach. Jedną z zalet bliskiej nam odległości M31 jest to, że umożliwia ona prowadzenie unikalnych eksperymentów. Jedną z nich jest niedawna próba wykrycia MIKROLENSOWANIA w kierunku gwiazd zgrubionych M31 w celu ograniczenia natury ciemnej materii. Chociaż M31 jest zbyt odległa, aby rozdzielić większość światła poszczególnych gwiazd, mikrosoczewkowanie w zasadzie można nadal wykryć jako pojaśnienie pojedynczych pikseli w detektorze, jeśli jedna z wielu gwiazd przyczyniających się do jasności tego piksela zostanie soczewkowana przez ciemny obiekt w halo M31. Kilka z tych badań jest obecnie w toku, poszerzając w ten sposób trwające obserwacje mikrosoczewkowania zgrubienia galaktycznego i Obłoków Magellana.
Region centralny
Galaktyka Andromedy nie zawiera w swoim centrum szczególnie aktywnego jądra, ale wydaje się, że znajduje się tam CZARNA DZIURA o masie około 3×107 mas Słońca. Dowody na to pochodzą z pomiarów prędkości gwiazd w pobliżu centrum, zarówno za pomocą Kosmicznego Teleskopu Hubble′a, jak i z Ziemi. Morfologia obszaru centralnego jest dość zaskakująca, z dwoma pikami w rozkładzie jasności oddzielonymi 0,5 sekundy łukowej. Obecnie preferowana interpretacja jest taka, że to pozorne podwójne jądro jest w rzeczywistości spowodowane pojedynczym ekscentrycznym dyskiem gwiazd krążących wokół czarnej dziury. Jaśniejsze z dwóch "jąder" byłoby wówczas spowodowane gromadzeniem się gwiazd w pobliżu apocentrum mimośrodowego dysku, gdzie ich prędkości są niskie, podczas gdy słabsze "jądro" byłoby spowodowane wzrostem gęstości w kierunku środka. Brak silnej aktywności jądrowej związanej z czarną dziurą może wynikać z ogólnego braku ośrodka międzygwiazdowego w zgrubieniu M31. NoHI lub CO wykryto w odległości 1 kpc
od centrum, chociaż w projekcji na tle jasnego kontinuum gwiazdowego widać pewne obłoki pyłu. W zjonizowanym gazie widoczny jest słaby, rozproszony "dysk spiralny" o promieniowym zasięgu około 500 pc, ale zawierający tylko niewielką ilość masy, być może łącznie zaledwie 1500 mas Słońca. Gaz ten prawdopodobnie pochodzi z masy utraconej przez ewoluujące gwiazdy o małej masie w postaci wiatrów gwiazdowych. Brak aktywności objawia się także słabym poziomem emisji kontinuum radiowego, około 10-krotnie mniejszym niż w centrum Galaktyki.
Powstawanie gwiazd i ośrodek międzygwiazdowy
Jako najbliższa pobliska spirala, M31 jest głównym celem badania właściwości różnych faz gazowych ośrodka międzygwiazdowego i masywnych gwiazd oraz połączeń między nimi. Rozkład przestrzenny wszystkich tych składników, czy to gazu obojętnego, czy zjonizowanego, pyłu czy gwiazd OB, jest bardzo podobny: ogólnie występuje brak gazu i młodych gwiazd w wewnętrznych kilku kpc, pewna ilość gazu i formacja gwiazd w ramionach spiralnych 3- 5 kpc od centrum, silne stężenia w pierścieniu od 8 do 12 kpc i umiarkowane stężenia w ramionach do 15 kpc. Poza tym dysk H I w dalszym ciągu wykazuje strukturę spiralną do około 25 kpc, ze słabym ciągłym FORMOWANIEM GWIAZD w wybranych obszarach. Szybkość powstawania gwiazd można oszacować na podstawie rozkładu zjonizowanego gazu (obszary H II i rozproszony zjonizowany gaz), który wymaga gorących, świecących, a zatem masywnych i młodych gwiazd do jego jonizacji, emisji kontinuum radiowego w dalekiej podczerwieni i światła UV. Ponadto bliskość M31 umożliwia wykrywanie pojedynczych gwiazd OB i wyewoluowanych śladów młodych masywnych gwiazd, takich jak WOLF-RAYET STARS i LUMINOUS BLUE VARIABLES. Wszystkie te znaczniki wskazują, że ogólny poziom aktywności gwiazdotwórczej w M31 jest dość niski, około ≈ 0,3-0,5 mas Słońca rocznie, w porównaniu z Drogą Mleczną i innymi spiralami, takimi jak M33. Ponadto największe kompleksy gwiazdotwórcze w M31 wydają się skromne w porównaniu z kompleksami występującymi w innych galaktykach. Masa atomowego wodoru wynosi około 4 × 109 mas Słońca, podczas gdy masa wodoru cząsteczkowego jest ponad 10-krotnie mniejsza; niepewność co do współczynnika konwersji strumienia linii CO na masę molekularną gazu sprawia, że to ostatnie oszacowanie jest raczej niedokładne, ale gęstość powierzchniowa wodoru niskocząsteczkowego jest zgodna z ogólnie niskim tempem powstawania gwiazd w M31. Istnieją pewne dowody na obecność bardzo zimnego gazu cząsteczkowego w M31, co może mieć dalsze konsekwencje dla całkowitej masy gazu cząsteczkowego. M31 była jedną z pierwszych spiral zewnętrznych, w przypadku których wykryto rozległą dystrybucję zjonizowanego gazu poza tradycyjnymi obszarami H II. Ten rozproszony zjonizowany gaz, nazywany także ciepłym zjonizowanym ośrodkiem, jest dominującym składnikiem zjonizowanego gazu w galaktykach pod względem masy i zasięgu przestrzennego. Aby pozostać zjonizowanym, wymaga dużej ilości energii, a jej szerokie rozmieszczenie oznacza, że morfologia ośrodka międzygwiazdowego musi być bardzo porowata, w przeciwnym razie fotony ultrafioletowe z gwiazd OB nie mogłyby podróżować daleko od swojego źródła, zanim zostaną zaabsorbowane. Informacje o promieniach kosmicznych i polu magnetycznym rozkład w M31 uzyskano na podstawie szczegółowych obserwacji kontinuum radiowego na kilku częstotliwościach. Kontinuum radiowe jest silnie zdominowane przez nietermiczną emisję synchrotronową, pochodzącą od wysoce relatywistycznych elektronów krążących spiralnie w polu magnetycznym. Informacje na temat natężenia i kierunku pola można wywnioskować z intensywności emisji, wektorów polaryzacji i miar rotacji obserwowanych w kierunku pozagalaktycznych źródeł tła. Wielkoskalowe pole magnetyczne rozciąga się od wnętrza 5 kpc do pierścienia gwiazdotwórczego aż do 25 kpc od centrum. Główna organizacja pola jest toroidalna, ułożona wzdłuż pierścienia, z pewnymi dowodami na obecność składowej poloidalnej rozciągającej się do halo. Struktura pola wydaje się być zgodna z oczekiwaniami dla DYNAMO w trybie parzystym.
Perspektywy na przyszłość
Nie ma wątpliwości, że galaktyka Andromedy będzie nadal odgrywać kluczową rolę w przyszłych badaniach morfologii i ewolucji galaktyk, tak jak miało to miejsce w przeszłości. Dzięki nowej generacji teleskopów naziemnych i kosmicznych możemy spodziewać się nowych wyników w wielu obszarach, takich jak badania mikrosoczewkowania, mapy o wysokiej rozdzielczości wszystkich składników ośrodka międzygwiazdowego, pomiary obfitości w poszczególnych gwiazdach i dalsze odkrywanie gwiazdy historia powstawania dysku i wybrzuszenia M31.
Anomalne promienie kosmiczne
Anomalne promienie kosmiczne są jonowym składnikiem strumienia promieniowania kosmicznego, który w heliosferze jest znaczny przy energiach w zakresie od 20 MeV do ponad 500 MeV. Składają się z wielu rodzajów jonów, od wodoru po neon, ale węgla anomalnego jest znacznie za mało. Najwyższa energia kinetyczna odnotowana dla tego składnika wynosi ponad 1,6 GeV. Obserwacje z detektorów znajdujących się na pokładzie heliosferycznego statku kosmicznego pokazują, że ich intensywność w dalszym ciągu rośnie aż do maksymalnej odległości osiąganej przez obecne statki kosmiczne, co wskazuje, że są one przyspieszane w zewnętrznym Układzie Słonecznym. Po raz pierwszy zaobserwowano je na początku lat 70. XX wieku i początkowo nazwano je anomalnymi promieniami kosmicznymi ze względu na ich niezwykły skład oraz ponieważ ich widmo różniło się od widma dobrze znanych już galaktycznych lub słonecznych promieni kosmicznych. Nazwa ta przylgnęła do nas, mimo że obecnie wiemy znacznie więcej o naturze i pochodzeniu tych cząstek. W 1974 roku zasugerowano, że składnik anomalny jest wynikiem przyspieszenia w heliosferze niedawno zjonizowanych międzygwiazdowych obojętnych atomów. Neutralne atomy napływają do Układu Słonecznego z ośrodka międzygwiazdowego, a następnie są jonizowane przez słoneczne promieniowanie ultrafioletowe lub w wyniku wymiany ładunku z WIATEM SŁONECZNYM. Hipoteza ta bardzo dobrze wyjaśnia niezwykły skład składnika anomalnego, gdyż tylko początkowo obojętne cząstki międzygwiazdowe mogą przedostać się do heliosfery i wziąć udział w tym procesie. Na przykład jony węgla, które w ośrodku międzygwiazdowym są prawie całkowicie zjonizowane i dlatego międzyplanetarne pole magnetyczne w większości uniemożliwia im przedostanie się do Układu Słonecznego, są szczególnie uszczuplone w anomalnym promieniu kosmicznym. Nowsze obserwacje wykazały, że większość anomalnych promieni kosmicznych jest rzeczywiście naładowana pojedynczo, jak można się spodziewać na tym zdjęciu. Później, w 1981 roku, wskazano, że wiele cech składnika anomalnego można wyjaśnić, jeśli większa część przyspieszania nowo zjonizowanych cząstek zachodzi w szoku końcowym wiatru słonecznego, poprzez mechanizm przyspieszenia szoku dyfuzyjnego. Późniejsze wyrafinowane symulacje numeryczne przeprowadzone w połowie lat 80. XX wieku wyraźnie wykazały, że energetyczne, pojedynczo naładowane cząstki mogą być bardzo skutecznie przyspieszane w szoku końcowym. Zasadnicze zaobserwowane cechy widma i gradientów przestrzennych można w bardzo naturalny sposób wyjaśnić za pomocą tego obrazu. Ten obraz przyspieszania nowo zjonizowanych międzygwiazdowych cząstek neutralnych i późniejszego przyspieszania do wysokich energii w momencie szoku końcowego wiatru słonecznego jest obecnie standardowym paradygmatem. Paradygmat ten schematycznie zilustrowano na rysunku 1, który przedstawia nadchodzące neutralne atomy, ich jonizację i późniejsze przyspieszenie w momencie szoku końcowego wiatru słonecznego.
Przyśpieszenie
Przyspieszenie anomalnych promieni kosmicznych od niskich energii do typowych obserwowanych energii ?200-300MeV musi nastąpić w czasie krótszym niż kilka lat, ponieważ w przeciwnym razie nastąpiłaby dalsza utrata elektronów w wyniku interakcji z otaczającym gazem i nie byłyby one pojedynczo naładowane . W rzeczywistości, niezależnie od miejsca lub modelu akceleracji, zaobserwowany fakt, że anomalne cząstki tlenu promieniowania kosmicznego przy ?160 MeV są nadal głównie naładowane pojedynczo, oznacza, że całkowita długość drogi, jaką przebyły od momentu przyspieszenia, jest mniejsza niż 0,2 pc. Biorąc pod uwagę, że nie mogą one przemieszczać się po linii prostej ze względu na nieregularne pola magnetyczne otoczenia, fakt ten wymaga, aby anomalne promienie kosmiczne musiały być lokalnie przyspieszane. Przy ich zaobserwowanej prędkości oznacza to, że czas od przyspieszenia wynosi mniej niż kilka lat. Przyspieszenie szoku dyfuzyjnego w quasi-prostopadłym szoku końcowym wiatru słonecznego, które osiąga
przyspieszenie do ≈200 MeV w ciągu około pół roku, jest jedynym znanym obecnie procesem, który może osiągnąć przyspieszenie w dopuszczalnym czasie. W szczególności powszechnie przywoływany mechanizm przyspieszenia Fermiego drugiego rzędu, obejmujący zmienne pola elektryczne powiązane z falami, jest zdecydowanie za wolny. Przyspieszenie wstrząsu dyfuzyjnego jest zawarte w równaniu transportu promieniowania kosmicznego Parkera , jeśli pozwoli się, aby przepływ wiatru miał nieciągłość ściskającą odpowiadającą uderzeniu. Ta nieciągłość ściskająca jest miejscem przyspieszenia. Można wykazać, że proces przyspieszania w quasi-prostopadłym uderzeniu jest ściślej powiązany z dryfem cząstek w otaczającym polu elektrycznym związanym z ruchem płynu niż ze sprężaniem płynu podczas uderzenia, chociaż matematycznie jest on zawarty w składnik kompresji równania transportu. Można wykazać, że energia ΔT uzyskana przez cząstkę posiadającą ładunek elektryczny Ze podczas quasi-prostopadłego wstrząsu jest w
przybliżeniu energią potencjalną elektrostatyczną Δφ uzyskaną podczas dryfowania wzdłuż powierzchni uderzenia: ΔT ≈ ZeΔ?. Możemy pisać dla wiatru słonecznego
(Δφ)max = Brr2Ω⊙ /c ≈ 240 MeV/Z (1)
gdzie c jest prędkością światła, a wartość liczbowa wynika z zastosowania promieniowego pola magnetycznego o wartości 3,5 γ w promieniu 1 AU i obrotowej prędkości kątowej Słońca Ω⊙= 2,9 × 10?6. Wynika z tego, że dla cząstek posiadających ładunek Z istnieje na ogół charakterystyczna energia Tc ≈ Ze(Δ&|phi;)max, powyżej której widmo zaczyna gwałtownie spadać. Z tego powodu wszelkie wielokrotnie naładowane cząstki należy przyspieszać do wyższych energii niż cząstki naładowane pojedynczo. Cząsteczki "odpłyną" z szoku, zanim zyskają więcej energii. Pojedynczo naładowane cząstki przyspieszane w szoku końcowym miałyby wówczas widmo energii w szoku końcowym, które jest w przybliżeniu zgodne z prawem mocy i które wykazuje spadek powyżej energii pomiędzy 200 a 300 MeV. Ten limit energii niekoniecznie spowoduje ostre odcięcie w widmie energii, ponieważ dyfuzja spowoduje, że niektóre cząstki zyskają więcej energii, a inne mniej. W wyniku dalszych interakcji z materiałem otoczenia można wytworzyć wielokrotnie naładowane cząstki. Mogą one następnie zyskać znacznie więcej energii, w zależności od ich ładunku, i dlatego będą dominować przy wyższych energiach, wykraczających poza energię charakterystyczną dla cząstek o pojedynczym ładunku. Obserwacje przeprowadzone w ciągu ostatnich kilku lat wykazały przejście w kierunku zwielokrotnionych naładowanych anomalnych promieni kosmicznych przy energiach większych niż około 240 MeV.
Wyniki obliczeń modelowych
Omówiony powyżej scenariusz został uwzględniony zarówno w dwu-, jak i trójwymiarowych symulacjach numerycznych transportu i przyspieszenia w heliosferze, które rozwiązują równanie transportu dla realistycznych parametrów. Zauważamy, że ogólne heliosferyczne pole magnetyczne zmienia znak co 11 lat, podczas maksimum plam słonecznych. Ruchy energetycznych cząstek naładowanych zależą w znacznym stopniu od znaku pola magnetycznego. W szczególności prędkość dryfu, daną dla izotropowego rozkładu cząstek o prędkości w i pędu p w otaczającym polu magnetycznym B(r), wyraża się wzorem Vd = pcw/3Ze ⋅∇ × B/B2 . Jest oczywiste, że Vd zmienia kierunek wraz ze zmianą znaku pola magnetycznego. W obecnym okresie minimum plam słonecznych północne pole magnetyczne Słońca jest skierowane na zewnątrz od Słońca, podczas gdy przed ostatnim maksimum było skierowane do wewnątrz. Obecne modele są najdokładniejsze podczas minimum plam słonecznych, kiedy arkusz prądu międzyplanetarnego jest najbliższy równikowi, dlatego zasadniczo omawiamy dwie heliosfery, jedną w pobliżu minimum plam słonecznych, gdy pole jest skierowane na zewnątrz (prąd), i jedną w pobliżu następnego minimum plam słonecznych, gdy pole jest skierowane do wewnątrz. Najpierw rozważ wyniki modelu dla przypadku, w którym cząstki o niskiej energii są wtryskiwane równomiernie na wszystkich szerokościach geograficznych w momencie uderzenia. Obliczone i zaobserwowane widma
porównano dla danych zebranych w 1985 r. (północne pole magnetyczne skierowane do wewnątrz). Obliczone widma energii anomalnego tlenu są wyraźnie zgodne z widmami obserwowanymi. Dotyczy to również innych widm. Widzimy, że intensywność wzrasta wraz z promieniem, podobnie jak w przypadku galaktycznych promieni kosmicznych, aż do szoku końcowego (w promieniu 60 jednostek astronomicznych). Dalej intensywność maleje aż do zewnętrznej granicy heliosfery. Wzdłuż szoku maksymalne natężenie występuje na szerokości geograficznej, która zmienia się wraz ze zmianą znaku pola magnetycznego. Jeśli północne międzyplanetarne pole magnetyczne jest skierowane na zewnątrz (A > 0), cząstki dryfują w kierunku bieguna wzdłuż powierzchni uderzeniowej, a następnie do wewnątrz i w dół od biegunów do arkusza prądu, a maksimum intensywności występuje w pobliżu biegunów. Dla A < 0 dryfty są w przeciwnym kierunku, a maksimum przesuwa się w stronę równika. Dokonano licznych pomiarów gradientów promieniowych i równoleżnikowych składowej anomalnej. Ogólną cechą symulacji anomalnych promieni kosmicznych i galaktycznych promieni kosmicznych jest to, że przy identycznych parametrach równoleżnikowe gradienty anomalnych promieni kosmicznych są znacznie większe niż w przypadku cząstek galaktycznych. Dzieje się tak w dużej mierze wskutek dużego równoleżnikowego gradientu anomalnych promieni kosmicznych wywołanych dryfem podczas przyspieszania w momencie uderzenia. Dotyczy to również modeli. Niezawodne przewidywania modeli są takie, że gradient równoleżnikowy w pobliżu aktualnej płachty, w pobliżu minimum plam słonecznych, powinien zmienić znak w alternatywnych minimach plam słonecznych. W szczególności podczas ostatniego minimum plam słonecznych, w pobliżu 1975 r., intensywność zarówno galaktycznego promieni kosmicznych, jak i składnika anomalnego powinna wzrosnąć w kierunku od aktualnej warstwy, podczas gdy podczas minimum plam słonecznych w 1986 r. promienie kosmiczne powinny maleć w oddalaniu od obecnej warstwy. Oczekuje się, że w pobliżu minimum plam słonecznych, gdy obecna warstwa jest prawie płaska, najważniejsze będą skutki tych dryfów. W 1977 roku PIONEER zaobserwował, zgodnie z przewidywaniami, dodatni gradient anomalnego helu w kierunku od aktualnej warstwy. Obserwacje przeprowadzone podczas ostatniego minimum plam słonecznych w latach 1984 i 1985, kiedy obecne nachylenie arkusza spadło poniżej szerokości geograficznej statku kosmicznego VOYAGER 1, wykazały, że znak gradientu równoleżnikowego zmienił się z dodatniego na ujemny, ponownie zgodnie z przewidywaniami teoria.
Odbiór jonów
Powyższa dyskusja podsumowała obecny stan przyspieszania anomalnych promieni kosmicznych do najwyższych zaobserwowanych energii, przekraczających 1 GeV. Najbardziej prawdopodobnym mechanizmem tego przyspieszenia wydaje się przyspieszenie dyfuzyjne w szoku końcowym wiatru słonecznego. Nie do końca rozwiązana pozostaje kwestia, w jaki sposób wcześniej nieprzyspieszone jony wychwycone są przyspieszane do energii wystarczająco dużych, aby można je było dalej przyspieszać w szok kończący. Ten "problem wtrysku" wynika z faktu, że nieprzyspieszone jony wychwytujące mają prędkość mniejszą lub równą prędkości konwekcji wiatru słonecznego, a zatem nie są wystarczająco mobilne, aby napotkać prawie prostopadły wstrząs wielokrotny niezbędny do wzmocnienia znacząca energia. Wykazano, że propagujące się wstrząsy łatwiej przyspieszają wychwytywanie jonów o niskiej energii niż wstrząsy wywołane wiatrem słonecznym. W związku z tym są bardziej naturalnymi wtryskiwaczami cząstek i mogą stanowić pierwszy etap dwuetapowego procesu przyspieszania wychwytu jonów do anomalnych energii kosmicznych.
Zasada antropiczna
Pierwsi ludzie zaczęli od "antropocentrycznego" poglądu, że znajdujemy się w centrum wszechświata. Zjawiska zwykle interpretowano antropomorficznie i nawet prawa natury wydawały się skupiać na człowieku w tym sensie, że można je było wykorzystać do własnych celów. Jednak ta perspektywa wkrótce została zachwiana: najpierw przez odkrycie MIKOŁAJA KOPERNIKA, że Ziemia krąży wokół Słońca, a następnie przez "Principia" NEWTONA, które doprowadziły do "mechanistycznego" spojrzenia na świat. Mechanizm mówi, że wszechświat jest gigantyczną maszyną, w której działają prawa natury zupełnie nieświadomi obecności człowieka. Jednakże w ciągu ostatnich 40 lat rozwinęła się reakcja na mechanizm, który nazywa się poglądem "antropicznym" . Oznacza to, że pod pewnymi względami wszechświat musi być taki, jaki jest, ponieważ w przeciwnym razie nie mógłby wytworzyć życia i nie bylibyśmy tutaj, spekulując na ten temat. Chociaż termin "antropiczny" pochodzi od greckiego słowa oznaczającego "człowiek", należy podkreślić, że jest to w rzeczywistości określenie błędne, ponieważ większość argumentów dotyczy życia w ogóle, a nie ludzi w szczególności. Zacznijmy od bardzo prostej ilustracji argumentu antropicznego, rozważmy pytanie, dlaczego wszechświat jest tak duży, jak jest? Mechanistyczna odpowiedź jest taka, że w dowolnym momencie rozmiar obserwowalnego wszechświata to odległość, jaką przebyło światło od Wielkiego Wybuchu. Ponieważ obecny wiek Wszechświata wynosi około 1010 lat, jego obecny rozmiar wynosi około 1010 lat świetlnych. Nieodłącznym elementem tej prostej odpowiedzi jest przekonanie, że nie ma żadnego przekonującego powodu, dla którego wszechświat ma takie rozmiary; tak się składa, że ma 1010 lat. Istnieje jednak inna odpowiedź na to pytanie, której jako pierwszy udzielił Robert Dicke . Jego argumentacja wygląda następująco. Aby mogło istnieć życie, musi istnieć węgiel lub przynajmniej jakaś forma chemii. Obecnie węgiel wytwarzany jest poprzez gotowanie wewnątrz gwiazd, a proces ten trwa około 1010 lat. Dopiero po tym czasie gwiazda może eksplodować jako SUPERNOWA, rozrzucając nowo wypalone pierwiastki po całej przestrzeni, gdzie mogą ostatecznie stać się częścią planet rozwijających życie. Z drugiej strony Wszechświat nie może być dużo starszy niż 1010 lat, w przeciwnym razie cała materia zostałaby przetworzona na pozostałości gwiazdowe, takie jak BIAŁE KARLERY, GWIAZDY NEUTRONOWE i CZARNE DZIURY. Ponieważ wszystkie formy życia, jakie możemy sobie wyobrazić, wymagają istnienia gwiazd, sugeruje to, że życie może istnieć tylko wtedy, gdy Wszechświat ma około 1010 lat. Ten zaskakujący wniosek wywraca do góry nogami mechanistyczną odpowiedź. Już sam ogrom wszechświata, który na pierwszy rzut oka wydaje się wskazywać na znikomość ludzkości, jest w rzeczywistości konsekwencją jej istnienia. Nie oznacza to, że sam wszechświat nie mógłby istnieć w innym rozmiarze, a jedynie, że nie moglibyśmy być tego świadomi, gdyby jego rozmiar był inny. Oczywiście może to być po prostu zbieg okoliczności, że wiek Wszechświata jest mniej więcej taki, jaki jest niezbędny do powstania inteligentnego życia. Freeman Dyson argumentował również, że życie może przetrwać nawet po 10
Skale konstrukcji
Większość argumentów antropicznych dotyczy bezwymiarowych kombinacji stałych fizycznych, takich jak prędkość światła - (c), stała Plancka (h), stała grawitacji (G), ładunek elektronu (e) i masy cząstek elementarnych takie jak proton (mp) i elektron (me). Na przykład stała elektryczna "drobnej struktury" α = e2/hc = 1/137 określa siłę oddziaływania elektrycznego i odgrywa kluczową rolę w każdej sytuacji, w której ważny jest elektromagnetyzm. Podobnie stała grawitacyjna drobnej struktury, αG = Gm2 p/hc = 6 × 10-39, określa siłę oddziaływania grawitacyjnego i odgrywa ważną rolę w określaniu struktury bardzo dużych obiektów (takich jak gwiazdy). Fakt, że αGαG jest znacznie mniejsze niż α, odzwierciedla fakt, że siła grawitacji między dwoma protonami jest znacznie mniejsza niż siła elektryczna między nimi. Grawitacja dominuje w strukturze dużych ciał tylko dlatego, że są one elektrycznie obojętne, w związku z czym siły elektryczne znoszą się. Godne uwagi jest to, że prosta fizyka pokazuje, że z dokładnością do rzędu wielkości α i αG określają masę i rozmiar prawie każdego naturalnie występującego obiektu we wszechświecie . Na przykład wszystkie gwiazdy mają masę w przybliżeniu αG-3/2 ∼ 1060 razy większą od masy protonu; największe planety (takie jak Jowisz) mają masę mniejszą o współczynnik α3/2; a masa ludzi - jeśli założymy, że muszą żyć na planecie o odpowiedniej temperaturze i atmosferze sprzyjającej życiu i że nie mogą się rozbić przy upadku - jest rzędu (α/αG)3/4 razy większej masa protonu. Charakterystyczna masa galaktyki jest mniej poznana, ale na podstawie jednego z możliwych argumentów można ją zapisać jako α-2Gα 4 razy masa protonu. Podobnie można wyrazić rozmiary tych obiektów. Należy podkreślić, że wszystkie zależności od α i αG 1 są konsekwencjami prostej fizyki. Nie wprowadzono żadnego argumentu antropicznego poza - jak wkrótce zobaczymy - wyprowadzeniem skali samego wszechświata.
Słabe i mocne zasady antropiczne
Powróćmy teraz do twierdzenia Dicke′a, że wiek Wszechświata (t0) musi być w przybliżeniu równy czasowi spalania jądra gwiazdy. Możemy uszczegółowić ten argument, ponieważ fizyka przewiduje, że czas życia gwiazdy wynosi około α-1G ∼ 1040 razy czas tp = h/mpc2 ∼ 10-23 s wymagany do przejścia światła przez proton. Można wywnioskować, że stosunek wielkości wszechświata do wielkości atomu musi być porównywalny ze stosunkiem α do αG. Zatem zasada antropiczna wyjaśnia, dlaczego te dwa stosunki muszą mieć tę samą ogromną wartość 1036. Można również wyprowadzić proste wyrażenie na liczbę protonów we wszechświecie. Dzieje się tak, ponieważ model Wielkiego Wybuchu zakłada, że masa obserwowalnego Wszechświata wynosi ∼ρ0c3t30, gdzie ρ0 jest jego obecną gęstością. Ponieważ model wymaga również ρ0 ∼ 1/Gt20 , masa ta wynosi c3t0/G ∼ α-2Gmp, więc liczba protonów we wszechświecie jest rzędu α-2G ∼ 1080. (Zauważ, że liczba gwiazdy w obserwowalnym wszechświecie muszą zatem mieć około α-1/2G ∼ 1020, na co przywołujemy później.) Istnienie tych "wielkoliczbowych" zbieżności docenia się od pewnego czasu, ale bez odwoływania się do zasady antropicznej, lub alternatywnie rodzaj modelu zmiennej G przywołanego przez Diraca (1937), należy je uważać za przypadkowe. Argument Dicke&rprime;a pomaga nam zrozumieć, dlaczego powyższe "wielkoliczbowe" zbieżności przeważają, ale nie mówi nam, dlaczego α-1G ma swoją szczególną ogromną wartość. Jego argumentacja jest zatem przykładem tak zwanej słabej zasady antropicznej. To akceptuje stałe natury jako dane, a następnie pokazuje, że nasze istnienie narzuca efekt selekcji na to, kiedy obserwujemy wszechświat. W związku z tym jest to po prostu logiczna konieczność: stwierdzenie, że musimy istnieć w określonym czasie, nie jest bardziej zaskakujące niż stwierdzenie, że musimy istnieć w określonym miejscu (np. blisko gwiazdy). Zaskakujące może być odkrycie, jakie są efekty selekcji, ale ich istnienie w zasadzie nie jest zaskakujące. W rzeczywistości większość fizyków zgodziłaby się ze słabą wersją zasady antropicznej. Problem pojawia się, gdy rozważymy, czy stałe natury, takie jak G, same w sobie są zdeterminowane wymogiem powstania życia, co jest czasami określane jako "silna zasada antropiczna". (W dość mylący sposób wyrażenie to jest również używane do opisania raczej odmiennego poglądu, że wszechświat musi mieć właściwości, aby mogło powstać życie . To, że słaba zasada może nie być całą historią, sugeruje również fakt że wszystkie skale są względne. Gdyby stałe struktury subtelnej różniły się od tego, co obserwujemy, wszystkie skale uległyby zmianie, ale podstawowe zależności między nimi pozostałyby takie same. Można na przykład wyobrazić sobie hipotetyczny wszechświat, w którym wszystkie prawa mikrofizyczne pozostały niezmienione, ale G było (powiedzmy) 106 razy silniejsze. Masy planet i gwiazd (∼α-3/2G ) spadłyby wówczas o 109, ale gwiazdy ciągu głównego spalające wodór nadal istniałyby, aczkolwiek ich czas życia (∼α-1G ) wynosiłby 104 lata, a nie 1010 lat. Co więcej, argument Dicke′a nadal miałby zastosowanie: hipotetyczny obserwator patrzący na wszechświat w czasie t0 ∼ tMS stwierdziłby, że liczba cząstek we wszechświecie jest 1012 razy mniejsza niż w naszym, ale nadal odnalazłby opisane powyżej "duże" zbieżności. Jeśli ktoś ustaliłby αG, ale pozwolił na zmianę α, efekty byłyby mniej ekstremalne, ale nadal bardzo zauważalne. Jakie są argumenty przeciwko "poznawalności" tego rodzaju przyspieszonego wszechświata na małą skalę? Jedno z dość luźnych ograniczeń αG wynika z rozważań biologicznych. Widzieliśmy, że liczba gwiazd w obserwowalnym wszechświecie jest rzędu α-1/2G. Jeśli uznamy gwiazdy - lub przynajmniej powiązane z nimi układy słoneczne - za potencjalne miejsca życia, jest to również liczba miejsc, w których życie mogło powstać. Oczywiście nie jest to warunek wystarczający do życia, ponieważ istnieje cały szereg dodatkowych warunków, z których każdy może być bardzo nieprawdopodobny. Na przykład gwiazda musi mieć planetę, planeta musi znajdować się w odpowiedniej odległości od gwiazdy, musi mieć odpowiednią atmosferę i chemię oraz muszą istnieć odpowiednie warunki, aby mogły powstać pierwsze samoreplikujące się komórki . Jest zatem oczywiste, że ogólne prawdopodobieństwo (P) powstania życia w jakimkolwiek konkretnym miejscu musi być bardzo małe. Jeśli chcemy upierać się, że gdzieś we wszechświecie istnieje życie, potrzebujemy, aby liczba miejsc występowania życia pomnożona przez prawdopodobieństwo P przekroczyła 1. Oznacza to, że αG musi być mniejsze niż P2. Na przykład, gdyby P wynosiło 10-15, potrzebne byłoby αG < 10-30. Nie jest to bardzo precyzyjny argument, ale daje jakościowy powód, dla którego αG musi być mała. Istnieją jednak bardziej szczegółowe argumenty antropiczne, które w węższy sposób określają αG. Pierwszy przykład takiego argumentu podał Brandon Carter i dotyczył istnienia gwiazd z otoczkami konwekcyjnymi . Taka gwiazda powstaje, gdy ciepło wytwarzane w jej jądrze w wyniku reakcji jądrowych jest transportowane na powierzchnię głównie w drodze wielkoskalowych ruchów samego materiału gwiazdowego. Dzieje się tak zazwyczaj w przypadku wystarczająco małych gwiazd (czerwonych karłów). Z kolei większe gwiazdy (niebieskie olbrzymy) są zwykle "promieniujące" w tym sensie, że ciepło wydostaje się głównie poprzez przepływ promieniowania. Linią podziału pomiędzy tymi dwoma typami jest pewna masa krytyczna, która może wynosić około α-2 Gα10mp. Tak się składa, że ta masa krytyczna mieści się w zakresie mas ?α ?3/2 G mp, w którym gwiazdy faktycznie istnieją tylko dzięki niezwykłej koincydencji αG ∼ α20. Gdyby G (a co za tym idzie αG) było nieco większe, wszystkie gwiazdy byłyby niebieskimi olbrzymami; gdyby był nieco mniejszy, wszystkie gwiazdy byłyby czerwonymi karłami. Warunek konwekcji nie określa rzeczywistych wartości α i αG, ale określa prawo skalowania między nimi i wyjaśnia, dlaczego αG jest o wiele mniejsze niż α. Carter przypisał tej zależności znaczenie antropiczne na tej podstawie, że powstawanie układów planetarnych można powiązać z gwiazdami konwekcyjnymi. Sugestia ta opierała się na obserwacji, że czerwone karły mają znacznie mniejszy moment pędu niż niebieskie olbrzymy, a utrata momentu pędu może być konsekwencją powstawania planet. Argument ten nie jest już przekonujący, ponieważ istnieją inne sposoby utraty momentu pędu. Lepszym argumentem może być to, że tylko gwiazdy konwekcyjne wytwarzają wiatry w swojej wczesnej fazie, wystarczająco intensywne, aby zdmuchnąć gazową otoczkę pobliskich planet, ułatwiając w ten sposób powstawanie planet stałych z atmosferami nie zawierającymi wodoru. W każdym razie Carter wnioskuje, że gdyby αG było znacznie większe od α20, nie powstałyby żadne planety, a zatem i życie. Gdyby była znacznie mniejsza, wszystkie gwiazdy byłyby chemicznie jednorodne dzięki mieszaniu konwekcyjnemu i nie uzyskano by struktury powłoki typu "skórka cebuli", która charakteryzuje modele sprzed supernowej.
Słabe i mocne siły
W skalach mniejszych niż atomy wchodzą w grę jeszcze dwie podstawowe siły natury: siła silna i siła słaba. Podobnie jak grawitacja i elektromagnetyzm, siłę tych sił można opisać za pomocą bezwymiarowych stałych drobnych struktur. Oddziaływanie słabe ma stałą sprzężenia αW = (gm2ec/h3) ∼ 10-10 gdzie g ∼10-49erg cm3 jest stałą Fermiego. Zatem siła jego interakcji jest pośrodku siły grawitacji i elektryczności. Bezwymiarowa stała opisująca siłę silną jest oznaczona przez αS i ma wartość rzędu 10. Chociaż siły mocne i słabe są o wiele rzędów wielkości silniejsze od siły grawitacji, to obie mają krótki zasięg i stają się pomijalne w odległościach 10-13 cm i odpowiednio 10-15 cm. Z tego powodu nie odgrywają one istotnej roli w określaniu struktury obiektów większych od atomów. Okazuje się . że wiele cech chemii jest wrażliwych na wartość αS. Na przykład, jeśli αS wzrośnie o 2%, wszystkie protony we wszechświecie połączą się podczas nukleosyntezy Wielkiego Wybuchu w diprotony (jądra składające się z dwóch protonów). W tym przypadku nie byłoby wodoru, a tym samym spalania wodoru gwiazdy. Ponieważ gwiazdy miałyby wówczas znacznie skrócony czas ciągu głównego, mogłoby nie być czasu na powstanie życia. Gdyby αS zwiększyć o 10%, sytuacja byłaby jeszcze gorsza, bo wszystko trafiałoby do jąder o nieograniczonej wielkości i nie byłoby tam interesującej chemii. Brak chemii miałby również miejsce, gdyby αS zmniejszono o 5%, ponieważ wszystkie deuterony byłyby wówczas niezwiązane i można było mieć tylko wodór. Najbardziej wrażliwe ograniczenie wartości αS jest związane z tak zwaną reakcją "potrójnej alfa". Gwiazda wytwarza węgiel poprzez połączenie dwóch cząstek alfa w jądro berylu, a następnie dodanie kolejnej cząstki alfa w celu utworzenia jądra węgla (4He + 4He -> 8Be, 8Be + 4He -> 12C). Problem w tym, że beryl jest niestabilny (w przeciwnym razie "błysk helu" w olbrzymach doprowadziłby do katastrofalnej eksplozji) i dawniej sądzono, że ulegnie rozkładowi, zanim dodatkowa cząstka alfa będzie mogła się z nim połączyć. Dlatego przez wiele lat trudno było zrozumieć, dlaczego we wszechświecie istnieje węgiel. Następnie Fred HOYLE (Hoyle 1953) zdał sobie sprawę, że w drugim etapie musi wystąpić rezonans (tj. zwiększony współczynnik interakcji), który umożliwia utworzenie węgla, zanim zniknie beryl, tj. 12C musi mieć stan o energii tuż powyżej sumy energie 8Be i 4He. Nie ma jednak podobnego, korzystnie umiejscowionego rezonansu w 16O; w przeciwnym razie prawie cały węgiel zostałby przekształcony w tlen. Po wysunięciu tej sugestii szukano rezonansu w laboratorium i szybko go znaleziono, można więc uznać to za pierwszą potwierdzoną prognozę antropiczną. Rzeczywiście wymagane dostrojenie jest tak precyzyjne, że Hoyle doszedł do wniosku, że wszechświat musi być "pracą odkrytą". Wartość αsub>W jest również związana z interesującym ograniczeniem antropicznym związanym z supernowymi. Widzieliśmy, że supernowe są niezbędne do powstania życia, ponieważ rozprzestrzeniają ciężkie pierwiastki po całym wszechświecie. Jednak nadal nie jest pewne, dlaczego gwiazda eksploduje po spaleniu paliwa jądrowego. Jednym z wyjaśnień jest to, że rdzeń gwiazdy staje się bardzo gorący podczas zapadnięcia się, co generuje wiele neutrin, które następnie rozrywają otoczkę w wyniku słabych interakcji. Aby ten model zadziałał, wymagana jest, aby skala czasu interakcji neutrin z jądrami w otoczce była porównywalna z dynamiczną skalą czasu. Gdyby była znacznie dłuższa, otoczka byłaby zasadniczo przezroczysta dla neutrin; gdyby był znacznie krótszy, neutrina zostałyby uwięzione w jądrze i nie mogłyby uciec, aby zdeponować swój pęd w słabiej związanych otaczających warstwach. Obie skale czasowe są porównywalne pod warunkiem, że αG ∼ α4W . Wiemy, że ta zależność zachodzi liczbowo, ale zasada antropiczna wyjaśnia, dlaczego musi ona zachodzić. Jeśli więc przyjmiemy, że αG jest zdeterminowane antropicznie, musimy również przyjąć, że αW jest tak zdeterminowane. Co dość niezwykłe, zależność αG ∼ α4W również odgrywa kluczową rolę w obliczeniach nukleosyntezy Wielkiego Wybuchu. Przewidywanie, że 24% masy Wszechświata zamieniło się w hel w ciągu zaledwie kilku minut, jest jednym z największych triumfów obrazu Wielkiego Wybuchu. Jednakże produkcja helu zależy w sposób wrażliwy od stosunku neutronów do protonów, gdy słabe oddziaływania stają się wolniejsze niż kosmologiczna szybkość ekspansji w temperaturze 1010 K, a jedynym powodem, dla którego uzyskuje się interesującą wydajność helu, jest "zamrożenie" temperatura jest porównywalna z różnicą mas neutronów i protonów. Okazuje się, że warunkiem tego jest αG ∼? α4W , czyli dokładnie warunek wymagany dla supernowych. Nie jest jasne, w jakim stopniu tę zbieżność można interpretować antropicznie. Gdyby αW było nieco mniejsze niż α1/4G , cały wszechświat spaliłby się w hel, a życie gwiazdy helowej mogłoby nie być wystarczająco długie, aby umożliwić ewolucję życia. Gdyby αW było nieco większe niż α1/4G , w ogóle nie doszłoby do produkcji helu, chociaż nie jest jasne, czy ma to jakiekolwiek znaczenie antropiczne.
Kosmologiczne ograniczenia antropiczne
Kilka bardziej jakościowych ograniczeń antropicznych wynika z rozważań kosmologicznych. Na przykład można przypuszczalnie wykluczyć wszechświat o zerowej gęstości materii (tj. czystym promieniowaniu), ponieważ nie byłoby wówczas w ogóle zawartości barionowej. Istnieją również proste antropiczne powody, dla których parametr gęstości Ω całkowitej mieści się w rzędzie wielkości 1. (Jest to gęstość w jednostkach wartości krytycznej, która oddziela modele, które rozszerzają się w nieskończoność od tych, które ponownie się zapadają.) Gdyby Ω były znacznie większe niż 1, wszechświat uległby ponownemu zapadnięciu w skali czasu znacznie krótszej niż czas ciągu głównego gwiazdy. Z drugiej strony, gdyby Ω były znacznie mniejsze niż 1, wahania gęstości przestałyby rosnąć, zanim galaktyki mogłyby się związać. Argument ten wymaga, aby wartość mieściła się w zakresie 0,01-100. Czasami twierdzi się, że scenariusz inflacyjny wymaga dokładności Ω o 1 ton większej niż ta, w którym to przypadku wyjaśnienie antropiczne może nie wydawać się już istotne. Jednak nawet scenariusz inflacyjny sprawdza się tylko wtedy, gdy tak dobierze się potencjał próżni, aby uzyskać wystarczającą liczbę e-fałdów ekspansji i fluktuacji gęstości o właściwej amplitudzie. Forma tego potencjału może zatem sama być ograniczona argumentami antropicznymi. W rzeczywistości niektórzy teoretycy opowiadają się obecnie za scenariuszami "otwartej inflacji" z Ω < 1. W tym przypadku, aby określić obecną wartość , należy przywołać to, co Alex Vilenkin nazywa "zasadą przeciętności" (pomysł, że jesteśmy najprawdopodobniej żyją we wszechświecie z największą liczbą galaktyk). Jednak w rzeczywistości jest to po prostu zasada antropiczna pod inną nazwą. Innym ważnym parametrem kosmologicznym jest amplituda fluktuacji pierwotnej gęstości wymagana do wyjaśnienia obecnie obserwowanej struktury wielkoskalowej. Kiedy te fluktuacje dotarły za horyzont, musiały mieć amplitudę ε rzędu 10-5. W tym przypadku galaktyki powstały, gdy Wszechświat miał 109 lat, podczas gdy gromady galaktyk rozdzielają się w obecnej epoce. Co by się stało, gdyby z jakiegoś powodu wartość ? była inna? Gdyby ε było poniżej 10-6, bariony kondensowałyby tylko w bardzo późnych momentach, kiedy byłyby bardzo rozproszone. Chłodzenie byłoby wówczas nieskuteczne, więc gaz nigdy nie kondensowałby w gwiazdy. Z drugiej strony, gdyby ε było znacznie większe niż 10-3, bariony wcześnie skondensowałyby się, tworząc ściśle związane układy, które zatrzymywałyby promieniowanie i zapadały się w supermasywne czarne dziury. Ewolucja takiego wszechświata byłaby trudna do obliczenia, ale z pewnością nie zawierałby on niczego takiego jak galaktyki. Antropicznie dozwolony zakres ε wydaje się zatem mieścić w przedziale od 10-3 do 10-6 . Trzecim ważnym parametrem kosmologicznym jest stosunek fotonów do barionów S ∼ 109 (tj. stosunek gęstości fotonów w tle mikrofal do średniej gęstości protonów). W standardowym modelu Wielkiego Wybuchu promieniowanie tła dominowało w gęstości Wszechświata aż do około 104 lat, a powstawanie galaktyk mogło nastąpić dopiero po tym czasie. Jednakże dla ogólnej wartości S czas ten wyniósłby ∼S2α?1/2Gtp, a wiek Wszechświata podany w argumencie Dicke′a byłby wtedy większy tylko dla S<α-1/4G . Zatem górna granica S wynosi około 1010. Dolna granica S jest uzyskiwana, jeśli wymaga się, aby podczas kosmologicznej nukleosyntezy we Wszechświecie dominowało promieniowanie, w przeciwnym razie cały wodór zamieniłby się w hel, co oznacza, że S > (mp/me)4/34w/αG)1/6 ∼ 104. Zatem argumenty antropiczne wymagają, aby S mieścił się w przedziale 104-1010. Oczywiście na obrazie standardowym wartość S wynika z małego ułamkowego nadmiaru cząstek nad antycząstkami wdrukowanymi około ∼10-34 s po Wielkim Wybuchu z powodu naruszenia zasady zachowania barionu występującego w epoce Wielkiej Zjednoczenia. Jednakże w większości modeli WIELKIEJ UNIFIKOWANEJ TEORII (GUT) przewiduje się, że S będzie miało postać α-n, gdzie n jest liczbą całkowitą, zatem ograniczenie antropiczne S < α-1/4G przekłada się jedynie na ograniczenie αG < α4n. Jeśli n = 5, daje to po prostu warunek gwiazdy konwekcyjnej . Na koniec musimy wziąć pod uwagę ograniczenia antropiczne dotyczące wartości stałej kosmologicznej. Często przyjmuje się, że wynosi zero, ale nie jest to nieuniknione ani teoretycznie, ani obserwacyjnie. Dodatni + powoduje, że Wszechświat rozpoczyna wykładniczą ekspansję, gdy gęstość zwykłej materii spadnie wystarczająco nisko. Wzrost zaburzeń gęstości zostaje wówczas wyhamowany, w związku z czym związane systemy, które do tego czasu nie powstały, nigdy już nie powstaną. Dlatego też dla danej wartości ? względy antropiczne wyznaczają górną granicę. Co ciekawe, granica ta jest tylko 10-krotnie wyższa od wartości, którą niektórzy kosmolodzy opowiadają się za naszym obecnym Wszechświatem. W perspektywie 120 potęg 10 niepewności gęstości energii próżni, przewidywanej przez teoretyków cząstek, jest to bardzo poważne ograniczenie. że gęstość energii próżni jest znacznie mniejsza niż gęstość krytyczna, to można podejrzewać, że jest ona bardzo mała, być może dokładnie równa zero, z jakiegoś fundamentalnego powodu fizycznego.
Interpretacje zasady antropicznej
To, czy uznać argumenty antropiczne za mieszczące się w fizyce czy metafizyce, zależy od tego, jak je zinterpretować. Sugerowano różne rodzaje wyjaśnień. Pierwsza możliwość jest taka, że antropiczne zbiegi okoliczności odzwierciedlają istnienie "dobroczynnej istoty", która stworzyła wszechświat z konkretnym zamiarem stworzenia nas. Taka interpretacja jest logicznie możliwa i może przemawiać do teologów, ale prawdopodobnie jest nie do przyjęcia dla większości fizyków. Inna możliwość, zaproponowana przez Johna Wheelera , jest taka, że wszechświat właściwie nie istnieje, dopóki nie pojawi się świadomość. Opiera się to na założeniu, że wszechświat jest opisany przez kwantowo-mechaniczną funkcję falową i że do zapadnięcia tej funkcji falowej wymagana jest świadomość. Gdy we wszechświecie rozwinie się świadomość, można o niej pomyśleć jako o odbiciu się od źródła Wielkiego Wybuchu, tworząc w ten sposób zamknięty obwód, który powołuje świat do istnienia . Nawet jeśli świadomość rzeczywiście załamuje funkcję falową (co nie jest pewne), to wyjaśnienie również należy uznać za metafizyczne. Trzecia możliwość jest taka, że istnieje nie tylko jeden wszechświat, ale wiele z nich, każdy z różnymi losowo rozłożonymi stałymi sprzężenia. W tym przypadku z konieczności znajdujemy się w jednej z małych frakcji, które spełniają ograniczenia antropiczne. Dzięki tej interpretacji fakt, że stałe mają wartości wymagane do życia, staje się po prostu aspektem słabej zasady antropicznej, ponieważ świadomi obserwatorzy muszą znajdować się nie tylko w specjalnych punktach czasu i przestrzeni, ale także w specjalnych wszechświatach. Przywoływanie wielu dodatkowych wszechświatów może wydawać się raczej nieekonomiczne, ale istnieje kilka kontekstów fizycznych, w których ma to sens. Jedna z możliwości wiąże się z interpretacją mechaniki kwantowej "Wiele światów", zapoczątkowaną przez Hugh Everetta . Pomysł jest taki, że Wszechświat rozpada się za każdym razem, gdy funkcja falowa załamuje się w wyniku obserwacji. Oznacza to, że wszechświat nieustannie rozgałęzia się na ogromną liczbę równoległych światów, co daje początek słynnemu paradoksowi kota Schrödingera. David Deutsch twierdzi, że wszystkie te światy są w pewnym sensie "realne" (Deutsch 1991). Jednakże wszystkie one mają te same stałe sprzężenia w obrazie Everetta, zatem znaczna ekstrapolacja polega na twierdzeniu, że istnieją również światy, w których stałe się różnią. Bardziej prawdopodobny kontekst scenariusza "wielu wszechświatów" pojawia się, jeśli wszechświat jest zamknięty. W tym przypadku można sobie wyobrazić, że przechodzi on cykle ekspansji i ponownego załamania, a przy każdym odbiciu generowane są nowe wartości stałych sprzężenia (rysunek 2(c)). Podczas większości cykli stałe nie pozwalały na powstanie życia, ale czasami pojawiały się odpowiednie wartości i wszechświat stawał się świadomy siebie. Jakkolwiek mało prawdopodobne jest, aby stałe miały prawidłowe wartości, przy nieskończonej liczbie cykli z pewnością tak się stanie czasami. W kontekście obrazu inflacyjnego pojawia się inny scenariusz "wielu wszechświatów". Sugeruje to, że w bardzo wczesnym okresie fluktuacje kwantowe powodują, że małe obszary przechodzą fazę wykładniczej ekspansji. Każdy region staje się "bańką", a cały nasz widzialny wszechświat zostaje zawarty w jednej z nich. W zasadzie, jak podkreśla Andrei Linde, w każdym bąbelku mogą występować różne wartości stałych sprzężenia . W tym przypadku tylko niewielka część z nich rozwinęłaby świadomość, ale nasz wszechświat z konieczności znalazłby się wśród tej frakcji. Zarówno model cykliczny, jak i inflacyjny odwołują się do dużej - i być może nieskończonej - liczby wszechświatów. Jedyna różnica polega na tym, że pierwszy przywołuje nieskończoność w czasie, podczas gdy drugi przywołuje nieskończoność w przestrzeni.
Ocena końcowa
Możliwość ewolucji życia, jakie znamy we wszechświecie, zależy od wartości kilku podstawowych stałych fizycznych i pod pewnymi względami jest niezwykle wrażliwa na ich wartości liczbowe. Z drugiej strony, z fizycznego punktu widzenia, antropiczne "wyjaśnienie" różnych zbiegów okoliczności w przyrodzie można krytykować z wielu powodów. (1) Argumenty antropiczne mają głównie charakter post hoc - poza rezonansem potrójnej alfa nikt nigdy nie oparł skutecznej prognozy na zasadzie antropicznej. (2) Argumenty antropiczne mogą być nadmiernie antropocentryczne, ponieważ założyliśmy warunki, które są specyficznie związane z życiem typu ludzkiego. (3) Zasada antropiczna nie przewiduje dokładnych wartości stałych, a jedynie relacje rzędu wielkości między nimi, więc nie jest to pełne wyjaśnienie. Dwa ostatnie zastrzeżenia można spotkać w ramach interpretacji "wielu wszechświatów", jeśli weźmie się pod uwagę, że wszechświaty zajmują abstrakcyjną wielowymiarową przestrzeń stałych sprzężenia (z jednym wymiarem dla każdego α). Zasadę antropiczną można następnie zinterpretować w ten sposób, że życie może istnieć tylko w małych obszarach tej przestrzeni. W niektórych regionach możliwe będą formy życia podobne do naszych; inne formy życia mogą być możliwe gdzie indziej, ale życie nie będzie możliwe wszędzie . Być może nie w każdym podtrzymującym życie regionie przestrzeni istnieje taka sama relacja antropiczna, ale będzie ona istniała. Jak widzieliśmy, inną atrakcją wyjaśnienia "wielu wszechświatów" jest to, że możliwe jest przedstawienie mu rozsądnej podstawy fizycznej . Oczywiście nie jest jasne, czy te fizyczne idee będą kiedykolwiek możliwe do przetestowania. Na przykład prawdopodobnie nigdy nie dowiemy się, czy wszechświat może podlegać cyklom; nawet jeśli udowodnimy, że ponownie się załamie, nie możemy być pewni, że wejdzie w kolejną fazę ekspansji. Na obrazie inflacji sytuacja nie jest lepsza, bo z pozostałymi bańkami nigdy nie będziemy mogli się zetknąć. Obydwa obrazy są zatem niesprawdzalne i w tym sensie zasadę antropiczną można nadal uważać za metafizyczną. Być może najmniej radykalnym wyjaśnieniem antropicznych zbiegów okoliczności jest to, że mogą one okazać się konsekwencją jakiejś ujednoliconej teorii fizyki cząstek elementarnych. W końcu takie teorie mają na celu powiązanie różnych stałych sprzężenia, więc nie jest wykluczone, że przewidywałyby rodzaj powiązań między różnymi wartościami α omówionymi powyżej. Jednakże, o ile nam wiadomo, omówionych powyżej zależności nie przewiduje żadna ujednolicona teoria. Nawet gdyby tak było, byłoby niezwykłe, że teoria ta dostarcza dokładnie takich zbiegów okoliczności, jakie są wymagane do powstania życia. Na koniec należy przestrzec, że wiele z argumentów antropicznych odnosi się jedynie do obecności złożoności - antropiczne zbiegi okoliczności można w równym stopniu uznać za warunek wstępny dla obiektów nieożywionych, takich jak samochody - więc nacisk na życie może być niewłaściwie umiejscowiony. W tym kontekście Lee Smolin przypuszczał, że stałe rządzące naszym wszechświatem są zdeterminowane nie względami antropicznymi, ale rodzajem "doboru naturalnego" między wszechświatami . Postuluje, że nowe wszechświaty powstają, gdy tworzą się czarne dziury, i że nowe stałe, choć różnią się nieco od ich wartości we wszechświecie macierzystym, zachowują pewną pamięć o swoim pochodzeniu. Pomysł ten ma charakter wysoce spekulacyjny i obejmuje fizykę znacznie wykraczającą poza wszystko, czego możemy być pewni. Jednak pomysł Smolina ma przynajmniej tę zaletę, że można go przetestować: przewiduje, że właściwości naszego Wszechświata powinny być optymalne do powstawania czarnych dziur, tak aby jakiekolwiek majsterkowanie przy stałych zmniejszyło skłonność czarnych dziur do powstawania. Konwencjonalna astrofizyka może przynajmniej zacząć zajmować się tą kwestią.
Sztuka i literatura
Poszerzające umysły właściwości astronomii wpływają na pisarzy i artystów w równym stopniu (a może w większym stopniu) na ogół ludzi, a istnieje długa tradycja wykorzystywania odniesień astronomicznych w literaturze i sztuce.
Astronomia i sztuka
Jednym z celów sztuki pięknej (malarstwa, rzeźby i przedmiotów, które mają być podziwiane, a nie użyteczne) jest komentowanie ludzkich działań za pomocą metafory lub analogii. Działania takie mogą być przeciwne zjawiskom astronomicznym lub kojarzone z nimi, we własnym interesie lub w ramach komentarza. Na przykład na obrazach przedstawiających ukrzyżowanie często pojawiają się obrazy zaćmień. Są one dosłowne przedstawienia nagłej ciemności, która według Pisma Świętego nastąpiła po śmierci Jezusa. Są także metaforami wygaśnięcia ważnej osoby i przykładami "żałosnego błędu", w którym utożsamia się świat przyrody z reakcją na zachodzące w nim działania człowieka. Podobnie florenckiemu malarzowi Giotto de Bondonelowi w 1303 roku zlecono udekorowanie wnętrza kaplicy należącej do bogatego kupca z Padwy, Enrico Scrovegniego, i namalował 38 scen religijnych, z których jedną była Pokłon Trzech Króli . Kult Dzieciątka Jezus w stajni odbywał się pod Gwiazdą Betlejemską, symbolem przemiany i złowieszczym niebiańskmi
znakiem narodzin. Giotto przedstawił ją jako płonącą kometę. Inspiracją dla niego była Kometa Halleya, która w 1301 roku powróciła do peryhelium i którą malarz niewątpliwie widział. Wypadało, aby statek kosmiczny wysłany do jądra Komety Halleya podczas powrotu w 1986 roku otrzymał nazwę GIOTTO. Na poziomie bardziej indywidualnym Vincent van Gogh namalował Gwiaździstą noc. Przedstawia prowansalską wioskę z kościołem oraz domy z oświetlonymi oknami w krajobrazie wzgórz, drzew oliwnych i cyprysów, pokazane nocą pod rozgwieżdżonym niebem, z półksiężycem i wirującą Drogą Mleczną. Wygląda na to, że niebobraz jest swobodną wizualizacją nocnego nieba w momencie jego malowania. Niezależnie od naturalnego realizmu kosmiczne tło oszałamiających świateł, górujące nad ludzkim krajobrazem poniżej, stanowi niepokojące kosmiczne tło dla mniejszych wydarzeń ludzkich poniżej, w tym, jak należy przypuszczać, rozwijającego się szaleństwa Vincenta, którego kulminacją było samobójstwo w następnym roku. Ta sama Droga Mleczna
biegnie po nocnym niebie w Ucieczce do Egiptu Albrechta Altdorfera (1609, w Pinakotece w Monachium). Ponownie jest to kosmiczne tło dla wydarzeń, pokazanych w małych rozmiarach, które mają miejsce na Ziemi poniżej, gdy Święta Rodzina podróżuje na osiołku, uciekając przed masakrą niemowląt dokonaną przez Heroda. Altdorfer to pierwsze przedstawienie Drogi Mlecznej jako masy pojedynczych gwiazd. Instrumenty astronomiczne są często pokazywane na portretach. Są to ciekawe dekoracje, które odzwierciedlają zainteresowania, osiągnięcia i wykształcenie opiekuna(ów) i mogą, ale nie muszą, być bezpośrednio powiązane z tematem. Ambasadorzy to pełnometrażowy portret dwóch bogatych, wykształconych i wpływowych młodych mężczyzn, Jeana de Dinteville, ambasador Francji w Anglii i Georges de Selve, biskup Lavaur. Artysta Hans Holbein Młodszy (1497/8-1543) przedstawił dwóch mężczyzn stojących po obu stronach stołu niosącego kolekcję globusów, książek oraz instrumentów astronomicznych i muzycznych. Zegar słoneczny na stole
jest identyczny z tym, który znajduje się na portrecie astronoma Nicholasa Kratzera wykonanym przez Holbeina z 1528 r. Można przypuszczać, że zegar słoneczny został zaprojektowany lub wykonany przez Kratzera, a jego wizerunek został ponownie wykorzystany i włączony przez Holbeina do The Ambassadors jako pochlebstwo. Odniesienia astronomiczne w ilustrowanych książkach angielskiego poety romantycznego Williama Blake′a nie sprzyjają nauce. Bóg jako architekt, ilustracja z The Ancient of Days, przedstawia Boga jako starca, klęczącego na burzliwych chmurach przed ognistym słońcem i chłodno mierzącego kosmos za pomocą podziałów . Blake przedstawił Newtona jako wprowadzonego w błąd bohatera przypominającego greckiego boga, którego wzrok skierowany był tylko w dół, na sterylne diagramy geometryczne, które również mierzył za pomocą dzielników . Co ciekawe, to pogardliwe przedstawienie Newtona jest często widywane jako plakaty na ścianach wydziałów fizyki uniwersytetów. W przeciwieństwie do pesymizmu
Blake′a, jego współczesny i rodak Samuel Palmer ukazuje sielankowe sceny w wyidealizowanej Anglii pod łagodnym, wieczornym niebem ze świecącymi księżycami i planetą Wenus.
Astronomia i literatura
Tak jak artyści wykorzystywali tematy astronomiczne jako tło dla ludzkich spraw, tak też czynią to pisarze. W pismach Williama Szekspira (1564-1616) pełno jest odniesień astronomicznych. W jego sztukach znajdują się liczne przemówienia za i przeciw astrologii, a poglądy przeciwne wyrażają głównie bardziej nachalne, zbuntowane postacie. Szekspir urodził się po opublikowaniu przez Kopernika swojej teorii Układu Słonecznego w 1543 r. i był rówieśnikiem entuzjastycznych angielskich zwolenników nowego spojrzenia na Wszechświat, takich jak THOMAS DIGGES (zm. 1595), WILLIAM GILBERT (1540-1603) i JOHN DEE (zm. 1595). 1527-1608). Niemniej jednak w dziełach Szekspira nie ma śladu tej kontrowersji, z wyjątkiem sporów o ważność astrologii. Thomas Hardy (1840-1928) był poetą i płodnym powieściopisarzem żyjącym na wsi Wessex. Opisał swoją powieść "Dwa na wieży" jako "niezbyt rozbudowany romans", który "był wynikiem chęci zestawienia emocjonalnej historii dwóch nieskończenie małych żyć ze zdumiewającym tłem gwiezdnego wszechświata i zaszczepić czytelnikom poczucie, że z tych kontrastujących wielkości mniejsza może być dla nich jako ludzi większa" (przedmowa do wydania z 1895 r.). Peter Ackroyd (1949-), angielski powieściopisarz, znany ze swojego podejścia do względności czasu w swojej twórczości, również umieścił swoją powieść Pierwsze światło w krajobrazie zachodniego kraju, który ukazuje palimpsest czasu w jego kurhanach, ludowych wspomnieniach i współczesnych obserwatorium. W literaturze można wyraźnie skomentować dość abstrakcyjne idee astronomiczne. Rozmiar wszechświata jest jednym z czynników pobudzających wyobraźnię astronomii, a samo słowo "astronomiczny" zyskało dodatkowe znaczenie słowa "ogromny", ponieważ wielkości występujące w astronomii są tak ogromne. Czasami reakcją na odległości gwiazd jest podziw i strach, jak w Myśli Blaise'a Pascala (1623-1962): Wieczna cisza tych nieskończonych przestrzeni napawa mnie przerażeniem. Ze względu na długi czas podróży światła z gwiazdy do nas, obraz nieba, który w tej chwili postrzegamy, powstał dawno temu i może ukazywać wspomnienie gwiazdy, która od tego czasu dobiegła kresu swojego życia i już nie istnieje. istnieje. The Oda to Charles Sumner autorstwa Henry'ego Longfellowa (1807-1882) (1979 Complete Works (Oxford: Oxford University Press) s. 326) ilustruje tę ideę:
Gdyby gwiazda zgasła na wysokościach,
Przez wieki będzie jego światło,
Wciąż podróżując w dół z nieba,
Świeć na nasz śmiertelny wzrok.
Kiedy więc umiera wielki człowiek,
Przez lata poza naszym zasięgiem
Światło, które zostawia za sobą, leży
Na ludzkich ścieżkach.
Amerykański poeta Robert Frost (1874-1963) astronomią interesował się przez całe życie, a jego początki sięgają już w wieku 15 lat, kiedy to zainstalował w górnym pokoju domu rodziców mały teleskop, kupowany za pieniądze ze sprzedaży prenumerat czasopism. W przemówieniu na dwa miesiące przed śmiercią przedstawił swoją filozoficzną reakcję na astronomię: "Jakie to poruszające, Słońce i wszystko inne. Weź teleskop i spójrz tak daleko, jak tylko możesz. Ile wszechświata zmarnowano, żeby wyprodukować nas marnych. To cudowne
w porządku". W A Star in a Stone Boat (Frost R 1962 (Harmondsworth: Penguin) s. 116) opisał, jak materia niebieska jest częścią tkanki Ziemi i jej zawartości.
Nigdy mi nie mów, że ani jedna gwiazda ze wszystkich, które nocą spadają z nieba i delikatnie spadają, nie została podniesiona wraz z kamieniami, by zbudować mur.
Primo Levi (1919-1987) był włoskim poetą i pisarzem żydowskim. Z wykształcenia chemik przemysłowy, miał dramatyczne życie jako partyzant piemoncki, był świadkiem, uczestnikiem i ocalałym z obozu koncentracyjnego w Auschwitz. Popełnił samobójstwo, najwyraźniej zrozpaczony kondycją człowieka. Jego poezja In the Beginning z 1998 Collected Poems: Shema transl R Feldman i B Swann (Londyn: Faber and Faber) s. 27) opisuje tę samą myśl, co Frost, w odniesieniu do Wielkiego Wybuchu:
Z tego jednego spazmu narodziło się wszystko:
Ta sama otchłań, która nas otacza i rzuca wyzwanie,
W tym samym czasie, który nas rodzi i pokonuje,
Wszystko, o czym ktokolwiek kiedykolwiek pomyślał,
Oczy kobiety, którą kochaliśmy,
Słońca tysiącami
I ta ręka, która pisze.
Jednakże, podobnie jak w sztukach pięknych, nie wszystkie odniesienia do astronomii w literaturze są przychylne i Newton jest na linii ognia. Podczas pijackiej kolacji w dniu 28 grudnia 1817 r., w której uczestniczyło czterech literatów - Benjamin Haydon, William Wordsworth, Charles Lamb i John Keats - Lamb znieważył Haydona za umieszczenie popiersia matematycznego naukowca Izaaka Newtona na właśnie namalowanym przez niego obrazie. Lamb wyśmiewał Newtona jako "człowieka, który nie wierzy w nic, jeśli nie jest to jasne jak trzy boki trójkąta". Lamb wzniósł toast za "zdrowie Newtona i zamieszanie z matematyką". Keats zgodził się i wraz z Wordsworthem ubolewał nad zniszczeniem piękna przez naukę. To drwiny z nauki pojawiają się w poezji Keatsa i Wordswortha. Żaden naukowiec nie zgodziłby się z opinią wyrażoną przez Keatsa (Lamia, część II, wiersze 229-38 w: Garrod H. W. 1956 The Poetical Works of John Keats:
Nie wszystkie amulety latają
Na sam dotyk zimnej filozofii?
Kiedyś w niebie była straszna tęcza:
Znamy jej wątek, jej teksturę; jest jej dane
W nudnym katalogu rzeczy pospolitych.
Filozofia podetnie skrzydła Aniołowi,
Pokonaj wszystkie tajemnice według zasad i linii,
Opróżnij nawiedzone powietrze i gnom moje -
Rozpleć tęczę
Fantastyka naukowa
Astronomia kojarzona jest z odrębnym gatunkiem literackim, jakim jest science fiction. "Science fiction to rodzaj prozatorskiej narracji opisującej sytuację, która nie mogłaby mieć miejsca w znanym nam świecie, ale której hipotezę opiera się na jakiejś innowacji w nauce lub technologii, lub pseudotechnologii, zarówno ludzkiej, jak i pozaziemskiej, w pochodzenia" . Science fiction ma długą i chwalebną historię. Jej początki sięgają II w. n.e., gdyż wówczas powstała pierwsza prawdziwa powieść o wyprawie na Księżyc, której autorem był grecki satyryk Lucjan z Samosaty. Nazwał ją Prawdziwą Historią, ponieważ od początku do końca składała się z samych kłamstw. Opisuje rzeczy, których "nie widział, nie cierpiał, ani nie nauczył się od kogoś innego, rzeczy, których nie ma i nigdy nie mogło być; dlatego moi czytelnicy w żadnym wypadku nie powinni im wierzyć". Lucian łączył chłodny umysł z darem do płynnego, łatwego pisania i posiadał duże poczucie humoru. Jego podróżnikami są marynarze, którzy zostali porwani przez strumień wody, gdy przechodzili przez Słupy Herkulesa (naszą Cieśninę Gibraltarską), i zostali wyrzuceni w górę z taką siłą, że po siedmiu dniach i siedmiu nocach wylądowali na Księżycu. Zostali aresztowani przez księżycowych wojowników i uwięzieni przez Króla Księżyca. Łącząc arystotelesowskie postrzeganie ciał niebieskich jako doskonalszych od Ziemi z Księżycem, Lucian opisał ludzi księżycowych jako znacznie bardziej zaawansowanych niż ludzie na Ziemi. Wszystko, co nieczyste i nieczyste, było dla nich odrażające. Seks był albo nieznany, albo ignorowany, a kiedy księżycowy człowiek umierał, po prostu rozpływał się w dymie, tak że nie pozostawiano żadnych szczątków do pochówku. Ta konwencja mówiąca, że istoty niebieskie są czystsze od nas, przetrwała do dziś w wierzeniach o pozaziemskich gościach w UFO. Somnium (Sen) Johanna KEPLERA było zupełnie inne. W 1593 roku, mając 22 lata, student Uniwersytetu w Tybindze, Kepler napisał rozprawę pt. Stanowisko Kopernika na temat tego, jak niebo będzie wyglądało dla obserwatora na powierzchni Księżyca. Debata na temat tej radykalnej tezy została stłumiona. Somnium, napisane w 1609 r. i opublikowane w 1634 r., rozwija tę tezę w dzieło wyobraźni. To było i miało być zarówno edukacyjne, jak i rozrywkowe. Było 223 notatki wyjaśniające jego odniesienia. Praca ta była pierwsza, kładąc nacisk na to, co dla Keplera było nauką, a nie na historię przygodową opowieść science fiction (hard core, w której nauka jest najważniejszą cechą, w przeciwieństwie do science fiction). Bohater Keplera, Islandczyk imieniem Duracotus, zostaje przeniesiony na Księżyc przez demona. Kepler wiedział, że ziemska atmosfera nie rozciąga się aż do Księżyca i że musi istnieć punkt neutralny, w którym siły grawitacyjne Ziemi i Księżyca równoważą się. Kepler wiedział również, że Księżyc zawsze jest zwrócony tą samą twarzą w stronę Ziemi, i wyjaśnia, że warunki na obu półkulach są zupełnie inne. Opisuje zaćmienie Księżyca widziane z Księżyca (tj. zaćmienie Słońca przez Ziemię) i jak wygląda zaćmienie Słońca z perspektywy mieszkańca Księżyca (tj. przejście cienia umbralnego przez powierzchnię Ziemi). W 1865 roku ukazała się książka Juliusza Verne′a "Z Ziemi na Księżyc", a później ukazała się jej kontynuacja "Dookoła Księżyca". Verne świadomie starał się trzymać znanych mu faktów i, ogólnie rzecz biorąc, udało mu się to wyjątkowo dobrze, mimo że jego podstawowy sposób podróżowania był niewłaściwy. Jego podróżnicy zostali wystrzeleni na Księżyc z lufy ogromnej armaty i wyruszyli z prędkością 7 mil s-1. Liczbowo Verne miał rację; 7 mil na s-1 to prędkość ucieczki Ziemi, a pocisk wystrzelony z tą prędkością nigdy nie powróci. Niestety, pocisk zostałby natychmiast zniszczony przez tarcie o atmosferę, a w każdym razie szok odlotu z pewnością zamieniłoby wszystkich podróżnych w galaretę, ale przynajmniej Verne sprawił, że wszystko brzmiało wiarygodnie. Jego opis Księżyca opierał się na najlepszych dostępnych informacjach, a jego fabuła jest genialna; pocisk napotyka mniejszego satelitę Ziemi i jego tor zostaje zmieniony w taki sposób, że zamiast dotrzeć do Księżyca, podróżujący zostają bumerangiem z powrotem na Ziemię. Opisuje "Wojna światów" HG Wellsa (1898)., ak Ziemię najeżdżają groteskowe potwory z Marsa, uciekając przed wysuszeniem swojej planety. Powodują spustoszenie, dopóki nie zostaną zniszczone przez bakterie lądowe, na które nie mają odporności. W 1938 roku audycja radiowa powieści wyprodukowanej przez Orsona Wellesa wywołała powszechną panikę w niektórych częściach Stanów Zjednoczonych, a słuchacze wzięli ją za prawdziwy biuletyn informacyjny. Powieść zupełnie innego rodzaju napisał KONSTANTIN EDWARDOWICZVICH CIOŁKOWSKI, urodzony w 1857 roku w Ijewsku, odległej wiosce w Rosji. Uświadomił sobie, że jedyną praktyczną metodą podróży kosmicznych jest rakieta, która działa na zasadzie reakcji i może pracować w próżni kosmicznej. Jego jedyna powieść, Beyond the Planet Earth, została ukończona prawdopodobnie w 1895 r., choć ukazała się drukiem dopiero w 1920 r., a jej tłumaczenie na język angielski opóźniono aż do 1960 r. Jako opowieść i wysiłek literacki można ją określić jedynie jako okropną. , ale według prognoz naukowych wyprzedzał swoje czasy o całe lata. W swojej powieści podróżnicy użyli silnika rakietowego na paliwo ciekłe zamiast na ciała stałe, takie jak proch strzelniczy; opisał zasadę "krokowego" montażu jednej rakiety na drugiej (co nazwalibyśmy rakietą wielostopniową). Podał także doskonale dokładny opis przyczyn i skutków nieważkości, czyli zerowej grawitacji. Był równie świadomy wielu problemów związanych z długimi podróżami kosmicznymi i zaproponował zabranie ze sobą różnego rodzaju zielonych roślin, aby usunąć nadmiar dwutlenku węgla z atmosfery wewnątrz statku kosmicznego i zastąpić go wolnym tlenem. W latach trzydziestych XX wieku ukazywało się wiele tanich magazynów science fiction (i kryminałów). W ten sposób powstała nazwa "pulp fiction", obecnie będąca synonimem opowiadania historii bez wyrafinowania. Niemniej jednak niektórzy młodzi, a teraz już uznani pisarze zaczynali na tym rynku. W przeciwieństwie do większości pulp fiction, wśród ostatnich autorów, których książki zawierają dużo solidnej wiedzy naukowej, znajduje się wizjoner podróży kosmicznych Sir ARTHUR CLARKE, autor książki 2001: a Space Odyssey, nakręconej przez Stanleya Kubricka. Astronom FRED HOYLE jest także uznanym pisarzem, którego pierwsze i najbardziej znane dzieło science fiction, Czarna chmura, zawiera wzory matematyczne.
"Sztuka kosmiczna"
Podobnie jak science fiction, "sztuka kosmiczna" ma głównie na celu przekazywanie myśli o kosmosie i astronomii, a nie ukazywanie niuansów samodzielnej formy sztuki. Sztuka kosmiczna jest formą ilustracji naukowej, podobną do ilustracji botanicznej. Ponieważ tematu nie widać bezpośrednio, artyści kosmiczni ekstrapolują wiedzę na jego temat na ilustrację, podobnie jak zrobiłby to ilustrator rekonstruując dinozaura ze skamielin lub miejsce historyczne z wykopalisk archeologicznych. Artyści kosmiczni mogą pokazać, jak wyglądałaby odległa planeta, układ podwójny gwiazd lub galaktyka, gdybyśmy byli tam osobiście, lub w jaki sposób można by zrealizować działanie w przestrzeni kosmicznej, takie jak wydobycie asteroidy lub kolonizacja Marsa. Sztuka kosmiczna może również włączać do swojego gatunku elementy fantasy, umieszczając ryby, kwiaty itp. w scenie kosmicznej, aby uzyskać dramatyczny efekt. Wczesnym przykładem tej formy sztuki kosmicznej był The Sower of Systems , przedstawienie chaosu poprzedzającego
powstanie planet przez George′a Fredericka Wattsa (1817-1904). Ekspresjonistyczny obraz hipotezy mgławicy Laplace′a łączy się z niewyraźną formą kroczącej postaci w szarym płaszczu, jakby zasiewała pole. Pionierskim artystą kosmicznym we współczesnej szkole był CHESLEY BONESTELL, który ilustrował książki ekspertów w dziedzinie podróży kosmicznych, takich jak WERNHER VON BRAUN i Willy Ley. Nowoczesną sztukę kosmiczną wyróżnia naturalistyczny sposób ilustracji, tworzący szczegółowe pejzaże nawiązujące do pejzażystek amerykańskich romantycznych. Zarówno tematyka, jak i dostępny materiał sprzyjają cyfrowym metodom pracy, ale powszechne są również bardziej tradycyjne techniki. Około 120 artystów kosmicznych tworzy Międzynarodowe Stowarzyszenie Artystów Astronomicznych (http://www.iaaa.org/), założone w 1982 roku. Współcześni praktycy to David Hardy i Paul Doherty (Wielka Brytania), Lynette Cooke (USA) oraz kosmonauci Właidimir Dżanibekow. Aleksjie Leonow , a także Georgij Popławski i Andrjej Sokołow (Rosja). Sztuka kosmiczna ma nieograniczone możliwości. W przyszłości fascynujące będzie spojrzenie wstecz na niektóre spekulacje XX wieku; na przykład, czy baza księżycowa naprawdę będzie przypominać pełną wdzięku kopułową strukturę wizualizowaną przez Bonestell? Poczekamy i zobaczymy.
Odkrycie asteroidy w historii
Odkrycie pięciu głównych planet (innych niż Ziemia) w Układzie Słonecznym zostało utracone w starożytności. Wraz z przyjęciem heliocentrycznego modelu Układu Słonecznego Kopernika zauważono wyraźną anomalię w rozstawie planet. JOHANNES KEPLER uważał, że różnica między Marsem a Jowiszem jest zbyt duża w stosunku do odstępów między innymi parami sąsiednich planet. Doszedł do wniosku, że nieznana planeta krąży wokół Słońca pomiędzy Marsem a Jowiszem. W 1766 roku Titius von Wittenburg opracował empiryczny wzór na odległości planet od Słońca. Wzór został spopularyzowany przez Johanna Bodego i jest dziś znany jako PRAWO BODE lub prawo Titiusa-Bodego. Wzór ma postać:
A = 0,4 + 0,3 x 2n
gdzie A jest odległością od Słońca (w jednostkach odległości Ziemi), a n = ?∞, 0, 1, 2,
. Wartości A określone tym wzorem, odpowiadające im planety i rzeczywiste odległości przedstawiono w tabeli .

Tycjusz przypisał przerwę przy n = 3 nieodkrytym księżycom Marsa. Podobnie jak Kepler, Bode argumentował, że tę lukę zajmuje większa planeta. Odkrycie Urana w 1781 roku w odległości bardzo zbliżonej do przypadku n = 6 utwierdziło wiarę w brakującą planetę. (Należy zauważyć, że Neptun bardzo słabo pasuje do przypadku n = 7 i że "Prawo" wydaje się być niczym więcej niż ciekawostką liczbową.)
Niebiańska policja
Jednym z zwolenników prawa Bodego był BARON FRANZ VON ZACH, który posunął się nawet do przewidzenia elementów orbitalnych "brakującej planety" i podjął samodzielne poszukiwania, aby ją znaleźć. Po kilku latach bezowocnych poszukiwań poddał się. We wrześniu 1800 roku von Zach odbył spotkanie w obserwatorium JOHANNA SHRÖTERA w Lilienthal w celu zorganizowania wspólnego poszukiwania domniemanej planety. Poszukiwania miały być prowadzone w odległości około 4° od ekliptyki, którą podzielono na 24 sekcje, z których każda miała być przeszukiwana przez innego astronoma. 1 stycznia 1801 roku, zanim niebiańska policja zdążyła zabrać się do pracy, sycylijski mnich, ojciec GUISEPPE PIAZZI, w trakcie konstruowania katalogu gwiazd odkrył poruszający się obiekt gwiezdny. Piazzi obserwował obiekt przez 6 tygodni, zanim przerwała mu choroba. Chociaż Piazzi napisał listy do różnych astronomów, w tym do Bodego, ogłaszając odkrycie, do czasu otrzymania listów nowego obiektu nie można już było obserwować. Korzystając z obserwacji Piazziego, różne komputery orbitalne próbowały przewidzieć, gdzie obiekt będzie znajdował się w nadchodzącym roku, ale przewidywania obejmowały 5° nieba. Zainspirowany odkryciem Piazziego niemiecki matematyk CARL FRIEDRICH GAUSS opracował nową metodę ogólnego obliczania orbity. Prace Gaussa umożliwiły odnalezienie nowego obiektu, który otrzymał nazwę Ceres Ferdinandea (później na szczęście skróconą do po prostu CERES), z dokładnością do 0,5° od jego przewidywań niezależnie przez von Zacha i HEINRICHA OLBERSA.
Era wizualna
28 marca 1802 roku Olbers sprawdzał położenie gwiazd w pobliżu Ceres i odkrył PALLAS. 1 września 1804 roku KARL HARDING odkrył trzecią asteroidę, JUNO. Olbers zauważył, że Juno została odkryta w pobliżu jednego z punktów przecięcia orbit Ceres i Pallas i wierząc, że asteroidy są fragmentami jednego obiektu, skoncentrował swoje poszukiwania w pobliżu tych punktów. 29 marca 1807 roku jego pracowitość zaowocowała odkryciem VESTA. W 1845 roku Karl Hencke, niemiecki naczelnik poczty, po 15 latach poszukiwań odkrył piątą asteroidę, Astraea. Hencke odkrył Hebe w 1847 roku, a inni astronomowie szybko rozpoczęli własne poszukiwania. Zastosowano różne techniki obserwacji. Jaśniejsze asteroidy można wykryć dzięki ich nieobecności na opublikowanych mapach gwiazd. W przypadku asteroid słabszych niż pokazano na mapach, obserwatorzy musieli uciekać się do rysowania własnych map i porównywania rysunków tego samego pola gwiazdowego w różnych momentach. Do 1850 roku odkryto 13 asteroid. Szybko rozwinęła się tradycja, że nowo odkrytym obiektom nadano nazwy natychmiast po (lub wkrótce po) ogłoszeniu o odkryciu. Wczesnym odkryciom również przypisywano symbole, choć praktyka ta zanikła już w 1855 r. Numery nadawane według kolejności odkryć wprowadzono w 1851 r. Fakt, że numery i nazwy nadano natychmiast po opublikowaniu ogłoszenia o odkryciu, często powodował zamieszanie. Gwałtowny wzrost liczby odkryć (100 w 1868 r., 200 w 1879 r. i 300 w 1890 r.) przerósł możliwości komputerów orbitalnych próbujących śledzić wszystkie obiekty, w wyniku czego wiele obiektów zaginęło. W 1856 roku Hermann Goldschmidt odkrył (41) Daphne. Obiekt obserwowano tylko przez cztery dni. Goldschmidt myślał, że w następnym roku wyzdrowiał (41), ale okazało się, że jest to nowy obiekt, którym stał się (56) Melete. Ten ostatni obiekt obserwowano tylko przez dwa tygodnie i zaginął do czasu, gdy Goldschmidt podjął wyczerpujące poszukiwania w 1861 r. Karol Luter przypadkowo odnalazł (41) ponownie w 1862 r., ale został wzięty za nowy obiekt i przez pewien czas był ponumerowany (74). . W miarę odkrywania kolejnych asteroid stało się jasne, że większość obiektów znajduje się w pasie, zwanym Pasem Głównym, rozciągającym się w odległości od 2,2 do 3,28 jednostki astronomicznej od Słońca (patrz PAS ASTEROID). Pierwszym obiektem odkrytym poza Pasem Głównym była (65) Cybele w 1861 r. W 1875 r. (153) Hilda została znaleziona w średniej odległości prawie 4 jednostek astronomicznych. Był to prototyp Hild, obiektów znajdujących się w rezonansie ruchu średniego 3:2 z Jowiszem i chronionych przed bliskimi zbliżeniami do tej planety, mimo że ich orbity zbliżają się dość blisko.
Epoka fotograficzna
Do 1892 roku wszystkie obserwacje prowadzono wzrokowo, używając kręgów tranzytowych lub mikrometrów. Wprowadzenie poszukiwań fotograficznych pod koniec 1891 roku przez MAX WOLFA w Heidelbergu w Niemczech, a wkrótce potem przez Auguste'a Charloisa w Nicei we Francji, oznaczało nie tylko, że obserwatorzy mogli wykryć obiekty słabsze niż można było zaobserwować wizualnie, ale że płyta fotograficzna stanowiła trwały zapis obserwacji. Odkryć wizualnych dokonano poprzez obserwację zmian w polach gwiazdowych na przestrzeni kilku godzin, gdy obiekty przemieszczały się przez to pole. W przypadku zdjęć z długim czasem naświetlania, wykonanych teleskopem śledzonym z prędkością gwiazdową, poruszające się obiekty zdradzałyby swoją obecność, tworząc krótkie ślady na płycie. Problem z obserwacjami fotograficznymi polegał na tym, że przynajmniej początkowo często nie mierzono dokładnych pozycji obiektów na płytach, głównie dlatego, że był to czasochłonny proces wymagający specjalistycznego sprzętu pomiarowego. Ogólnie rzecz biorąc, uzyskiwano przybliżone pozycje, które można było szybko wyznaczyć. Dokładne obserwacje uzupełniające można następnie uzyskać za pomocą obserwatorów wizualnych za pomocą mikrometrów. Jednakże obserwatorzy wizualni mieli trudności ze śledzeniem słabszych odkryć fotograficznych, a coraz większa liczba nowo odkrytych obiektów szybko ginęła. Aby uporać się z tym narastającym problemem, wprowadzono tymczasowe oznaczenia. Nowo odkryte obiekty otrzymywały najpierw tymczasowe oznaczenie, a stały numer nadawany był dopiero wtedy, gdy wydawało się, że orbita nowego obiektu jest bezpieczna. Początkowo tymczasowe oznaczenie składało się z roku i jednej litery. Zatem pierwszym obiektem tak oznaczonym był 1892 A, drugim 1892 B, itd. Literę I pominięto, aby schemat ten mógł obsłużyć 25 odkryć rocznie. Rok 1892 zakończył się rokiem 1892 V. Sekwencję liter rozpoczęto od nowa w roku 1893, lecz oznaczenie 1893 Z osiągnięto w maju tego roku. Wprowadzono nową serię podwójnych liter, zaczynającą się od AA, AB,
, AZ, BA, BB itd. Ta dwuliterowa sekwencja nie rozpoczynała się co roku od nowa; ostatnim obiektem odkrytym w 1893 r. był 1893 AP, pierwszym w 1894 r. był 1894 AQ. Dwuliterowy ciąg został wyczerpany w 1907 ZZ. Zamiast rozpoczynać sekwencję potrójną, sekwencja dwuliterowa została po prostu wznowiona za pomocą 1907 AA. Sekwencja została ponownie wyczerpana w 1916 ZZ i rozpoczęto od nowa w 1916 AA. W 1925 roku wprowadzono nowy system oznaczeń tymczasowych. Używało to sekwencji dwuliterowej i było powiązane z datą kalendarzową odkrycia. Pierwsza litera odzwierciedlała pół miesiąca odkrycia obiektu: A oznaczało odkrycia dokonane między 1 a 15 stycznia, B między 16 a 31 stycznia, C między 1 a 15 lutego, …, zostałem pominięty, …, Y pomiędzy 16 i 31 grudnia. W drugim piśmie wskazano kolejność w ciągu każdego pół miesiąca (znowu zostałem pominięty). Jeżeli w ciągu pół miesiąca dokonano więcej niż 25 odkryć, druga sekwencja liter była poddawana recyklingowi i do oznaczenia dodawana była cyfra. Zatem sekwencja oznaczeń obiektów odkrytych w pierwszej połowie stycznia 1998 będzie następująca: 1998 AA, 1998 AB,
, 1998 AZ, 1998 AA1, 1998 AB1, … , 1998 AZ1, 1998 AA2 itd. Zakrojony program poszukiwań prowadzono w Heidelbergu od 1891 r., a program głównie wizualny Johanna Palisy w Wiedniu działał od 1881 r. W latach 1874-1880 Palisa odkryła 28 asteroid w Poli, która wówczas była w Austrii. Po przeprowadzce do Wiednia odkrył kolejnych 55, po czym porzucił poszukiwania i poświęcił się kontynuacji odkryć innych ludzi. Poszukiwania nowych obiektów wznowił w 1905 r., a w 1923 r. odkrył kolejnych 38. Dalsze istotne programy rozpoczęto w Johannesburgu i Simeis w 1911 r., Uccle (Belgia) w 1925 r., Flagstaff (USA) w 1929 r. (poszukiwania doprowadziły do odkrycia Pluton) i Turku (Finlandia) w 1935 r. W dalszym ciągu odkrywano nowe klasy asteroid: 1898, (433) EROS, pierwszy obiekt o odległości peryhelium mniejszej niż 1,3 AU; 1903, (588) ACHILLES, pierwszy obiekt w rezonansie 1:1 z większą planetą (trojany Jowisza); 1920, (944) Hidalgo, obiekt asteroidalny o orbicie kometarnej; 1932, (1862) Apollo, pierwsza asteroida o odległości peryhelium mniejszej niż 1 AU (patrz ASTEROIDY NEARTH). Zadanie skatalogowania asteroid podjęto w Niemczech. Głównym czasopismem publikującym informacje o odkryciach, pozycjach i orbitach było Astronomische Nachrichten (AN). Astronomishes Rechen-Institut w Berlinie-Dahlem zaczął publikować serię okólników szybkiego ostrzegania, okólników RI, w 1926 r. Coroczne zbiory efemeryd mniejszych planet publikowano, najpierw w Jahrbuch Rechen-Institut, a następnie od 1917 r. osobno jako Kleine Planeten. Działalność tych podmiotów została jednak poważnie zagrożona przez II wojnę światową. W 1947 roku Międzynarodowa Unia Astronomiczna podzieliła się zadaniem katalogowania mniejszych planet. Za wydawanie rocznych tomów efemeryd dla ponumerowanych obiektów odpowiedzialny był Instytut Astronomii Teoretycznej w Leningradzie w ZSRR (obecnie Sankt Petersburg, Rosja). Minor Planet Center, założone na Uniwersytecie Cincinnati, miało za zadanie śledzenie nowo odkrytych obiektów i nadawanie tymczasowych i stałych oznaczeń. Centrum rozpoczęło publikację Okólników Minor Planet, zastępujących nieistniejące już Okólniki RI. Pierwszym priorytetem było ponowne odnalezienie ponumerowanych obiektów, które zaginęły. Spośród 1564 obiektów oznaczonych numerem w 1945 r. orbity około 20% uznano za w złym stanie. Nowe programy badawcze w Obserwatorium Goethe Link w Indianie, Obserwatorium McDonald i Krymskim Obserwatorium Astrofizycznym rozwiązały problem utraconych obiektów i pomogły odzyskać wiele obiektów. Jeśli chodzi o obliczenia, Paul Herget, pierwszy dyrektor Minor Planet Center, wykorzystał niedawno opracowany komputer elektroniczny do wykonania obliczeń orbity i ulepszeń. Przed 1973 rokiem wszystkie znane obiekty bliskie Ziemi (NEO) zostały odkryte jako produkty uboczne innych programów astronomicznych. Dwa takie obiekty odkryto w 1948 r. w trakcie przeglądu Lick Proper Motion Survey, a pięć w Palomar w latach 1949-1954 podczas przeglądu nieba Palomar. W 1973 roku Eleanor Helin i Eugene Shoemaker rozpoczęli badanie Palomar Planet-Crossing Asteroid Survey, pierwsze badanie, którego głównym celem było odkrycie NEO. Odkryto więcej nowych klas asteroid: 1976, (2062) Aten, pierwsza asteroida o orbicie mniejszej niż orbita Ziemi; 1977, (2060) CHIRON, pierwszy centaur z orbitą pomiędzy orbitami planet Jowisza. W 1978 roku, kiedy Minor Planet Center przeniosło się z Cincinnati do Smithsonian Astrophysical Obervatory w Cambridge w stanie Massachusetts, wydano 4390 Minor Planet Circulars i było tam ponumerowanych 2060 obiektów, z czego około 20 uznano za zaginione.
Era CCD
Podobnie jak w przypadku przejścia z obserwacji wizualnej na fotograficzną, przejście z obserwacji fotograficznych na obserwacje CCD oznacza, że obserwatorzy mogą docierać do słabszych obiektów szybciej niż było to możliwe wcześniej. Wadą, którą usunięto dopiero niedawno, jest to, że pole widzenia matrycy CCD jest znacznie mniejsze niż pokrycie zapewniane przez kliszę fotograficzną. Płyta wykonana dużym Schmidtem zazwyczaj obejmuje obszar 6 na 6 stopni, podczas gdy wczesne CCD mogą obejmować tylko 6 minut kątowych na 6 minut kątowych. Nowoczesne wielkoformatowe matryce CCD i matryce CCD łagodzą ten problem zasięgu. Pierwsze systematyczne zastosowanie CCD do wyszukiwania asteroid miało miejsce w ramach projektu Spacewatch w 1981 r. Wykorzystując czcigodny reflektor o średnicy 0,91 m w Obserwatorium Stewarda na Kitt Peak, Spacewatch odkrył ponad 180 planetoid NEO i 25 000 asteroid Pasa Głównego. Większość obecnych profesjonalnych poszukiwań asteroid za pomocą CCD jest zoptymalizowanych pod kątem odkrywania NEO, ale w trakcie poszukiwań wychwytuje wiele rutynowych obiektów. Program LINEAR (zespół badawczy Lincoln Laboratory Near-Earth Asteroid Research) odkrył 153 planetoidy NEO i ponad 19 000 asteroid Pasa Głównego. Inne aktywne programy obejmują NEAT (śledzenie asteroid bliskich Ziemi), LONEOS (przeszukiwanie obiektów bliskich Ziemi w Obserwatorium Lowell) i ODAS (badanie asteroid OCA-DLR). Inne programy zawodowe, takie jak czeskie programy w Klet i Ondrejov, koncentrują się na kontynuacji. Wciąż odkrywane są nowe klasy asteroid. Pierwsze OBIEKTY TRANS-NEPTUNIAŃSKIE, po Plutonie, odkryto w latach 1992 i 1993. Orbity niektórych z tych obiektów leżą daleko poza orbitą Neptuna i są zasadniczo okrągłe, podczas gdy inne mają orbity, które znajdują się w rezonansie ruchu średniego z Neptunem ( głównie rezonans 2:3, jak w przypadku Plutona). Chociaż orbity tych ostatnich obiektów przecinają orbitę Neptuna, rezonans uniemożliwia bliskie spotkania z Neptunem. Skrajna słabość większości tych obiektów utrudnia dalsze działania, a wiele odkrytych obiektów należy już uznać za zaginione. Dostępność niedrogich kamer CCD na rynku amatorskim na początku lat 90. XX wieku doprowadziła do odrodzenia się działalności amatorskiej w dziedzinie odkrywania asteroid. Wcześniej wielu amatorów, choć posiadało odpowiednie teleskopy, nie było w stanie prowadzić astrometrycznych obserwacji asteroid, ponieważ nie mieli sprzętu do pomiaru klisz fotograficznych lub klisz. Przetworniki CCD i pojawienie się programów komputerowych do przetwarzania obrazów CCD umożliwiło wielu amatorom obserwację i odkrywanie asteroid. Inni amatorzy stali się oddanymi obserwatorami, pilnie śledzącymi odkrycia potencjalnych NEO za pomocą profesjonalnych ankiet. Japońscy amatorzy są bardzo aktywni od lat 70. XX wieku, najpierw fotografując, a następnie używając matryc CCD. Dużą działalność amatorską prowadzi się także we Włoszech, Australii i USA. W chwili pisania tego tekstu liczba asteroidów jest ponumerowana 10 986, przydzielono ponad 164 000 tymczasowych oznaczeń i wydano ponad 35 000 okólników mniejszych planet. Zaginęła tylko jedna asteroida o numerze. Istnieje ponad 12 000 nienumerowanych obiektów o dobrych orbitach, które w najbliższej przyszłości będą kwalifikowały się do numeracji. Ponad 25 000 innych obiektów, zaobserwowanych jedynie podczas odkrycia, ma orbity różnej jakości i oczekuje na odnalezienie lub ponowne odkrycie
Asteroidy
Asteroidy to małe ciała krążące wokół Słońca, które nie wykazują aktywności kometarnej ani nie mają do niej potencjału. Słowo "mały" ma na celu wykluczenie planet z definicji. Wszystkie znane asteroidy mają średnicę mniejszą niż 1000 km i sięgającą kilku centymetrów (METEOROIDY). Największą znaną planetoidą jest 1 CERES, odkryta 1 stycznia 1801 roku przez Giuseppe Piazzi w Palermo we Włoszech, o średnicy 950 km. Asteroidy nazywane są także mniejszymi planetami. Nowo odkryte mniejsze ciało znane jako 2001 KX76, którego średnica czyni go największym znanym mniejszym ciałem w Układzie Słonecznym (jego średnica, która nie jest zbyt dobrze określona, wynosi około 1200 km, a być może nawet 1400 km) to OBIEKT TRANSNEPTUŃSKI (TNO). Większość asteroid krąży w zamkniętym obszarze pomiędzy Marsem a Jowiszem, zwanym głównym PASEM ASTEROID. Spośród około 30 000 znanych obiektów jedynie 8500 asteroid ma dokładnie określone orbity. Każda z tych asteroid ma ostateczną identyfikację, składającą się z liczby wskazującej
kolejność jej pojawienia się oraz nazwy zaproponowanej przez odkrywcę (np. "3752 Camillo" oznacza 3752. odkrytą asteroidę). Dla pozostałych 21 500 dostępne są jedynie wstępne orbity; każda oznaczona jest rokiem odkrycia i dwiema literami wskazującymi datę pierwszej obserwacji w ramach tymczasowej identyfikacji (np. "1998 p.n.e." oznacza trzecią asteroidę (C) odkrytą w drugiej połowie stycznia (B) 1998 r.). Satelita astronomiczny w podczerwieni (IRAS) wykrył tysiąc asteroid, który dostarczył radiometryczne średnice i albedo większości z nich. Około 700 asteroid ma określony okres rotacji. Mniej niż 1000 asteroid ma średnicę większą niż 30 km, a spośród nich około 200 asteroid ma średnicę większą niż 100 km. Ekstrapolując rozkład wielkości asteroid do 1 km, uzyskuje się szacunkową liczbę około miliona asteroid, których średnica jest większa lub równa 1 km. Szacuje się, że globalna masa populacji jest rzędu jednej tysięcznej masy Ziemi. Asteroidy uważano za nieciekawe "robactwo niebios", dopóki nie odkryto,
że przechowują różnorodne informacje. W rzeczywistości uważa się, że asteroidy to pozostałości, fragmenty lub "ocalałe" roje PLANETESIMALI, z których powstały planety ziemskie: zapisy pierwotnych procesów chemicznych i fizycznych wciąż można znaleźć zamrożone w rzeczywistych charakterach asteroid. Badanie tych obiektów dostarcza informacji na temat natury tych pierwotnych rojów, nawet jeśli różnicowanie i/lub aktywność wewnętrzna w różny sposób wpływały na ich ewolucję. Obserwacje asteroid naziemne i in situ pokazują populację ciał stałych wykazujących różnorodne właściwości chemiczne i fizyczne: jedną z najciekawszych cech asteroid jest ich różnorodność. Zrozumienie pochodzenia różnorodności wymaga zbadania dużej liczby ciał. Informacje zebrane in situ na temat asteroid RG21 6XS, UK Zarejestrowany pod numerem 785998 i Institute of Physics Publishing 2003 Dirac House, Temple Back, Bristol, BS21 6BE, UK 1 różne asteroidy
będące celami misji kosmicznych stanowią potężny test umożliwiający kalibrację technik stosowanych do określania właściwości chemicznych i fizycznych asteroid na podstawie obserwacji naziemnych, które są i pozostaną głównym źródłem danych o asteroidach. Obecna wiedza na temat populacji planetoid została uzyskana głównie z obserwacji naziemnych. Na przykład ostatnie obserwacje wykonane za pomocą 10-metrowego teleskopu Keck II na Mauna Kea ujawniają obecność małego satelity krążącego wokół asteroidy 87 Sylvia. Przewidywana odległość między pierwotnym i wtórnym wynosiła 0,59 cala na obrazach w paśmie H uzyskanych 18 lutego 2001 r. przy użyciu systemu optyki adaptacyjnej na 10 m teleskopie WM Keck II. Na obrazach uzyskanych w odstępie godziny był widoczny niewielki ruch względny (górna granica 0,02 cala). ). Zmierzony współczynnik jasności wyniósł 420 ą 70, co oznacza stosunek rozmiarów około 1:20. Oznacza to, że satelita ma szerokość około 7 km, w przeciwieństwie do Sylvii, która ma szerokość około 130 km.
Niewiele dużych asteroid objętych jest programem obserwacyjnym Kosmicznego Teleskopu Hubble'a (HST), a pierwsze wyniki dotyczące 4 VESTA cieszą się dużym zainteresowaniem. Infrared Satellite Observatory (ISO) zaobserwowało kilkadziesiąt asteroid, umożliwiając astronomom uzyskanie danych spektralnych do 45 ľm. Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA) MISJA GALILLEO po raz pierwszy zbliżyła się do dwóch asteroid, 951 GASPRA (październik 1992) i 243 IDA (sierpień 1993), oferując społeczności planetologów możliwość przyjrzenia się z bliska dwóm S- typu asteroidy z pasa głównego. Przelot 253 Mathilde (czerwiec 1997, misja Near Earth Asteroid Rendezvous (NEAR)) dostarczył nam pierwszych danych in situ na temat asteroidy typu C.
Asteroidy pasa głównego
Główny pas asteroid zajmuje obszar wokół Słońca przypominający pączek, zawierający orbity większości asteroid, charakteryzujący się półosiami wielkimi (a) w zakresie od 2,1 AU do 3,3 AU, mimośrodami (e) w zakresie od 0,01 do 0,3 oraz nachyleniem (i) względem płaszczyzny orbity Ziemi (ekliptyki) pomiędzy 0° a 35° (ze średnią wartością 10°). Strukturę pasa asteroid określają oddziaływania grawitacyjne zarówno z Marsem, jak i Jowiszem. Ze względu na większą masę, efekty Jowisza są dominujące i powodują wyczerpywanie się obiektów odpowiadających rezonansom, tj. obszarów, w których okres orbitowania ciała byłby dokładnym całkowitym stosunkiem okresu orbity Jowisza (asteroida 2,5 AU od Słońca mówi się, że znajduje się w "rezonansie" 3:1: to znaczy, że ciało wykona dokładnie trzy okrążenia wokół Słońca na każde okrążenie Jowisza). Te przerwy w jednorodności pasa asteroid nazywane są KIRKWOOD GAPS od nazwiska amerykańskiego astronoma, który je zidentyfikował. Usuwając skutki świeckich zaburzeń planetarnych, można uzyskać opis orbity asteroidy pod względem jej właściwych elementów. Niektóre planetoidy pasa głównego mają bardzo blisko siebie półosie główne, odpowiednie mimośrody i odpowiednie nachylenia: tworzą skupienia w przestrzeni odpowiednich pierwiastków i generalnie wszyscy członkowie gromady należą do tego samego typu składu. W 1918 roku japoński astronom Hirayama nazwał te gromady "rodzinami planetoid" . Analizując 950 znanych asteroid, Hirayama nazwał zidentyfikowane rodziny największego członka rodziny: Themis, Eos, Koronis i Flora. Od tego czasu zidentyfikowano kilka innych rodzin i klanów (grupa asteroid nazywana jest "klanem", gdy niemożliwe jest jednoznaczne zdefiniowanie członka rodziny i/lub oddzielenie go od innych obiektów tła). Rodziny asteroid interpretuje się jako wynik katastrofalnego rozerwania ciała macierzystego w wyniku zderzenia z inną, mniejszą asteroidą. Jeśli tak, to rodziny planetoid stanowią naturalne laboratorium, w którym doszło do uderzeń z dużą prędkością (v∼5 km/s-1) w skali niemożliwej do odtworzenia w naszych laboratoriach. Rozkład wielkościowy członków rodziny (fragmentów ciała macierzystego) jest obrazem skutków zderzenia; skład chemiczny fragmentów wskazuje na wewnętrzną strukturę i skład ciała macierzystego. Badanie rodzin asteroid dostarcza informacji na temat historii kolizyjnej populacji asteroid od czasu jej powstania. Odkrycie nowej rodziny planetoid potwierdzono w 2002 roku. Uważa się, że jest to najmłodsza planetoida, która ma mniej niż 6 milionów lat. David Nesvorny i współpracownicy z Southwest Research Institute w Boulder w Kolorado rozpoznali około 39 asteroidów jako należących do tej samej rodziny, badając ich orbity. Projektując obecne orbity wstecz w czasie, naukowcy odkryli, że zbiegły się one około 5,8 miliona lat temu, a więc musiało to mieć miejsce w momencie, gdy powstały w wyniku rozpadu większego ciała. Spośród 39 dwie to duże asteroidy. Jedna, zwana (832) Karin, od której wzięła się nazwa całej gromady, ma średnicę około 19 km; druga, zwana (4507) 1990, ma długość około 14 km. Zespół szacuje, że ciało macierzyste miało średnicę co najmniej 24,5 km. Rozmiar ciała macierzystego i powstałych przez nie fragmentów może stanowić test dla teoretycznych modeli sposobu, w jaki uderzenia rozbijają ciała skaliste. Stosunkowo świeże powierzchnie dwóch większych fragmentów mogą również ujawnić, z czego zbudowane są asteroidy i jak szybkie wietrzenie w przestrzeni kosmicznej pokrywa je małymi kraterami. Zderzenie Karin mogło być również odpowiedzialne za niedawno odkryte pasmo pyłu asteroidalnego. Rozkład prędkości obrotowej w zależności od średnicy asteroid pasa głównego pokazuje, że obiekty o średnicy około 100 km mają dłuższe okresy rotacji niż zarówno większe, jak i mniejsze asteroidy. W hipotezie kolizyjnej ewolucji asteroid z roju planetozymalnego wartość średnicy zinterpretowano jako wielkość, przy której następuje oddzielenie pierwotnych większych asteroid od ich mniejszych produktów kolizyjnych. Rozkład prędkości wirowania asteroid o średnicy większej niż 50 km jest jednomodalny i odzwierciedla zachowanie rotacyjne uzyskane podczas pierwotnych faz procesu akrecji asteroid, podczas gdy rozkład asteroid o D < 50 km jest sumą trzech składników, " pierwotny", jeden z szybkich rotatorów i jeden z bardzo wolnych rotatorów. Zderzenia zakłócające pozwalają małym fragmentom uzyskać moment pędu, tworząc grupę szybkich rotatorów, natomiast mechanizm spowalniania, który dał początek powolnym rotatorom, w tym 253 Mathilde, wymaga dalszych badań. Kształty 50 szeroko obserwowanych dużych asteroid oceniono za pomocą analizy Fouriera pełnego zestawu krzywych blasku, a pomiary radarowe wykorzystano do określenia kształtów małych obiektów. Dane te wskazują, że większe asteroidy są bardziej regularne niż mniejsze. Wynik ten ponownie wskazuje, że większe ciała są pozostałością pierwotnej populacji, która zachowała w swoim kształcie figury równowagi, podczas gdy mniejsze, ogólnie nieregularne obiekty, są zapisami destrukcyjnych zderzeń. Kierunek osi obrotu (orientacja bieguna) został wyznaczony (w najlepszym przypadku z dokładnością do 15%) dla 50 planetoid. Nawet jeśli dostępna próbka jest zbyt mała, aby wyciągnąć jednoznaczne wnioski, rozkład kierunków biegunów wydaje się bimodalny: ponownie jest to możliwa wskazówka na nałożenie się dwóch różnych grup asteroid. Dokładne określenie kierunku bieguna znacznej liczby asteroid pozwoli na lepsze zrozumienie historii populacji. W rzeczywistości, mimo że większość nachyleń osi obrotu pierwotnych asteroidów była rozłożona wokół jednej wartości w wyniku procesu akrecji, zderzenia spowodują losową zmianę orientacji osi obrotu, których rozkład zostanie rozłożony i spłaszczony. Populacja asteroid rozprzestrzenia się pomiędzy orbitami Marsa i Jowisza. W tej strefie leży granica oddzielająca wewnętrzny Układ Słoneczny (gdzie odparowała woda w mgławicy protosłonecznej) od obszarów zewnętrznych (gdzie nastąpiła kondensacja wody). Strefa ta, rozciągająca się od 2,6 AU do 3,1 AU, znana jest jako wodna strefa zmian, w której w wielu widmach asteroid typu C wykryto sygnatury widmowe przejść elektronowych, możliwe tylko w obecności ciekłej wody. Jest to mocny dowód na obecność, czasami w przeszłości, wody w stanie ciekłym na tych asteroidach. Ilość wody obecnej w asteroidzie jest kwestionowana, ale jej wykrycie byłoby istotne dla zrozumienia związków między asteroidami a KOMETAMI.
Skład asteroidy
Skład chemiczny i mineralogię powierzchni asteroid można określić za pomocą spektroskopii lub, nawet jeśli z mniejszą precyzją, za pomocą spektrofotometrii wielofiltrowej. Analizując za pomocą wyrafinowanych kodów grupowania wszystkie dostępne widma asteroid, uzyskano system taksonomiczny. Główne uznane klasy są oznaczone, w kolejności ich obserwowanej względnej liczebności, literami: S, C, M, D, F, P, V, G, E, B, A (inicjały słów używanych do z grubsza opisu asteroida lub jej widmo, tj. kamienista, węglowa, metaliczna,
). Większość asteroid należy do typu C o niskim albedo, charakteryzującym się stosunkowo neutralnym widmem, wykazującym absorpcję w zakresie fal ultrafioletowych, a czasami oznaki zmian wodnych. Ich widma odpowiadają widmom węglowych meteorytów chondrytycznych, co stanowi silną wskazówkę o podobnym składzie. Kilka asteroid (typu B, G i F) przypomina C widma z niewielkimi różnicami przy krótszych długościach fal, które mogą odzwierciedlać stopnie metamorfizmu materiału podobnego do C. Asteroidy typu D, charakteryzujące grupę trojanów, mają niskie albedo i są bardziej czerwone niż planetoidy typu C. Asteroidy typu P o niskim albedo, dominujące w odległości 3,6 AU
Odległe asteroidy
Poza głównym pasem, w kierunku zewnętrznego obszaru Układu Słonecznego, kilka grup asteroid zachowuje się zupełnie inaczej niż asteroidy z pasa głównego: w rzeczywistości znajdują się one w głównych rezonansach z Jowiszem. Na 3,9 AU (rezonans 3:2) znajduje się grupa Hildy; asteroida Thule spada w rezonansie 4:3 (przy 4,3 AU). Szczególnie interesująca grupa, zwana ASTEROIDAMI TROJAŃSKIMI, rezyduje w rezonansie 1:1. Te asteroidy mają taką samą odległość heliocentryczną i okres orbitalny jak Jowisz: krążą w pobliżu dwóch pozycji równowagi, znanych jako punkty Lagrange′a Jowisza, które leżą około 60° na wschód i zachód od Jowisza w jego płaszczyźnie orbity. Obecnie znanych jest około 200 trojanów; ma istnieć kilka tysięcy, większych niż 15 km. Chociaż trojany są klasyfikowane jako asteroidy na podstawie braku aktywności kometarnej, fizyczna natura trojanów jest niepewna: ich widma optyczne pokazują czerwone kontinua bez dowodów na cechy absorpcji lub emisji (typ taksonomiczny D): ich albedo jest bardzo niskie (2- 3%). Obie te cechy są porównywalne z cechami kilku obserwowanych jąder komet i mogą świadczyć o wspólnych związkach organicznych w obu klasach obiektów. Podobnie jak w przypadku komet, ciemnoczerwone powierzchnie trojanów mogą być cienkimi płaszczami gruzu osłaniającymi zakopany lód, którego szybkość sublimacji (w przypadku odsłonięcia, np. w wyniku zderzenia) jest zbyt mała, aby utrzymać obserwowalną śpiączkę. Orbita Jowisza wyznacza granicę między światami skalistymi (planety podobne do Ziemi, asteroidy, pył) i światami lodowymi (systemy satelitarne planet-olbrzymów, komety, pierścienie); w tych regionach możliwe byłoby znalezienie elementu przejściowego między asteroidą a kometą, które prawdopodobnie są przeciwległymi członkami tej samej populacji pierwotnych planetozymali. W rzeczywistości niedawno odkryto kilka dużych obiektów, zwanych CENTAURAMI, na orbitach przecinających orbity gazowych gigantów. 2060 CHIRON, pierwszy odkryty centaur, jest jedynym członkiem tej grupy, który wykazuje aktywność kometową (jej oznaczenie komety to P/Koval). Centaury to prawdopodobnie ogromna populacja niestabilnych ciał przemierzających planety zewnętrzne; ich łączną liczbę szacuje się na 105-106 obiektów w przeliczeniu na km. Wszystkie znane centaury są podobne dynamicznie, ale ich powierzchnie wykazują dramatyczne różnice widmowe: niektóre mają całkowicie neutralne widmo (podobne do słonecznego), podczas gdy inne wykazują najbardziej czerwone widma ciał Układu Słonecznego. Czy są to łyse komety, a także OBIEKTÓW TRANS-NEPTUNIAŃSKICH?
Asteroidy bliskie Ziemi
ASTEROIDY BLISKOZIEMIOWE (NEA) należą do trzech różnych grup ogólnie małych obiektów znajdujących się w wewnętrznym Układzie Słonecznym. Znanych jest około 500 NEA, a wskaźnik ich odkrywania stale rośnie. Spośród NEA 5,8% należy do grupy Atens charakteryzującej się półosią wielką a<1 AU i odległością aphelium Q>0,983 AU, 48,5% należy do grupy Apollo (a>=1 AU i odległością peryhelium q<=1,017 AU), a 45,7% należy do grupy Amor (1,017 AU6-108 lat. Ponieważ NEA mają niestabilne orbity, potrzebne są ciągłe dostawy nowych obiektów. Powszechnie proponuje się dwa główne mechanizmy zaopatrywania populacji zbliżającej się do Ziemi: pierwszy zakłada, że NEA to fragmenty asteroid pochodzące z głównego pasa, natomiast drugi zakłada, że możliwym źródłem NEA są uśpione lub wymarłe jądra komet. Powszechnie uważa się, że NEA, zarówno pochodzenia asteroidowego, jak i kometarnego, są w sposób ciągły wstrzykiwane na orbity przecinające Ziemię za pośrednictwem kilku różnych kanałów rezonansowych, które zbierają fragmenty wyrzucane losowo z asteroid z pasa głównego w wyniku energetycznych wzajemnych zderzeń asteroid. Obiekty te przechodzą dość złożony proces ewolucji orbitalnej, napędzany ruchem średnim i rezonansami świeckimi, nierezonansowymi perturbacjami świeckimi oraz sekwencją bliskich spotkań z planetami. Ostatecznie w większości wpadają do Słońca lub są wyrzucane z Układu Słonecznego po spotkaniu z Jowiszem; tylko kilka procent zderza się z planetami ziemskimi. Aby zachować równowagę pomiędzy średnim tempem utraty planetoid na orbitach zbliżających się do Ziemi a tempem ich uzupełniania, tempo źródeł musi generować kilkaset nowych obiektów o średnicy większej niż 1 km na 106 lat. Jak dotąd uzyskano stosunkowo niewiele obserwacji spektroskopowych NEA ze względu na ich małe rozmiary, słabe pozorne jasności i ograniczone odstępy widoczności. Nasza obecna wiedza na temat natury NEA sugeruje, że populacja ta charakteryzuje się różnorodną mineralogią powierzchni i obejmuje prawie wszystkie typy taksonomiczne występujące w pasie głównym. Nawet jeśli nasze próbkowanie NEA do obserwacji fizycznych jest mocno stronnicze, wydaje się, że nie istnieje żadna korelacja pomiędzy typem taksonomicznym a wymiarem lub okresem rotacji: zarówno największa, jak i najmniejsza NEA to asteroidy typu S; kilka typów C obejmuje znaczny zakres średnic, podczas gdy rzadkie typy taksonomiczne mają zakres prędkości rotacji, podobnie jak liczne typy S. Na podstawie tych danych wydaje się, że populacja NEA ma w przybliżeniu taki sam udział asteroid typu S i C, jak pas główny. To podobieństwo rodzi pytanie, gdzie znajdują się martwe komety, które nie powinny być głównym składnikiem głównego pasa. Kilka NEA sklasyfikowanych jako typy C jest najwyraźniej utworzonych przez prymitywny materiał podobny do uwodnionych meteorytów chondrytowych CI i CM węglowych. Badanie aspektroskopowe NEA w zakresie 0,45-0,9 ?m wykazało, że spośród 35 obiektów sześć ma widma podobne do widm zwykłych meteorytów chondrytowych, podczas gdy 29 ma właściwości widmowe obejmujące zakres od domen zwykłych meteorytów chondrytowych do najpopularniejszego meteorytu typu S asteroidy pasa głównego. Zakres ten może wynikać z różnorodności mineralogii i rozmiarów cząstek regolitu, a także z zależnego od czasu procesu wietrzenia powierzchni. W tym przypadku, jeśli aktywny jest proces wietrzenia zależny od czasu (jak zaproponowano w celu wyjaśnienia zmian powierzchni zmierzonych na zdjęciach 243 Ida ze statku kosmicznego Galileo), asteroidami bardzo przypominającymi zwykłe meteoryty chondrytowe będą te z najmłodszymi powierzchniami. Obserwacje sugerują, że planetoidy podwójne często pojawiają się na orbitach przecinających Ziemię. Korzystając z dwóch najpotężniejszych astronomicznych teleskopów radarowych na świecie, astronomowie szacują, że około 16% planetoid bliskich Ziemi o średnicy większej niż 200 metrów (219 jardów) to prawdopodobnie układy podwójne. Asteroidy bliskie Ziemi mogą stać się układami podwójnymi, gdy przyciągają je znacznie większe siły grawitacyjne planet, zniekształcając, a czasem przerywając satelitę. Wyniki teoretyczne i modelowanie pokazują, że asteroidy podwójne powstają najprawdopodobniej podczas bliskiego spotkania z planetami wewnętrznymi, Ziemią lub Marsem, czasami zaledwie 16 000 mil od powierzchni planety. W 2002 roku w wiadomościach pojawiły się dwie asteroidy ze względu na ich przewidywane bliskie podejście do Ziemi. 9 lipca 2002 roku astronomowie z MIT odkryli 2002 NT7, kosmiczną skałę o szerokości 2 km, krążącą po dziwnej orbicie. W przeciwieństwie do większości asteroid krążących wokół Słońca w płaszczyźnie planet, 2002 NT7 podąża po torze nachylonym pod kątem 42 stopni. Większość czasu spędza daleko powyżej lub poniżej reszty Układu Słonecznego. Jednak co 2,29 roku asteroida przelatuje przez wewnętrzny Układ Słoneczny niedaleko orbity Ziemi. Po tygodniu dalszych obserwacji badacze przeprowadzili pewne obliczenia. Doszli do wniosku, że istnieje szansa, że 2002 NT7 może uderzyć w naszą planetę 1 lutego 2019 r. To trafiło na pierwsze strony gazet, niepokojąc część opinii publicznej. Nie zgłoszono jednak, że prawdopodobieństwo zderzenia wynosi 1 do 250 000. 14 lipca astronomowie odkryli 2002 NY40. Asteroida ta ma średnicę około 800 metrów i porusza się po orbicie rozciągającej się od pasa asteroid do wewnętrznego Układu Słonecznego. Najbliższe podejście miało miejsce 18 sierpnia 2002 r., przechodząc zaledwie 1,3 razy dalej niż Księżyc i było widoczne przez lornetkę.
Przelot asteroidy
Misja Galileo zmierzająca w stronę Jowisza zbadała asteroidy 951 Gaspra i 243 Ida, odkrywając wokół tej ostatniej pierwszego satelitę asteroid o nazwie Dactyl; wszystkie te trzy to małe obiekty typu S. 243 Ida jest członkiem rodziny Koronis. Przeloty Galileo dostarczyły zdjęć tych asteroid z rozdzielczością przestrzenną, jakiej nigdy nie uzyskano w obserwacjach naziemnych. Obserwacje wykazały, że zarówno 951 Gaspra, jak i 243 Ida mają kształt wydłużony i dość nieregularny, natomiast Dactyl ma raczej gładki, regularny kształt, co kontrastuje z kanciastością innych znanych małych ciał (951 Gaspra, 243 Ida, kometa P/Halley jądro, 4179 Toutatis i 4769 Castalia), ale wykazuje pewne aspekty o porównywalnej szorstkości kończyn z księżycami Marsa (PHOBOS I DEIMOS). Jedną z charakterystycznych cech powierzchni jest układ prążków liniowych (wgłębienia o jednakowej szerokości do kilku km i szerokości kilkuset metrów i głębokości prawdopodobnie nie większej niż kilkadziesiąt metrów), które są podobne do rowków obserwowanych na Fobosie i mogą być sygnaturą ich pochodzenia z powodu niemal katastrofalnej kolizji. Najważniejszymi wynikami było określenie rozkładu wielkości kraterów na powierzchniach obiektów. Z rozkładu częstotliwości kraterów wynika, że wiek 243 Ida wynosił około 1 miliard lat, podczas gdy wiek 951 Gaspra wynosił zaledwie 200 milionów lat. Obie asteroidy są pokryte warstwą regolitu o znacznych różnicach w albedo i kolorze. Sekwencja zdjęć, na których widoczny jest Dactyl, pozwoliła nam wyznaczyć jego orbitę w funkcji masy 243 Idy. Połączenie tej wartości z oszacowaną objętością 243 Ida daje gęstość nasypową 243 Ida na poziomie 2,6 ± 0,5 g cm-3, co jest zgodne z masowym składem chondrytycznym. 27 czerwca 1997 roku NEAR przeleciał blisko (około 1200 km) asteroidy 253 Mathilde z pasa głównego, wykonując pierwszy przelot w pobliżu asteroidy typu C. Aby scharakteryzować 253 Mathilde, przeprowadzono kilka naziemnych badań rozpoznawczych. Ustalono okres rotacji wynoszący 17,4 dnia: 253 Mathilde jest wyjątkowo powolnym i opadającym rotatorem. Obserwacje spektralne 253 Mathilde wykazały, że jej neutralne właściwości odblaskowe są wysoce jednorodne na całej badanej powierzchni, a wyniki widma są porównywalne z wynikami chondrytów węglowych i czarnych zwykłych. Obserwacje koloru NEAR na całym dysku w zakresie od 400 do 1100 nm ściśle zgadzają się z wynikami widma teleskopowego. NEAR odkrył, że 253 Mathilde jest jednakowo nijaka zarówno pod względem albedo, jak i koloru (bardziej łagodna pod względem wariacji kolorystycznych niż Fobos). 253 Mathilde ma albedo geometryczne wynoszące 0,041 ± 0,003 przy 0,55 μ. W ramach projektu NEAR odkryto pięć kraterów o średnicy 19-33 km, co odpowiada średniemu promieniowi 26,5 km. Przelot pozwolił także na bezpośrednie określenie masy i oszacowanie gęstości na 1,3 ± 0,2 g cm-3. Porównanie tej gęstości z gęstością chondrytów węglowych sugeruje, że porowatość 253 Mathilde wynosi ∼ 50%. W lutym 2000 r. główny cel misji, spotkanie z bardzo wydłużoną planetoidą z grupy Amor typu S 433 EROS, został osiągnięty za pomocą serii manewrów, które spowolniły statek kosmiczny do prędkości względem asteroidy wynoszącej zaledwie 5 m s-1 przed wejściem na orbitę. Zestaw szczegółowych i precyzyjnych danych na temat trzech planetoid typu S (951 Gaspra, 243 Ida i Dactyl), drugiego pod względem składu planetoidy pod względem liczebności, jest już dostępny, a w ciągu przyszłego roku pojawią się nowe informacje na temat innej osobliwej asteroidy typu S (433 Eros) zostanie uzyskany. Na podstawie analizy tych danych prawdopodobnie możliwe będzie ustalenie, czy asteroidy S są prymitywnymi zbiorowiskami minerałów, niewiele zmienionymi od czasu, gdy powstały jak zwykłe kondryty, czy też materiałem w postaci meteorytów bazaltowych i kamienno-żelaznych, które uległy intensywnemu stopieniu i ewolucja. Pierwszy przelot statku typu C (253 Mathilde) wykazał bardzo małą gęstość tego ciała i bardzo jednorodny kolor powierzchni. Zderzenia na 253 Mathilde silnie wpłynęły na morfologię jej powierzchni. Czy te znaki są wspólne dla całej klasy C? W piątek 2 listopada 2002 roku należąca do NASA sonda kosmiczna Stardust została przetestowana podczas przelotu obok asteroidy Annefrank i odkryła, że asteroida jest około dwukrotnie większa od przewidywanej, ale ma ciemniejszą powierzchnię. Gwiezdny pył przeleciał w odległości około 3300 km (2050 mil) od asteroidy w ramach próby przed spotkaniem statku kosmicznego ze swoim głównym celem, kometą Wild 2, w styczniu 2004 r. Rozdzielczość kamery była wystarczająca, aby pokazać, że Annefrank znajduje się w odległości około 8 km (5 mil) długości, dwukrotnie większej od przewidywanej na podstawie obserwacji naziemnych. Powierzchnia odbija około 0,1 do 0,2 procent światła słonecznego, nieco mniej niż oczekiwano. Można zobaczyć kilka kraterów o średnicy setek metrów. Prosta krawędź po prawej stronie obrazu może być artefaktem przetwarzania.
Ewolucja kolizyjna
Po powstaniu Jowisza i Marsa roje planetozymalne krążące pomiędzy tymi dwiema planetami doświadczyły silnych zaburzeń i uległy znacznemu wyczerpaniu, a pozostałości "zamrożono" na znacznie stabilniejszych orbitach. Długoterminowe perturbacje mogły spowodować wzajemne zderzenia, które wraz z wietrzeniem przestrzeni kosmicznej były jedynymi procesami modyfikującymi pierwotną populację planetozymali. Chociaż objętość przestrzeni, w której krążą asteroidy, jest duża, a przekroje asteroid małe, prawdopodobieństwo wystąpienia kolizji asteroid w przedziale czasowym zgodnym z wiekiem Układu Słonecznego jest dość wysokie (rzędu jednej kolizji na miliard lat). . Co więcej, fakt, że okresy rotacji asteroid są zgodne z rozkładem Maxwella, można uznać za wskazówkę, że zderzenia w populacji asteroid były wystarczająco częste, aby wytworzyć stan odprężenia kolizyjnego w przypadku bardziej masywnej populacji pierwotnej. Wiele innych obserwowalnych cech asteroid jest przypuszczalnie efektem ewolucji kolizyjnej: kształt i rozkład wielkości, właściwości fizyczne i chemiczne rodzin, właściwości rotacyjne. Niestety, skutki zderzenia dwóch asteroid, zależne głównie od ich rozmiarów i prędkości względnej, są słabo poznane. Symulacja laboratoryjna uderzeń małego pocisku (∼10
Astrologia
Astrologia to teoria mówiąca, że planety, Słońce i Księżyc, a także 12 "znaków zodiaku" łączą się w różnych, stale zmieniających się konfiguracjach względem siebie nawzajem i lokalnego horyzontu, wpływając na wydarzenia "podksiężycowe". W astrologii, podobnie jak w astronomii klasycznej przed przyjęciem hipotezy Kopernika, przyjmowano, że Ziemia znajduje się w centrum skończonego wszechświata, a środek Ziemi stanowi środek sfer ciał niebieskich - w kolejności od góry z Ziemi, Księżyca, Merkurego, Wenus, Słońca, Marsa, Jowisza, Saturna, gwiazd "stałych", ekliptyki i często "pierwotnej siły napędowej". Ruch tych 10 kul był według Arystotelesa kołowy i równomierny, zgodnie z naturą pierwiastka, eteru, z którego się składały. Ruchy czterech żywiołów tworzących świat podksiężycowy były liniowe w stosunku do środka Ziemi, elementy ziemi i wody poruszały się "w dół" w kierunku centrum, a elementy powietrza i ognia poruszały się "w górę" od centrum. Okrągłe ruchy sfer niebieskich zakłócają liniowe ruchy czterech elementów podksiężycowych, powodując w ten sposób zmiany na Ziemi oraz w otaczających ją warstwach wody, powietrza i ognia. Powstałe w ten sposób kombinacje pierwiastków tworzą podstawowe materiały, z których kształtowane są ciała ziemskie i atmosferyczne, na które następnie w sposób ciągły wpływają ruchy ciał niebieskich i pomocnicze oddziaływania ciał podksiężycowych. Zatem WSZECHŚWIAT jest rozległą, ale skończoną maszyną napędzaną naturalnymi ruchami pięciu elementów składowych, wśród których główny wpływ ma ETER o swoim regularnym ruchu kołowym, a astrologia jest nauką badającą działanie tej uniwersalnej maszyny.
Niebiańskie wróżby
W starożytnej Mezopotamii i w wielu kulturach znajdujących się pod jej wpływem wiele zjawisk niebieskich - zaćmienia, koniunkcje Księżyca i planet między sobą oraz z gwiazdami, duża liczba zjawisk spowodowanych zniekształceniem światła przechodzącego przez atmosferę, i inne zjawiska - uważano za wiadomości wysyłane przez bogów, aby ostrzec władców ludzi lub zbiorowe grupy ludzi o zbliżającej się katastrofie lub szczęściu. Interpretacja tych niebiańskich znaków była także nauką, dzięki której ludzie wielkiej wiedzy starali się udzielać przydatnych rad królom i innym urzędnikom państwowym. Doświadczenie tych uczonych czytelników wróżb doprowadziło do rozpoznania okresowego zachowania Słońca, tzw. Księżyca i planet, a ostatecznie do rozwoju matematycznych metod przewidywania samych zjawisk (które ze względu na swoją przewidywalność powinny być wówczas, ale nie były, uważane za wiadomości wysyłane przez rozgniewanych lub zadowolonych bogów). Doprowadziło to również do rozwoju niektórych technik interpretacji niebiańskich znaków, które zostały przeniesione do astrologii, w tym przewidywania losu osoby na podstawie pozycji planet w chwili jej narodzin lub obliczonego poczęcia. W praktyce te protohoroskopy z ostatnich czterech wieków p.n.e. nie były częścią astrologii, ponieważ zjawiska te były raczej złowieszcze niż skuteczne, a skomplikowana geometria stosowana w astrologii nie była czynnikiem wpływającym na ich interpretację
Temat lub horoskop
Podstawowym narzędziem służącym do interpretacji wpływów ciał niebieskich w danym momencie - powiedzmy narodzin tubylca - był diagram zwany motywem lub horoskopem. Ten diagram przedstawia EKLIPTYKĘ podzieloną na 12 znaków zodiaku po 30? każdy, w postaci koła lub czworoboku z zaznaczonymi czterema głównymi punktami - ascendent na wschodnim horyzoncie, potomek na zachodnim horyzoncie, środek nieba na południu w punkcie obliczonym przy użyciu lokalnych ukośnych wzniesień i antyśrodka nieba 180? naprzeciwko niego na północ. Pomiędzy i w tych głównych punktach znajdują się wierzchołki 12 miejsc astrologicznych. Znaki zodiaku są podzielone na różne podpodziały: dekany po 10? każda, dwunaste po 2?30 każda i wyrazy o różnej długości, zwykle pięć do znaku zodiaku. W temacie zapisywane są długości geograficzne planet, których położenie ujawnia ich konfiguracje (aspekty) względem siebie - koniunkcja, sekstyl (do 60?), kwartyl (do 90?), trygon (do 120?) i opozycja (do 180?). ?) - które można obliczyć za pomocą różnych wzorów matematycznych, aby można je było mierzyć we wzniesieniach ukośnych lub rektascensyjnych, lub aby uwzględnić szerokości geograficzne planet. Ponadto na temacie zaznaczane są różne działki (określane jako odległość pomiędzy dwoma rzeczywistymi lub wyimaginowanymi ciałami niebieskimi odmierzona od trzeciego) oraz prorogator (obliczany na różne sposoby), a także mogą być takie stałe punkty, jak wywyższenia (punkty maksymalna skuteczność) planet i czterech potrójności (Baran, Lew, Strzelec; Byk, Panna, Koziorożec; Bliźnięta, Waga, Wodnik; Rak, Skorpion, Ryby).
Domeny wpływów
Każdy znak zodiaku jest klasyfikowany według licznych kategorii: męski - żeński; nieparzyste - parzyste; zwierzę - człowiek; wieś - las; itp. Ponadto istnieją melotezje zodiakalne, przypisując różne części ciała ludzkiego znakom zodiaku; topotezja, robiąca to samo z rodzajami terenu na powierzchni Ziemi; listy zwierząt, zawodów, metali, klejnotów, kolorów itp. znaków zodiaku. Każdy ze znaków ma szczególny wpływ na przypisane mu kategorie. Każda trójka, w liczbie czterech, jest powiązana z kierunkiem kardynalnym i elementem. Każde z 12 miejsc astrologicznych ma władzę nad pewnym aspektem życia tubylca (forma ciała, odziedziczony majątek, rodzeństwo, rodzice, dzieci, choroby, małżeństwo, sposób śmierci, podróże, zawód, zysk, strata) lub nad podjętym przedsięwzięciem. Mają wpływ na swoje domeny zgodnie ze znakami zodiaku, na które się nakładają, oraz obecnością w nich lub aspektami planet i działek. Również siedem planet (dziewięć w Indiach, gdzie uwzględnione są węzły wstępujące i zstępujące Księżyca) ma swoje własne domeny, wśród fizycznych typów ludzi i zwierząt, a także typów psychologicznych, a każda z nich jest powiązana z typami terenu, zwierzętami roślin, minerałów itp. oraz do pierwiastka i jego humorów (ogień - gorący i suchy, woda - zimna i wilgotna, powietrze - gorące i wilgotne, ziemia - zimna i sucha). Są one również klasyfikowane jako męskie i żeńskie oraz jako korzystne, szkodliwe i nijakie. Gdy siedem planet krąży wokół znaków zodiaku, a one z kolei krążą wokół nieruchomej Ziemi, wpływy, jakie rzucają na sferę podksiężycową, stale się zmieniają, powodując wciąż nowe wydarzenia i transformacje na Ziemi. Zgodnie z teorią astrologiczną można je wszystkie przewidzieć przy założeniu (rzekomo posiadającym pewne podstawy empiryczne), że przyjęte domeny wpływów ciał niebieskich są rzeczywiście prawidłowe. Historycznie rzecz biorąc, system nie pozostawał statyczny; po prostu nie było wystarczająco skomplikowane, aby rozróżnić pozornie nieograniczone odmiany ludzkiego doświadczenia. Aby uwzględnić te różnice, astrolodzy - zwłaszcza astrolodzy z Indii i islamu, których należycie naśladowano w średniowiecznej Europie i Bizancjum - opracowali znacznie więcej podziałów znaków zodiaku w celu pomnożenia potencjalnej liczby skutków działania planety, wymyślili skomplikowane metody przypisywania liczbowej wagi wpływom każdej planety i rozszerzono liczbę efektywnych ciał poprzez wprowadzenie nowych partii.
Rodzaje astrologii
Paradygmatycznym typem astrologii jest genetlialogia, nauka zajmująca się interpretacją tematów narodzin lub obliczanego czasu poczęcia, wynaleziona prawdopodobnie w I wieku p.n.e. w Egipcie ptolemejskim. Takie przewidywania można i stosowano także w odniesieniu do zwierząt, a nawet roślin. Chociaż teoretycznie przepowiednie są unikalne dla każdego momentu w danej miejscowości, wielu astrologów mądrze radziło neofitom, aby przed próbą opisania swojego przyszłego życia dowiedzieli się czegoś o statusie społecznym i ekonomicznym rodziny tubylca. Działem genetlialogii jest horoskop ciągły, który pozwala na przydatność astrologa przez całe życie. Ponieważ planety i ekliptyka nie przestają się obracać, można stwierdzić ich zmienny wpływ na pierwotny wzór życia określony na podstawie horoskopu urodzeniowego, tworząc nowy horoskop na każdą rocznicę urodzin, na początek każdego miesiąca lub nawet dzień życia tubylca, a także można obliczyć czas, w którym każda planeta przechodzi do innego znaku zodiaku lub miejsca astrologicznego, zmieniając w ten sposób jego skutki, a także można obserwować wyimaginowany ruch prorogatora podczas ukośnych wzniesień poprzez terminy różnych planet oraz przeszłości ciał i aspektów różnych planet. Astrologia katarchiczna, wynaleziona jednocześnie z wersją genetlialogiczną, pozwala przewidzieć przebieg jakiegoś ludzkiego przedsięwzięcia na podstawie horoskopu chwili jego powstania. Istnieją dwa główne działy astrologii katarchicznej, odnoszące się do małżeństwa i wojen. Niektóre aspekty astrologii medycznej są również katarchiczne, chociaż inne aspekty zależą od genetlialogii. Te dwie podstawowe formy astrologii zostały przeniesione z grecko-rzymskiego Egiptu do Indii w II wieku naszej ery. W Indiach astrologia interrogacyjna rozwinęła się z astrologii katarchicznej. W tej formie astrolog odpowiada na konkretne pytania zadawane przez swojego klienta na podstawie tematu chwili, w której pytanie zostało zadane. To wyraźnie rodzi poważne pytania dotyczące ogólnej teorii astrologii; albowiem albo klient kieruje się wolną wolą przy ustalaniu, kiedy zada pytanie, tak że pomiędzy ciałami niebieskimi a wydarzeniem naziemnym przestaje istnieć czysto fizyczne połączenie, albo też o jego wyborze decydują gwiazdy i zatem teoretycznie można je przewidzieć za pomocą astrologii i odpowiedzieć na nie bez uciekania się do nowego tematu. Te trzy typy astrologii zostały przekazane z Indii do Sasańskiego Iranu w III-V wieku naszej ery, podobnie jak pierwsze dwa z Cesarstwa Rzymskiego. Sasanie dodali do nich czwarty główny typ, astrologię historyczną, która wykorzystuje formy horoskopów ciągłych (np. horoskopy początków wszystkich lub wybranych lat) oraz koniunkcje dwóch najdalszych ze znanych wówczas planety, Saturn i Jowisz, lub koniunkcje dwóch złych planet, Saturna i Marsa, w Raku. Praktycy astrologii historycznej sporządzali także horoskopy koronacji królów i innych początków historycznych, w tych przypadkach kierując się zasadami astrologii katarchicznej.
Kwestia ważności astrologii
Oczywiście, niezależnie od tego, jakie twierdzenia opierały się na podstawach empirycznych, cała ta teoria opiera się na arbitralnych założeniach dotyczących relacji między poszczególnymi znakami zodiaku i planetami a fizycznymi częściami i psychologicznymi aspektami obiektów i istot podksiężycowych, a także na później obalonej teorii KOSMOSU. W starożytności argumenty przeciwko słuszności astrologii opierały się w dużej mierze na problemach praktycznych: jak wyjaśnić często duże różnice między fizycznymi i psychicznymi cechami bliźniąt a ich odrębnym życiem; jak wytłumaczyć jednoczesną śmierć dużej liczby osób w różnym wieku w bitwie lub katastrofie naturalnej; jak być pewnym dokładnego momentu urodzenia i lokalnego ascendentu w tym momencie. Kościół chrześcijański, a później islam, często potępiały astrologię, ponieważ pozbawia ona mężczyznę lub kobietę wolnej woli i w ten sposób pozbawia ich możliwości uzyskania zbawienia własnymi wysiłkami, a także dlatego, że czyni Boga nieistotnym dla wszechświata, który jest wiecznym i automat. Żaden z tych argumentów nie podważył w poważnym stopniu wiarygodności astrologii wśród wielu osób, podobnie jak upadek teorii geocentrycznej, choć zniechęciło to wiele osób o poglądach naukowych do przyznania jej jakiejkolwiek wiarygodności. Podobnie jak kilka innych współczesnych nauk, które w rzeczywistości nieustannie wykazują swoją niezdolność do dokładnego przewidywania przyszłości, astrologia wciąż jest w stanie przyciągnąć i utrzymać patronat niezliczonych klientów.
Badania astrometryczne
Znaczenie badań astrometrycznych W astronomii badanie definiuje się jako "badanie mające na celu ustalenie jakości lub ilości czegoś". W zależności od charakteru badania może to oznaczać przyjrzenie się dużej liczbie obiektów w celu znalezienia tych, które spełniają określone kryteria . W powyższej definicji nie określono, czy badanie obiektów spełniających założone kryteria musi być wynikiem programu obserwacyjnego, czy też poszukiwań w literaturze. Chociaż termin przegląd w astronomii jest dość często stosowany w odniesieniu do programów obserwacyjnych, w niektórych ostatnich badaniach astrometrycznych wykorzystano materiał opublikowany w dostępnej literaturze. Co więcej, badania astrometryczne nowej generacji mogą być nawet przeprowadzane przez Internet (patrz "Nowe tysiąclecie" poniżej). Dlatego też mówiąc o badaniach, możemy mieć na myśli obserwacyjne badania astrometryczne, bibliograficzne badania astrometryczne i nadchodzące badania astrometrii komputerowej. Kiedy ankietę można nazwać astrometryczną? Innymi słowy, jakie są główne cechy przeglądu astrometrycznego? Aby odpowiedzieć na te pytania, należy najpierw rozważyć, czym jest astrometria? Astrometria to dział astronomii zajmujący się pozycjami (bezwzględnymi lub względnymi), ruchami i odległościami trygonometrycznymi ciał niebieskich . Każdy z tych parametrów ma swoje znaczenie w badaniu naszego środowiska gwiezdnego. Jaka powinna być dokładność danego parametru astrometrycznego? Ważne jest określenie poziomu dokładności, ponieważ od tej wartości w pewnym stopniu zależeć będzie jakość badania. Na przykład nikt dzisiaj nie podjąłby się przeprowadzenia badań astrometrycznych na poziomie dokładności Durchmusterungs , ponieważ taki poziom byłby niezwykle niski jak na dzisiejsze standardy; jednakże znaczenie tych badań w momencie ich publikacji jest niezaprzeczalne. Co to jest badanie astrometryczne? Łącząc wszystkie powyższe rozważania, badanie astrometryczne można zdefiniować jako poszukiwanie obiektów niebieskich spełniających określoną dokładność w zakresie ich bezwzględnego lub względnego położenia, ruchu lub odległości trygonometrycznych. Niektóre z tych badań zostały lub są prowadzone za pomocą naziemnych kręgów południkowych, ASTROLABÓW lub teleskopów astrograficznych, podczas gdy inne - już ukończone lub planowane na przyszłość - wykorzystywały lub będą korzystać z instrumentów kosmicznych.
Krótki opis historyczny badań astrometrycznych
Kompilacja katalogów zawierających pozycje i RUCHY WŁAŚCIWE jest jedną z najbardziej znanych czynności w astrometrii. Na początku astronomii podanie pozycji ciał niebieskich było dla wielu starożytnych kultur prawdziwą koniecznością. Astrometria, której korzenie sięgają cywilizacji przedgreckiej, dostarczyła informacji potrzebnych do obliczenia zaćmień Słońca i Księżyca, a co ważniejsze, do określenia czasu. Dzięki pozycjom uzyskanym przez poprzedników i własnym obserwacjom HIPPARCHUS był w stanie zidentyfikować precesję osi obrotu Ziemi. To także dzięki starym i nowym katalogom astrometrycznym Edmund HALLEY wprowadził w 1718 roku ruch własny gwiazd. Kilka lat później, w 1802 roku, HERSCHEL zaobserwował względny ruch orbitalny dwóch składników Castora, wyznaczając początek astrometrii podwójnych gwiazd. Kolejny punkt zwrotny pojawił się w 1838 roku, kiedy Friedrich Wilhelm BESSEL był w stanie określić PARALAKSĘ 61 Cygni. Historię katalogów astrometrycznych - przyjmując za parametr detektor używany w procesie obserwacyjnym - można podzielić na trzy różne okresy: wizualny (z instrumentem lub bez), fotograficzny i CCD (instrumenty naziemne lub kosmiczne). Biorąc pod uwagę epoki, w których stosowano różne detektory, można powiedzieć, że ogólnie rzecz biorąc, nieuzbrojone oko ludzkie było używane jako detektor od samych początków astronomii aż do roku 1610, kiedy to GALILEO GALILEI zaczął używać teleskopu podczas swoich obserwacji. Po 1610 r. w większości badań astrometrycznych używano kręgów południkowych lub innych typów instrumentów optycznych do wspomagania ludzkiego oka. Takie podejście przetrwało ponad 300 lat. Jeden z pierwszych katalogów, jaki kiedykolwiek powstał, został sporządzony przez Hipparcha. Ukończono go około 129 roku p.n.e. (odbyła się debata dotycząca liczby obiektów wymienionych przez Hipparcha: niektórzy historycy zgodzili się, że gwiazd było 1080, inni zaś, że tylko 850). Katalog Hipparcha znalazł się w Almagestie Ptolemeusza, największym kompendium astronomii tamtych czasów, obowiązującym przez około 14 wieków. Poprzednie zestawienia astronomów greckich i chińskich datowane są na około 300 rok p.n.e., a nawet 360 rok p.n.e. . W średniowieczu najważniejszym zestawieniem, o którym warto wspomnieć - choć nie można go uważać za katalog w obecnym znaczeniu - są Tablice Alfonsyńskie, powstałe za panowania Alfonsa Mądrego i opublikowane po raz pierwszy - prawdopodobnie - po 1277 roku. prawdziwym celem Tablic było umożliwienie obliczenia pozycji planet; Jednym z głównych użytkowników Tablic Alfonsyńskich był Kopernik . Kolejny katalog opracowany w pierwszej połowie XV w. to ULEGH BEG. TYCHO BRAHE jest jednym z pierwszych astronomów, którzy - korzystając ze swojego kwadrantu ściennego - zaczęli dokonywać dokładnych, systematycznych obserwacji w latach przed pojawieniem się teleskopu. Jego obserwacje obejmują supernową z 1572 r., kometę z 1577 r. i duży zbiór pozycji Marsa. Po śmierci Brahego w 1601 r. stanowiska te wykorzystał jego asystent JOHANNES KEPLER i odegrały kluczową rolę w wyprowadzeniu praw Keplera. Wraz z wprowadzeniem teleskopu jako instrumentu astronomicznego wiele katalogów strefowych (niezależnych) zaczęto obserwować za pomocą kręgów południkowych. Większość badań obserwacyjnych przeprowadzonych od początku do połowy XIX wieku ograniczała się do pewnych określonych obszarów i nie było żadnych porozumień co do "systemu", jaki należy zastosować (pod koniec XIX wieku zaproponowano wygodę posiadania systemu we współczesnym znaczeniu terminu, do którego należy odnosić stanowiska). Jedną z pierwszych prób przeprowadzenia kompleksowych badań ARGELANDER rozpoczął od obserwacji strefy od +80° do -2°. Strefy od -2° do bieguna południowego dodano później. To pierwsze badanie - znane jako Durchmusterungs - składało się z trzech części: Bonner Durchmusterung, Córdoba Durchmusterung i Cape Photographic Durchmusterung. Najważniejszym dziełem początków XX w. był Katalog Główny (GC) , którego wstępna wersja została opublikowana przez Lewisa Bossa w 1910 r. Wersja ta nosiła nazwę Wstępnego Katalogu Ogólnego (PGC), a został on później uzupełniony publikacją KG w 1937 r., która obejmowała ponad 33 000 gwiazd. W projekcie PCG/GC należy podkreślić ostateczny cel Lewisa Bossa: zbudowanie podstawowego systemu. Cel ten ostatecznie osiągnął jego syn, Benjamin Boss. W tym sensie warto wspomnieć o katalogu N30 opracowanym przez Morgana (1952). Szczegółowy opis historyczny katalogów astrometrycznych można znaleźć w Eichhorn . Omówienie różnych typów katalogów można znaleźć także w Jascheku . Kiedy klisza fotograficzna została ostatecznie zaakceptowana przez społeczność astronomiczną jako detektor (około 1880 r.), zaczął się rozwijać fotograficzny przegląd astrometryczny. Co ciekawe, pierwszym programem obserwacyjnym nowo wprowadzonym teleskopem astrograficznym (instrumentem towarzyszącym kliszy fotograficznej) była obserwacja największego międzynarodowego projektu ostatnich lat XIX wieku: Katalogu Astrograficznego (AC). Program ten spotkał się z dużą krytyką, ponieważ wielu uważało, że jest zbyt wcześnie w rozwoju teleskopów astrograficznych i klisz fotograficznych, aby podjąć się tak dużego projektu przy użyciu raczej małego (2° × 2°) pola widzenia. Jednak z dzisiejszej perspektywy uruchomienie AC można uznać za inicjatywę pozytywną. Dzięki tej decyzji astrometria dysponuje obecnie wspaniałym zestawem ponad czterech milionów pozycji z pierwszej epoki (obecnie 100-letnich) umożliwiających bardzo dokładne określanie ruchu własnego. Chociaż AC samo w sobie powinno być uważane za badanie obserwacyjne, nigdy nie było wykorzystywane jako takie aż do niedawna. W tym sensie przy użyciu opublikowanych współrzędnych AC stworzono dwa główne katalogi: katalog 4 milionów oraz AC2000 . Pierwsza łączyła AC z Katalogiem Gwiazd Przewodnika Kosmicznego Teleskopu Hubble'a (GSC) w celu obliczenia ruchów właściwych; oba zestawy stanowisk (AC i GSC) zostały zredukowane do systemu PPM. Oprócz pozycji i wniosków właściwych, Katalog 4 Million umożliwia także identyfikację krzyżową z innymi badaniami, takimi jak Durchmusterungs, PPM, SAO i VARIABLE STARS. AC2000 zawiera ponad cztery i pół miliona pozycji (i wielkości) ze średnią epoką 1907. Aby zredukować opublikowane współrzędne x, y AC, Corbin i Urban (1990) najpierw skompilowali ACRS do wykorzystania jako ramka odniesienia. Pozycje AC2000 znajdują się w systemie Hipparcos/ICRS. Nowsza ponowna analiza AC2000 dała AC2000.2 (Urban i in. 2001). Oprócz 4 Million i AC2000 istnieje kilka innych badań, w których wykorzystano AC. Spośród nich PPM był pierwszy. Szczegółową i fascynującą historię Katalogu Astrograficznego można znaleźć w Eichhorn . Podczas gdy trwała obserwacja AC, trwały także inne fotograficzne - strefowe - badania: strefy Yale i AGK2 (AGK1 obserwowano za pomocą okręgów południków). W sumie Yale opublikowało 30 katalogów z epokami od 1928 do 1942. Pierwszy tom stref Yale, który się ukazał, obejmował ponad 5000 gwiazd równikowych (Schlesinger i in. 1926); ostatnia (strefa od -60° do -70°) uległa licznym opóźnieniom i została opublikowana dopiero w 1983 r. Ostatnim z serii AGK był AGK3 . W związku z rozwojem sztucznych satelitów i pilną koniecznością ich śledzenia, już w połowie lat 60. XX w. zaistniała potrzeba opracowania ogólnego, kompleksowego zestawienia obejmującego istniejące katalogi w jeden. Realizacji takiego projektu podjęło się Smithsonian Astrophysical Observatory, a w 1966 roku społeczności astronomicznej udostępniono "Katalog gwiazd" z podtytułem "Pozycje i ruchy własne 257 997 gwiazd dla epoki i równonocy 1950". Katalog, znany jako SAO (szczegóły konstrukcji katalogu można znaleźć w Haramundanis 1966), obejmuje zakres od +90° do -90° i przez wiele lat był standardowym układem odniesienia dla redukcji większości klisz fotograficznych. Tysiące pozycji asteroid, komet, głównych planet i naturalnych satelitów uzyskano, wykorzystując SAO jako główny katalog referencyjny pozycji gwiazd i ich ruchów własnych. Jednakże, jak dobrze wiadomo, czas - poprzez odpowiednie ruchy - jest zawsze odpowiedzialny za degradację każdego katalogu astrometrycznego. SAO nie był wyjątkiem i po ponad 25 latach użytkowania został zastąpiony przez PPM. PPM - obejmujący także całe niebo - zawiera ponad 375 000 pozycji i ruchów właściwych w systemie 2000/FK5. Typowe wartości skuteczne błędy na półkuli północnej wynoszą 0,27 sekundy łuku w pozycjach z epoki 1990 i 0,42 ars wieku - 1 w ruchach właściwych, podczas gdy odpowiednie wartości na niebie południowym są znacznie lepsze . Główna poprawa PPM w stosunku do SAO została dokonana poprzez włączenie stuletnich danych AC. Po publikacji PPM zastąpił SAO jako układ odniesienia dla większości programów astrometrii fotograficznej. W związku z zaprzestaniem produkcji klisz fotograficznych i pojawieniem się detektorów CCD, PPM zostało obecnie zastąpione katalogami o znacznie większej gęstości. Podczas gdy niektórzy astronomowie zajmowali się obserwacją i redukcją dużych katalogów pozycji, inni skupiali swoją uwagę na poszukiwaniu gwiazd o dużych ruchach własnych. Według Luytena (1963) tego typu projekty odniosły ogromne korzyści dzięki wprowadzeniu mikroskopu mrugającego. Luyten (1970) przeprowadził kilka badań gwiazd o dużych ruchach własnych, co doprowadziło do wykrycia dużej liczby obiektów. Podzbiory tych badań i/lub ich rewizja lub reorganizacja zostały opublikowane jako badania Luyten Half Second (LHS), Luyten Two Tenths (LTT) i New Luyten Two Tenths (NLTT). Większość wyników została opublikowana przez Uniwersytet Minnesota w Minneapolis (USA). Wśród dużych badań ruchów własnych jednym z najważniejszych jest badanie Lowell Proper Motion Survey , ponieważ obejmuje wyszukiwanie wykresów dla każdej gwiazdy. Aby przedstawić pełniejszy opis historyczny badań astrometrycznych, należy odwołać się do misji Hipparcos. Satelita Hipparcos - finansowany i obsługiwany przez ESA - był pierwszym eksperymentem kosmicznym poświęconym astrometrii. Jego głównym celem było określenie dokładnych pozycji, ruchów właściwych i paralaks 118 218 gwiazd. Dokładność parametrów astrometrycznych wynosi w przybliżeniu 1 mas dla pozycji i paralaks oraz 1 mas rok-1 dla ruchów własnych gwiazd o jasności zaledwie 10mag. Położenia i ruchy własne z Katalogu Hipparcosa (ESA 1997a) są realizacją optyczną ICRS i stanowią najdokładniejszy duży katalog astrometryczny, jaki kiedykolwiek zaobserwowano. Znaczenie Hipparcos polega na tym, że po raz pierwszy umożliwiła astronomom dokładną kalibrację jasności i mas wielu pobliskich gwiazd oraz badanie struktury kinematycznej Galaktyki w sąsiedztwie Słońca. Wpływ, jaki Hipparcos wywarł na astronomię, można docenić w materiałach ze spotkania Hipparcos w Wenecji w 1997 r. , które zawiera prawie 200 artykułów naukowych opartych na danych Hipparcosa. W ramach misji Hipparcos narzędzia do mapowania gwiazd znajdujące się na satelitie zostały wykorzystane do zbudowania mniej dokładnego katalogu: Katalogu Tycho. Ponowna analiza oryginalnych danych z tego eksperymentu dała Katalog Tycho-2 , który stał się jednym ze standardowych zestawień w astrometrycznej redukcji klatek CCD (głównie w obserwacjach koła południka). Więcej szczegółów na temat HIPPARCOS oraz KATALOGÓW HIPPARCOS I TYCHO znajduje się w innych artykułach. Można powiedzieć, że w ciągu ostatnich 14 lat historię astrometrii wyznaczyły dwa główne wydarzenia: pierwszym z nich był wystrzelenie w 1989 r. wspomnianej misji Hipparcos; drugim było ustanowienie 1 stycznia 1998 r. Międzynarodowego Niebiańskiego Systemu Odniesienia (ICRS) jako nowego układu odniesienia, kończąc w ten sposób reżim serii FK. Dzięki tej istotnej zmianie, po raz pierwszy, układ odniesienia astrometrii - Międzynarodowy Układ Odniesienia Nieba (ICRF) - do którego należy odnosić pozycje, opiera się na 212 pozagalaktycznych ŹRÓDŁACH RADIOWYCH obserwowanych za pomocą interferometrii o bardzo długiej linii bazowej (VLBI). technik . Feissel i Mignard (1998) dokonali ważnego przeglądu dotyczącego przyjęcia i konsekwencji tej zmiany. Dziś, po znaczących osiągnięciach w swojej historii i dzięki zastosowaniu nowej generacji niezwykle wysokiej jakości instrumentów ziemskich i kosmicznych, astrometria przechodzi nowe i głębokie zmiany. Od ziemskich instrumentów zasilanych wieloma włóknami po najbardziej zaawansowane i wyrafinowane satelity - istnieje powszechna potrzeba lepszego pozycjonowania ciał niebieskich, a astrometria po raz kolejny musi zapewniać dokładne pozycje, właściwe ruchy i paralaksy gwiazd. Fakt, że niektóre z nadchodzących misji kosmicznych, aby odnieść sukces, będą musiały opierać się na naziemnych obserwacjach astrometrycznych, ilustruje znaczenie nowej astrometrii. Aby sprostać wymaganiom stawianym przez dzisiejszą astronomię, prowadzone są nowe badania astrometryczne nastawione na zapewnienie parametrów klasycznych. Ze względu na rosnące możliwości rozwoju zarówno komputerów, jak i detektorów, obecne projekty rosną pod względem rozmiaru (ogółem ponad 500 milionów wpisów) i dokładności (kilka mas). Niektóre z tych nowych badań opierają się na nowych obserwacjach, podczas gdy wiele innych wykorzystuje obszerny materiał dostarczony przez bazy danych, w ten sposób nawiązując do nowego sposobu uprawiania astronomii w ogóle: wirtualnych obserwatoriów.
Najważniejsze osiągnięcia
W ciągu ostatnich kilku lat w większości projektów astrometrycznych nastąpił niezwykły postęp. Można je podsumować w następujący sposób.
Pozycje i ruchy właściwe
Ponieważ matryce CCD stały się standardowymi detektorami w prawie każdym projekcie astronomicznym, istnieje realna potrzeba opracowania katalogów pozycji (a w idealnym przypadku także ruchów własnych) zawierających dużą liczbę gwiazd. W pewnym sensie można powiedzieć, że astronomia - ponownie - znajduje się w sytuacji podobnej do tej, która miała miejsce w połowie lat 60. XX w., kiedy wydano SAO (wówczas zastąpione przez PPM). Ze względu na niewielką liczbę obiektów, które obejmują (według dzisiejszego standardu), te dwa katalogi nie są obecnie odpowiednie do astrometrycznej redukcji większości klatek CCD. Aby przezwyciężyć problem zbyt małej liczby gwiazd na minutę łuku kwadratowego, konieczne było sporządzenie znacznie większych katalogów. Pierwszym krokiem w tym kierunku był Katalog Gwiazd Przewodnika po Kosmicznym Teleskopie Hubble'a (GSC) autorstwa Laskera i innych, który obecnie został zastąpiony przez GSC II zarówno pod względem ilościowym, jak i jakościowym. Inną ważną kompilacją, o której warto wspomnieć, jest USNO-A2.0 , która jest standardem - przynajmniej na razie - dla astrometrycznej redukcji większości klatek CCD. Podzbiór - zwany USNOSA2.0 - zawierający około pięćdziesiąt milionów gwiazd, jest najczęściej używany do redukcji klatek CCD mniejszych planet i komet. Jak zwykle po opublikowaniu katalogu jego zawartość jest analizowana i porównywana zewnętrznie z innymi kompilacjami w celu ostatecznej oceny jakości. USNO-A2.0, podobnie jak GSC II, nie jest wyjątkiem. Bardzo szczegółową analizę USNO-A2.0 przeprowadzili Assafin i inni. W tej pracy autorzy porównali niektóre pozycje USNO A2.0 z pozycjami obserwowanymi dla koła południka CCD Valinhos . Obecnie trwa rozbudowa katalogu USNO-A2.0 o nazwę USNO-B . Będzie zawierać ruchy właściwe i klasyfikację gwiazd/galaktyk. O krok od USNO-A2.0 (przynajmniej z ilościowego punktu widzenia) jest GSC II. Po ukończeniu będzie zawierał prawie 109 wpisów z typowym błędem 0,3 sekundy łukowej (najgorszy przypadek wynosi od 0,35 do 0,65 sekundy łuku dla gwiazd słabszych niż 16 mag w pobliżu krawędzi płyty). Wstępna wersja tej kompilacji, znana jako GSC 2.2, jest gotowa do użycia i zawiera listę ponad 430 milionów gwiazd. Stanowiska GSC II, a także GSC 2.2 znajdują się w systemie ICRF. Celem pocztowym GSC 2.2 jest wspieranie działania zarówno teleskopów GEMINI, jak i VLT. Momany i inni przeprowadzili zewnętrzne porównanie GSC 2.2. W ramach ESO Imaging Survey (EIS) autorzy ci porównali pozycje GSC 2.2 z pozycjami zgłaszanymi przez innych w obszarze niektórych gromad otwartych. Prawdopodobnie najnowszym projektem, który osiągnął część swoich celów, jest Katalog Astrografów CCD USNO (UCA). Wstępny katalog - UCAC1 - w ICRS zawiera ponad 27 milionów gwiazd z dokładnością pozycjonowania mniejszą niż 20 mas dla obiektów w zakresie 9-14 mag. Podano także wstępne ruchy własne z różnych źródeł. UCAC1 zostanie zastąpiony przez UCAC2 - obsługujący zakres od -90° do +30° - który będzie dostępny w połowie 2002 roku. Gdy zakończono, projekt UCA zapewni pierwszy katalog astrometryczny w całości zaobserwowany za pomocą teleskopu naziemnego wykorzystującego CCD jako detektor. Aby poprawić jakość ruchów własnych, które mają zostać uwzględnione w projekcie UCAC, płytki AGK2 (mające ponad 70 lat obecnie) są ponownie mierzone w USNO, a następnie zostaną połączone z nowoczesnymi stanowiskami . Różne raporty z postępu prac nad projektem UCAC można znaleźć u Zachariasa . Wśród projektów zorientowanych na wyznaczanie bezwzględnych ruchów własnych dużą liczbę danych dostarczyły dwa programy: Northern Proper Motion Program (NPM) opracowany w Lick Observatory oraz Southern Proper Motion Program (SPM), nad którym pracuje konsorcjum Uniwersytetu Yale (USA) i Uniwersytetu Narodowego w San Juan (Argentyna). Pierwsza partia NPM - zwana NPM1 - została wypuszczona w 1993 roku. Zawiera pozycje, ruchy właściwe i dwukolorową fotometrię dla 149 000 gwiazd poza Drogą Mleczną. Druga partia serii NPM2 będzie zawierać około 300 000 gwiazd znajdujących się w Drodze Mlecznej. Ponieważ galaktyki odniesienia są "nieobecne" na niebie Drogi Mlecznej, Katalog Hipparcosa służy do powiązania ruchów właściwych NPM2 z systemem (absolutnym) zdefiniowanym przez NPM1. NPM2 zostanie wydany w 2003 roku. Pierwsza epoka obserwacji SPM rozpoczęła się w 1965 roku i trwała do 1974 roku. Druga epoka, wykorzystująca klisze fotograficzne, rozpoczęła się w 1987 roku i została przerwana w 1993 roku z powodu braku klisz fotograficznych. Teraz obserwacja drugiej epoki zostanie wznowiona przy użyciu dwóch kamer CCD . Opublikowano dwa główne wyniki SPM: SPM 1.0 oraz SPM 2.0 . W ramach projektu SPM ogłoszono także katalog pozycji około 30 milionów gwiazd . Niedawno opublikowano wyniki innego ważnego procesu digitalizacji klisz fotograficznych. Właściwości astrometryczne badania SuperCOSMOS zostały przeanalizowane przez Hambly′ego i innych. Porównując pierwszą publikację danych - południową czapę polarną Galaktyki - z zewnętrznymi zbiorami danych, doszli do wniosku, że pozycje (w ICRF poprzez Tycho 2) są dokładne z dokładnością lepszą niż ±2 sekundy łukowej przy magnitudo J, R ∼ 19, 18, podczas gdy wykazano, że prawidłowe pomiary ruchu mają dokładność typowo ±10 mas rok -1 przy tym samym poziomie wielkości. Bardzo dużą uwagę poświęcono także astrometrii gromad otwartych. W ciągu ostatnich kilku lat ukazało się wiele artykułów na ten temat. Niektórzy z nich skorzystali z dostępnych obszernych baz danych, podczas gdy inni opierali się na nowych obserwacjach. W obu przypadkach - analizie baz danych lub nowych obserwacji - efektem było określenie pozycji, ruchów właściwych i jasności dużej liczby gwiazd. Ważnym badaniem prowadzonym za pomocą teleskopu WIYN jest WIYN Open Cluster Study (WOCS). Wyniki tego badania zostały opublikowane przez Plataisa. Istnieje znaczna liczba wkładów w badania w klastrach otwartych, w których wykorzystano bazy danych i bardzo dokładne katalogi astrometryczne. Wśród nich są Baumgardt ,Dias , Sanner i Geffert oraz Masden . WEBDA to zaktualizowany zbiór danych z gromad otwartych, prowadzony przez Jean-Claude'a Mermillioda w Instytucie Astronomii Uniwersytetu w Lozannie (Szwajcaria). Baza danych posiada bardzo proste funkcje, które zapewniają łatwe wyszukiwanie danych oraz udostępnia informacje astrometryczne, fotometryczne i spektroskopowe. Uwzględniono także różne dane (takie jak prawdopodobieństwo członkostwa) i odniesienia bibliograficzne.
Podwójne gwiazdy
Najważniejszym zestawieniem DOUBLE STARS jest katalog Washington Double Star (WDS). Główną zaletą kompilacji jest to, że jest ona aktualizowana codziennie. Obserwatorium Marynarki Wojennej Stanów Zjednoczonych wydało niedawno serię czterech płyt CD. Tom I zawiera podstawowe dane astrometryczne (współrzędne J2000, kąt położenia, separacja itp.) dla ponad 84 000 systemów. Tom drugi to zbiór 1465 orbit. Tom III jest w rzeczywistości Trzecim Katalogiem Interferometrycznych Pomiarów Gwiazd Podwójnych. Tom IV - ostatni z serii - to zbiór różnic wielkości dla ponad 10 000 systemów. Od początku lat 80. CHARA jest wiodącą grupą badawczą wykorzystującą techniki plamkowe do pomiaru odległości i kątów położenia gwiazd podwójnych (podstawowe informacje do określania masy gwiazd). Do chwili obecnej opublikowano 19 katalogów zawierających kąty położenia i odległości dla około 10 000 gwiazd. Grupa zakończyła budowę układu interferometrycznego składającego się z sześciu 1-metrowych teleskopów do rozdzielania układów podwójnych z odstępami kątowymi do 0,2 mas. CHARAarray będzie w pełni operacyjny gdzieś w roku 2002. Sprawozdania z postępu prac nad tą tablicą można znaleźć u McAlistera , Turnera , Sturmanna oraz dziesięciu Brummelaara . Inne ważne badania - wykorzystujące techniki plamkowe - kontynuowały obserwacje gwiazd podwójnych. Najnowsze raporty z badania Rochester Institute of Technology (RIT) można znaleźć w pracach Horcha. Kolejny ważny wynik z tej grupy jest związany z różnicami wielkości dla około 130 par . Podsumowanie ostatnich 4 lat działalności przedstawili Robinson i inni, natomiast nową kamerę o nazwie RYTSI, zaprojektowaną przez tę grupę, opisali Horch i inni. Wyniki z grupy obserwatoriów Pic du Midi, uzyskane za pomocą systemu Pupil Interferometry Speckle and Coronograph (PISCO) , zostały opublikowane przez Scardię oraz Prieura. Z drugiej strony separacje kątowe, kąty położenia, a także różnice wielkości dla systemów 606 - przy użyciu "zwykłej" kamery CCD - zostały opisane przez Gili i Bonneau oraz Lampens . Mason i inni ponownie przeanalizowali informacje zawarte w Tycho-2, próbując dostarczyć podstawowych danych na temat gwiazd podwójnych. Kolejna rewizja i ponowna redukcja Tycho-2 przez Fabriciusa zaowocowała odkryciem ponad 13 000 nowych dubletów, głównie z odstępem od 0,3 do 1 sekundy łukowej. Właściwe połączenie z danymi WDS pozwoliło na stworzenie Katalogu Tycho Double Star (TDSC), który zawiera ponad 100 000 wpisów. TDSC jest dostępny w CDS.
Paralaksy
W kontekście astrometrii słowo paralaksa jest prawie zawsze kojarzone z paralaksami trygonometrycznymi; to znaczy bezpośredni sposób określania odległości gwiazd. Metoda jest ograniczona do odległości mniejszych niż 100 szt. Historia oznaczeń paralaksy - podobnie jak katalogów astrometrycznych - jest bardzo bogata. Mówi się na przykład, że pierwszą próbę uzyskania paralaksy gwiazdy podjął Tycho Brahe. Ponieważ nie mógł uzyskać żadnej rozsądnej wartości, doszedł do wniosku, że albo (a) Ziemia znajdowała się w spoczynku w centrum wszechświata, albo (b) gwiazdy znajdowały się zbyt daleko, aby można było zmierzyć ich paralaksy. Ponieważ Brahe nie wierzył, że gwiazdy mogą znajdować się tak daleko, wybrał pierwszą opcję. Wynik ten pozwolił mu potwierdzić, że Kopernik całkowicie mylił się w swojej heliocentrycznej teorii Układu Słonecznego. Jak już wspomniano, to właśnie Bessel w 1838 roku wyznaczył pierwszą paralaksę tryginometryczną 61 Cygni. Do roku 1890 istniało około 30 gwiazd, których paralaksy były znane z dokładnością do ±0,05 sekundy łukowej . Pod koniec XIX wieku - wraz z przyjęciem kliszy fotograficznej jako detektora - wyznaczanie paralaks trygonometrycznych stało się standardowym programem badawczym w niektórych najważniejszych obserwatoriach. W tym sensie w 1903 roku Frank Schlesinger - znany jako "ojciec współczesnej astrometrii" - rozpoczął w Obserwatorium Yerkes jeden z najwybitniejszych projektów tamtych czasów . Inne instytucje, takie jak McCormick, Allegheny, Sproul, Greenwich, Cape, Boschha i Sztokholm wkrótce zainicjowały podobne projekty, podczas gdy Obserwatorium Lick i Stacja USNO Flagstaff zaczęły później używać swoich teleskopów zwierciadlanych i obie rozszerzyły swoje ustalenia na słabsze gwiazdy. Większość prac nad określeniem paralaks trygonometrycznych w erze fotografii została podsumowana w różnych wydaniach Ogólnego katalogu paralaks trygonometrycznych - lepiej znanego jako Katalog paralaks Yale (YPC). Pierwsze wydanie serii przygotowali Schlesinger (1924) oraz Schlesinger i Jenkins (1935). Trzecie wydanie zostało opublikowane przez Jenkins (1952), a następnie jej dodatek z 1963 r. Czwartą edycję YPC, ostatnią z serii, przygotowali van Altena i inni. Zawiera listę paralaks trygonometrycznych dla 8112 gwiazd, w tym oznaczenia fotograficzne i CCD. Gdy CCD stała się dostępna do użytku naukowego, rozpoczęto różne programy mające na celu określenie paralaks trygonometrycznych. Dwa z pierwszych raportów wykorzystujących techniki CCD to raporty Moneta (1981) oraz Moneta i Dahna (1983). Na szczęście oznaczenia paralaksy trygonometrycznej przeprowadzono także na półkuli południowej we wczesnym etapie ery techniki CCD . Obecnie, ze względu na obecne zapotrzebowanie astronomii na badanie i katalogowanie otoczenia Słońca, pobliskim gwiazdom udało się zyskać nowe zainteresowanie i w związku z tym wyznaczane są nowe odległości. Od szczegółowych badań pojedynczych gwiazd po przeglądy półkul - nowe wyniki publikowane są niemal co roku. Wśród wyników dotyczących pojedynczych gwiazd wymieniamy nowe spostrzeżenia dotyczące Proximy Centauri (naszego najbliższego sąsiada, odkrytego przez R. Innesa w 1915 r.) oraz Gwiazdy Barnarda autorstwa Benedicta ; wspomniano nawet o pewnych dowodach na towarzysza Proxima Centauri. Również w kategorii pojedynczych gwiazd warto wspomnieć, że zidentyfikowano gwiazdę polową, która może być najbliższym Słońcu karłem M9. Prawdopodobnie jednym z najważniejszych wyników (głównie ze względu na konsekwencje, jakie będzie to miało) jest określenie przez Benedicta absolutnej paralaksy i względnego ruchu własnego kalibratora skali odległości RR Lyrae. Różne wyszukiwania pobliskich gwiazd również przyniosły nowe wyniki. Wśród nich badanie mające na celu identyfikację brązowych karłów w odległości 8 pc od Słońca nie ujawniło żadnych nowych gwiezdnych towarzyszy w dużych odległościach; program ten wykorzystuje już istniejące obrazy z pierwszej epoki, które łączy się z nowymi obserwacjami w paśmie J. Poszukiwania zorientowane na znalezienie najmłodszych i najbliższych (d<60 szt.) gwiazd względem Ziemi (z wykorzystaniem informacji rentgenowskich oraz danych astrometrycznych z Hipparcosa i Tycho) prowadzą Song i inni. Ostatecznym celem projektu jest wykrywanie planet-olbrzymów. Obserwacje prowadzone są z obserwatorium Lick dla celów północnych oraz z Obserwatorium Siding Spring na południu. Szczegółowa analiza pomiarów płyt brytyjskiego teleskopu Schmidta za pomocą automatycznego pomiaru płyt (APM) przeprowadzona przez Scholza i inni zaowocowała odkryciem wcześniej nieznanych jasnych (12
Inne projekty
Teraz, gdy matryce CCD stały się standardowymi detektorami w astronomii, prawdopodobnie nadszedł czas, aby zmienić starą klasyfikację instrumentów astronomicznych. Najbardziej uderzający przypadek dotyczy kręgów południków (MC). Od ich pierwszego zastosowania w astronomii aż do kilku lat temu gwiazdy obserwowano naocznie (pojedynczo), gdy przekraczały południk. Kolejnym krokiem w rozwoju technik obserwacyjnych było zastąpienie ludzkiego oka fotopowielaczami. Teraz, gdy kamery CCD zostały podłączone do większości MC na całym świecie, procedura obserwacyjna została zastąpiona trybem skanowania dryfu. Takie podejście pozwala uzyskać paski o długości od kilku minut do kilku godzin w rektascencji i około 10-20 minut łuku (w zależności od rozmiaru i typu chipa CCD) w deklinacji. Ten zbiór danych można łatwo porównać z danymi uzyskanymi ze zwykłego teleskopu astrograficznego. Obserwacje są następnie redukowane za pomocą dowolnego katalogu referencyjnego. Ponadto niektóre MC zajmowały się obserwacjami obiektów tradycyjnie obserwowanych przez teleskopy typu astrograficznego: mniejszych planet (prawdopodobnie można to zinterpretować jako "powrót do korzeni", odkąd Ceres została odkryta przez Piazziego obserwującego za pomocą MC). Wśród tych obserwacji możemy wymienić te zawarte w różnych katalogach południków Carlsberga lub te zaobserwowane przez automatyczny krąg południków San Fernando - zlokalizowany w San Juan w Argentynie od 1996 r. Prawdopodobnie najbardziej kompleksowym raportem pod tym względem jest raport Stone′a (2000), który obejmuje ponad 56 000 pozycji (w ICRF) dla asteroid z 1940 roku. Bordeaux Automated Meridian Circle właśnie opublikowało katalog M2000 , który zawiera listę ponad dwóch milionów gwiazd o wartości granicznej 16,3mag. Zaobserwowane pasmo deklinacji pokrywa się z Carte du Ciel obserwowanym w Bordeaux. Mediana wewnętrznego błędu standardowego pozycji jest rzędu 35 mas, natomiast zewnętrzne porównanie z katalogami Hipparcosa i Tycho-2 daje szacunkową wartość lepszą niż 40 mas. Automatyczny krąg południków San Fernando (wyposażony w matrycę CCD od grudnia 1999 r.) zajmuje się obserwacją części południowego nieba w zakresie jasności około 16 mag. Projekt zakłada obserwację od +3° do -60°'. Do tej pory ukończono około 30%. Paski (o długości od 20 minut do 3 godzin w rektascencji i 18 minut łuku przy deklinacji) są redukowane przy użyciu Tycho-2 jako układu odniesienia . Oczekuje się, że obserwacje zakończą się w 2005 roku. MC z Obserwatorium Abrahão de Moraes (niedaleko Valinhos, Brazylia) był zaangażowany w różne projekty. Wśród nich należy wspomnieć o rozszerzeniu ICRF do 15 mag V. Projekt ten obejmuje ponad 44 000 gwiazd zlokalizowanych wokół niektórych pozagalaktycznych źródeł radiowych. Instrument ten wykorzystano także do określenia pozycji w celu określenia ruchu właściwego w południowych obszarach gwiazdotwórczych. Kolejny ważny katalog ukończony w 2000 roku został przygotowany w Obserwatorium Astronomicznym im. Nikołajewa. Obserwacji dokonano za pomocą osiowego koła południka (AMC). Katalog - dostępny w Internecie - zawiera ponad 14 000 gwiazd i został zredukowany przy użyciu USNO-A2.0 jako układu odniesienia. AMC uruchomiono w 1995 r. i od tego czasu uczestniczy w obserwacjach w ramach różnych projektów. W wielu badaniach wzięły także udział astrolabia. W ciągu ostatnich 20-25 lat wprowadzono wiele ulepszeń w instrumentach, jednym z przykładów jest fotoelektryczne Astrolabium II (PA II) opracowane w Chinach . Ostatnie wyniki uzyskane za pomocą tego nowego instrumentu zostały opublikowane przez Manrique i innych. Inne mniejsze kompilacje astrometryczne - wykorzystujące astrolabia fotoelektryczne - opublikowali Hui i Rui oraz Martin. Inne badania, choć w swoim zakresie astrometrycznym, w rzeczywistości zostały zaprojektowane i zorientowane na poprawę parametrów astrometrycznych obiektów astrofizycznych. Na przykład López i Girard poprawili pozycje ponad 1000 gwiazd zmiennych. Na potrzeby tego projektu autorzy zmierzyli płyty z pierwszej epoki SPM. Kolejnym projektem mającym na celu poprawę pozycji i ruchów właściwych gwiazd zmiennych jest Astrometryczny Katalog Gwiazd Zmiennych (ACVS) autorstwa Gulyaeva i Ashimbaevy (1997). Do tego badania autorzy wzięli gwiazdy wymienione w GCVS i NSV i porównali je z gwiazdami z Katalogu 4 milionów . Korzystając z kart wyników zalecanych przez GCVS i NSV, dokonano około 21 500 pozytywnych identyfikacji krzyżowych. SDSS to projekt na dużą skalę, mający na celu uzyskanie fotometrii optycznej i pozycji gwiazd o wielkości do 22 mag na około jednej czwartej nieba, którego środkiem jest północna czapa galaktyczna. Dodatkowo uzyskane zostaną widma około miliona galaktyk, 100 000 kwazarów i 50 000 gwiazd. To "nienastrometryczne" badanie powinno zaowocować ogromną liczbą wysokiej jakości stanowisk, które w porównaniu z pierwszą epoką POSS zaowocują również ruchami właściwymi. Obserwacje w ramach tego projektu rozpoczęły się w 1999 r. i mają trwać 5 lat. Oprócz projektów dotyczących długości fal optycznych, o których mowa w poprzednim akapicie, niektóre propozycje oparte na długości fal radiowych również wnoszą istotny wkład do astrometrii. Wśród nich jedną z takich propozycji, bardzo ważną ze względu na swój globalny zasięg, jest VERA (VLBI Exploration of Radio Astrometry), która jest sponsorowana przez Narodowe Obserwatorium Astronomiczne Japonii i grupę japońskich uniwersytetów. Projekt ma na celu wyznaczenie pozycji, paralaks i ruchów własnych źródeł maserowych w całej Galaktyce
Nowe tysiąclecie
Astronomia w ogóle, a astrometria w szczególności, cieszą się dużym uznaniem ze względu na duże bazy danych, które są obecnie w użyciu i które powstaną w najbliższej przyszłości. Ten nowy sposób wykonywania astrometrii lub wydobywania danych do ponownej analizy obejmuje wykorzystanie obiektów takich jak Aladin Sky Atlas (CDS), Astrovirtel, Astrogrid (brytyjskie wirtualne obserwatorium), SuperCOSMOS Sky Survey lub zapowiadane Astrophysical Virtual Observatory (AVO). oraz między innymi Narodowe Obserwatorium Wirtualne (NVO). Ogromna moc tych narzędzi - gdy będą w pełni dostępne do użytku publicznego i ogólnego - umożliwi obsługę różnych, bardzo dużych baz danych. Niektóre z udogodnień - jak VizieR czy SIMBAD - umożliwiają także wizualizację wszystkich danych (współrzędnych, wielkości, ruchu własnego itp.) przechowywanych dla danego obiektu. Wiele źródeł drastycznie zmieni sposób, w jaki nowe badania astrometryczne będą przeprowadzane w nadchodzących latach. Wśród nich znajdują się już istniejące sposoby wyodrębniania obrazów (klatek) z digitalizacji głównych przeglądów fotograficznych (POSS I, POSS II itp.) - znane jako Digitized Sky Survey (DSS) - dodane do nowego "banku obrazów" takie jak EIS, projekt MISAO czy Obserwatorium Marii Mitchel (MMO). Innym alternatywnym miejscem dla obrazów uzyskanych w wyniku digitalizacji ważniejszych przeglądów fotograficznych jest stacja USNO Flagstaff . Ponieważ cały ten materiał jest dostępny na wyciągnięcie ręki, za pośrednictwem sieci, nie zawsze konieczne będzie posiadanie teleskopów (dużych lub małych), aby podjąć się wybitnych programów badawczych zorientowanych na astrometrię. Obecnie realizowanych jest wiele projektów wykorzystujących te nowe możliwości. Obecnie DSS okazał się jednym z najbardziej rozbudowanych banków obrazów w użyciu. Od potwierdzenia supernowych po identyfikację milionów galaktyk , DSS pozwala na podjęcie niemal każdego projektu. Jako astrometryczny przykład tej możliwości można wymienić poprawę pozycji źródeł ICRF i prawie trzech tysięcy obiektów wymienionych w Second Byurakan Survey of Blue Compact Galaxies . Ponadto połączenie klatek DSS z różnych epok lub migotanie pomiędzy obrazami DSS z obrazami z innych przeglądów (takimi jak te dostępne w banku obrazów MISAO lub te z SkyMorph) pozwala na identyfikację gwiazd o wysokim ruchu własnym . Innym możliwym sposobem lokalizowania "brakujących" gwiazd o dużym ruchu własnym jest połączenie różnych badań; projekt wykorzystujący to podejście jest opracowywany przez Goulda i Salima . Jednak w wyszukiwaniu kompilacji baz danych można uwzględnić nie tylko obiekty gwiezdne; obiekty niegwiazdowe - takie jak mniejsze planety i komety - są również brane pod uwagę i przedłożono do MPC szereg stanowisk przed odkryciem, co usprawnia określanie parametrów orbitalnych . Ponadto klatki uzyskane w wyniku poszukiwań niektórych najważniejszych mniejszych planet (w szczególności NEO), takich jak LINEAR, NEAT i LONEOS, są również odpowiednie do wykorzystania na przykład do wyznaczania ruchu własnego. Ramki te są łatwo dostępne poprzez udogodnienia SkyMorph. Istnieje również szereg programów badawczych wykorzystujących już istniejące, wysokiej jakości katalogi astrometryczne, głównie Hipparcos i Tycho-2. Bazy te zostały wykorzystane między innymi w badaniach ruchów własnych gromad otwartych (Dias i in. 2001) oraz w kompleksie gwiazdotwórczym . W niektórych innych przypadkach wysoka dokładność tych zestawień (głównie Tycho-2) pozwoliła na określenie "astrometrycznych prędkości radialnych" gwiazd należących do gromad otwartych . Artykuły, a także adresy internetowe wymienione w tej sekcji to tylko mały (i niekompletny) przykład tego, co można zrobić, korzystając z materiałów dostępnych w głównych centrach danych. Jednakże potencjał tych nowych narzędzi nie został jeszcze w pełni wykorzystany; Kiedy to nastąpi, od tego momentu duży wpływ będzie mieć sposób, w jaki astrometria będzie przeprowadzać nowe przeglądy astrometryczne. Te nowe możliwości, a także jeszcze większy zbiór danych, które mają dostarczyć nadchodzące misje kosmiczne (GAIA, SIM itp.) zaplanowane na nadchodzące lata, zmienią sposób, w jaki będą wykonywane badania astrometryczne w najbliższej przyszłości. Będą znacznie łatwiejsze i jednocześnie znacznie bardziej skomplikowane w opracowaniu: łatwe, bo po prostu mając dostęp do sieci, będzie można wydobyć wiele megabajtów informacji; skomplikowane, ponieważ będzie wymagało nie tylko większych urządzeń komputerowych do prawidłowego przetwarzania takiej ilości danych, ale także (i prawdopodobnie ważniejsze) nowych koncepcji w technologii komputerowej . Kiedy to nastąpi, astrometria będzie miała szansę na rozwój i ekspansję na nowe i nieoczekiwane dziedziny. Jednak oczywiście zmieni się nie tylko astrometria; w rzeczywistości najbardziej znacząca zmiana nastąpi w sposobie, w jaki widzimy i rozumiemy otaczający nas wszechświat.
Załącznik
Podsumowanie akronimów
Obecnie używa się dużej liczby akronimów w odniesieniu do badań astrometrycznych, instrumentów i instytucji zaangażowanych w projekty astrometryczne. Poniżej znajduje się podsumowanie akronimów wspomnianych w niniejszej pracy oraz innych, które można znaleźć w innej aktualnej literaturze.
2MASS Two-Micron All Sky Survey
AC Astrographic Catalogue
ACRS Astrographic Catalogue Reference Stars
ACT Astrographic Catalogue and Tycho
ACVS Astrometric Catalogue of Variable Stars
AGK Astronomisches Gesselschaft Katalog
APS Automated Plate Scanner
AVO Astrophysical Virtual Observatory
BD Bonner Durchmusterung
CAMC Carlsberg Automatic Meridian Circle
CCD Charge-coupled device
CDS Centre de données astronomiques de Strasbourg
CHARA Center for High Angular Resolution Astronomy
CoD Córdoba Durchmusterung
CPC2 Second Cape Photographic Catalogue
CPD Cape Photographic
CTIO Cerro Tololo Inter-American Observatory
CTIOPI CTIO Parallax Investigation
DENIS Deep Near-Infrared Survey
DSS Digitized Sky Survey
EIS ESO Imaging Survey
ESA European Space Agency
ESO Europen Southern Observatory
FAME Full-Sky Astrometric Mapping Explorer
FK Fundamental Katalogs
FOCAT-S Photographic Catalogue-South
GAIA Global Astròmetric Interferometer for Astrophysics
GC General Catalogue
GCVS General Catalogue of Variable Stars
GSC Guide Star Catalogue
HDEC Henry Draper Extension Charts
HDF Hubble Deep Field
HIPPARCOS High Precision Parallax Collecting Satellite
HST Hubble Space Telescope
IAU International Astronomical Union
ICRF International Celestial Reference Frame
ICRS International Celestial Reference System
LHS Luyten Half Second
LINEAR Lincoln Near Earth Asteroid Research
LONEOS Lowell Observatory NEO Search
LTT Luyten Two Tenths
MISAO Multitudinous Image-Based Sky-Survey
and Accumulativè Observations
NASA National Aeronautics and Space Administration
NEA Near-Earth asteroid
NEAT Near-Earth asteroid tracking
NEO Near-Earth object
NLTT New Luyten Two Tenths
NOAO National Optical Astronomical Observatories
NPM Northern Proper Motion Survey
NSV New Catalogue of Suspected Variable Stars
NTT New Technology Telescope
NVO National Virtual Observatory
OAFA Observatorio Astronómico Félix Aguilar
PGC Preliminary General Catalogue
PISCO Pupil Interferometry Speckle and Coronograph
POSS Palomar Observatory Sky Survey
PPM Positions and proper motions
RECONS Research Consortium on Nearby Stars
RIT Rochester Institute of Technology
ROA Real Instituto y Observatorio de la Armada
SAOC Smithsonian Astrophysical Observatory Catalogue
SDSS Sloan Digital Sky Survey
SIM Space Interferometry Mission
SIMBAD Set of Identifications, Measurements
Bibliography for Astronomical Data
SPM Southern Proper Motion Survey
SRS Southern Reference System
TAC Twin Astrograph Catalogue
TPMC Tokyo Photoelectric Meridian Circle
TRC Tycho Reference Catalogue
UCAC-S United States Naval Observatory CCD Astrograph Catalogue-South
UKST United Kingdom Schmidt Telescope
USNO United States Naval Observatory
VERA VLBI Exploration of Radio Astrometry
VLBI very-long-baseline-interferometry
VLT very large telescope
WEBDA WEB Database of Open Clusters
WDS Washington Double Star Catalogue
WIYN Wisconsin Indiana Yale NOAO
WOCS WIYN Open Cluster Studies
YPC Yale Parallax Catalogue
Astrometria za pomocą Kosmicznego Teleskopu Hubble'a
W 1990 roku NASA wystrzeliła Kosmiczny Teleskop Hubble′a. Oprócz kamer i spektrografów obsługujących zakres od dalekiego ultrafioletu do bliskiej podczerwieni, obserwatorium zawiera trzy INTERFEROMETRY światła białego. W ramach wsparcia inżynieryjnego i naukowego ich głównym zadaniem było prowadzenie teleskopu; do pozycjonowania i utrzymywania celów naukowych w otworach instrumentu naukowego z tolerancjami zbliżającymi się do 0,1, co odpowiada 100 milisekundom łuku (100 mas). Wskazywanie i śledzenie wymaga dwóch takich precyzyjnych czujników naprowadzania (FGS), pozostawiając trzeci wolny dla ASTOMETRII. Celem projektowym astrometrii z FGS była precyzja 3 mas w całym polu obserwacji. Zaprojektowany i zbudowany na początku lat 80. XX w. FGS stanowił postęp o rząd wielkości w porównaniu z istniejącymi technikami naziemnymi. Opóźnienia w uruchomieniu HST zapewniły technikom naziemnym wystarczający czas na osiągnięcie tego celu, a nawet przekroczenie tego celu. Tym samym na nowo zdefiniowano cel postartowy. Cel ten, czyli astrometria małego pola z precyzją 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. HST FGS pozostanie konkurencyjnym narzędziem astrometrycznym do wykrywania słabych celów na zatłoczonych polach i słabych układów podwójnych o małej separacji, aż do pojawienia się naziemnych interferometrów o dużej aperturze i interferometrów kosmicznych o dłuższej linii bazowej (patrz także ASTOMETRIA: TELESKOPY I TECHNIKI). W tym artykule opisano badania naukowe, które można przeprowadzić za pomocą FGS, i przedstawiono niektóre najnowsze wyniki nauki. Opisujemy, w jaki sposób te dane są modelowane, pozyskiwane i kalibrowane. Następnie pokażemy, jak astrometr FGS 3 działa jako interferometr. Na koniec przedstawiamy przewodnik po literaturze, który zawiera dodatkowe szczegóły dotyczące każdego elementu omawianego w tym artykule. Astrometrię z dokładnością do 1 mas można uzyskać za pomocą szerokokątnej kamery planetarnej HST. Techniki są podobne do tych stosowanych w naziemnej astrometrii CCD i należy je omówić osobno.
Wybór celów nauki
Wybór celów naukowych w zakresie astrometrii HST jest słusznie uzależniony od tego, co można zrobić z ziemi. Unikalne możliwości HST muszą pozostać zarezerwowane dla wymagających ich projektów. W tej części podsumowujemy mocne strony astrometrii HST, wskazując kilka przykładów rodzajów obiektów, do których idealnie nadają się HST i FGS. Ponieważ interferometr FGS oferuje dwa tryby obserwacji, skanowanie prążków i śledzenie prążków, pozostałą część tego artykułu dzielimy na każdym etapie według trybów.
Skanowanie prążków: użycie HST do astrometrii gwiazd podwójnych Podczas próby rozdzielenia docelowej GWIAZDY PODWÓJNEJ należy wziąć pod uwagę cztery cechy techniki obserwacyjnej o wysokiej rozdzielczości (<1 ): granica jasności źródła, zdolność rozdzielcza, dokładność astrometryczna i różnica wielkości między składnikami, które można zaobserwować. Chociaż wszystkie cztery parametry są współzależne, podajemy limity prądu dla każdej charakterystyki oddzielnie, aby zilustrować skuteczność HST FGS 3 jako instrumentu astrometrycznego. W przypadku gwiazd podwójnych obserwacje HST FGS 3 dostarczają wyników obecnie nieosiągalnych technikami naziemnymi. HST FGS 3 ma dokładność do 1-3 mas przy granicy rozdzielczości 15 mas dla różnic wielkości mniejszych niż 2 mag. Może skutecznie obserwować cele z dokładnością do co najmniej V ∼ 15. Przy separacji składników większej niż 200 mas może pokonać różnice jasności co najmniej V = 4 mag, co wykazało wykrycie Gliese 623B. Przyszły rozwój interferometrów naziemnych powinien poprawić dokładność pomiarów astrometrycznych i zapewnić lepszą rozdzielczość, ale nadal będzie ograniczony do stosunkowo jasnych celów i umiarkowanych różnic wielkości. HST FGS 3 to jedyny dostępny obecnie instrument o wysokiej rozdzielczości, który (a) może zapewnić wysoce precyzyjną astrometrię dla bardzo bliskich układów podwójnych, (b) umożliwia obserwację stosunkowo słabych celów oraz (c) może pokonać co najmniej umiarkowanie duże różnice wielkości pomiędzy elementami systemu binarnego. Śledzenie prążków: wykorzystanie HST do uzyskania paralaks. W przypadku braku odległości astrofizyce brakuje precyzji. Nasza wykazana precyzja pomiaru PARALAKSY wynosi 0,5 masy lub więcej, biorąc pod uwagę sześć epok obserwacji przy maksymalnym współczynniku paralaksy. Często cel paralaksy jest niemożliwy do zmierzenia, ponieważ gwiazdy odniesienia nie znajdują się w polu widzenia urządzenia pomiarowego; jest to szczególnie prawdziwe w przypadku małoformatowych (zwykle kilku łuków kwadratowych) kamer CCD. FGS zapewnia duże pole widzenia, a jego kształt przypomina marynatę. Kształt ten pochodzi od lustra pick-off w płaszczyźnie ogniskowej HST. Obserwacje paralaksy są zazwyczaj przeprowadzane w odstępie sześciu miesięcy, w którym to czasie, ze względu na ograniczenia oświetlenia układu HST, pole widzenia FGS obraca się o 180?. Obszar w kształcie soczewki (rysunek 6), wspólny dla dwóch skrajnych orientacji, zapewnia stosunkowo duże pole o krótkiej osi = 3,5 i długiej osi = 14. FGS 3 ma duży zakres dynamiki, umożliwiający śledzenie pozycji prążków dla gwiazd w zakresie magnitudo 4 ≤ V ≤ 17. Ten duży zakres dynamiki zapewnia filtr o neutralnej gęstości, który zmniejsza wielkość jasnych gwiazd o 5 mag. Niefiltrowany zakres wynosi 8,5 ≤ V ≤ 17. HST może uzyskać dokładne paralaksy dla układów podwójnych, których składowe są oddzielone 0,03 < ? < 1,0 . Prawie jednoczesne skanowanie prążków i pomiary śledzące pozwalają określić położenie komponentów względem gwiazd odniesienia, co jest niezbędne do określenia środka masy układu, a tym samym mas poszczególnych składników. Wreszcie istnieje terminowość wyników. Nie trzeba już czekać od trzech do sześciu lat na paralaksę obiektów interesujących astrofizycznie. Odległość do wystarczająco interesującego i ważnego obiektu można uzyskać w tej samej skali czasu, co inne informacje astrofizyczne. Jeśli obiekt lub klasa obiektów jest teraz interesująca, można teraz przetestować teorię.
Wyniki nauki
Cele naukowe obejmowały pobliskie gwiazdy używane jako sondy do poszukiwań planet pozasłonecznych; gwiazdy, których astrofizyka byłaby w dużym stopniu wspomagana przez dokładne odległości; gwiazdy podwójne o małej masie w celu zdefiniowania relacji masy do jasności dla niższego ciągu głównego; członkowie gromady Hiady, klucz do skali odległości; obiekty pozagalaktyczne (QSO) zapewniające inercyjny układ odniesienia dla Hipparcosa; oraz uosobienie zatłoczonych pól, gromada pozagalaktyczna R136 w Wielkim Obłoku Magellana. Po raz kolejny dzielimy według techniki, omawiając reprezentatywne wyniki pierwszego skanowania prążków, a następnie śledzenia prążków.
Skanowanie prążków i gwiazdy podwójne
Nauka o skanowaniu prążków opiera się na dekonwolucji i założeniu, że wszystkie obiekty w polu są źródłami punktowymi. W poszukiwaniu najnowszych wyników naukowych zwracamy się do układu podwójnego Wolf 1062 = Gl 748 o małej masie, zaobserwowanego na poparcie projektu dotyczącego masy i jasności o niższej sekwencji głównej. Ponieważ każdy obserwowany prążek jest liniową superpozycją dwóch prążków (po jednym dla każdej gwiazdy składowej układu podwójnego), modeluje się go z dwoma identycznymi prążkami pojedynczej gwiazdy. Ich rozmieszczenie wzdłuż osi i względne amplitudy zapewniają różnice w separacji i jasności. Względna separacja wzdłuż dwóch osi dostarcza informacji o kącie położenia. Średnia bezwzględna różnica między zaobserwowaną i obliczoną odległością wynosi tylko 1,1 mas i tylko 0,77° w kącie położenia. Rysowane są wektory resztkowe dla wszystkich punktów danych, ale są one mniejsze niż punkty. Być może jeszcze bardziej imponujące będzie uświadomienie sobie, że przedstawione pudełko ma rozmiar zaledwie 0,6, więc dobre widzenie z ziemi dałoby obraz gwiazdy wielkości całej postaci. Połączenie obserwacji skanowania prążków i śledzenia prążków dla układu podwójnego L722-22 o małej masie dało względną paralaksę π = 0,1656 ±0,0008 i masy składników 0,179 i 0,112 M z formalnymi błędami losowymi dla tak małej masy jako 1,5%.
Śledzenie prążków: pozycje w ramce odniesienia
Nauka o śledzeniu prążków polega przede wszystkim na powiązaniu położenia celu z pozycjami gwiazd wyznaczającymi układ odniesienia. Tutaj omawiamy program paralaksy Hyadesa i podstawowy projekt astrometryczny z udziałem HIPPARCOS. Trygonometryczne obserwacje paralaksy uzyskano dla siedmiu członków Hyades w sześciu polach widzenia. Zostały one przeanalizowane wraz z ich właściwymi ruchami w celu określenia odległości do gromady. Niepewność formalna poszczególnych paralaks wynosi średnio 1 mas. Ten stosunkowo duży błąd wynika zarówno ze złego rozmieszczenia przestrzennego, jak i małej liczby gwiazd odniesienia w każdym polu. Znajomość punktu zbieżności i średniego ruchu właściwego Hiad ma kluczowe znaczenie dla obliczenia odległości do środka gromady. W zależności od wyboru układu ruchu własnego uzyskana odległość od środka gromady różni się o 9%. Dlatego pełne wykorzystanie paralaks HST FGS oczekuje na ustanowienie dokładnego i spójnego systemu ruchu właściwego. Obserwacje separacji gwiazd Hipparcosa od obiektów pozagalaktycznych przeprowadzono w celu określenia rotacji układu instrumentalnego Hipparcosa względem układu odniesienia ICRS-VLBI. Ustalenie na podstawie 78 obserwacji daje dokładność rzędu 2 mas rms w przypadku przesunięć rotacji współrzędnych w pobliżu średniej epoki obserwacji HST i 2 mas rok-1 w szybkości rotacji współrzędnych. Głównymi źródłami błędów są błędy pomiaru HST i błędy prawidłowego ruchu wprowadzone przez trzyletnią różnicę czasu między średnimi epokami obserwacyjnymi Hipparcosa i HST.
Modelowanie danych
Nasze dwa przykłady to gwiazda podwójna do skanowania prążków i pole paralaksy do śledzenia prążków
Skanowanie brzegowe
Uważamy, że gwiazda podwójna jest najprostszym obiektem wymagającym skanowania prążków. Zakładamy, że prążek wytwarzany przez gwiazdę podwójną jest liniową superpozycją prążków wytwarzanych przez dwie pojedyncze gwiazdy. Odpowiedź interferometru na rzeczywistą gwiazdę podwójną pokazano na rysunku 2. Jeśli F(x) jest prążkiem wytwarzanym przez pojedynczą gwiazdę na osi x, gwiazdę podwójną należy opisać wzorem
D(x) = A × F(x + zx) + B × F(x + x + Sx) (1)
gdzie A i B są względnymi intensywnościami dwóch składników (ograniczając A + B = 1). Przesunięcie punktu zerowego zx i separacja komponentów Sx uzupełniają model, przy czym podobne wyrażenie istnieje dla prążków utworzonych wzdłuż osi y. Sy i Sx dają separację binarną i, po przekształceniu na współrzędne równikowe, kąt położenia. Otrzymujemy różnicę wielkości z
Δm = ?2,5 × log(A/B). (2)
Jeśli w trybie śledzenia prążków zostanie zaobserwowany układ binarny, FGS zablokuje się w błędnej pozycji przejścia przez zero, która jest generowana przez dwie ściśle nakładające się krzywe s. Obserwacja w trybie skanowania prążków podaje względne położenie dwóch składników. Położenia względne można wyznaczyć jednorazowo z dokładnością i precyzją do 1 mas prążki obu gwiazd ulegają dekonwolucji.
Śledzenie marginesów
Za przykład śledzenia prążków uważamy typowy cel paralaksy i powiązane z nim gwiazdy odniesienia. Główny cel naukowy jest idealnie otoczony przez pięć do dziesięciu innych gwiazd używanych jako układ odniesienia, względem którego określamy położenie i ruch. Astrometria śledząca prążki jest na ogół procesem dwuetapowym. Najpierw określamy charakterystykę układu odniesienia. Jako płytę ograniczającą wybiera się jedną z epok obserwacji. Z tych danych możemy określić skalę i obrót względem płyty ograniczającej dla każdego zestawu obserwacji w obrębie jednej orbity. Ponieważ w przypadku wielu naszych obiektów obserwacje obejmują okres ponad dwóch lat, uwzględniliśmy także efekty paralaksy gwiazdy odniesienia (π) i ruchu własnego (&mi;)
ξ = ax + by + c ? (Px ? π + μx ? t) (3)
η = dx + ey + f ? (Py ? π + μy ? t). (4)
Orientację względem sfery niebieskiej uzyskuje się z astrometrii naziemnej. Niepewność orientacji pola wynosi zazwyczaj 0,03° < !εθ < 0,09°. Współczynniki paralaksy Px i Py uzyskujemy z predyktora orbity Ziemi JPL. Wreszcie, dθa wystarczająco bogatego pola odniesienia (n > cztery gwiazdki) ograniczamy Σπ = 0 i Σ&piu;= 0 dla całego układu odniesienia. Drugi krok polega na zastosowaniu stałych płytki do pomiarów celu naukowego. Współczynniki płyty a, b, ..., f są stosowane jako stałe, podczas gdy w powyższych równaniach rozwiązujemy cel naukowy μ i π.
Astrometr
Projektowanie
FGS 3 jest interferometrem. Interferencja zachodzi w pryzmacie, który został przecięty na pół i pokryty ćwierćfalową powłoką opóźniającą, a następnie ponownie złożony. Rysunek 4 przedstawia jeden z tych pryzmatów Koestera. Większość FGS składa się z optyki pomocniczej służącej do zasilania pryzmatów Koestera . W szczególności selektory gwiazd poruszają się po chwilowym polu widzenia w całym polu interferometru . Sygnał wyjściowy każdej ściany (powierzchni A i B) jest mierzony przez PMT. Sygnały te są łączone
S = A - B/A + B (5)
tworząc sygnał S, który ma wartość zero dla fal padających dokładnie pionowo na przednią powierzchnię pryzmatu Koestera. Pochylanie czoła fali do przodu i do tyłu (równoważne skierowaniu teleskopu nieco w bok, następnie na cel, a następnie nieco w drugą stronę) generuje wzór prążków. Idealny instrument wygenerowałby idealnie symetryczny wzór prążków. Znacząca aberracja sferyczna zwierciadła głównego HST powykonawczego, w obecności wewnętrznych niewspółosiowości FGS, tworzy na prążkach sygnaturę imitującą komę. Koma powoduje zmniejszoną modulację oraz liczne szczyty i doliny na obrzeżach. FGS 3 tworzy najmniej skomplikowane prążki na najszerszym obszarze pola obserwacji. Zamienny FGS zainstalowany w 1997 r. zawiera przegubowe, składane na płasko lusterko, które usuwa większość wewnętrznych niewspółosiowości. Ten FGS (FGS 1r) wytwarza prawie idealne prążki i powinien co najmniej dawać doskonałe wyniki w przypadku gwiazd podwójnych. FGS 3 pozostanie w służbie do czasu pełnej kalibracji FGS 1r w roku 2000.
Tryby pracy FGS
Omawiamy strategie pozyskiwania danych najwyższej możliwej jakości. Nasz cel, precyzja astrometrii małego pola wynosząca 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. Należą do nich mechanicznie zaszumione środowisko na orbicie, samokalibracja FGS 3 i znaczące zmiany czasowe w naszym instrumencie. Rozwiązania obejmują gęstszy zestaw gwiazd kontroli dryfu dla każdej obserwacji naukowej, precyzyjne dostrajanie czasów ekspozycji, nakładające się obserwacje terenowe i analizy do kalibracji, a także ciągłą serię obserwacji monitorujących trendy. Największy wpływ na jakość danych ma traktowanie wszystkich danych uzyskanych na tej samej orbicie jako obserwacji jednostkowej, np. talerz'.
Skanowanie brzegowe
Cel umieszcza się w środku "marynaty", a selektory gwiazd otrzymują polecenie przesunięcia chwilowego pola widzenia na obraz docelowej gwiazdy. Ta akcja tworzy grzywkę. W praktyce uzyskuje się 10-30 skanów w układzie posuwisto-zwrotnym do przodu i do tyłu w poprzek gwiazdy. Ostateczny prążek wynika z procesu odwrócenia, przesunięcia i dodania. Mamy dowody na to, że w trakcie orbity pozycje gwiazd przewodników podawane przez FGS 1 i FGS 2 zmieniają się. Powoduje to dryftowy ruch astrometru FGS 3. Dryft może przekroczyć 30 mas w ciągu 36 minut. Szybkości dryfu x i y są na ogół odmienne, a dryft nie jest stały. Ponieważ jednak pojedynczy skan obiektu naukowego zajmuje około 1 minuty, dryft na skan zmniejsza się do mniej niż 1 mas. Strategia akwizycji danych z ruchem posuwisto-zwrotnym prawie samokompensuje dryf.
Śledzenie marginesów
W celu śledzenia prążków elektronika pokładowa lokalizuje przejście przez zero pomiędzy najwyższym dodatnim i najniższym pikiem prążków ujemnych. Położenie tego przejścia przez zero jest określane z częstotliwością 40 Hz w czasie obserwacji w zakresie od 10 < t < 300 s. Mediana >2400 przejść przez zero zapewnia solidne oszacowanie pozycji. Selektory gwiazd służą do przesuwania chwilowego pola widzenia z jednej gwiazdy na drugą w polu widzenia FGS. Dryf można skorygować, ale powoduje to dodatkowy narzut, skracając czas dostępny na orbicie na obserwację celu naukowego . Zestaw obserwacji astrometrycznych musi zawierać wizyty do jednej lub większej liczby gwiazd odniesienia, wielokrotne podczas każdej sekwencji obserwacji. Zakładając brak ruchu charakterystycznego dla wszystkich gwiazd odniesienia i gwiazd docelowych w okresie 40 minut, określa się dryft i koryguje układ odniesienia i gwiazdę docelową pod kątem tego dryfu. W rezultacie zmniejszamy udział budżetu błędu z dryftu do mniej niż 1 mas. Na ryc. 1 cel naukowy można obserwować trzy razy podczas sesji obserwacyjnej (pojedyncza orbita), a każdą gwiazdę odniesienia dwukrotnie.
Kalibracja astrometryczna
Kalibracja trybu skanowania prążków ma na celu określenie różnic separacji i wielkości pomiędzy składnikami gwiazd podwójnych. Jak omówiono wcześniej, wszystkie prążkowe cele skanowania są obserwowane w pobliżu środka zamarynowania. Dla kontrastu śledzenie prążków odbywa się na całym polu widzenia. Wymagania kalibracyjne dla tych dwóch trybów pracy są zupełnie inne.
Kalibracja skanowania prążków
Najbardziej podstawową kalibracją każdego instrumentu astrometrycznego jest określenie skali w jednostkach sfery niebieskiej. Skala FGS pochodzi z pomiarów kilku kalibracyjnych gwiazd podwójnych, często obserwowanych za pomocą interferometrii plamkowej za pomocą teleskopów klasy 4 m. Na podstawie tych pomiarów plamkowych uzyskano niezwykle dobrze określone elementy orbitalne. Te orbity gwiazd podwójnych dają, dla dowolnej daty obserwacji HST FGS, dokładne separacje kątowe układu podwójnego, a tym samym skalę. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych.
Kalibracja śledzenia prążków
Zespół teleskopu optycznego (OTA) HST to aplanatyczny TELESKOP CASSEGRAINA konstrukcji Ritchey-Chretien. Naszym początkowym problemem było mapowanie i usuwanie zniekształceń optycznych, których wpływ na mierzone pozycje przekraczał 0,5. Nie istniało żadne pole gwiazdowe ze skatalogowaną astrometrią o precyzji 1 mas, co stanowiło nasz pożądany cel w zakresie wydajności, do wykorzystania jako siatka odniesienia. Naszym rozwiązaniem było użycie FGS 3 do samodzielnej kalibracji. W wyniku tej aktywności zniekształcenia zmniejszają się do wartości lepszych niż 2 mas na większości pola widzenia FGS 3 (rysunek 1). Model ten nazywany jest kalibracją zniekształceń kąta pola optycznego (OFAD). Do opisu tych zniekształceń przyjęliśmy a funkcjonalna forma przed wprowadzeniem na rynek, pierwotnie opracowana przez konstruktora instrumentu, firmę Perkin-Elmer Corporation. Zniekształcenia te można opisać (i zamodelować do poziomu jednej milisekundy łuku) za pomocą dwuwymiarowych wielomianów piątego rzędu


gdzie x, y to obserwowane pozycje w polu widzenia FGS, x , y to skorygowane pozycje, a wartości liczbowe współczynników aij i bij wyznaczane są poprzez kalibrację. Do wstępnego oszacowania OFAD wykorzystano ślady promieni. Wymagane uwolnienie grawitacyjne, odgazowanie struktur grafitowo-epoksydowych w FGS i regulacja zwierciadła wtórnego HST po wystrzeleniu aby ostatecznego określenia współczynników OFAD aij i bij dokonano w drodze kalibracji na orbicie. Jako pole kalibracyjne wybrano M35. Ponieważ naziemne pozycje naszych docelowych gwiazd kalibracyjnych były znane tylko z dokładnością do 23 milisekund łuku, pozycje gwiazd oszacowano jednocześnie z parametrami zniekształceń. Dokonano tego podczas kalibracji maratonu przeprowadzonej 10 stycznia 1993 r. w FGS 3. Całą sekwencję 19 orbit pokazano na rycinie 6. GaussFit został wykorzystany do jednoczesnego oszacowania względnych pozycji gwiazd, kierunku i obrotu teleskopu podczas każdego orbity ( kwaternionami), powiększenie teleskopu, współczynniki wielomianu OFAD i cztery parametry opisujące optykę selektora gwiazd wewnątrz FGS.
Inne kalibracje śledzenia prążków
Ponieważ każdy FGS zawiera elementy załamujące światło, możliwe jest, że zmierzone położenie gwiazdy może zależeć od jej wewnętrznego koloru. Zmiany pozycji będą zależeć od koloru gwiazdy, ale oczekuje się, że kierunek przesunięcia będzie stały w stosunku do osi FGS. To boczne przesunięcie koloru byłoby nieistotne, o ile gwiazdy docelowe i referencyjne mają podobny kolor. Jednak z pewnością nie dotyczy to wielu obiektów naukowych (np. bardzo czerwonych gwiazd, takich jak Proxima Centauri i gwiazda Barnarda). Wreszcie, aby zapewnić duży zakres dynamiki, przed pryzmatem Koestera można umieścić filtr o neutralnej gęstości. W rezultacie nastąpi niewielkie, ale dające się skalibrować przesunięcie pozycji (z powodu klina filtra) podczas porównywania pozycji jasnej gwiazdy ze słabym układem odniesienia. Przesunięcie jest stałe pod względem kierunku (w stosunku do FGS 3) i wielkości, ponieważ filtr nie obraca się w swoim uchwycie. Utrzymanie kalibracji śledzenia prążków Przewidywano, że grafitowo-epoksydowy stół optyczny FGS 3 będzie wydzielał gaz przez pewien czas po wystrzeleniu HST. Przewidywano, że odgazowanie zmieni względne położenie elementów optycznych na stole optycznym. Rezultatem wszelkich zachodzących zmian była zmiana skali. Wielkość zmiany skali była o wiele za duża, aby wynikała ze zmian rzeczywistego powiększenia w zespole optycznym HST. Dwa z parametrów opisujących optykę selektora gwiazd powodują zmianę przypominającą skalę, jeśli pozwoli się im zmieniać się w czasie. Rozwiązaniem było okresowe odwiedzanie pola kalibracyjnego M35 w celu monitorowania zmian przypominających skalę i innych wolno zmieniających się nieliniowości. Ponowne wizyty będą konieczne, jeśli pożądane będzie wykonanie astrometrii z dokładnością do 1 mas za pomocą dowolnego FGS. Wynik tej czynności ocenia ważność bieżących współczynników OFAD i ostrzega o konieczności ponownej kalibracji. Dzięki tym danym usuwamy powoli zmieniającą się składową OFAD, tak że nieskorygowane zniekształcenia pozostają poniżej 2 mas dla środka FGS 3. Charakter tych zmian jest generalnie monotoniczny z gwałtownymi skokami w połączeniu z misjami serwisowymi HST.
Astrometria: historia
Chociaż termin "astrometria" powstał dopiero w XIX wieku, mierzenie położenia i odległości kątowej gwiazd i planet stanowi jedno z najstarszych zajęć astronoma. Do czasów HIPPARCHUSA (fl 126 p.n.e.) w klasycznej Grecji ustalono już pomiary pozycji astronomicznych w stosunku do koła 360°, natomiast starożytni Babilończycy z roku 1750 p.n.e. pozostawili nieinstrumentalne obserwacje zachodniego i wschodniego wydłużenia Wenus względem Słońca, co można słusznie uznać za astrometryczne. Od czasów greckich po dzień dzisiejszy astronomowie zajmujący się astrometrią używali instrumentów wykorzystujących skalę 360°. Ze swej natury astrometria polega na ustalaniu i udoskonalaniu współrzędnych fizycznych na niebie, na podstawie których można określić ilościowo ruchy ciał. Hipparch, Klaudiusz PTOLEMUSZ i inni Grecy uznali, że ekliptyka stanowi naturalny i dość oczywisty podstawowy układ współrzędnych astronomicznych, ponieważ wysokości Słońca w środku lata i w środku zimy powodują przesilenia, równonoce i bieguny
zodiaku. Co więcej, te współrzędne zodiaku można powiązać z innym zestawem współrzędnych, opartym na równiku ziemskim (lub równiku) i biegunach ziemskich; w czasach Ptolemeusza odległość między nimi wynosiła 23° 51′ 20 cali, a obecnie wynosi 23° 26′ 21". Geometryczne punkty na niebie, w których przecinają się płaszczyzny ekliptyki i równika, równonoce, tworzą współrzędne pochodzenia naturalnego, a przecięcie wiosenne w marcu zostało wykorzystane przez Ptolemeusza i innych klasycznych astronomów do wyznaczenia początku dnia gwiazdowego. Ponad dwa tysiące lat temu punkt ten znajdował się w konstelacji Barana, co dało początek określeniu "PIERWSZY PUNKT BARANA", który do dziś jest używany jako punkt zerowy długości geograficznej niebieskiej (lub rektascencji) na mapach astronomicznych. Jednak już w starożytności uznano, że ten pierwszy punkt nie jest ustalony (jak w rzeczywistości jest kilka punktów na niebie, jeśli ma się wystarczająco dużo czasu), ale powraca sam do siebie, czyli "precesuje".
Ptolemeusz określił tę precesję jako 1° na każde stulecie, chociaż uzyskał tę wielkość poprzez zaokrąglenie liczb dla pierwszego punktu, które wyprowadził z obserwacji obejmujących około 400 lat do roku 150 ne. Używając znacznie lepszych instrumentów i wykorzystując je do ciągłego udoskonalania i udoskonalania -zdefiniuj swoją liczbę pomiędzy 1675 a 1715 rokiem, JOHN FLAMSTEED w Anglii otrzymywał 1° co 72 lata, czyli 50" rok-1 dla stałej precesji, co jest bardzo korzystne w porównaniu z przyjętym dzisiaj 50,290 966&Primne; rok-1. Ustalenie pierwszego punktu Barana i ilościowe określenie jego błędnego ruchu po niebie jest jednym z podstawowych osiągnięć astrometrii i nadal stanowi sedno pomiarów położenia gwiazd, wymagające konstruowania wykresów i tabel w sposób zapewniający określonej "epoce" cyklu precesyjnego, takiej jak rok 1900 lub 2000 n.e. Praktyczny pomiar dokładnego położenia tego wolno poruszającego się kawałka pustej przestrzeni na niebie umożliwił przez wieki była próbą pomysłowości, gdyż
nieuchronnie nie jest zajmowana przez żadną konkretną gwiazdę. W II wieku naszej ery Ptolemeusz w swoim Almagestie opisał technikę wykorzystującą księżyc w nowiu jako pośrednika. W dniu lub w okolicach równonocy wiosennej, w latach, w których w czasie równonocy przypadał dogodny nów księżyca, Ptolemeusz mierzył odległość kątową zachodzącego Słońca od Księżyca. Gdy Słońce znalazło się poniżej horyzontu, zalecił zmierzenie położenia Księżyca na podstawie sąsiednich gwiazd, gdy staną się widoczne. Na podstawie tych pozycji gwiazd można było ustalić pozycję Słońca i określić w ten sposób (na podstawie zdobytej kilka miesięcy wcześniej wiedzy o gwiazdach w tym obszarze nieba), która jasna gwiazda znajduje się najbliżej pierwszego punktu Barana. Uznając, że ruch Księżyca sam w sobie może być źródłem błędów w mniej więcej godzinie, gdy Słońce chowa się pod horyzontem, TYCHO BRAHE w Danii od 1582 r. powtórzył technikę Ptolemeusza, wykorzystując jako pośrednika znacznie wolniej poruszającą się planetę Wenus, i
obliczyli dla tej epoki, że pierwszy punkt Barana znajdował się w odległości 26° 0″ 30″ od gwiazdy α Arietis, co znajdowało się w odległości 15" od tej samej wartości obliczonej dla roku 1585 przez Dreyera w latach 90. XIX wieku. Sukces prac astrometrycznych Tycho, a większa dokładność, jaką osiągnął w porównaniu ze średniowiecznymi Arabami, takimi jak Ulugh Beigh i Al Sufi, oraz starożytnymi greckimi astronomami, którzy prowadzili obserwacje tysiąclecie wcześniej, zależała od ulepszeń techniki, obejmujących fundamentalne innowacje w konstrukcji instrumentów, wyrafinowane krzyżowe sprawdzanie procedur i rosnąca świadomość na temat refrakcji atmosferycznej. Ogromny postęp, jaki astrometria poczyniła w ciągu ostatnich czterech stuleci, wynika z rosnącej świadomości czynników uznawanych przez Tycho za ważne: innowacji w instrumentach, udoskonalonych technik i czujności na potencjalne źródła błędów. Jednak błyskawiczny rozwój astrometrii od 1580 roku nastąpił jedynie w odpowiedzi na
intelektualne problemy astronomii i kosmologii, z których pierwszym była hipoteza Kopernika. W XVI wieku uznano, że jeśli Ziemia rzeczywiście porusza się w przestrzeni, to rozmiary kątowe figur konstelacji powinny wykazywać niewielkie wahania sezonowe, w miarę zbliżania się lub oddalania obserwatora naziemnego od pozycji z czerwca i grudnia. Sam Tycho próbował wykryć takie wahania sezonowe. Jednakże wraz z rozwojem koncepcji nieskończonego wszechświata w XVII wieku, tę kopernikańską paralaksę gwiazdową uznano za najbardziej prawdopodobną do wykrycia podczas sześciomiesięcznego przemieszczenia kątowego gwiazd pierwszej wielkości, takich jak Syriusz, przy założeniu że gdyby wszystkie gwiazdy miały podobną jasność wewnętrzną, to gwiazdy pierwszej wielkości były najbliżej Ziemi, a zatem powinny wykazywać największe paralaksy. Rozwój w XVII i XVIII wieku podziałek o większej skali na kwadrantach astronomicznych, celownikach teleskopowych, mikrometrach i noniuszach oraz podobnych technik instrumentalnych był
silnie napędzany chęcią astronomów do wykrycia tej nieuchwytnej paralaksy gwiazdowej. W miarę jak pojemność astrometryczna epoki wzrosła z 1′ Tycho Brahe′a do 25″ Heweliusza, a następnie do 10" Flamsteeda, a paralaksy w dalszym ciągu nie stwierdzono, astronomowie w całej Europie zdali sobie sprawę z dwóch rzeczy: po pierwsze, trójwymiarowy wszechświat gwiezdny musi być niewiarygodnie jest ogromna, a po drugie, nadzieja na jej pomyślne zgłębienie musi wiązać się z ciągłym doskonaleniem konstrukcji precyzyjnych instrumentów, połączonym z równoległym rozwojem wyrafinowanych technik ich użycia. Co więcej, uznanie to było credo astrometru przez ostatnie cztery stulecia, od Uraniborga Tycho po satelitę kosmicznego Hipparcos Europejskiej Agencji Kosmicznej. Poszukiwania paralaksy gwiazdowej, choć zakończone sukcesem dopiero w 1838 r., stały się tak pilne i inspirujące dla astronomów, że po drodze zrodziły się z nich liczne inne odkrycia i kierunki badań. To właśnie CHRISTIAAN HUYGENS w latach
pięćdziesiątych XVII wieku stwierdził, że skale stopniowane nie są dostatecznie wyrafinowane, aby wykryć paralaksę, co w istocie doprowadziło do początków fotometrii gwiazdowej. Próbując porównać jasność Syriusza ze światłem emitowanym z obszaru powierzchni Słońca wielkości otworka (zakładając, że Słońce, Syriusz i wszystkie gwiazdy mają tę samą wewnętrzną jasność), Huygens obliczył, że Syriusz był oddalony o 27 664 jednostek astronomicznych od układ Słoneczny. Technika Huygensa zachęciła Sir Johna Herschela do badań fotoastrometrycznych w 1836 roku, podczas których obliczył, że Vega jest 40 razy jaśniejsza od Słońca i Arcturusa 200, a zatem odpowiednio oddalona od Układu Słonecznego. Następnie, w następstwie pomyślnego zastosowania spektroskopii i fotografii w astrometrii w latach sześćdziesiątych XIX wieku, fotometria rozpoczęła niezależny rozwój jako podstawowe narzędzie astrofizyki. Poszukiwania paralaksy gwiazdowej miały także doprowadzić ROBERTA HOOKE (1669), Johna Flamsteeda (1698-1702), a zwłaszcza
JAMESA BRADLEYA (1727-1728), do wynalezienia i rozwoju sektora zenitalnego (teleskop o długim ogniskowym zawieszony w punkcie dokładnie w zenicie) jako sposób na wykrycie paralaksy gwiazdowej, obecnie uznawanej za mającą nie więcej niż kilka sekund łuku, na pozbawionym refrakcji atmosferycznej niebie zenitu. Zarówno Hooke, jak i Flamsteed uzyskali podejrzanie duże paralaksy: Hooke określił paralaksy gwiazdy - Draconis na około 27 cali, a Flamsteed dla Polaris 40″, chociaż doskonałe instrumentarium i procedury obserwacyjne Bradleya doprowadziły do jego uznania w 1728 r., że Nowy znaleziony ruch gwiazd stałych, który sam w sobie był produktem obrotu Ziemi wokół Słońca, miał roczne przemieszczenie wynoszące 20,00-20,25′. To była aberracja. Jego wykrycie i oznaczenie ilościowe było triumfem wyrafinowanej astrometrii XVIII wieku i choć nadal nie ujawniło paralaksy, dostarczyło jednak fizycznego dowodu ruchu Ziemi w przestrzeni. Bradley twierdził, że jego sektor zenitowy był w stanie wykryć kąt 0,5 cala,
a w 1748 roku wykorzystał niewielki ruch kiwający - Draconisa do wykrycia niewielkiej okresowej zmiany nachylenia osi obrotu Ziemi względem ekliptyki. Jednym z założeń koncepcji nieskończonego wszechświata był możliwy niezależny ruch samych gwiazd, zwłaszcza w następstwie teorii powszechnego ciążenia Sir ISAACA NEWTONA po 1687 r. Od niepamiętnych czasów zakładano, że gwiazdy są nieruchome w swoje miejsca, chociaż w 1718 roku EDMOND HALLEY opublikował artykuł, który wykazał, że gwiazdy pierwszej wielkości Aldebaran (Palilicium), Syriusz i Arcturus wykazywały niezależny lub "właściwy ruch" w stosunku do sąsiednich, słabszych gwiazd. Było to wynikiem pomysłowych badań historycznych, podczas których Halley wykrył systematyczne przemieszczanie się szerokości geograficznej tych gwiazd, jak odnotowali Hipparch, Ptolemeusz, Tycho i współcześni astronomowie. Rzeczywiście obliczył, że Syriusz zmienił swoje położenie wzdłużne o 2 stopy w ciągu 120 lat od Tycho. Sugerowało to nie tylko, że te gwiazdy mogą poruszać się
w przestrzeni, ale że nasza pozycja obserwacyjna w Układzie Słonecznym również może się poruszać. William Herschel w 1783 roku jako pierwszy zastosował ruchy właściwe do wyznaczenia wierzchołka Słońca, punktu na niebie, w stronę którego zmierza Układ Słoneczny (patrz RODZINA HERSCHELA). O szybkim postępie w astrometrii i jej instrumentarium mówi coś fakt, że w latach 1838-1840 astronomowie stosujący trzy różne techniki obserwacji odkryli nie mniej niż trzy paralaksy gwiazdowe. Co więcej, żadna z tych paralaks nie zostałaby zmierzona, gdyby nie odkrycie i coraz dokładniejsze określenie ilościowe ruchów własnych gwiazd, ponieważ były to duże ruchy własne wykazywane przez 61 Cygni (5,2 roku-1) i α Centauri (3″ .7), co sugerowało ich względną bliskość Układu Słonecznego, a tym samym przydatność do pomiaru paralaksy. Chociaż Vega (α Lyrae) wykazuje znacznie mniejszy (ale wyraźny) ruch własny, została również uznana za odpowiedniego kandydata do pomiaru paralaksy. Gwiazdy te zmierzyli
odpowiednio FRIEDRICH WILHELM BESSEL w Königsburgu za pomocą heliometru, THOMAS HENDERSON na Przylądku Dobrej Nadziei za pomocą koła ściennego i Friedrich Georg WILHELM STRUVE w Dorpacie za pomocą mikrometru filarowego na 24-centymetrowym refraktorze Fraunhofera . Chociaż ich dane zostały nieco zmienione przez późniejszych obserwatorów na podstawie większych serii obserwacji, ich paralaksy pozostają zasadniczo prawidłowe: 61 Cygni, 0,3483; α Centauri, 0,913; Vega, 0,261. Pod wieloma względami te paralaksy stanowiły punkt krytyczny w astrometrii, dzięki czemu na długotrwałe pytanie astronomiczne udało się odpowiedzieć poprzez połączone zastosowanie wyższej teorii matematycznej i wyjątkowo dokładnych obserwacji dokonanych za pomocą nowego rodzaju teleskopów Na początku i w połowie XIX w. nastała era astrometrii manualnej (w której astronom pracował oczami, rękami i uszami, bez pomocy elektromagnetycznych i fotograficznych).Astronomia ta miała na celu nie tylko ostateczne ustalenie szeregu stałych
astronomicznych, lecz na dostarczaniu stale aktualizowanego i udoskonalanego zbioru danych, na podstawie których można kontynuować oryginalne badania mechaniki niebieskiej. Co więcej, zaczęły one zależeć od zintegrowanego wykorzystania anglo-niemieckich technik w oprzyrządowaniu i francuskiej matematyki Badania gwiazd podwójnych i potrójnych, których pionierem był w dużej mierze William Herschel w 1802 r., wykazały, że grawitacja Newtona, której działanie dotychczas wykazano jedynie w Układzie Słonecznym, była w oczywisty sposób uniwersalna. Bessel, Struve, Sir James South i inni w całej północnej Europie próbowali określić ilościowo elementy orbit układu podwójnego, aby wyodrębnić elementy grawitacyjne z ξ Ursae Majoris i innych układów gwiezdnych, a to Felix Savary, Johann Encke i Johna Herschela w latach 1830-1832, któremu się to udało. Prace nad gwiazdami podwójnymi wymagały najwyższej dokładności instrumentalnej, ponieważ refraktory montowane równikowo, z achromatyczną optyką Josefa Fraunhofera,
Roberta Aglaé Cauchoix i innych, wykorzystujące funkcje mikrometru lub heliometru z największą delikatnością, udostępniły do 1830 roku wiarygodne dane astrometryczne, które byłyby niewyobrażalne w 1780 r. Do 1833 r. John Herschel opublikował osiowe składowe orbit sześciu gwiazd podwójnych z dokładnością do czterech miejsc po przecinku jednej sekundy łukowej i chociaż wiele setnych i tysięcznych sekundy łukowej zostało później zmodyfikowanych, ich dziesiąte, zgodnie z pierwotnym pomiarem, rzadko potrzebna korekta. Dopracowane badania astrometryczne przeprowadzone w połowie XIX wieku ujawniły obecność wielu systematycznych nieregularności gwiazdowych, z których wyłonił się bogaty zbiór odkryć fizycznych. Do roku 1840 wszystkie wielkie obserwatoria w Europie - w Königsburgu, Dorpacie, Berlinie, Bonn, Greenwich i innych - zajmowały się przede wszystkim pracami astrometrycznymi, które w tamtym czasie stanowiły najwyższy szczyt osiągnięć astronomicznych. Z jednej strony ich energię poświęcono pracom w
oparciu o refraktor równikowy w astronomii gwiazd podwójnych, chociaż okrąg ścienny i tranzytowy ułatwiły również rutynowe pomiary pozycji południków z dokładnością do ułamka jednej sekundy łukowej. Ponieważ w ślad za przykładami Bessela, Struve′a, Enckego, Friedricha Wilhelma Augustusa Argelandera i George′a Biddella Airy′ego stawało się wymogiem, aby obserwatorium publikowało swoje prace tak szybko, jak to możliwe, szybko zgromadzono ogromny zbiór znakomitych danych astrometrycznych. staje się dostępny w Europie i Ameryce. To właśnie na podstawie opublikowanego astrometrycznego archiwum danych południkowych zarówno John Couch Adams, jak i Jean Joseph Urbain Le Verrier dokonali spektakularnych niezależnych odkryć Neptuna w 1846 roku. Również na podstawie stosunkowo długich serii wysokiej jakości danych astrometrycznych Bessel był w stanie określić ilościowo okresowe wahanie pozycji Syriusza, na podstawie którego był w stanie obliczyć obecność Syriusza B w 1844 r. Co więcej, po obu tych
odkryciach, wyciągniętych z istniejących danych astrometrycznych, nastąpiło teleskopowe potwierdzenie, kiedy Johann Galle i Heinrich d′Arrest zaobserwował Neptuna z Berlina 23 września 1846 r. i kiedy Alvan Clark zobaczył Syriusza B z nową 18-stką w szkle przedmiotowym w Bostonie w 1862 r. Wynalazek fotografii w 1839 r. otworzył ogromny potencjał astrometrii. Oprócz możliwości zapewnienia znacznie większej dokładności, uwolnił astronoma od okularu teleskopu, umożliwiając wygodniejszy i spokojniejszy pomiar pozycji astrometrycznych z klisz fotograficznych. Jednak dopiero po 1881 roku, wraz z utworzeniem Carte du Ciel, astrometria fotograficzna naprawdę pokazała, co może zdziałać. Jednak w miarę jak astrofizyka zdominowała astronomię w XX wieku, podstawowa rola astrometrii w nauce spadła, ale rozwój interferometrii radiowej w latach pięćdziesiątych XX wieku wprowadził nową i ważną formę astrometrii, ponieważ anteny radiowe znajdowały się w odległości wielu kilometrów lub nawet do dokładnego położenia
źródeł radiowych na niebie z dokładnością do kilku sekund łuku. Jednakże rozwój projektu HIPPARCOS Europejskiej Agencji Kosmicznej w 1989 r. ponownie przywrócił astrometrii optycznej centralną rolę. Satelita kosmiczny Hipparcos umożliwił wykonywanie doskonałych pomiarów astrometrycznych do 0,002 cala w praktycznie przemysłowy sposób, bez żadnych problemów atmosferycznych występujących w obserwatoriach naziemnych. Chociaż astrofizyka w dalszym ciągu w dużej mierze stanowi siłę napędową współczesnych badań astronomicznych, jej krytycznie dokładna dane astrometryczne, jakie umożliwił Hipparcos, są niezbędne, zwłaszcza do zrozumienia procesów fizycznych zachodzących w naszym własnym układzie gwiezdnym.Astrometria satelitarna jest w istocie wyraźnie postrzegana jako rozwiązanie przyszłości, jeśli chodzi o najbardziej krytyczne dokładności. Nadchodząca satelita NASA, FAME (Full Sky Astrometric Mapping Explorer), która ma zostać wystrzelona około 2004 roku, będzie mapować niewiarygodne 40 milionów pozycji gwiazd
ze zwiększoną dokładnością od dwóch do dziesięciu (w zależności od wielkości) w porównaniu z poprzednimi satelitami, w ciągu przewidywanego 5-letniego okresu funkcjonowania ESA GAIA (Europejska Agencja Kosmiczna Global Astrometric Interferometer for Astrophysics) ponadto będzie miał także 5-letni okres działania, podczas którego oczekuje się, że zmapuje 500 razy więcej obiektów niż Hipparcos, 100 razy dokładniej. Można ponadto argumentować, że astrometria w jej działach fotograficznych, fotoelektrycznych, radiowych i satelitarnych nadal znajduje się w centrum badań astronomicznych, ponieważ sama astrofizyka opiera się na precyzyjnych pomiarach i interpretacji różnych form energii z kosmosu. To właśnie użycie instrumentów do pomiaru i ilościowego określenia energii docierającej do Ziemi z kosmosu czyni astronomię zdecydowanie najstarszą z nauk ścisłych.
Astrometria: teleskopy i techniki
Celem astrometrii jest określenie pozycji i ruchu ciał niebieskich, takich jak gwiazdy i planety, a także sztucznych satelitów. Astrometria jest najstarszą gałęzią astronomii i aż do XIX wieku cała profesjonalna astronomia była astrometrią. Jednym z głównych celów astrometrii jest pomiar odległości kątowych gwiazd i innych ciał niebieskich względem gwiazd odniesienia, które mają znane pozycje. Można to osiągnąć wykonując zdjęcia przez teleskop podobny do aparatu fotograficznego, czy to na emulsji fotograficznej , czy przy użyciu detektorów elektronicznych, takich jak URZĄDZENIE SPRZĘŻONE Z ŁADUNKIEM (CCD), stosowane obecnie w większości aparatów. Pozycje gwiazd referencyjnych ustalane są metodami astrometrii absolutnej. Katalog takich stanowisk i ruchów określa układ odniesienia. Większość pomiarów astrometrycznych przeprowadza się w dwóch wymiarach, na sferze niebieskiej, podobnych do szerokości i długości geograficznej. Trzeci wymiar, czyli odległość ciał niebieskich w przestrzeni, jest znacznie trudniejszy do zmierzenia i stanowi jedno z największych wyzwań astronomicznych. Tylko odległości w naszym Układzie Słonecznym można zmierzyć z dużą precyzją za pomocą technik radarowych i laserowych. Bardzo precyzyjne pomiary kątowe rzędu 1 milisekundy łukowej (mas) można dziś osiągnąć za pomocą naziemnych teleskopów optycznych, satelitów astrometrycznych i radioteleskopów. Kąt 1 mas jest tysięczną częścią sekundy łukowej, która z kolei jest 3600 częścią stopnia. Księżyc na niebie ma średnicę około pół stopnia lub 1800 sekund łukowych. Parę świec oddalonych od siebie o 10 cm dzieli 1 m, patrząc z odległości 20 000 km. Po niebie poruszają się nie tylko Słońce, Księżyc i planety. Jeśli przyjrzysz się wystarczająco uważnie, gwiazdy "stałe" również się poruszają, powoli krążąc wokół centrum naszej Galaktyki, Drogi Mlecznej. Nawet galaktyki poruszają się w gromadach galaktyk. Zatem dokładne pozycje astrometryczne zależą od czasu. Bez znajomości ruchów nie można dobrze przewidzieć pozycji na przyszłość. Po stuleciach powolnych ulepszeń, w ciągu ostatnich dwóch dekad osiągnięto dramatyczny wzrost precyzji. W 1980 r. najnowocześniejszym stanem była pozycja absolutna wynosząca 100 mas, od 1995 r. było to około 1 mas, a obecnie projektowane misje kosmiczne obiecują 0,05-0,005 mas. Ten niesamowity postęp wynika z technologii, wykorzystania nowych technik i sprzętu.
Astrografy i koncepcja płaszczyzny stycznej
Jedną z podstawowych technik astrometrycznych jest wykorzystanie a kamera (astrograf) do mapowania fragmentu sfery niebieskiej na powierzchni obrazu. Aparatem tutaj może być także teleobiektyw, dedykowany teleskop soczewkowy (refraktor) lub teleskop lustrzany (reflektor). W idealnym przypadku powierzchnia obrazu jest płaszczyzną prostopadłą do osi optycznej kamery i styczną do kuli. Kamera (rysunek 1) jest skierowana na pozycję A na niebie, a gwiazda w S jest nanoszona na S′ w płaszczyźnie stycznej. Ogniskowa f określa skalę tego odwzorowania:
scale(arcsec mm-1) = 206 265/[f(mm)]
Podstawową ideą jest pomiar prostokątnych współrzędnych x, y w płaszczyźnie stycznej, następnie wykorzystanie znanej pozycji niektórych gwiazd odniesienia w polu w celu określenia parametrów mapowania i na koniec obliczenie współrzędnych sferycznych pozostałych mierzonych gwiazd pola. Szczegóły techniczne wyjaśniono poniżej.
Szerokie pole
Teleskop o wysokiej jakości, szerokim, kilkustopniowym POLU WIDZENIA wymaga złożonej konstrukcji optycznej, której nie da się uzyskać za pomocą refraktora dwusoczewkowego ani teleskopu z dwoma zwierciadłami. Astrografy wieloobiektywowe to klasyczne teleskopy w tej kategorii, podobne do teleobiektywów. W przypadku większych apertur (około 0,7 m i więcej) często stosuje się układy katadioptyczne, czyli teleskopy zwierciadlane z dodatkowymi soczewkami. Przykładami są TELESKOP SCHMIDT i duże reflektory z "korektorami pola". Te teleskopy szerokokątne są wykorzystywane w astrometrii głównie do zagęszczania istniejących układów odniesienia. Pozycje wielu słabszych gwiazd są określane w odniesieniu do kilku jasnych gwiazd odniesienia o znanych pozycjach. Duże pole widzenia pozwala na jednoczesną obserwację odpowiednio dużej liczby gwiazd odniesienia w danym polu. Najważniejszymi przykładami astrografów są astrografy z Katalogu Astrograficznego (AC), zbudowane około 1900 roku o ogniskowej 3,7 m, instrumenty z serii 2 i 3 Astronomische Gesellschaft Katalog (AGK) o ogniskowej 2 m, pięciosoczewkowa konstrukcja z 1975 r. Astrograf hamburski, bliźniaczy astrograf US NAVAL OBSERVATORY (USNO) z czerwoną soczewką zaprojektowaną w 1990 roku oraz astrografy Lick i Yale o aperturze 0,5 m. Astrografy Lick i Yale wykorzystują odległe galaktyki jako stałe punkty odniesienia i zestaw ekspozycji wykonanych w odstępie około 20-30 lat (różnica epok) w celu określenia bezwzględnych WŁAŚCIWYCH RUCHÓW gwiazd odpowiednio w programach ruchu własnego Północy i Południa (NPM, SPM). NPM jest już ukończony, natomiast trwają obserwacje drugiej epoki SPM w Argentynie. Projekt USNO CCD Astrograph Catalog (UCAC) rozpoczął się w 1998 roku w CERRO TOLOLO INTERAMERICAN OBSERVATORY i ostatecznie obejmie całe niebo do jasności około 16mag. Pozycje gwiazd w zakresie 10-14 mag są podawane z dokładnością do około 20 mas. Właściwe wnioski zostaną uzyskane poprzez wykorzystanie nowych miar danych NPM i SPM z wczesnej epoki.
Wąskie pole
Refraktory o długiej ogniskowej (≈ 10-15 m) i duże reflektory zapewniają pole widzenia od kilku minut kątowych do 1° przy dużym powiększeniu, co pozwala na rozpoznanie niewielkich przemieszczeń obrazów gwiazd. Teleskopy te są używane głównie w astrometrii do wyznaczania paralaks trygonometrycznych, co jest najbardziej bezpośrednią, podstawową techniką określania odległości poza Układem Słonecznym. Niewielkie przesunięcia położenia stosunkowo bliskiej gwiazdy docelowej są mierzone w stosunku do odległych gwiazd, które są wybierane na podstawie właściwości widmowych i fotometrycznych. Tutaj również zastosowano koncepcję płaszczyzny stycznej; jednakże nie są potrzebne żadne dokładne (absolutne) położenia gwiazd referencyjnych. Obserwacje danego pola prowadzone są przez kilka lat, a następnie mapowane na siebie, przy założeniu średniej wartości stałych gwiazd tła. Rysunek 2 wyjaśnia zasadę trygonometrycznych obserwacji paralaksy. Podczas gdy Ziemia okrąża Słońce, pozycja pobliskiej gwiazdy zmienia się nieznacznie (kolejność 0,5 sekundy łukowej lub mniej). Największe przesunięcia obserwuje się dla pozycji 1 i 2, w odstępie około pół roku. Na ognisku na płaszczyźnie pozycje pobliskiej gwiazdy docelowej i niektórych odległych gwiazd tła są wykreślane na przestrzeni roku (pomijając ruchy właściwe). Głównym problemem jest oszacowanie odległości (paralaks) gwiazd tła. W idealnym przypadku powinny być nieskończenie daleko, czyli w stałym położeniu, czyli w środku elips. W takim przypadku zaobserwowana zmiana położenia docelowej gwiazdy względem gwiazd tła bezpośrednio dałaby jej prawdziwą, absolutną paralaksę . W rzeczywistości pomiar ujawnia względną paralaksę w odniesieniu do średniej paralaksy gwiazd tła. Przykładami są refraktory YERKES OBSERVATORY i ALLEGHENY OBSERVATORY, a także reflektor 1,55 m Strand Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, najbardziej precyzyjny i produktywny instrument w tej kategorii. Wyniki wszystkich znaczących paralaks trygonometrycznych i związanych z nimi obserwacji ruchu własnego są zestawiane w katalogach wydawanych przez Uniwersytet Yale. Aby uzyskać bardzo precyzyjne położenie słabych obiektów, takich jak zwarte, pozagalaktyczne źródła radiowej ramki odniesienia, przyjęto procedurę wieloetapową. Teleskop szerokokątny służy do wyznaczania pozycji drugorzędnych gwiazd odniesienia w układzie głównych gwiazd odniesienia. Instrumenty o długim ogniskowaniu podążają w stronę słabszych, granicznych wielkości magnitudo i zagęszczają sieć gwiazd odniesienia
Detektory
Obecnie w optycznych programach astrometrycznych ważne są trzy typy detektorów: CCD, fotometr z modulacją siatki i emulsje fotograficzne. Detektor CCD w teleskopie jest najważniejszym detektorem szeroko stosowanym w akwizycji danych astronomicznych. Wysoka wydajność kwantowa i stabilność geometryczna sprawiają, że jest to bardzo odpowiednie urządzenie do astrometrii. Jedynym poważnym problemem matrycy CCD jest jej stosunkowo mały rozmiar w porównaniu z kliszą fotograficzną. Typowy CCD ma dziś 30-50 mm z boku, podczas gdy typowa płyta fotograficzna może mieć powierzchnię 100 razy większą. Mozaika matryc CCD może pokrywać duży obszar w płaszczyźnie ogniskowej; jednakże pomiędzy chipami pozostają przerwy i, co ważniejsze dla precyzyjnej astrometrii, potrzebne są dodatkowe parametry w modelu mapowania dla każdego pojedynczego chipa CCD. Może to stanowić poważny problem, gdy gęstość gwiazd odniesienia jest niska. Technikę modulacji siatki zastosowano w wielokanałowym fotometrze astrometrycznym (MAP) w Obserwatorium Allegheny. Mierzy względne położenie gwiazd w płaszczyźnie ogniskowej za pomocą ruchomej linijki ronchi. Instrument ten jest bardzo precyzyjny (dokładność 3 mas na noc na jasnym celu); jednakże w danym momencie można mierzyć tylko jedno źródło docelowe w odniesieniu do kilku gwiazd odniesienia. Zasada modulacji siatki jest również stosowana w misji kosmicznej HIPPARCOS i została wyjaśniona na rysunku 3. Pomiary fotometryczne z dużą rozdzielczością czasową przeprowadzane są za siatką w płaszczyźnie ogniskowej. Gwiazdy (lub siatka) poruszają się, a różnica faz między sygnałami z dwóch gwiazd określa ich dokładne względne położenie w ułamkach stałej siatki. Wymagana jest wiedza a priori dotycząca całkowitej liczby kroków siatki, w których gwiazdy są od siebie oddzielone. Emulsje fotograficzne na kliszy lub płytkach szklanych wymagają maszyny pomiarowej w celu wyodrębnienia informacji x, y o pozycjach obrazu gwiazd. Emulsje fotograficzne nie są już używane w żadnym większym programie astrometrycznym. Dane przechowywane w archiwach płytowych są jednak nadal cenne, a ich ekstrakcja nie została jeszcze zakończona.
Maszyny pomiarowe
W przeszłości ludzie obsługiwali ręcznie jedno- i dwuosiowe maszyny do pomiaru płytek, centrując obrazy gwiazd na krzyżykach mikroskopu i kółkach odczytujących. Techniki dysektora obrazu mogą automatycznie wyśrodkować obraz gwiazdy, wykorzystując właściwość symetrii profilu obrazu. Pełna digitalizacja (skanowanie) klisz fotograficznych wykonywana jest na nowoczesnych maszynach. W tym przypadku pomiar fotometryczny (przezroczystość lub gęstość) jest rejestrowany jako funkcja położenia x, y detektora skanującego. Można to osiągnąć za pomocą mikrodensytometru, matrycy CCD lub urządzenia skanującego liniowo. We wszystkich przypadkach dokładny pomiar położenia detektora względem płytki wzdłuż dwóch osi ma kluczowe znaczenie, a większość maszyn korzysta z metrologii laserowej lub precyzyjnych enkoderów zapewniających powtarzalność około 0,1 μm. Dokładność ograniczają błędy systematyczne procesu pomiarowego oraz stabilność geometryczna nośnika fotograficznego, która w zależności od rodzaju emulsji jest rzędu 0,4-1,0 μm. Przykładami są maszyny mikrodensytometryczne PDS, które były dostępne na rynku, maszyna GALAXY z byłego ROYAL OBSERVATORY, GREENWICH, APM w Cambridge w Wielkiej Brytanii, APS w Minneapolis, MAMA w OBSERVATOIRE DE PARIS, PMM z Obserwatorium Marynarki Wojennej USA, HAM1 w Hamburger Sternwarte i SuperCosmos w KRÓLEWSKIM OBSERWATORIUM W EDYNBURGU.
Koło tranzytowe i astrometria absolutna
Koło tranzytowe (TC) to teleskop zamontowany na stałej osi wschód-zachód, dzięki czemu może poruszać się tylko wzdłuż lokalnego południka. Południk to wielkie koło przechodzące przez bieguny niebieskie i zenit, prostopadłe do horyzontu. TC dokonuje dwóch niezależnych obserwacji: czasu, w którym obiekt docelowy przecina południk (tranzyt) i kąta, odległości od zenitu, którą odczytuje się z okręgów przymocowanych do osi wschód-zachód teleskopu. Kierunek zenitu wyznacza się w praktyce, patrząc w przeciwnym kierunku (nadir) w dół, na powierzchnię zwierciadła rtęciowego, która reprezentuje lokalną płaszczyznę horyzontu ze względu na grawitację Ziemi. W celu sprawdzenia stabilności azymutu instrumentalnego obserwuje się skolimowane znaki odniesienia położone w pewnej odległości w kierunku północnym i południowym. W ubiegłych stuleciach obserwacje tranzytów prowadzono metodą "oko i ucho", obserwując gwiazdę przechodzącą przez drut mikrometryczny przez okular teleskopu i słuchając sygnałów czasu w celu oszacowania ułamka sekundy. Nowoczesne instrumenty wykorzystują detektory fotoelektryczne i podążają za gwiazdą przez pewien czas w płaszczyźnie ogniskowej, aby uzyskać wiele pomiarów dla pojedynczego tranzytu. Najlepszy współtwórca może przeprowadzać względne obserwacje; jednakże jest również w stanie wykonać astrometrię absolutną (fundamentalną), co oznacza, że może określić położenie ciał niebieskich bez apriorycznej wiedzy o pozycjach innych gwiazd. W ten sposób teleskopy TC przez stulecia zapewniały główne katalogi gwiazd odniesienia (katalogi podstawowe). Do najważniejszych należą serie FK3, FK4 i FK5 z tego stulecia, opublikowane przez Astronomisches Recheninstitut w Heidelbergu w Niemczech. Ostatnio podstawowa praca z teleskopami TC została zastąpiona dokładniejszymi technikami, takimi jak misja kosmiczna Hipparcos i obserwacje radiowe VLBI. Na obserwacje Najlepszych Współtwórców wpływa wiele czynników. Niedoskonałości instrumentalne, takie jak wygięcie tubusu teleskopu, można określić poprzez odpowiednie modelowanie serii obserwacji. Krytyczna jest stabilność instrumentu, umożliwiająca powtarzalne podążanie za tym samym wzorcem w danym przedziale czasu. Ruch biegunowy, wędrówka osi Ziemi względem powierzchni Ziemi i inne zmiany lokalnego układu współrzędnych wchodzą w zakres obserwacji TC i wymagają rozwiązania. Co więcej, oś obrotu Ziemi nie jest ustalona w przestrzeni inercyjnej. Układ współrzędnych związany z równikiem Ziemi porusza się względem gwiazd (precesja i nutacja). Skończona prędkość światła powoduje aberrację astronomiczną, czyli przesunięcie kątowe obserwowanej trajektorii w stosunku do rzeczywistej pozycji. Wszystkie te efekty wchodzą w pełnym zakresie do obserwacji absolutnych TC, podczas gdy obserwacje różnicowe (względne) mają do czynienia jedynie ze zmianami tych efektów w polu widzenia. Szczególną troską w przypadku obserwacji TC jest załamanie światła w atmosferze ziemskiej. Obserwacje zarówno dolnego, jak i górnego tranzytu gwiazd w pobliżu bieguna pomagają w określeniu modelu refrakcji. Niemniej jednak załamanie zmienia się w zależności od warunków atmosferycznych, takich jak temperatura. Turbulencje atmosfery ostatecznie ograniczają bezwzględne obserwacje TC poprzez niemodelowane systematyczne wkłady i przypadkowy szum. Przykładami instrumentów TC są CARLSBERG MERIDIAN TELESCOPE i południk w OBSERVATOIRE DES SCIENCES DE L′UNIVERS DE BORDEAUX oraz i 7 w teleskopach Obserwatorium Marynarki Wojennej Stanów Zjednoczonych.
Technika skanowania TDI
Najnowszą innowacją w astrometrii jest zastosowanie przetworników CCD w płaszczyźnie ogniskowej teleskopów typu TC. Przetwornik CCD może pracować w trybie integracji z opóźnieniem czasowym (TDI), w którym transfer ładunku do odczytu CCD jest zsynchronizowany z ruchem gwiazdy w chipie. Działa to jednak dobrze tylko w przypadku gwiazd poruszających się po wielkim okręgu (równiku) i przy małej szerokości skanowanego paska. We wszystkich pozostałych przypadkach gwiazdy w różnych lokalizacjach na matrycy CCD poruszają się po znacznie nieliniowych ścieżkach, co powoduje rozmazanie obrazu. Pionierskim instrumentem tego typu jest Astrometryczny Skaningowy Teleskop Tranzytowy Flagstaff (FASTT). Carlsberg Meridian Telescope (CMC, La Palma i Cambridge, Wielka Brytania) oraz Bordeaux TC wykorzystały technikę skanowania TDI do katalogów strefowych. Część obrazowania projektu SLOAN DIGITAL SKY SURVEY (SDSS) również wykorzystuje tę samą technikę. Jednakże teleskop SDSS może podążać za dowolnymi wielkimi kręgami na niebie, aktywnie sterując teleskopem i jednocześnie obracając płaszczyznę detektora.
Astrolabium
ASTROLABIUM jest przykładem instrumentu równej wysokości, mierzącego czas przejścia gwiazdy przez mały okrąg o stałej wysokości lub odległości od zenitu (często 30° lub 45°). Osiąga się to poprzez konfigurację lustra-pryzmatu przed zamontowanym poziomo teleskop. Bezpośrednie i odbite obrazy docelowej gwiazdy są odwzorowywane na płaszczyźnie ogniskowej. Pozorne ruchy obu obrazów są w przeciwnych kierunkach i krzyżują się, gdy gwiazda osiągnie ustaloną odległość od zenitu, dla której instrument został zaprojektowany. Pozycje gwiazd można wywnioskować z obserwacji przejść w kierunku wschodnim i zachodnim. Astrolabium ma dwie główne zalety w porównaniu z TC. Wszystkie gwiazdy są obserwowane w stałej odległości od zenitu, co upraszcza korekcję refrakcji, a konfiguracja instrumentalna jest bardziej stabilna i pozwala uniknąć problemów z zginaniem. Główną wadą astrolabium jest jego ograniczone pokrycie nieba w deklinacji δ φ - z < δ < φ + z, gdzie φ to szerokość geograficzna, a z to stała odległość zenitu instrumentu. Podobnie jak w przypadku TC, zdolność astrolabium do tworzenia podstawowego katalogu i monitorowania rotacji Ziemi ma obecnie wyłącznie znaczenie historyczne ze względu na wyjątkową dokładność VLBI i technik astrometrii kosmicznej. Fotograficzny teleskop zenitowy (PZT) PZT jest teleskopem montowanym pionowo, z soczewką na obrotowym stoliku u góry i lustrem u dołu. Za pomocą PZT obserwuje się względne położenie lokalnego zenitu względem gwiazd. Przez dziesięciolecia PZT był używany do określania orientacji Ziemi. Ponieważ techniki VLBI są obecnie znacznie dokładniejsze, PZT są przestarzałe.
Interferometria
Interferometria jest najdokładniejszą znaną obecnie techniką astrometryczną, wykorzystującą falową naturę spójnego światła (lub ogólnie promieniowania elektromagnetycznego) do pomiarów kątowych. Powszechnie stosowany jest interferometr Michelsona. Jego podstawową zasadę przedstawiono na rysunku 5. Dwa stałe teleskopy (sidereostaty) A i B obserwują tę samą gwiazdę. Wiązka z co najmniej jednego z teleskopów musi przejść przez linię opóźniającą o zmiennej długości, aby jednocześnie (spójnie) obserwować ten sam czoło fali przychodzącej i w ten sposób uzyskać wzór interferencyjny (prążki) na sumatorze wiązek. W zależności od położenia gwiazdy względem linii bazowej (kąt ?), opóźnienie (d) jest różne i należy je odpowiednio dostosować. Podstawowym pomiarem interferometrycznym jest długość opóźnienia w funkcji czasu, przy jednoczesnym zachowaniu maksymalnego kontrastu prążków (widoczności)
cos γ = d/b
Przy znanej linii bazowej b daje to miarę γ. Wielokrotne obserwacje kilku gwiazd w ciągu nocy pozwalają nam określić położenie gwiazd i parametry orientacji Ziemi. Aby sterować linią opóźnienia i uzyskać prążki, wymagana jest aprioryczna informacja o przybliżonych pozycjach gwiazd. Następnie interferometr określa d w ułamku długości fali, podczas gdy długość linii bazowej jest monitorowana za pomocą dodatkowej metrologii. Dzięki tej technice można uzyskać globalną dokładność rzędu kilku mas, a pomiary względne (gwiazdy podwójne, ciemnienie kończyn gwiazd) są co najmniej 10 razy dokładniejsze. Podobnie jak w przypadku kręgów tranzytowych, właściwości atmosfery obecnie ograniczają dokładność. Mark I (MOUNT WILSON OBSERVATORY) był pierwszym interferometrem gwiazdowym zgodnym fazowo, a następnie Mark II i Mark III (około 1990 r.). Przykładami operacyjnych interferometrów optycznych są COAST (Cambridge, Wielka Brytania), SUSI (Australia), GI2T (Francja), PTI (PALOMAR OBSERVATORY) i prototypowy interferometr optyczny Marynarki Wojennej (NPOI). Tylko COAST i NPOI mają trzy lub więcej sidereostatów i regularnie mogą wykonywać obrazowanie. Instrument CHARA rozpoczął pracę na Mt Wilson. Projekt SPACE INTERFEROMETRY MISSION (SIM) (zatwierdzony przez NASA do wystrzelenia w 2009 r.) opiera się na tej samej technice. Podobne techniki stosuje się na częstotliwościach radiowych. Sygnały IA i IB z dwóch radioteleskopów są podawane do korelatora. Produkt korelatora, C,

osiąga maksimum, gdy τ = d/c, gdzie c jest prędkością światła, a d opóźnieniem. Interferometria bardzo długiej linii bazowej (VLBI) jest najdokładniejszą techniką radioastrometryczną. Tutaj poszczególne teleskopy są zwykle daleko od siebie na różnych kontynentach i nie są już bezpośrednio połączone. Zamiast tego sygnał na każdej stacji jest modulowany za pomocą bardzo precyzyjnego wzorca częstotliwości (zegar atomowy, maser), digitalizowany i zapisywany na specjalnych taśmach. Taśmy ze wszystkich stacji są później przetwarzane w centrum korelatora, a opóźnienia i współczynniki opóźnień są wyodrębniane jako podstawowe informacje. Zdolność rozdzielcza R interferometru nie jest już równa zdolności rozdzielczej jego poszczególnych apertur; zamiast tego kryterium Rayleigha
R(rad) = 1.22Λ/b
dotyczy separacji dwóch połączonych teleskopów o długości bazowej b. Jest to szczególnie ważne w przypadku fal radiowych λ, które są bardzo długie (od milimetra do metra) w porównaniu z długościami fal optycznych. Interferometry optyczne, a także VLBI mają możliwość astrometrii absolutnej. VLBI ma obecnie najwyższą dokładność ze wszystkich technik astrometrycznych szerokiego pola. Parametry orientacji Ziemi są rutynowo uzyskiwane na poziomie submasowym, a Międzynarodowy Niebiański System Odniesienia (ICRS) jest definiowany na podstawie pozycji 212 pozagalaktycznych, kompaktowych źródeł radiowych obserwowanych za pomocą VLBI.
Interferometria plamkowa
Interferometria plamkowa to technika pozwalająca przezwyciężyć ograniczenia widzenia naziemnych teleskopów optycznych-IR w zastosowaniach o bardzo małym polu, takich jak obserwacje gwiazd podwójnych. Jeśli apertura teleskopu jest duża w porównaniu z parametrem Frieda (r0 ? 0,15 m, patrz OPTYKA ADAPTACYJNA), podczas fotografowania gwiazdy przy dużym powiększeniu na dysku widzenia widać dużą liczbę pojedynczych plamek. Wykonywanie pojedynczych zdjęć z krótkimi czasami integracji (≈1/30 s) pozwala na rozróżnienie plamek. Rozmiar plamek zależy od apertury teleskopu. Autokorelacja A,
A(u) = ∫l(x+u)l(x)dx
nad obszarem zdjęcia ukazuje kąt separacji i orientacji (z niejednoznacznością 180°) gwiazdy podwójnej z rozdzielczością zbliżoną do teoretycznej zdolności rozdzielczej teleskopu bez wpływu atmosfery. Bardziej złożoną strukturę obiektu można analizować za pomocą technik transformacji Fouriera. Interferometria plamkowa działa tylko w obrębie plamki izoplanatycznej i dlatego jest ograniczona do pola widzenia około 5 sekund łukowych.
Astrometria kosmiczna
Kosmiczny Teleskop Hubble′a (HST) wyposażony jest w dwa instrumenty do obserwacji astrometrycznych: precyzyjne czujniki naprowadzania (FGS) oraz kamerę szerokokątną i planetarną (WFPC). FGS umożliwia dwuwymiarowe określanie względnego położenia obiektów w pierścieniowym polu widzenia o wymiarach ?13′ na 4′, obserwując jeden cel na raz. Druga kamera szerokokątna i planetarna (WFPC2) firmy HST wykorzystuje cztery detektory CCD do bezpośredniego obrazowania w pasmach od UV do IR. Informacje astrometryczne można uzyskać, stosując koncepcję płaszczyzny stycznej opisaną w pierwszej części. Zniekształcenia kąta pola optycznego określono za pomocą gęstych pól kalibracyjnych (klaster kulisty), redukując liczbę parametrów wymaganych w modelu mapowania dla zastosowań użytkownika. Pole widzenia wynosi tylko około 75 cali w przypadku trzech chipów CCD Wide Field i około 34 cali w przypadku matrycy CCD Planetary Camera. Optyka korekcyjna jest zintegrowana z drugim WFPC2, który został zainstalowany w grudniu 1993. Instrument nadaje się do astrometrii bardzo słabych źródeł (do ?26 mag); jednakże obrazy są niedostatecznie próbkowane, a do precyzyjnego centrowania stosowane są techniki ditheringu. Hipparcos, satelita zbierający paralaksy o wysokiej precyzji, był pierwszą misją kosmiczną poświęconą astrometrii. Wystrzelony w 1989 roku, obserwował całe niebo przez 3,5 roku, tworząc katalog 118 000 gwiazd z pozycjami absolutnymi, ruchami właściwymi i paralaksami trygonometrycznymi z dokładnością do 1 mas. Dzięki podzielonemu zwierciadłu dwa pola na niebie oddzielone o ?58° zostały zmapowane na tę samą płaszczyznę ogniskową. Satelita obracał się w sposób ciągły, a światło gwiazd przecinających pola było modulowane za pomocą dobrze skalibrowanej siatki. Korzystając z katalogu wejściowego, wybrane punkty w płaszczyźnie ogniskowej były wychwytywane przez detektor fotoelektryczny. Surowe dane obejmują stały strumień pomiarów natężenia światła w funkcji czasu. Tylko jeden wymiar (wzdłuż skanu) obserwowano z dużą precyzją. Oś obrotu satelity powoli ulegała precesji, aby umożliwić globalne pokrycie nieba. Każdy punkt na niebie został przeskanowany około 120 razy w różnych kierunkach w celu ustalenia obu współrzędnych. Dane odciętych, czyli kąty mierzone wzdłuż kierunku skanowania, wszystkich skanów wielkiego koła zostały później połączone w jedną dużą redukcję (rekonstrukcja sfery), aby jednocześnie określić parametry astrometryczne gwiazd i parametry instrumentalne. W rezultacie ustalono sztywny, samospójny, instrumentalny układ współrzędnych. Zewnętrzną orientację osi (trzy pozycje i trzy właściwe parametry ruchu) wykonano w połączeniu z obserwacjami naziemnymi, łącząc układ Hipparcosa z ICRS. Wszystkie gwiazdy do około 7mag zaobserwowano w dwóch przejściach pasmowych, podobnie jak B i V, a także większość gwiazd do 8,5mag, a niektóre wybrane do 12,5mag. Dane z mapy gwiazd uzyskane z misji Hipparcos zostały wykorzystane do zbadania wszystkich gwiazd do około 11mag w ramach projektu Tycho. Ponowna ocena danych z Tycho, zakończona w 1999 r., pozwoliła na utworzenie katalogu Tycho-2 zawierającego 2,5 miliona gwiazd (fotometria i położenie), uzupełnionego właściwymi wnioskami w powiązaniu z katalogami naziemnymi. Dokładność pozycji Tycho jest rzędu 10-70 mas, w zależności od wielkości. W 1999 r. NASA wybrała misję kosmiczną Full-Sky Astrometric Mapping Explorer (FAME) z planowanym wystrzeleniem w 2004 r. Podobnie jak Hipparcos, satelita ten będzie skanował całe niebo w ciągu 5 lat misji, aby określić pozycje, ruchy właściwe i paralaksy wynoszące 40 milionów gwiazd z dokładnością od 0,5 mas do 50 ?as, w zależności od wielkości. W przeciwieństwie do Hipparcos, FAME wykorzystuje szereg matryc CCD w trybie skanowania TDI.
Globalne spojrzenie na techniki astrometryczne
Techniki kosmiczne a techniki naziemne
Zasadniczo istnieją trzy różnice w astrometrii kosmicznej w porównaniu z astrometrią naziemną.
1. Atmosfera. Brak atmosfery ziemskiej pozwala na uzyskanie ostrzejszych zdjęć, niezakłóconych przez turbulentne medium. Wyższa zdolność rozdzielcza bezpośrednio prowadzi do lepszego stosunku sygnału do szumu i słabszych wielkości granicznych. Brak turbulencji oznacza także znaczną redukcję szumu losowego przy pomiarze odległości kątowych. Atmosferyczny błąd losowy jest w przybliżeniu
σatm ≈ kt-1/2F1/3(cos z)-1
z czasem ekspozycji t w sekundach, polem widzenia F w minutach kątowych, odległością od zenitu z i parametrem k w zakresie 10-70 mas, w zależności od warunków atmosferycznych. Dostępność większego widma częstotliwości (w tym UV i IR) do obserwacji kosmicznych nie miała dotychczas większego znaczenia dla astrometrii.
2. Grawitacja. Grawitacja bliska zeru dla instrumentów kosmicznych bezpośrednio prowadzi do większej stabilności i niezależności niektórych błędów od kierunku wskazywania. Jednakże efekty termiczne (satelita w świetle słonecznym lub w cieniu) powodują inne problemy, a kontrola temperatury do poziomu 1/100 K jest często wymagana w astrometrycznych misjach kosmicznych. Gradient grawitacyjny instrumentów naziemnych zapewnia wygodną metodę definiowania jednej osi układu współrzędnych. Opcja ta nie jest już dostępna w misjach kosmicznych.
3. Orientacja. Niezależność Ziemi oznacza brak problemów z rotacją Ziemi i nieregularnościami lokalnych ziemskich układów współrzędnych. Oznacza to także brak dostępnej definicji północy lub podobnej orientacji zewnętrznej. Równik nie ma żadnego znaczenia dla misji kosmicznych, a płaszczyzna ekliptyki jedynie słabo wchodzi w zakres aberracji świetlnej.
Technika redukcji płaszczyzny stycznej
Niech ξ, η będą prostokątnymi współrzędnymi kartezjańskimi zdefiniowanymi jako punkt zerowy na przecięciu osi optycznej z płaszczyzną styczną (A′), ξ skierowany na wschód i η na północ. Rzut gnomoniczny podaje współrzędne styczne jako

gdzie α, δ oznacza rektascencję i deklinację S oraz α0, δ0 deklinacji A. W tym punkcie jednostką ξ, η są radiany. Zmierzone współrzędne x, y są wówczas dokładnie równoległe do ξ, η
x = fξ y = fη
gdzie f jest ogniskową, a x, y w tych samych jednostkach co f, np. milimetry. Równanie jest w rzeczywistości najprostszym modelem fizycznym pomiędzy czysto matematycznymi ξ, η i obserwowalnymi w świecie rzeczywistym x, y. Przykładem bardziej realistycznego modelu płyty jest

przy czym P1 do P9 to parametry, które należy oszacować w procesie regulacji przy użyciu gwiazd odniesienia o znanych pozycjach (ξ, η), a r2 = x2 + y2. Parametry od 1 do 4 reprezentują model ortogonalny, który jest zwykle najprostszym modelem praktycznym. Pozwala na punkt zerowy, skalę i obrót (wyrównanie) pomiędzy x, y i ξ, η. Uwzględnienie składników P5 i P6 daje pełny model liniowy. Parametry 7 i 8 reprezentują nachylenie płaszczyzny ogniskowej w stosunku do idealnej płaszczyzny stycznej, a P9 to składnik zniekształcenia optycznego trzeciego rzędu, istotny w większości prawdziwych teleskopów. Po oszacowaniu parametrów funkcja modelu, taka jak równanie, podaje współrzędne ξ, η ze zmierzonych x, y dowolnej gwiazdy o wcześniej nieznanym położeniu. Następnie poprzez rozwiązanie otrzymuje się jego współrzędne sferyczne α, δ

Zaawansowane tematy i metody redukcji
Systematyczne błędy pozycji w zależności od wielkości (zwane równaniem wielkości) są częstym problemem w wielu tradycyjnych technikach astrometrycznych, szczególnie w astrometrii fotograficznej. Z wyjątkiem porównań zewnętrznych, te błędy systematyczne można określić obserwując obrazy tej samej gwiazdy przy różnych poziomach ekspozycji. Oczywiście można to osiągnąć, biorąc te same pola o różnych czasach ekspozycji. Inną możliwością jest zastosowanie SIATKI DYFRAKCYJNEJ przed aperturą (w pobliżu źrenicy wejściowej). Oprócz centralnego obrazu zerowego rzędu siatka tworzy znacznie słabsze obrazy wyższego rzędu, rozmieszczone symetrycznie wokół obrazu centralnego. Te obrazy to w zasadzie widma; jednakże, w zależności od stałej siatki i pasma pasmowego, można je wykonać prawie kołowo. Instrumentalne równania wielkości można również zredukować, łącząc dane zebrane za pomocą instrumentu w położeniu normalnym i odwróconym. Jednakże równań wielkości wywołanych błędem prowadzenia nie można zredukować za pomocą tej techniki. W przypadku detektorów liniowych, takich jak CCD, w zasadzie nie oczekuje się już równań wielkości. Niemniej jednak przy niedoskonałej wydajności transferu ładunku błąd systematyczny przypominający komę może być znaczący w danych CCD. Techniki regulacji blokowej (BA) w obserwacjach astrograficznych umożliwiają uzyskanie szerokokątnych (aż do globalnych) wyników astrometrycznych przy użyciu jedynie obserwacji różnicowych w wąskim polu. Wymagane są nakładające się pola. Zamiast rozwiązywania każdego pola osobno, stosuje się schemat redukcji, aby rozwiązać wszystkie parametry płyty i wszystkie pozycje gwiazd jednocześnie, wykorzystując fakt, że dana gwiazda ma unikalną pozycję na wszystkich zdjęciach lub klatkach CCD, na których się znajduje. Technikę tę wprowadzono do astronomii w 1960 roku; jednakże nie był on wykorzystywany aż do lat 70. XX wieku z powodu braku mocy komputerowej. Metoda jest bardzo wrażliwa na błędy systematyczne, które nie są odzwierciedlone w danych, a jeśli nie zostanie właściwie zastosowana, może dać gorsze wyniki niż tradycyjna redukcja. Proces rekonstrukcji sfery projektu Hipparcos jest w rzeczywistości bardzo podobny do procesu BA. Ze względu na większą liczbę obserwacji na gwiazdę i jednoczesną obserwację dwóch szeroko odległych pól, dane Hipparcosa są lepiej uwarunkowane w celu uzyskania rozwiązania globalnego niż nakładające się płyty.
Najnowocześniejsze dokładności i ograniczenia
Obecnie najdokładniejsze pozycje uzyskuje się na podstawie obserwacji radiowych VLBI dla kilkuset kompaktowych źródeł pozagalaktycznych. Uważa się, że pozycje niektórych źródeł są podawane z dokładnością do 0,1 mas. Poważnym problemem jest struktura źródła, właściwości atmosferyczne i jonosferyczne oraz stabilność stacji naziemnych (modelowanie efektów krótkookresowych). VLBI jest również techniką bardzo kosztowną w utrzymaniu i jest stosowana głównie w pracach związanych z orientacją Ziemi i geodezją, a na marginesie można uzyskać dobrą astrometrię. Techniki interferometryczne mają w zasadzie większy potencjał w zakresie najwyższej dokładności pozycjonowania niż inne metody. Jednak obserwacja jest powolna, jeden obiekt na raz. Najwyższe rozdzielczości kątowe i najdokładniejszą astrometrię bliskich gwiazd podwójnych uzyskuje się za pomocą interferometrów optycznych (NPOI, 70 μas). Paralaksy na poziomie 0,5 mas osiągane są dla dobrze obserwowanych gwiazd przez tradycyjne naziemne teleskopy długoogniskowe wyposażone w matryce CCD, działające równie dobrze jak najlepsze instrumenty kosmiczne, z FGS HST (0,4 mas). Jednak technika naziemna osiągnęła już swój teoretyczny limit wyznaczony przez atmosferę i misje kosmiczne nowej generacji prawdopodobnie poprawią ten wynik 10-krotnie. Katalog Hipparcosa jest obecnie najdokładniejszą realizacją optycznego układu odniesienia, podającą pozycje 118 000 gwiazd na poziomie 1 mas. Przy właściwym błędzie ruchu wynoszącym około 1 mas rok-1 i średniej epoce 1991,25 błędy pozycji dla epoki 2000 są już rzędu 10 mas. Najdokładniejsze pozycje dla większości gwiazd o jasności 9-12 mag podaje obecnie katalog Tycho-2 (20-70 mas). Naziemne astrografy szerokokątne są już w stanie to ulepszyć, obniżając 20 mas do 14 mag (projekt UCAC). Ograniczeniem tutaj ponownie jest atmosfera w połączeniu z dostępnym czasem integracji ze względu na zaplanowany czas trwania projektu i ograniczone pole widzenia. Udana misja kosmiczna FAME prawdopodobnie sprawi, że przyszłe badania astrograficzne typu astrograficznego staną się przestarzałe, aż do granicznej wielkości 15mag. Zejście do słabszych magnitudo pozostanie domeną naziemnych teleskopów astrometrycznych przez co najmniej dekadę ze względu na ich efektywność kosztową. USNO A2.0 i GSC-2 (Space Telescope Science Institute) dostarczają obecnie jedyne pozycje całego nieba (w przybliżeniu 0,2 sekundy łukowej) słabych gwiazd do 20mag. Pochodzą one z płytek pomiarowych Schmidta, mierzone za pomocą PMM. W przypadku nawet słabszych gwiazd zaobserwowano dotychczas jedynie małe, wybrane obszary. Interferometry kosmiczne, takie jak SIM, zwiększą dokładność astrometryczną do kilku mikrosekund łukowych; jednak tylko dla kilku wybranych źródeł. Ostatecznie możliwa do osiągnięcia dokładność pozycjonowania będzie zależała od stosunku sygnału do szumu, a co za tym idzie liczby zebranych fotonów oraz powodzenia w kontrolowaniu błędów systematycznych, co pozostanie najważniejszym wyzwaniem technicznym dla projektów astrometrycznych. Uzyskanie precyzyjnych ruchów własnych jest obecnie problematyczne, a pełne wykorzystanie danych fotograficznych sprzed dziesięciu lub stu lat jest aktywnym zadaniem współczesnej astrometrii. Prawdopodobnie zmieni się to w przyszłości, kiedy udana astrometryczna misja kosmiczna nowej generacji obejmie wszystkie wielkości danych z epoki.
Zeszyty obserwacji astronomicznych dla amatorów
Astronom obserwacyjny musi przede wszystkim być systematyczny. Błędna obserwacja jest gorsza niż bezużyteczna, może łatwo zmylić wszelkie późniejsze analizy. Niezbędne jest prowadzenie starannej i dokładnej dokumentacji. Historia może być tu istotna, chociaż może być apokryficzna; było to cytowane nie raz. W 1781 roku William Herschel odkrył planetę Uran i przeglądając stare zapisy, okazało się, że Uran był widziany kilkakrotnie, chociaż zawsze był mylony z gwiazdą. Według tej historii francuski astronom Le Monnier (patrz LE MONNIER) widział ją nie mniej niż sześć razy i gdyby porównał swoje obserwacje, nie mógłby nie dokonać odkrycia, mimo że Uran znajdował się w tym czasie w pobliżu jednego ze swoich stacjonarnych zwrotnica. Le Monnier tego nie sprawdził i jedna z jego obserwacji została później odnaleziona na odwrocie papierowej torby, w której kiedyś znajdowały się perfumy do włosów. Do każdej obserwacji - wizualnej, fotograficznej czy elektronicznej - należy dołączyć kilka niezbędnych notatek. Jeśli którykolwiek z nich zostanie pominięty, obserwacja szybko traci dużą część lub całość swojej wartości. Zasadniczo główne wymagania to
imię obserwatora
data
czas, GMT (nigdy nie używaj wariantów takich jak czas letni w Wielkiej Brytanii lub stref czasowych w innych krajach)
używany sprzęt (dla teleskopu, typ, apertura, powiększenie; dla aparatu, typu, filmu, czasu naświetlania)
widzenie warunków
oraz wszelkie inne dane, które wydają się istotne.
Oczywiście rodzaj użytego notatnika zależy całkowicie od charakteru dokonywanych obserwacji. "Staromodny" obserwator planet prowadziłby oddzielną księgę dla każdego obiektu - jedną dla Jowisza, drugą dla Marsa i tak dalej. Podczas tworzenia szkicu planety lub obiektu księżycowego wiele zależy od umiejętności artystycznych obserwatora. Niektórzy są w stanie wykonać "gotowe" rysunki, siedząc bezpośrednio przy teleskopie; inni wykonują wstępne szkice, idą do biurka, aby wykonać ostateczne kopie, a następnie ponownie sprawdzają przy teleskopie. Czasami może pojawić się pokusa, aby odłożyć wykonanie ostatecznych kopii na następny dzień. Zawsze należy się temu przeciwstawić; Wkradanie się błędów jest praktycznie pewne. Obserwatorzy planet często korzystają ze skali widzenia opracowanej dawno temu przez E M ANTONIADI. Istnieje pięć stopni, od 1 (idealne warunki przejrzystości i stałości) do 5 (warunki tak złe, że nie ma sensu obserwować niczego poza śledzeniem jakiegoś zjawiska, które się nie powtórzy). W praktyce Antoniadi 1 jest bardzo rzadko spotykany, przynajmniej w krajach takich jak Wielka Brytania. Podczas rysowania Jowisza lub Marsa pomocne jest użycie przygotowanego krążka, aby uwzględnić spłaszczenie w przypadku Jowisza lub fazę w przypadku Marsa; nie jest to takie proste w przypadku Saturna, gdzie odręczne szkicowanie jest tak naprawdę jedyną odpowiedzią. Zdjęcia należy bardzo starannie segregować, z podaniem dat i godzin oraz innych niezbędnych danych. To samo dotyczy zapisów elektronicznych. Wielu amatorów obecnie systematycznie poluje na nowe, komety, supernowe w galaktykach zewnętrznych (patrz INASTRONOMIA WSPÓŁPRACY AMATORSKO-PROFESJONALNEJ), a przy tych zapisach najważniejszy jest czas, szczególnie jeśli dokonuje się odkrycia, a obserwator nie może się doczekać priorytet. W sumie sposób prowadzenia notatnika astronomicznego jest kwestią zdrowego rozsądku. Nigdy nie nagrywaj niczego, czego nie jesteś całkowicie pewien; jeżeli pojawi się cień wątpliwości, zanotuj go obok obserwacji. Pamiętaj też, że zbyt łatwo jest "zobaczyć" to, czego oczekuje połowa. Zostało to bardzo wyraźnie pokazane podczas obserwacji Marsa przed i po przesłaniu pierwszych zdjęć przez sondy kosmiczne. Do tego czasu wielu całkowicie uczciwych obserwatorów pokazywało skomplikowaną sieć kanałów. Gdy tylko stało się jasne, że kanały nie istnieją, zniknęły one z notatek obserwatorów. Warto w tym miejscu poczynić jeszcze jedną uwagę. Noobserwacja nabierze naprawdę pożytku, jeśli zostanie pozostawiona odłogiem w notatniku; jeśli jest potrzebny do analizy, należy go wysłać do organizacji takiej jak BRYTYJSKIE STOWARZYSZENIE ASTRONOMICZNE lub AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH. Jednakże odesłanie oryginalnego notesu jest szczytem szaleństwa; prawdopodobnie zostanie gdzieś zagubiony i być może zaginie na poczcie. Zanim wyślesz obserwację, czy to rysunek, czy zapis, upewnij się, że masz doskonałą kopię. To prawda, wymaga to czasu, ale warto.
Fotografia astronomiczna amatorów z teleskopami
Współczesny astronom-amator jest w stanie wykonać piękne zdjęcia nocnego nieba, często przy użyciu zaskakująco skromnego sprzętu. Jednym z najlepszych sposobów na rozpoczęcie jest umieszczenie lustrzanki jednoobiektywowej (SLR) na solidnym statywie, otwarcie przysłony obiektywu tak szeroko, jak to możliwe, i wykonanie 10-minutowego naświetlania. Spowoduje to zarejestrowanie gwiazd jako śladów ze względu na obrót Ziemi i jest dobrym sposobem na pokazanie różnych kolorów gwiazd. Krótsze ekspozycje (zwykle 1-2 minuty) pozwolą zarejestrować gwiazdy jako punkty i są dobrym sposobem na pokazanie różnych konstelacji. W ten sposób można również fotografować zdarzenia przejściowe, takie jak zorze polarne i jasne komety. Niestety, nowoczesne lustrzanki jednoobiektywowe nie nadają się do astrofotografii, ponieważ do utrzymania otwartej migawki wykorzystują baterie. Ekspozycja astrofotograficzna może być dość długa (do 1 godziny), co bardzo szybko wyczerpuje baterie aparatu. Najlepszym typem aparatu do tej pracy są te, które zostały wyprodukowane pod koniec lat 70. XX wieku, takie jak Nikon, Pentax i Canon. Są to wytrzymałe, ręczne aparaty, które można kupić po rozsądnych cenach w większości sklepów z używanymi aparatami. Ważny jest także wybór soczewek. Obiektywy szerokokątne i standardowe doskonale nadają się do wykonywania zdjęć konstelacji i Drogi Mlecznej. Małe teleobiektywy (135 mm) dobrze nadają się do zdjęć większych gromad gwiazd i obiektów głębokiego nieba, podobnie jak teleobiektywy o długiej ogniskowej (200-500 mm), ale te drugie można stosować do zaćmień i komet. W przypadku długich ekspozycji konieczne jest umieszczenie aparatu na napędzanym montażu paralaktycznym. W ten sposób kamera może śledzić ruch nieba i tworzyć dokładne obrazy gwiazd. Po dokładnym ustawieniu mocowania na biegun możliwe jest wykonywanie ekspozycji do 30 minut bez konieczności dokonywania jakichkolwiek korekt napędu. Przydatnym elementem wyposażenia w tego typu astrofotografii jest przegub kulowy, który mieści się pomiędzy aparatem a uchwytem i umożliwia skierowanie aparatu w praktycznie dowolnym kierunku. Kolejnym bardzo przydatnym wyposażeniem jest linka blokująca, która utrzymuje migawkę otwartą przez dłuższy czas. Przymknięcie przysłony obiektywu o jeden f/stop (tj. f/2 do f/2.8) radykalnie poprawia jakość zdjęć gwiazd, szczególnie w okolicach brzegów kadru. Podłączenie aparatu do nowoczesnego teleskopu pozwala na szczegółowe fotografowanie, ale wymaga większej precyzji układu napędowego. Aparat mocuje się zwykle poprzez umieszczenie adaptera pomiędzy tylną komorą wyciągu teleskopu a korpusem aparatu. Dobrymi celami fotograficznymi jest Księżyc (patrz KSIĘŻYC, MAPY KSIĘŻYCA) i jest to prawdopodobnie najłatwiejsza forma fotografii teleskopowej, ponieważ ze względu na jasność Księżyca czasy ekspozycji mogą być dość krótkie. Uchwycenie sekwencji zmieniających się faz Księżyca może być satysfakcjonujące, podobnie jak niesamowity spektakl całkowitego zaćmienia Księżyca. W przypadku wszystkich rodzajów fotografii astronomicznej dobrym pomysłem jest stosowanie naświetlań w nawiasie. Oznacza to, że stosuje się szereg różnych czasów ekspozycji w okolicach prawdopodobnego prawidłowego czasu ekspozycji. W ten sposób zazwyczaj zostanie osiągnięta prawidłowa ekspozycja, a zanotowanie czasu ekspozycji, który daje najlepszy wynik, pozwoli na trafniejsze przypuszczenie następnym razem, gdy podobny obiekt będzie fotografowany w podobnych warunkach. Słońce jest także dobrym celem fotograficznym, lecz należy zachować szczególną ostrożność podczas obserwacji Słońca, gdyż nawet spojrzenie na Słońce na niebie może spowodować uszkodzenie oczu. Należy także zachować ostrożność w przypadku sprzętu, ponieważ ciepło słoneczne może uszkodzić soczewki, jeśli są one skierowane bezpośrednio na Słońce przez zbyt długi czas. Najłatwiejszą i najbezpieczniejszą metodą fotografii słonecznej jest rzutowanie obrazu Słońca na białą kartkę i fotografowanie obrazu bezpośrednio na karcie. W ten sposób możliwe jest codzienne fotografowanie plam słonecznych. Filtry słoneczne o pełnej aperturze i poza osią zapewniają dobrą widoczność plam słonecznych. Zaawansowani amatorzy używają również filtrów wodorowych alfa do fotografowania Słońca przy bardzo określonej długości fali, wybranej tak, aby ukazać dramatyczne protuberancje widoczne na krawędziach Słońca. Chociaż są drogie, filtry te dają oszałamiające rezultaty, zwłaszcza gdy Słońce znajduje się w fazie aktywnej. Duża ilość światła emitowanego przez Słońce oznacza, że ekspozycja fotograficzna może być krótka. Aby sfotografować planety, które mają bardzo małe średnice kątowe, można skorzystać z projekcji okularowej. Polega to na umieszczeniu okularu pomiędzy teleskopem a aparatem w celu wyświetlenia na kliszy bardzo powiększonego obrazu planety. Chociaż jest w stanie dawać dobre wyniki, zwykle jest dość trudny ze względu na niestabilność atmosfery ziemskiej (słabe widzenie) i trudność w skupieniu się na tak słabym obrazie. Fotografowanie galaktyk i mgławic głębokiego nieba daje satysfakcję, ale wymaga bardzo dobrego śledzenia z napędu równikowego ustawionego na biegun. Chociaż większość współczesnych teleskopów wyposażona jest w dokładne napędy. Podczas dłuższych ekspozycji konieczne jest dokonanie drobnych poprawek w śledzeniu teleskopu. Tradycyjnie robi się to na jeden z dwóch sposobów. Do montażu można przymocować oddzielny teleskop i używać go jako lunety do monitorowania wszelkich odchyleń od doskonałej wydajności śledzenia. Ta metoda działa dobrze, ponieważ jasne gwiazdy, które nadają się do naprowadzania, są zwykle łatwe do znalezienia. Lunetę należy zamocować sztywno, w przeciwnym razie może wystąpić wygięcie, które pogorszy prowadzenie. Druga metoda polega na zastosowaniu guidera pozaosiowego, mocowanego pomiędzy teleskopem a kamerą, który odwraca światło gwiazdy prowadzącej za pomocą małego pryzmatu lub zwierciadła. Działają one dobrze, ponieważ prowadzenie odbywa się poprzez główną optykę teleskopu, więc nie występuje żadne ugięcie, ale w praktyce może być trudne, ponieważ wybór odpowiednich gwiazd prowadzących jest poważnie ograniczony. Nowoczesną opcją jest użycie autoguidera ze sprzężeniem ładunkowym z guidoskopem, ponieważ zapewni to najlepsze śledzenie ze wszystkich i eliminuje potrzebę patrzenia przez obserwatora przez teleskop prowadzący podczas długich ekspozycje. Ustawianie ostrości na obiektach głębokiego nieba jest dość wymagające i najlepiej jest je osiągnąć, używając średnio jasnej gwiazdy i przesuwając ostrość w tę i z powrotem, aż do uzyskania dobrej ostrości. Jeśli używany aparat posiada możliwość zmiany matówki, dobrym rozwiązaniem jest zamontowanie matówki o wysokiej transmisji, np. firmy Beattie. Charakteryzują się bardzo jasnym obrazem i minimalnym bałaganem, ponieważ nie są potrzebne żadne pomoce do ustawiania ostrości w ciągu dnia (podzielony obraz). Tradycyjnie do astrofotografii głębokiego nieba używano szybkich filmów (zwykle 400-1600 ISO), ale jednym z najlepszych filmów do tego rodzaju fotografii jest slajd Kodak EliteChrome 200 ISO. Kilka cech, takich jak drobne ziarno i dobra czułość na czerwień, czyni go doskonałym wykonawcą. Również cyfrowa manipulacja astrofotografami jest bardzo popularna wśród współczesnych astrofotografów. Film można zeskanować i ulepszyć cyfrowo w celu usunięcia zanieczyszczeń świetlnych, śladów samolotów i satelitarnych, a także wzmocnienia kontrastu i koloru w rzeczywistości cyfrowej ciemni.
Towarzystwa i publikacje astronomiczne
Pierwsze nowoczesne obserwatoria finansowane ze środków publicznych powstały, aby służyć potrzebom nawigacji i pomiaru czasu, a ich pierwsze publikacje miały odpowiednio formę almanachów, efemeryd i tym podobnych. Wcześniej na scenie pojawiły się La Connoissance des Temps (Obserwatorium Paryskie, 1679) i Almanachy Nautyczne (Obserwatorium w Greenwich, 1767; Obserwatorium San Fernando (Hiszpania), 1792; Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, 1855). Tworzenie danych kalendarzowych i nawigacyjnych odpowiednich dla określonych lokalizacji i języków było również główną funkcją znacznie liczniejszych obserwatoriów w XIX wieku. Stowarzyszenia zawodowe (i publikacje) służą walidacji społeczności naukowej i jej wspólnego zasobu wiedzy, zwyczajów i doświadczeń. Jednak pierwsze towarzystwo naukowe - Royal Society of London, założone w 1660 roku - było w dużej mierze amatorskie. Jej Transakcje Filozoficzne, zapoczątkowane w 1665 roku, po raz pierwszy umożliwiły szybkie upowszechnienie nowych odkryć naukowych, a także zapewniły forum do ich krytyki. Pierwszym stowarzyszeniem o charakterze astronomicznym było Londyńskie Towarzystwo Astronomiczne (wkrótce przekształcone w KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE (RAS)), założone w 1820 r. przez Johna Herschela i innych (patrz RODZINA HERSCHEL), aby zaspokoić potrzebę, której Towarzystwo Królewskie nie zaspokajało . Nazwiska żydowskie pojawiają się na wczesnych listach członkowskich, na długo przed przyjęciem Żydów na angielskie uniwersytety, a kobieta, Caroline Herschel, otrzymała medal w 1828 r.; drugą była Wiera Rubin w 1996 r. Wydawanie Pamiętników Towarzystwa rozpoczęło się w 1821 r. i początkowo składały się z artykułów prezentowanych w krótkiej formie na comiesięcznych spotkaniach. Wkrótce redakcja musiała zwrócić uwagę, że podziękowanie prelegentowi za jego wystąpienie niekoniecznie oznaczało bezwarunkową akceptację lub gwarancję miejsca we Wspomnieniach. Mała komisja od czasu do czasu przeglądała teksty i rekomendowała Radzie Towarzystwa, które z nich powinny zostać opublikowane. Tym samym Pamiętniki mogą być zarówno pierwszą publikacją specyficznie astronomiczną, jak i pierwszą tego typu publikacją, która została zrecenzowana. Jednakże w pamiętnikach nie przewidziano mniej istotnych pozycji, takich jak wcześniejsze powiadomienia o spotkaniach, krótkie notatki na temat zjawisk astronomicznych i raporty z obserwatoriów, dlatego w 1827 roku Towarzystwo ustanowiło swoje miesięczne zawiadomienia. To rozwinęło się i ostatecznie zwiększyło częstotliwość; obecnie ukazuje się trzy razy w miesiącu i jest wiodącym czasopismem w tej dziedzinie. Wspomnienia stały się narzędziem publikacji bardzo długich artykułów i zestawień danych, a w 1977 r. uległy samozniszczeniu na rzecz mikrofisz w Monthly Notices. Wczesne wydania obu czasopism sporadycznie ukazywały się w języku francuskim, ale przez większość swoich historii były monoglotyczne. Druga publikacja astronomiczna, która ukazała się w latach dwudziestych XIX wieku, Astronomische Nachrichten, była owocem entuzjazmu jednego człowieka, Heinricha Christiana Schumachera, dyrektora obserwatorium w Altonie od 1823 roku aż do jego śmierć w 1850 r. Astronomische Nachrichten nadal był wydawany w Altonie, najpierw przez CA Petersona, a następnie, od 1855 r. przez CAF Petersa. W 1872 roku obserwatorium Altona zostało przeniesione do Kilonii, gdzie czasopismo redagowano aż do lat trzydziestych XX wieku, kiedy to przeniesiono je do Berlina. Schumacher zaproponował publikację artykułów w "dowolnym języku europejskim"; Od początku powszechne były publikacje w języku francuskim i angielskim, a obecnie prawie wszystkie artykuły są w języku angielskim. W USA ukazała się kolejna publikacja będąca dziełem jednej osoby: Astronomical Journal, założony przez BENJAMINA APTHORPA GOULDA w 1849 roku na zamierzonej imitacji pisma niemieckiego. Jej strony były otwarte zarówno dla profesjonalistów, jak i amatorów z całego świata. Publikację przerwała wojna secesyjna, ale Gould wznowił ją w 1886 r. Astronomical Journal wydawany jest obecnie przez AMERICAN ASTRONOMICAL SOCIETY. Osobliwością wśród publikacji astronomicznych jest The Observatory, założone w 1877 roku i do dziś będące zbiorową własnością obecnych redaktorów. Oprócz krótkich artykułów naukowych zawiera sprawozdania ze spotkań, recenzje i wesołe artykuły. Francja wydawała szeroką gamę czasopism, począwszy od 1884 r. wraz z Bulletin Astronomique publikowanym w Obserwatorium Paryskim, ale nie ograniczającym się do prac tam wykonanych. Société Astronomique de France i jego Biuletyn zostały założone w 1887 r., a Journal des Observateurs założono w 1915 r. W 1969 r. to i Bulletin Astronomique zostały połączone w Astronomy i Astrophysics , wraz z Annales d′Astrophysique, Zeitschrift für Astrophysik i Biuletynem Instytutu Astronomicznego Holandii, który został założony w 1921 roku przez pięć holenderskich obserwatoriów i instytutów, które wcześniej wydawały własne publikacje. W 1863 roku niemieccy astronomowie założyli społeczeństwo, ASTRONOMISCHE GESELLSCHAFT, w kontekście stopniowego zjednoczenia kraju; Wkrótce potem rozpoczął własne publikacje, a pod koniec stulecia przejął odpowiedzialność za Astronomische Nachrichten. Inne stowarzyszenia narodowe założone w XIX wieku to Societ? Astronomica Italiana (którego Memorie ukazało się od 1872 r.), Société Royale Belge d′Astronomie (Ciel et Terre od 1880 r., Biuletyn od 1895 r.), Królewskie Towarzystwo Astronomiczne Kanady (założone w 1868 r.) i Amerykańskie Towarzystwo Astronomiczne (1899).
Literatura periodyczna końca XIX i XX wieku
Rozwój "astrofizyki" w późniejszych dekadach XIX wieku doprowadził do zaangażowania w "nową" astronomię naukowców z szerokiego zakresu dyscyplin, co czasami prowadziło do napięć między nimi a "starymi" (pozycyjnymi) astronomami . W Wielkiej Brytanii RAS i jego publikacje zdołały wchłonąć nowe tematy. Społeczność amerykańska uległa częściowemu rozłamowi wraz z założeniem czasopisma Astrophysical Journal (ApJ) w 1895 roku przez George′a Ellery′ego Hale′a i jego współpracowników. Początkowo publikował głównie wyniki spektroskopowe z obserwatoriów Yerkes, a wkrótce potem z obserwatoriów Mount Wilson, przy pewnym oporze ze strony astronomów z innych lokalizacji. Ostatecznie rozprzestrzeniło się na cały kraj (a później na świat) i objęło wszystkie aspekty astronomii, chociaż zdarzały się chwile, gdy redaktorzy uważali za konieczne wyraźnie powiedzieć, że z radością przyjmą artykuły z zakresu radioastronomii i przyrządów astronomicznych, co było zaproszeniem, którego nie wszyscy uznano za przekonujące. ApJ, pierwotnie należący do Yerkes Observatory, jest obecnie wydawany przez University of Chicago Press, ale pod kierownictwem Amerykańskiego Towarzystwa Astronomicznego. Od początku było to całkowicie monoglotyczne. Społeczności niemieckie i francuskie również uległy fragmentacji w miarę rozwoju, wraz z założeniem Zeitschrift für Astrophysik w 1930 r. i Annales d′Astrophysique w 1938 r., obie pierwotnie monojęzyczne, ale z licznymi artykułami w języku angielskim, zanim zostały wchłonięte przez astronomię i astrofizykę w 1969 r. Wydaje się, że żadna inna wspólnota narodowa nie była wystarczająco duża, aby utrzymać dwie profesjonalne publikacje, a astrofizycy w innych krajach zwrócili się ku materiałom akademickim i czasopismom fizycznym w swoich krajach lub, coraz częściej, do ApJ. Dalsza fragmentacja literatury astronomicznej jest zjawiskiem stosunkowo późnym, z wyjątkiem specjalistycznych publikacji z zakresu meteorytyki (od 1935 r. w USA i 1941 r. w ZSRR) i selenografii, obu powiązanych z wyspecjalizowanymi towarzystwami. Publikacje dotyczące Słońca i Układu Słonecznego oraz równoległych oddziałów Amerykańskiego Towarzystwa Astronomicznego i niektórych innych towarzystw zawodowych ukazały się po drugiej wojnie światowej. W drugiej połowie XX wieku istniały dwa główne czynniki powstawania nowych towarzystw i publikacji. W bardziej zaawansowanych krajach rozwijających się oraz w krajach powstałych w wyniku rozpadu ZSRR, Jugosławii i Czechosłowacji astronomowie często zakładali własne, zazwyczaj dość małe, stowarzyszenia. Kraje o jeszcze mniejszej populacji zawodowych astronomów zwykle przystępują do MIĘDZYNARODOWEJ UNII Astronomicznej za pośrednictwem komitetu krajowego pod auspicjami Narodowej Akademii Nauk. Nowe czasopisma wydawane są głównie przez wydawców komercyjnych, czasami za zachętą ze strony członków społeczności astronomicznej, którzy uważali, że starsze publikacje nie są w wystarczającym stopniu obsługiwane. Żaden z nich nie jest obecnie poważnym konkurentem w tym sensie, że jest zarówno duży, jak i wysoko ceniony. W rzeczywistości, jak zobaczymy, dominującą tendencją była dalsza koncentracja ważnych artykułów w największych recenzowanych czasopismach, z których wszystkie są obecnie publikowane niemal wyłącznie w języku angielskim. Czas pokaże, w jakim stopniu publikacje elektroniczne zmienią obecne wzorce. Już w XIX wieku niektórzy astronomowie zauważyli, że literatura staje się zbyt obszerna, aby każdy mógł ją całą prześledzić. Próba stworzenia Bibliographica Astronomica trwała zaledwie rok lub dwa (około 1895). Bardziej udany był Astronomischer Jahresbericht, zapoczątkowany przez Astronomische Gesellschaft w 1899 r., zawierający początkowo wszystkie streszczenia w języku niemieckim (ale tytuły artykułów zwykle w języku oryginalnym). Przetrwał obie wojny światowe (choć w drugiej z niepełnym pokryciem literatury) i w 1969 roku został przekazany komercyjnemu wydawcy i wydał tekst w języku angielskim, jako Astronomy and Astrophysics Abstracts.
Amatorzy astronomii
Od chwili założenia Królewskie Towarzystwo Astronomiczne zapraszało astronomów pracujących w pełnym i niepełnym wymiarze godzin, płatnych i ochotniczych, astronomów zawodowych i amatorów. Jednakże w miarę jak jego działalność i publikacje skupiały się w coraz większym stopniu na zainteresowaniach i produktach pełnoetatowego, płatnego sektora zawodowego, nieuchronnie zaczęły powstawać amatorskie towarzystwa astronomiczne. Spośród tych, które przetrwały, pierwszym było Leeds (1859), drugim Liverpool (1881), a w 1890 r. pojawiło się szerzej zakrojone Brytyjskie Stowarzyszenie Astronomiczne. ukazała się w tym samym roku i nadal kwitnie. W USA pierwsze stowarzyszenia amatorskie pojawiły się w Chicago (1863) i Baltimore (1881) jeszcze przed założeniem Amerykańskiego Towarzystwa Astronomicznego w 1899 roku. Towarzystwo Astronomiczne Pacyfiku i jego publikacje pochodzą z 1889 r. Od samego początku (w związku z koordynacją obserwacji zaćmienia słońca widocznego z Kalifornii) organizacją "pro/am" i taką pozostała, choć ostatecznie odrębna seria wydawnicza konieczne stało się Publikacje służące płatnym profesjonalistom oraz seria Ulotek (1925-71), a ostatnio czasopismo Mercury skierowane do amatorów. AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH, założone w 1911 r., jest zdominowaną przez amatorów wspólną organizacją, której wkład w badania astronomiczne jest osiągany jedynie przez nieco podobne Stowarzyszenie Française des Observateurs d′Étoiles Variables (1921), a w tamtych czasach przez Korporacja Obserwacyjna Towarzystwa Astronomów Amatorów w Moskwie, której Biuletyn (1925-1937) został później włączony jako jedno z wydawnictw Akademii Nauk ZSRR.
Współpraca międzynarodowa
Międzynarodowa współpraca astronomiczna rozpoczęła się w XVIII wieku współpracą przy wyprawach mających na celu obserwację tranzytów Wenus, a w 1800 roku w Lilienthal zorganizowano korpus 24 "policji niebieskiej", aby monitorować ekliptykę w poszukiwaniu planety pomiędzy Marsem a Jowiszem, zgodnie z przewidywaniami przez prawo Bodego. Projekty, w wyniku których powstał masywny Bonner Durchmusterung (gwiazd), rozpoczęty w 1859 r., i jego południowe przedłużenie, Cordoba Durchmusterung, miały w dużej mierze charakter zaściankowy, ale doprowadziły do porozumienia między 17 obserwatoriami w sprawie zapewnienia bardzo dokładnych pozycji gwiazd Durchmusterung aż do dziewiąta wielkość. Jednak prace postępowały powoli i zostały wyprzedzone przez pojawienie się płyt fotograficznych na sucho emulsji. Udane fotografowanie obiektów astronomicznych w wielu obserwatoriach skłoniło dyrektora w Paryżu, admirała EB Moucheza, przy wsparciu Davida Gilla na Przylądku Dobrej Nadziei, do podjęcia od 1885 r. próby koordynacji międzynarodowej Carte du Ciel, opartej na fotografii mapy nieba oraz towarzyszący mu katalog pozycji i wielkości do 11 m. Stały Komitet Międzynarodowy i jego Biuletyn (1892-1915) działał aż do wybuchu pierwszej wojny światowej, organizując regularne konferencje, zachęcając do postępu wśród około 20 obserwatoriów i organizując publikację części Carte w miarę udostępniania materiałów. Prace zakończono właściwie dopiero w 1964 roku, ale wcześniejsze płyty stanowią cenne źródło do określenia ruchów właściwych w długim okresie. Początkowo odnosząca sukcesy, ale także ofiara I wojny światowej, odniosła sukces Międzynarodowa Unia Współpracy w Badań nad Energią Słoneczną (Transakcje publikowane od 1906 do 1914), której głównym inicjatorem był Hale. Unia podjęła na przykład próbę standaryzacji pomiarów rotacji Słońca, aby można było zidentyfikować rzeczywiste różnice w zależności od szerokości geograficznej i czasu. Ostatnim na przedwojennej scenie był plan Jacobusa Kapteyna dla wybranych obszarów (aby pomiary jasności gwiazd, koloru, ruchu własnego, prędkości radialnej itd. Galaktyka). W 1919 r. przedstawiciele 16 zwycięskich narodów zebrali się w Brukseli, aby utworzyć Międzynarodową Radę ds. Badań (obecnie Międzynarodowa Rada Związków Naukowych, ICSU), do której zaproszono do współpracy narody neutralne. W tym samym czasie odbyło się spotkanie organizacyjne Międzynarodowej Unii Astronomicznej. W ciągu następnych kilku lat dodatkowych 16 krajów uznano za kwalifikujące się do członkostwa w IRC, co stanowiło istotne ograniczenie dla IAU, ponieważ żaden kraj nie mógł do niej przystąpić (ani początkowo nawet wysyłać ludzi na jej spotkania) bez uprzedniego uzyskania członkostwa w IRC. Pierwsze oficjalne Zgromadzenie Ogólne IAU odbyło się w Rzymie w 1922 r. i wzięło w nim udział dziewięć krajów (Belgia, Kanada, Francja, Wielka Brytania, Grecja, Włochy, Japonia, Meksyk i Stany Zjednoczone). Do drugiego Zgromadzenia liczba ta wzrosła do 22. Chiny i Związek Radziecki były ważnymi dodatkami w okresie międzywojennym, ale Niemcy, Austria, Węgry, Bułgaria i Turcja były nadal niemile widziane aż do roku 1945. IAU ostatecznie przejęła odpowiedzialność za obie Carte du Ciel i Wybrane Obszary, choć z pewnymi trudnościami, ponieważ w obu przypadkach Niemcy były w dużym stopniu zaangażowane. Po drugiej wojnie światowej zajmowała się gromadzeniem i rozpowszechnianiem (telegramem, a ostatnio pocztą elektroniczną) szybko aktualnych wiadomości astronomicznych. Liczba członków IAU, licząca około 150 astronomów u jej podstaw, wzrosła obecnie do około 8000 w 81 krajach. Od samego początku IAU wydawała własną serię publikacji, początkowo po prostu sprawozdania z odbywających się co trzy lata Zgromadzeń Ogólnych, ale obecnie obejmującą materiały z specjalistycznych sympozjów i kolokwiów sponsorowanych lub zatwierdzony przez IAU. Unia staje się coraz bardziej aktywna w promowaniu edukacji i badań astronomicznych w krajach rozwijających się i pozostaje wyjątkowa wśród międzynarodowych związków naukowych ze względu na to, że posiada zarówno indywidualnych członków, jak i kraje przystępujące
Wzory publikacji
Czołowy astronom XIX wieku mógłby równie dobrze opublikować połowę lub więcej swoich artykułów w czasopismach nieastronomicznych, a prawie wszystkie wydały książki rejestrujące ich bardziej zaawansowane wysiłki. Sto lat później astronom lub astrofizyk prawdopodobnie opublikuje wszystkie swoje prace pozakonferencyjne w tym czy innym z nielicznych specjalistycznych, prestiżowych czasopism i opublikuje monografie jedynie w formie podręczników lub książek branżowych, jeśli w ogóle. Zmiany, jakie zaszły w pierwszej połowie XX wieku, ukazuje analiza objętości Astronomischer Jahresbericht dla lat 1900, 1925 i 1955 (te ostatnie daty wybrano w celu uniknięcia zniekształcenia przez wojny światowe). Pierwszą i najbardziej oczywistą tendencją jest rozwój tej dziedziny: nie tylko wzrasta liczba artykułów, ale także ogromnie wzrosła ich średnia długość. Drugim jest stopniowe przejście od obserwacji do teorii, które niewątpliwie trwa w ostatnich dziesięcioleciach, chociaż wiele dzisiejszych "obserwacji" (takich jak obfitość pierwiastka w gwieździe obliczona na podstawie jej widma) można by uznać za teorię w roku 1925. (i czary w 1900 r.). Po trzecie, okres rozkwitu publikacji obserwacyjnych nastąpił w okresie międzywojennym, kiedy istniało ich ponad 200, a zawierały one około jednej szóstej czasopism w porównaniu z jedną dziesiątą w 1900 i 1955 r.; odsetek ten spadł obecnie znacznie niżej. Czwarty trend dotyczy zmian w równowadze między narodami, w szczególności wzrostu składek ze Stanów Zjednoczonych. Wreszcie, co jest jeszcze bardziej oczywiste, jeśli spojrzymy na czasy późniejsze, stopniowa koncentracja "władzy wydawniczej" w kilku rękach redakcyjnych. W 1997 r. w Astronomical Journal ukazało się 5272 stron, 9136 w Monthly Notices, 17 141 w serii Astronomy and Astrophysics i jego suplementach oraz 22 948 w Astrophysical Journal, jego Letters and Suplements. Nic innego (z wyjątkiem być może materiałów konferencyjnych i abstraktów) nie może w najmniejszym stopniu konkurować pod względem wielkości i poziomu jakości w postrzeganiu społeczności astronomicznej.
Spektroskopia astronomiczna
Jako nauka pasywna, astronomia czerpie większość informacji z przychodzącego PROMIENIOWANIA z nieba. Taka analiza byłaby aż nazbyt prosta, gdyby nie kwantowa natura materii i promieniowania. Elektrony są związane na skwantowanych orbitach wokół swoich jąder i muszą emitować promieniowanie o dyskretnych długościach fal, które są dokładnie określone przez przejścia pomiędzy dyskretnymi stanami energetycznymi. Powstałe linie widmowe są niezwykle ważnymi narzędziami do identyfikacji i charakteryzowania źródła emitującego.
Sygnatury widmowe
Pierwszą koncepcję spektroskopii wywodzi się od Newtona, który jako pierwszy zauważył, że rozproszenie światła słonecznego na różne kolory przez pryzmat odzwierciedla właściwości samego światła słonecznego. Co więcej, niezwykłe jest to, że około 200 lat później, pod koniec XIX wieku, kiedy Balmer rozpoznał szereg wodorowy w liniach absorpcyjnych widma słonecznego, dostrzeżonych po raz pierwszy przez Fraunhofera, nastąpiło to przed odkryciem elektronu, teorią kwantową czy tezą Bohra. atom. Ta wskazówka z niebios, że materia będzie absorbować światło w bardzo grzeczny sposób, z widmem, które można modelować jako szereg wodorowy i które można zastosować do innych rodzajów atomów, stała się motywacją do rozwoju współczesnej fizyki. Dziś wiemy oczywiście, że skwantowane stany energetyczne elektronu krążącego wokół atomu zależą od masy jądra i ładunku jądrowego. Dlatego każdy izotop każdego gatunku atomowego ma charakterystyczny zestaw poziomów elektronowych. Stąd powstałe przejścia tworzą unikalny i jednoznaczny podpis umożliwiający identyfikację.
Pomiar ruchów na dużą skalę
Być może najważniejszą cechą widm atomowych jest częstotliwość spoczynkowa lub długość fali przejść. Są one bardzo dokładnie znane, albo poprzez obliczenia mechaniki kwantowej, albo pomiary laboratoryjne, z typową dokładnością większą niż jedna część na miliard. Ta wysoka dokładność umożliwia pomiar dowolnego przesunięcia długości fali spoczynkowej w wyniku ruchu źródła emitującego. Przesunięcia Dopplera mierzone za pomocą precyzyjnej spektroskopii są kamieniem węgielnym współczesnej astronomii. Tak różnorodne zjawiska, jak ruchy orbitalne gwiazd podwójnych, krzywe rotacji galaktyk i ruchy promieniowe wokół masywnych czarnych dziur to tylko kilka przykładów ważnych ruchów kinematycznych ujawnionych za pomocą spektroskopii. Być może najważniejszym ze wszystkich pomiarów było rozpoznanie przepływu galaktyk przez Hubble′a. Systematyczne PRZESUNIĘCIE CZERWONEJ widm galaktyk, rozpoznanie ich kosmologicznej natury i stale rosnącej wielkości ruchów wraz z odległością stanowią podstawę modelu rozszerzającego się wszechświata. Wynik ten ma ogromne znaczenie, że światło, które obserwujemy przy różnych przesunięciach ku czerwieni, pochodzi z różnych odległości. Ze względu na skończoną prędkość światła oznacza to, że mamy środki do badania historii wszechświata w funkcji czasu, próbkując jedynie w naszej własnej epoce. W ostatniej dekadzie przesunięte ku czerwieni ruchy Dopplera galaktyk wykorzystano do mapowania przestrzennego rozkładu materii w bardzo dużych skalach, co sugeruje powstawanie struktur we wczesnym Wszechświecie. Badanie galaktyk i KWASARÓW przy bardzo dużych przesunięciach ku czerwieni stało się jednym z podstawowych problemów współczesnej astrofizyki
Pomiar ruchów lokalnych
Ze względu na dyskretny charakter stanów energii elektronów, następujące przejścia mają nie tylko precyzyjnie określoną częstotliwość przejść, ale także wewnętrznie wąskie szerokości linii, zazwyczaj zdominowane przez ruchy Dopplera w systemach emitujących. Kiedy spektrometry stały się wystarczająco mocne, a detektory wystarczająco czułe, zaczęto rozpoznawać profile linii. Stwierdzono, że zmierzone profile widmowe niosą ważne informacje na temat lokalnej kinematyki. Na przykład niezwykle szerokie profile linii widoczne w kierunku GALAKTYK SEYFERTA zinterpretowano jako materię wypływającą z obszarów jądrowych, ponieważ na podstawie wielkości ruchów nie wydaje się, aby były one powiązane grawitacyjnie. Za dowód wypływających wiatrów uznano profile linii P Cygni w otoczkach gwiazdowych, z emisją przesuniętą ku czerwieni i absorpcją z przesunięciem ku błękitowi. Wynika to z założenia, że materię znajdującą się przed gwiazdą można zidentyfikować na podstawie jej absorpcji w stosunku do gwiazdy, podczas gdy jej widma mogą być przesunięte w kierunku błękitu w wyniku ruchu wypływającego w naszą stronę. Z tego samego argumentu odwrotne profile P Cygni, w których ruchy widm emisji i absorpcji są odwrócone, zinterpretowano jako skrócenie. W jeszcze innych źródłach asymetryczne profile linii ze znacznymi ulepszeniami po jednej stronie profilu linii były dowodem kinematycznym na obecność gazu w szoku. Stało się to jeszcze bardziej przekonujące w połączeniu z argumentami pobudzającymi. Stwierdzono, że w pobliskich układach zaobserwowane ruchy Dopplera w kierunku promieniowym są zgodne z wykrywalnymi WŁAŚCIWYMI RUCHAMI w linii wzroku. Jest to zgodne z naszymi oczekiwaniami, że Ziemia nie jest wyjątkowym punktem obserwacyjnym. Po usunięciu ruchów systematycznych widma często nadal wykazują ruchy nietermiczne. Oznacza to, że profile linii są szersze, niż można to wytłumaczyć samymi ruchami termicznymi. Doprowadziło to do badań turbulencji, zwłaszcza w odniesieniu do roli pól magnetycznych.
Pomiar wzbudzenia
Różne poziomy energii w atomie zostaną określone w zależności od warunków otoczenia, takich jak temperatura, gęstość cząstek i pole promieniowania. Próbkując odpowiedni zestaw przejść, możemy skonstruować rozkład populacji, a tym samym zmierzyć wzbudzenie źródła emitującego. W szczególności łatwo zauważyć, że sukcesywnie wyższe stany jonizacji będą wymagały większego wzbudzenia, ponieważ elektrony będą widzieć słabiej osłonięte jądro (patrz WZBUDZENIE I JONIZACJA). Zatem jeśli w wykrytym promieniowaniu dominują linie pochodzące od silnie zjonizowanych atomów, możemy wywnioskować, że obszar emitujący musi być zjonizowany przez energetyczne fotony. Względne siły różnych linii atomowych są zatem środkiem do identyfikacji typu widmowego gwiazdy, oprócz jej kolorów. Względne intensywności linii określają również twardość promieniowania. Pozwoliło nam to rozróżnić normalne jądra galaktyczne, których jonizację można łatwo wytłumaczyć promieniowaniem młodych gwiazd, od LINERSÓW i Seyfertów, których pole promieniowania musi być stopniowo zmniejszane., trudniej. Innym przykładem potęgi spektroskopii była identyfikacja obiektów HERBIG-HARO jako obszarów wzbudzenia uderzeniowego. Choć kiedyś uważano, że źródła te są miejscami młodych gwiazd, spektroskopia wykazała coś innego. Wraz z właściwymi ruchami i pomiarami prędkości Dopplera oraz profilami linii względne intensywności różnych zjonizowanych linii były zgodne z modelami wstrząsów.
Pomiar obfitości
Wykrycie licznych przejść atomowych pozwala na ocenę liczebności pierwiastków. Dzięki zwiększonej czułości można mierzyć ich liczebność nie tylko na Słońcu i innych gwiazdach, ale także w chmurach i galaktykach zewnętrznych. Dane takie mają kluczowe znaczenie dla sprawdzenia modeli NUKLEOSYNTEZY, zrozumienia obfitości metali w funkcji czasu i miernika ewolucji. Na przykład gwiazdy POPULACJA I i POPULACJA II można rozróżnić na podstawie ich metaliczności. To, czy CHMURY O DUŻEJ PRĘDKOŚCI w Galaktyce mają charakter pierwotny, czy pochodzą z dysku Galaktyki, można również określić, mierząc względną obfitość metali. Szczegółowe pomiary różnych pierwiastków w wyrzutach SUPERNOVA można również wykorzystać do sklasyfikowania rodzaju zdarzenia supernowego, a także do sprawdzenia mechanizmów wytwarzania pierwiastków.
Ważne linie atomowe
Istnieje wiele linii atomowych, które są szczególnie interesujące. Należą do nich linie Balmera w zakresie optycznym, linie Bracketta w bliskiej podczerwieni, linie rekombinacji radiowej, linia wodoru atomowego o długości 21 cm i linia zjonizowanego węgla w dalekiej podczerwieni. Ogólnie rzecz biorąc, linie widmowe zjonizowanego wodoru są ważne dla śledzenia REGIONÓW H II. W szczególności linie podczerwone i radiowe są przydatne do badania głęboko osadzonych źródeł.
Linie optyczne
Szereg Lymana wodoru, który składa się z linii rekombinacji kończących się w stanie n = 1 (gdzie n jest całkowitą liczbą kwantową orbit Bohra - Sommerfelda), występuje w zakresie fal ultrafioletowych. Szereg Balmera, którego linie kończą się w stanie n = 2, znajduje się w optyce. Linie wodoru wraz z liniami innych pierwiastków wykorzystano do klasyfikacji typów widmowych gwiazd. Temperatura w fotosferze, wywnioskowana z rodzaju wzbudzonych linii, jest ważną częścią diagramu HERTZSPRUNGA - RUSSELLA dotyczącego ewolucji gwiazd. Linia Hα przy 6563 Å, czyli linia Balmera n = 3-2, jest jedną z najbardziej przydatnych linii w pracach optycznych, śledzących obszary, które zostały fotojonizowane przez pobliską gwiazdę. Jest to szczególnie ważne w przypadku galaktyk zewnętrznych, ponieważ obszary jądrowe są często silnie zjonizowane przez koncentrację masywnych gwiazd lub aktywne jądro zasilane przez CZARNĄ DZIURĘ. Jasną emisję jądrową w linii Hα można wykorzystać do pomiaru jasności jonizującej, bezwzględnego ruchu gazu od jego przesunięcia ku czerwieni, co z kolei pozwala określić odległość na podstawie zależności Hubble′a, a co być może najważniejsze, charakteru jądra na podstawie obserwowanej szerokości linii. Pojawienie się SPECTROGRAPHÓW o wysokiej rozdzielczości pozwala astronomowi rozróżnić wąskie linie linii zgodne z rotacją galaktyki od znacznie szerszych linii, które mogą reprezentować wiatry wychodzące z obszaru jądrowego. W przypadku aktywnych jąder zasilanych procesami nietermicznymi promieniowanie ma twardsze widmo niż zwykłe światło gwiazd. Dlatego linie pochodzące z wyższych stanów wzbudzenia wodoru lub rzadszych pierwiastków stają się wykrywalne, a czasami nawet silniejsze. W ostatniej dekadzie spektroskopia optyczna poczyniła ogromne postępy dzięki budowie instrumentów o dużej aperturze, takich jak teleskopy Kecka i wystrzeleniu teleskopu Hubble′a. Większy obszar zbierania oznacza, że wykrywane są systemy o coraz większym przesunięciu ku czerwieni. Teleskop Hubble′a ze swoimi znakomitymi możliwościami obrazowania nad atmosferą oznacza, że spektroskopię można wykonywać z rozdzielczością poniżej 0,1. Niektóre z najlepszych dowodów na istnienie masywnych czarnych dziur w jądrach galaktyk pochodzą z pomiarów Hubble′a bardzo dużych ruchów obrotowych w środkowych kilku dziesiątych sekundy łukowej (patrz rysunek 1). W przypadku prac gwiazd jednym z najważniejszych osiągnięć było opracowanie spektrografów o ogromnych zdolnościach rozdzielczych. Spektrografy Eschelle′a są obecnie w stanie rozróżnić linię z rozdzielczością lepszą niż 100 000. Dopasowując wiele linii widmowych jednocześnie, można wykryć ruchy Dopplera rzędu kilku metrów na sekundę. Umożliwiło to rozwój badań planet pozasłonecznych, w przypadku których planety krążące po orbitach wokół pobliskich gwiazd można wywnioskować na podstawie wzajemnych ruchów gwiazd spowodowanych przyciąganiem grawitacyjnym ciała wtórnego. Z ruchów Dopplera tych chwiejących się gwiazd wywnioskowano obecnie około 20 planet.
Linie ultrafioletowe
Ponieważ seria Lymana leży w ultrafiolecie, do czasu udostępnienia teleskopów kosmicznych poczyniono niewielkie postępy. Za pomocą spektrografu o wysokiej rozdzielczości Goddarda na Teleskopie Hubble′a można zmierzyć linie absorpcyjne dla wielu gatunków atomowych i molekularnych. Umożliwiło to pomiar obfitości pierwiastków w źródłach galaktycznych i pozagalaktycznych. W szczególności zawartość metali jest ważna dla ustalenia, czy materia ma charakter pierwotny lub została już przetworzona w procesie powstawania gwiazd. Obfitość pierwiastków w obłokach międzygwiazdowych mierzona w fazie gazowej można porównać z liczebnością kosmiczną, aby wywnioskować, jaka część różnych pierwiastków jest zamknięta w ziarnach pyłu. Pomiar linii Lymana z deuteru można porównać z odpowiednimi liniami wodoru w celu oszacowania frakcji deuteru. Jest to oczywiście sprawdzenie syntezy pierwiastków we wczesnym Wszechświecie, ponieważ deuter nie powstaje w wyniku nukleosyntezy gwiazdowej. Frakcja deuteru zależy od pierwotnej
gęstości barionów w ciągu pierwszych kilku minut Wielkiego Wybuchu. Wyższa gęstość barionów spowodowałaby szybsze tempo tworzenia helu 4, co prowadziłoby do zubożenia deuteru. Linie Ly α są również badane pod kątem absorpcji w stosunku do kwazarów. Ponieważ w drodze do odległych kwazarów znajduje się dużo wodoru, wszystkie linie absorpcyjne Lymana tworzą pasmo absorpcji po niebieskiej stronie linii Lymana, które jest nieodłączną częścią układu kwazara. Tak zwany LYMAN ALPHA FOREST stał się ważnym narzędziem do badania ośrodka międzygalaktycznego.
Chociaż linia Hα i inne linie optyczne są bardzo przydatne, są one podatne na efekty ekstynkcji pyłu. Jest to szczególnie uciążliwe w przypadku rdzeni obłoków molekularnych, w których młode gwiazdy są głęboko osadzone, lub w przypadku dysków jądrowych położonych krawędziowo, gdzie ekstynkcja w linii wzroku może mieć wiele wielkości w zakresie długości fal optycznych. Można porównać intensywność linii Hα i Hβ celu oszacowania skutków ekstynkcji. Jednak w praktyce jest to zawodne, jeśli obie linie są poważnie wymierane. Co więcej, jeśli ekstynkcja jest wystarczająco wysoka, linia Hα może w ogóle nie być wykrywalna. W bliskiej podczerwieni ekstynkcja spowodowana pyłem jest znacznie zmniejszona. W rezultacie linie wodoru Bracketta przy 2 &mmu;m i 4 μm okazały się bardzo przydatne do badania źródeł wbudowanych zarówno w Galaktyce, jak i w układach zewnętrznych. W średniej podczerwieni występują również linie o drobnej strukturze wynikające z interakcji spin-orbita elektronów, gdzie występuje różnica energii w zależności od tego, czy spin elektronu jest zgodny z orbitalnym wektorem pędu elektronu. Na przykład szczególnie przydatne przejście wynika z linii 2P3/2-2P1/2 dla Ne II przy 12,8 μm. Linię tę z powodzeniem wykorzystano do badania eegionów H II, mgławic planetarnych, jąder pozagalaktycznych i najsłynniejszych strumieni zjonizowanego gazu wokół Centrum Galaktyki. Wykryto, że zjonizowany gaz nie tylko ma postać strumieni krążących wokół centrum Galaktyki, ale także kinematykę określa się na podstawie profili linii Ne II. Orbity dopasowane do ruchów zjonizowanego gazu sugerują centralny, masywny obiekt o masie około trzech milionów mas Słońca. Wraz z rozwojem coraz bardziej czułych detektorów i teleskopów kosmicznych, okno bliskiej podczerwieni staje się bardzo ważnym narzędziem diagnostycznym dla galaktyk zewnętrznych. Obserwatorium Kosmiczne w Podczerwieni było w stanie wykryć i zmierzyć wiele linii atomowych w bliskiej i średniej podczerwieni w kierunku wielu systemów. Dostarczają one informacji na temat obfitości substancji chemicznych i wzbudzenia , a także ruchu tych galaktyk. Informacje te okazały się bardzo przydatne do zrozumienia, czy galaktyki świecące w podczerwieni mogą być napędzane samymi procesami formowania się gwiazd.
Neutralny wodór atomowy
Ponieważ 90% wszechświata ma postać wodoru, jest on niewątpliwie najważniejszym atomem. Podczas gdy pierwotna identyfikacja serii Balmera koniecznie dotyczyła światła optycznego, seria Lymana dotyczy ultrafioletu, podczas gdy serie Aschen, Brackett i późniejsze - podczerwieni. Wszystkie te linie wymagają dużej ilości energii do wzbudzenia, co czyni je dobrymi znacznikami w środowiskach gwiazdowych i otaczających je zjonizowanych obszarach. Dla niższych obszarów wzbudzenia istnieje linia odwrócenia spinu o długości 21 cm. Linia ta powstaje w wyniku oddziaływania spinów elektronu i protonu. Atom wodoru ma nieco więcej energii, gdy spiny są równoległe i antyrównoległe. Powstały foton po odwzbudzeniu emitowany jest przy długości fali 21 cm. Wymagane wzbudzenie jest tak małe, że linię tę można wykryć w całej Galaktyce i łatwo w galaktykach zewnętrznych. Co więcej, w odróżnieniu od linek optycznych, linka o długości 21 cm jest odporna na efekty ekstynkcji. Stąd informacje kinematyczne z profili linii można prześledzić w całej Galaktyce, nawet jeśli obserwujemy krawędź systemu na dysku i wewnątrz dysku. Jednym z pierwszych wyników 21 cm była identyfikacja szeregu RAMION SPIRALNYCH w Galaktyce, wcześniej niewidzianych. Ta 21-centymetrowa linka stała się najważniejsza narzędzie do badania dynamiki galaktycznej, oddziałujących galaktyk, środowiska gromad i przesunięć ku czerwieni w pobliskim wszechświecie. Jedną z ważnych cech linii wodoru jest to, że może ona istnieć tam, gdzie nie ma materii gwiazdowej. Stąd daleko w Galaktyce, gdzie materia nie jest już wystarczająco gęsta, aby tworzyć gwiazdy, wciąż możemy prześledzić MATERIĘ MIĘDZYGWIAZDOWĄ. Badania w odległości 21 cm wykazały, że często galaktyki zawierają kilka razy więcej wodoru atomowego niż ich zasięg optyczny. Stwierdzono dwa niezwykle ważne efekty. Najpierw w GALAKTYKACH SPIRALNYCH, gdzie możemy zobaczyć ruchy rotacyjnych gwiazd i gazu odkryto, że krzywa rotacji galaktyki prześledzona w wodorze atomowym wydaje się płaska na tyle, na ile jesteśmy w stanie wykryć wodór. Sugeruje to, że w zewnętrznych częściach galaktyki znajduje się mnóstwo materii. W przeciwnym razie krzywa rotacji będzie opadać wraz ze wzrostem promienia ze względu na malejące działanie grawitacyjne zamkniętej masy wraz ze wzrostem odległości. To jeden z kluczowych wyników sugerujących istnienie CIEMNEJ MATERII. Jeśli jest tam wystarczająca ilość ciemnej materii, może to mieć wpływ na pytanie, czy Wszechświat jest otwarty, czy zamknięty, tj. czy jest wystarczająco dużo materii, aby ograniczyć ekspansję Wszechświata Hubble′a. Drugim ważnym rezultatem było wykrycie osobliwych ruchów i struktur w zewnętrznych częściach galaktyk, które można przypisać interakcjom z pobliskimi układami . Takich interakcji zwykle nie widać w układzie optycznym, który śledzi wewnętrzne części galaktyki. Ma to konsekwencje dla dynamicznej natury powstawania i ewolucji galaktyk, a także dla powstawania i zasilania masywnych czarnych dziur, zwłaszcza w oddziałujących układach. Linie radiowe i linie dalekiej podczerwieni W przypadku wodoru wyższe linie rekombinacji, kończące się na wyższych stanach n, występują w zakresie fal radiowych. Główną zaletą tych linii jest brak ekstynkcji pyłu na falach radiowych, co sprawia, że intensywność tych linii jest bardzo dokładną miarą całkowitej jasności jonizującej. Główną wadę badań radiowych, czyli grubą rozdzielczość kątową, przezwyciężono dzięki opracowaniu INTERFEROMETRÓW RADIOWYCH. Podczas gdy linie rekombinacji na długościach fal centymetrowych mogą podlegać efektom nietermicznego wzbudzenia, linie na falach milimetrowych są na ogół wolne od takich efektów i mają siłę linii prawie równą emisji kontinuum radiowego z obszarów H II. W dalekiej podczerwieni istnieje wiele ważnych linii. Jedną z interesujących linii jest linia drobnej struktury C II 2P3/2-2P1/2
Linie molekularne
Chociaż za pomocą optycznych linii absorpcyjnych wykryto kilka cząsteczek, takich jak CN, wrota do astronomii molekularnej otworzyły się dopiero pod koniec lat sześćdziesiątych. Było to częściowo spowodowane koniecznością oczekiwania na rozwój technologii detektorów. Jednak istniał również wielki sceptycyzm, czy cząsteczki w ogóle mogą istnieć w ośrodku międzygwiazdowym. Pesymizm ten opierał się częściowo na niskiej gęstości gazu związanej z atomowymi chmurami wodoru, co sugerowało, że cząsteczki ulegną dysocjacji pod wpływem pól promieniowania otoczenia. Z perspektywy czasu możemy teraz stwierdzić, że skoro gwiazdy powstają z gazu, gaz musi przejść przez gęstą fazę, która jest znacznie gęstsza niż faza atomowa. Taka gęsta faza zapewniałaby oczywiście osłonę przed promieniowaniem międzygwiazdowym i umożliwiałaby tworzenie się cząsteczek. Jednak w latach sześćdziesiątych XX wieku nie istniały żadne teoretyczne podstawy dotyczące FORMOWANIA GWIAZD, CHEMII MIĘDZYGWIAZDOWEJ ani ewolucji CHMUR MIĘDZYGWIAZDOWYCH. Wytrwałość kilku radioastronomów doprowadziła do odkrycia OH, H2O, NH3, CO i wielu innych cząsteczek.
Cząsteczki
Podczas gdy przejścia atomowe zazwyczaj mieszczą się w zakresie długości fal optycznych lub bliskiej podczerwieni, przejścia molekularne zazwyczaj zachodzą przy znacznie dłuższych falach. Dzieje się tak dlatego, że w przypadku cząsteczek możliwe są również ruchy obrotowe i wibracyjne atomów w cząsteczce. Zapewniają one nowe zestawy skwantowanych stanów energetycznych. Przejścia między stanami rotacyjnymi zazwyczaj przypadają na długości fal radiowych, a przejścia wibracyjne zazwyczaj na podczerwień. Podczas gdy przejścia atomowe charakteryzują się temperaturami rzędu tysięcy kelwinów, przejścia molekularne wymagają temperatur od dziesiątek do setek kelwinów. Cząsteczki te są zatem dobrymi sondami dla większości Wszechświata, który jest chłodny przy temperaturach bliskich 10 K. Od wczesnego wykrycia kluczowych cząsteczek H2O i NH3 pod koniec lat 60. XX wieku oraz CO na początku lat 70. XX w. zidentyfikowano ponad 110 gatunków molekularnych zostały obecnie zidentyfikowane w ośrodku międzygwiazdowym. Dostępność przejść molekularnych o różnych wymaganiach dotyczących wzbudzenia umożliwia badanie ośrodka międzygwiazdowego w szerokiej kombinacji temperatur i gęstości. W szczególności przejścia o wysokich momentach dipolowych z powodzeniem wykorzystano do badania bardzo gęstych obszarów obłoków molekularnych, w których powstają gwiazdy. Dzięki ogromnemu udoskonaleniu technologii detektorów na falach radiowych i budowie teleskopów o dużej aperturze, cząsteczki są obecnie łatwo wykrywane w galaktykach zewnętrznych. Być może najważniejszymi wynikami było odkrycie i uświadomienie sobie, że obłoki molekularne są dominującym składnikiem ośrodka międzygwiazdowego, że linie molekularne wraz z pyłem są ważnymi czynnikami chłodzącymi dla fazy gazowej oraz że cząsteczki mogą śledzić masę, temperaturę, gęstość i ruchy ośrodka międzygwiazdowego.
Rozwój oprzyrządowania
Postęp w dziedzinie spektroskopii atomów i cząsteczek w astronomii nastąpił dzięki szeregowi innowacji technologicznych. Opracowano spektroskopię siatkową o coraz większej rozdzielczości. Podczas gdy spektroskopia długich szczelin może uzyskać widma wycinka nieba, obecnie panuje trend w kierunku spektroskopii wielowłóknowej. W tym schemacie setki włókien optycznych jest rozmieszczonych jednocześnie na wcześniej określonych źródłach docelowych w płaszczyźnie ogniskowej. Włókna są następnie podawane do spektrometru w celu pomiaru widm dla setek źródeł jednocześnie. W przypadku fal radiowych interferometria ze spektroskopią jest jeszcze skuteczniejsza, ponieważ jednocześnie obrazowana jest cała wiązka główna jednego z elementów teleskopu układu. Dzięki opracowaniu potężnych cyfrowych KORELATORÓW można analizować duże szerokości widma dla każdego piksela wiązki pierwotnej. Duże postępy osiąga się także w zakresie kompensacji skutków atmosferycznych. Platformy kosmiczne, wysoko latające samoloty i balony otworzyły nowe okna widmowe. OPTYKA ADAPTACYJNA na falach optycznych i techniki samokalibracji na falach radiowych skutecznie kompensują atmosferyczne efekty WIDZENIA. Oznacza to, że możliwa jest spektroskopia słabszych źródeł. Oczywiście technologia detektorów uległa poprawie dla wszystkich długości fal, podczas gdy budowane są coraz większe teleskopy. Wysiłki te przyniosły ogromną poprawę czułości.
Astronomia i astrofizyka w Indiach
Rozwój astronomii i astrofizyki w Indiach nastąpił głównie od czasu uzyskania przez kraj niepodległości w 1947 r. Obecne prace są prowadzone w kilku wybranych instytutach badawczych i na niektórych wydziałach uniwersyteckich. Indyjskie Towarzystwo Astronomiczne zrzesza około 300 pracujących naukowców z A&A oraz kolejnych 50-60 absolwentów.
Udogodnienia
W sektorze instytucjonalnym do najważniejszych obiektów należą Teleskop Optyczny Vainu Bappu o średnicy 2,3 m i 1-metrowy teleskop w Kavalur w południowych Indiach, pod kierownictwem Indyjskiego Instytutu Astrofizyki (IIA) w Bangalore, 1-metrowy teleskop w Obserwatorium Stanowe Uttar Pradesh (UPSO) w Naini Tal u podnóża Himalajów oraz 1-metrowy teleskop na podczerwień w Gurushikhar w południowym Radżastanie pod kierownictwem Laboratorium Badań Fizycznych (PRL) w Ahmedabadzie. Teleskopy słoneczne istnieją w Kodaikanal w południowych Indiach, w UPSO w Naini Tal i w Udaipur, pierwszy zarządzany jest przez IIA, a trzeci przez PRL. W latach sześćdziesiątych XX wieku radioastronomia wkroczyła na szeroką skalę wraz z paraboliczną, cylindryczną anteną o długości 550 m, ustawioną na północno-południowym zboczu wzgórza w pobliżu południowego kurortu w Ooty, przy czym oś cylindra była równoległa do osi Ziemi. Teleskop ten jest obsługiwany przez TATA INSTITUTE OF FUNDAMENTAL RESEARCH (TIFR) w Bombaju, który właśnie zakończył jeszcze bardziej ambitny projekt znany jako Giant Metrewave Radio Telescope (GMRT) w Khodad, około 90 km od Pune. System ten, kontrolowany i obsługiwany przez KRAJOWE CENTRUM ASTROFIZYKI RADIOWEJ (NCRA) w Pune, składa się z 30 anten, każda o średnicy 45 m, rozmieszczonych na układzie ramion w kształcie litery Y o długości około 14 km. Działa optymalnie w zakresie długości fal metrowych. Przy niższych częstotliwościach (34,5 MHz) w Gauribidnur niedaleko Bangalore znajduje się układ radiowy w kształcie litery T, obsługiwany wspólnie przez IIA i Instytut Badań Ramana (RRI) w Bangalore. Indyjscy astronomowie zbudowali podobną tablicę na wyspie Mauritius. W swojej siedzibie w Bangalore RRI posiada również 10-metrową antenę do astronomii fal milimetrowych. Astronomia kosmiczna w Indiach rozpoczęła się od badań promieni kosmicznych pod kierunkiem HJ Bhabha w TIFR, a później pod kierunkiem VA Sarabhai w PRL. Krajowa placówka balonowa w Hyderabad obsługuje różne eksperymenty z balonami. Działalność ta przekształciła się w pełnoprawny program kosmiczny, który obecnie rutynowo wysyła satelity i przygotowuje ładunki o charakterze komercyjnym i naukowym. Jej siedziba znajduje się w Indyjskiej Organizacji Badań Kosmicznych w Bangalore. W sektorze uniwersyteckim jedynym znaczącym działającym obiektem jest 1,2-metrowy teleskop w Obserwatorium Japal Rangapur pod kontrolą Uniwersytetu Osmania w Hyderabadzie. Jednakże główne źródło zasobów dla uniwersytetów zostało utworzone w 1988 r. przez Komisję ds. stypendiów uniwersyteckich (UGC) w New Delhi w Pune. Centrum to, znane jako Międzyuczelniane Centrum Astronomii i Astrofizyki (IUCAA), zapewnia doskonałą bibliotekę zasobów A&A, zaawansowane centrum komputerowe z oprogramowaniem związanym z A&A, centrum danych i laboratorium oprzyrządowania. Z obiektów tych mogą korzystać odwiedzający pracownicy naukowi i studenci uniwersytetów, których podróże pokrywane są z dotacji zapewnianych przez UGC w IUCAA. IUCAA pomaga także pracownikom naukowym uniwersytetów w korzystaniu z obiektów obserwacyjnych w Indiach i za granicą w ramach różnych programów obserwacji gościnnych. Na różnych etapach budowy znajdują się trzy nowe teleskopy optyczne. IUCAA będzie miała 2-metrowy teleskop w pobliżu Giravali, około 70 km od Pune, podczas gdy IIA zbudowała niedawno 2-metrowy teleskop w Han Le, na wysokości 4000 m w pobliżu Ladakhu w północnych Himalajach. UPSO i TIFR wspólnie planują instalację 3-metrowego teleskopu w Devasthal, niedaleko Naini Tal.
Obszary badawcze
INDYJSKA ASTRONOMIA tradycyjnie zajmuje się astronomią i spektroskopią gwiazd, astronomią słoneczną i planetarną. Jednak w ciągu ostatnich trzech dekad XX wieku rozszerzyła swój zakres o fizykę Słońca, w tym oscylacje Słońca, astronomię i modelowanie pulsarów, problemy promieni kosmicznych i astrofizykę wysokich energii, soczewkowanie grawitacyjne, zjawiska pozagalaktyczne astronomia i kosmologia. Teleskop Ooty był odpowiedzialny za szeroko zakrojone badanie rozmiarów kątowych źródeł radiowych metodą zakrycia Księżyca. Kosmologia teoretyczna rozciąga się od abstrakcyjnych modeli matematycznych w ogólnej teorii względności (ponieważ Indie zawsze miały silną szkołę w zakresie ogólnej teorii względności) po dopasowanie modeli do obserwacji dyskretnych populacji źródeł pozagalaktycznych. Dzięki mniej sztywnemu spojrzeniu na alternatywy dla idei głównego nurtu, rozkwitły one w Indiach bardziej niż na Zachodzie. Indyjska astronomia dała o sobie znać na arenie międzynarodowej. Nieżyjący już Vainu BAPPU był prezesem Międzynarodowej Unii Astronomicznej, natomiast kilku indyjskich astronomów zajmowało stanowiska przewodniczących różnych komisji IAU.
Astrofizyczne granice właściwości cząstek
Odkąd NEWTON zaproponował, że Księżyc na swojej orbicie podlega tym samym prawom ruchu, co jabłko spadające z drzewa, niebo stało się ulubionym laboratorium do testowania podstawowych praw fizyki, zwłaszcza teorii grawitacji Newtona i EINSTEINA. Niedawno astrofizyka i kosmologia stały się kluczowymi poligonami doświadczalnymi dla mikrokosmosu cząstek elementarnych. Ten obszar badań naukowych jest częścią dyscypliny często nazywanej fizyką astrocząstek lub astrofizyką cząstek. Istnieje kilka ważnych przypadków, w których niewyjaśnione zjawiska astrofizyczne można przypisać nowym cząstkom elementarnym lub nowym właściwościom znanych cząstek; Dobrymi przykładami są deficyt neutrin słonecznych i problem ciemnej materii. W tym miejscu omówiona zostanie inna szeroko rozpowszechniona metoda, w której wykorzystuje się ustalone właściwości gwiazd, a nawet całego wszechświata, aby ograniczyć możliwe modyfikacje spowodowane nowymi właściwościami cząstek elementarnych.
Masy neutrin
Jednym z najwcześniejszych astrofizycznych ograniczeń cząstek jest kosmologiczne powiązanie z masami trzech znanych NEUTRINO, elektronu, mionu i neutrina taonowego ?e, ?μ i ?τ. Główną ideą jest to, że cząstki te, pomimo swoich słabych interakcji, musiały zostać wytworzone termicznie w gorącym i gęstym wczesnym Wszechświecie, tworząc w ten sposób "kosmiczne morze neutrin", podobnie jak kosmiczne mikrofalowe promieniowanie tła 3K. Szczegółowe obliczenia ujawniają, że obecna gęstość neutrin i antyneutrin wynosi około 113 cm-3 dla każdego z trzech "smaków" ve, vμ i v?τ, co można porównać z fotonami mikrofalowymi o powierzchni około 400 cm-3. Masy wszystkich neutrin muszą odpowiadać mv 40 eV, w przeciwnym razie ich działanie grawitacyjne spowolniłoby ekspansję Wszechświata poniżej obserwowanego tempa. To odkrycie ?μ w 1962 r. wraz z odkryciem kosmicznego mikrofalowego tła w 1963 r. zainspirowało S. S. Gershteina i Ya B. ZELDOVICHA do wysunięcia tej tezy w 1966 r. Bezpośrednie eksperymentalne granice m? są znacznie mniej restrykcyjne niż granice kosmologiczne, z wyjątkiem ?e i nie wiadomo, czy neutrina w ogóle mają masę. Jednakże wiele dowodów na "oscylacje smaku neutrin" zgromadzono na podstawie pomiarów neutrin atmosferycznych i słonecznych, co sugeruje, że mają one masy, a różnice mas między nimi są niezwykle małe, mniejsze niż około 0,1 eV. W każdym razie masy neutrin wydają się być znacznie mniejsze niż masy innych podstawowych fermionów, elektronu i jego dwóch cięższych braci (mionu i tau), a także sześciu kwarków . Pochodzenie tego widma masowego pozostaje tajemnicą fizyki cząstek elementarnych. Kosmologiczna granica m? stanowi standardowy argument ograniczający właściwości wszelkich teoretycznie proponowanych nowych cząstek, takich jak monopole, aksiony lub cząstki supersymetryczne. Ich udział w kosmicznej gęstości masy musi być zgodny z wiekiem i tempem ekspansji współczesnego wszechświata. Zwykle ich gęstość reliktowa, czyli gęstość cząstek, która przetrwała z wczesnego Wszechświata, jest trudniejsza do oszacowania niż w przypadku neutrin, gdzie po prostu skaluje się wraz z gęstością kosmicznych fotonów mikrofalowych. Ogólnie rzecz biorąc, należy martwić się szczegółowym mechanizmem pierwotnej produkcji i szybkością anihilacji nowych cząstek. Zupełnie inna astrofizyczna metoda ograniczania mas neutrin opiera się na czasie przelotu ze źródła impulsowego. Neutrina o masie m?, wyemitowane ze źródła w odległości D w czasie t = 0, ale o różnych energiach E?, docierają do
t = D / c√1 - (m?c2/Ee)2
gdzie Ev ≥ mvc2 to całkowita energia łącznie z masą spoczynkową, a c to prędkość światła. Są opóźnione, ponieważ poruszają się wolniej niż c. Mierzenie czasów ich przybycia i energii pozwala w zasadzie wyodrębnić mv . Supernowa typu II (SN), czyli zapadnięcie się masywnej gwiazdy, powoduje powstanie ogromnego wybuchu neutrin trwającego kilka sekund. Zdarzenie takie zostało zmierzone raz 23 lutego 1987 roku, kiedy antyneutrina elektronowe z SN 1987A w DUŻYM CHMURZE MAGELLANIC (D ≈ 50 kpc = 163 000 lat świetlnych) zostały zarejestrowane w trzech działających wówczas detektorach neutrin . Sygnał jest kompatybilny z oczekiwanym wewnętrznym czasem trwania wybuchu, bez dowodów na rozproszenie w czasie przelotu, co prowadzi do limitu m?e 20 eV. Supernowe w naszej galaktyce lub w jej pobliżu są rzadkie, być może kilka na stulecie. Jeśli jednak ktoś miał szczęście i zaobserwował kolejny wybuch neutrina z jednym z nich, znacznie większym z dostępnych obecnie detektorów, można by je poprawić, nawet w przypadku ?? i ??, które są trudniejsze do wykrycia. Dzięki nadchodzącym dużym "teleskopom neutrinowym" być może będzie można mierzyć impulsy neutrin z bardziej spekulacyjnych źródeł, takich jak rozbłyski gamma, z potencjalnie znacznie lepszą czułością m?.
Nukleosynteza Wielkiego Wybuchu
Inny standardowy argument kosmologiczny opiera się na tempie ekspansji wczesnego Wszechświata w epoce pierwotnej NUKLEOSYNTEZY, około 3 minuty po Wielkim Wybuchu. Gęstość promieniowania w tym czasie determinuje szybkość ekspansji, co z kolei wpływa na zawartość pierwotnego helu, która, jak się szacuje, wynosi 22-25% masowych, resztę stanowi wodór oraz śladowe ilości deuteru, helu-3 i litu-7. Niezależnie od niepewności, zaobserwowane pierwotne liczebności pierwiastków świetlnych implikują gęstość promieniowania odpowiadającą dwóm do czterech rodzin neutrin, ładnie obejmując w nawiasie trzy znane rodzaje ve, vμ i vτ. Są to jedyne możliwe rodziny, ponieważ dodatkowe rodziny przyczyniłyby się do szerokości rozpadu bozonu cechowania Z0, który jest precyzyjnie mierzony od około 1990 r. Jednakże metodę nukleosyntezy Wielkiego Wybuchu, polegającą na liczeniu rodzin neutrin, można zastosować do bardziej egzotycznych cząstek, które są nie objęte argumentem szerokości
zaniku Z0. Każda forma promieniowania, która została wzbudzona termicznie we wczesnym Wszechświecie, przyczynia się do tempa ekspansji. Dlatego siła interakcji i masy wszelkich proponowanych nowych cząstek muszą przejść test, czy nie prowadzą one do nadmiernej kosmicznej gęstości masy i energii w epoce nukleosyntezy. Masa fotonów W przeciwieństwie do neutrin, od których oczekuje się masy, fotony powinny być całkowicie bezmasowe, co jest teoretycznym założeniem wymagającym weryfikacji eksperymentalnej. Limity czasu przelotu sygnału radiowego pulsarów nie są dużo lepsze niż około 10-11 eV, czyli częstotliwość plazmy ośrodka międzygwiazdowego imitująca masę fotonu. Badania laboratoryjne prawa Coulomba dają mγ 10-14 eV; nie znikający mγ zmodyfikowałby zachowanie odwrotne kwadratowe. Podobnie zmienność przestrzenna wyższych wielobiegunowych składników wielkoskalowych pól magnetycznych daje 0,6 × 10-15 eV i 0,8 × 10-15 eV odpowiednio z pola magnetycznego Jowisza i Ziemi. Najbardziej restrykcyjna granica 10?27 eV opiera się na równowadze magneto-grawitacyjnej gazu w MAŁYM OBŁOKU MAGELLANA, która wymaga, aby zasięg oddziaływania przekraczał charakterystyczną skalę pola wynoszącą około 3 kpc. Ta granica jest zaskakująco bliska 10-33 eV, gdzie długość fali fotonu Comptona przekraczałaby promień obserwowalnego Wszechświata i tym samym przestałaby mieć jakiekolwiek zauważalne konsekwencje.
Gwiezdna utrata energii
Szczególnie udany astrofizyczny argument przemawiający za ograniczeniem właściwości słabo oddziałujących cząstek o małej masie, zwłaszcza neutrin, wywodzi się od J. Bernsteina, M. Rudermana i G. Feinberga (1963). Argumentowali, że przypuszczalny magnetyczny moment dipolowy neutrina prowadziłby do niedopuszczalnie dużej utraty energii w gwiazdach w wyniku procesu plazmowego ,

który jest kinematycznie dozwolony, ponieważ częstotliwość plazmy we wnętrzu gwiazdy nadaje fotonom efektywną masę. Ten kanał utraty energii przyczyniłby się do emisji neutrin z wnętrz gwiazd w standardowych procesach. Niestandardowy kanał strat energii, spowodowany emisją neutrin z niestandardowymi sprzężeniami lub emisją hipotetycznych cząstek, takich jak aksiony, może powodować różnorodne obserwowalne efekty. Pozostałości gwiazd (BIAŁE KARLERY, GWIAZDY NEUTRONOWE) schładzałyby się szybciej. Normalne gwiazdy zużywałyby paliwo jądrowe szybciej, a tym samym spalałyby się wcześniej. Czas życia gwiazd o gałęziach poziomych spalających hel, mierzony liczbą gromad kulistych, jest szczególnie precyzyjnym miernikiem nowych kanałów utraty energii. Podobnie możliwe opóźnienie zapłonu helu w wyniku chłodzenia cząstek rdzeni czerwonego olbrzyma może być dobrze ograniczone przez obserwowaną granicę jasności wierzchołka gałęzi czerwonego olbrzyma w gromadach kulistych. Nawet nasze Słońce zapewnia interesujące ograniczenia. Zwiększona szybkość spalania spowodowałaby, że byłby on bardziej rozwinięty niż odpowiada jego wiekowi, powodując zauważalne przesunięcia jego precyzyjnie zmierzonych częstotliwości oscylacji pmod, co jest dziedziną badań znaną jako heliosejsmologia. Argumenty tego rodzaju stosowano do najróżniejszych przypadków; być może najbardziej użytecznym ograniczeniem jest ograniczenie μ? ≾ 3×10-12μB na magnetycznym momencie dipolowym dowolnego neutrina. Tutaj μB = eh/2me, gdzie e jest ładunkiem elektronu, a ja masą elektronu, jest magnetonem Bohra odpowiadającym momentowi magnetycznemu elektronu, który jest zwykle stosowany jako miara możliwych momentów magnetycznych neutrin. Eksperymenty laboratoryjne dają znacznie słabsze limity. Podobnie można wyprowadzić granicę hipotetycznego ładunku elektrycznego neutrina, ev ≾ 2 × 10-14e, mającą zastosowanie do wszystkich smaków. W przypadku zmierzonych antyneutrin elektronowych z SN 1987A galaktyczne pole magnetyczne spowodowałoby odchylenie zależne od energii, a tym samym rozproszenie sygnału w czasie przelotu; wynikowa granica wynosi e?e ≤? 3 × 10-17e. Granica laboratoryjna, oparta na zachowaniu ładunku w rozpadzie β, wynosi e?e ≾ 3 × 10-21e. Jeśli neutrina mają masę, mogą ulec rozkładowi; jednym z możliwych kanałów jest emisja fotonu. Brak anomalnych strumieni promieniowania X lub gamma ze Słońca lub w połączeniu z wybuchem neutrina SN 1987A, a także ograniczenia dotyczące deformacji widmowej natury ciała doskonale czarnego w kosmicznym mikrofalowym tle ograniczają ten kanał rozpadu radiacyjnego. Jednakże element matrycy tego procesu zależy od momentu przejścia elektromagnetycznego, który podlega powyższemu ograniczeniu utraty energii gwiazdowej; jest bardziej restrykcyjny dla m? 1 eV niż bezpośrednie ograniczenia rozpadu fotonów.
Supernowa 1987A
Sygnał neutrina SUPERNOVA 1987A umożliwił szczególnie przydatne zastosowanie argumentu dotyczącego utraty energii gwiazdowej. Powstająca gwiazda neutronowa, która powstała po zapadnięciu się, ochładza się w wyniku emisji neutrin w ciągu kilku sekund, a skala czasu jest wyznaczona przez szybkość dyfuzji neutrin; gwiazda protoneutronowa jest tak gorąca i gęsta, że nawet neutrina nie mogą swobodnie uciec. Konkurujący kanał chłodzący ze słabiej oddziałującymi cząstkami, które nie są uwięzione, skróciłby i osłabił sygnał neutrina, ponieważ całkowita ilość energii, czyli energia wiązania grawitacyjnego gwiazdy neutronowej, jest stała. Ten prosty argument był stosowany w wielu przypadkach, ale być może najciekawszy jest ten dotyczący aksjonów, hipotetycznych cząstek o małej masie, które pierwotnie zaproponowano w kontekście chromodynamiki kwantowej, teorii silnego oddziaływania między kwarkami. Później odkryto, że aksjony są również dobrymi kandydatami na cząstki ciemnej materii wszechświata. Modele Axion zasadniczo charakteryzują się jednym dowolnym parametrem, którym można wybrać masę ma. Wymóg, aby osie nie przenosiły większości energii SN 1987A, przekłada się na granicę ma ≲ 10-2 eV. Z drugiej strony wymóg, aby ich kosmiczna gęstość masy nie była zbyt duża, prowadzi do ma ≳ 10-5 eV, w przeciwieństwie do powyższego przypadku neutrin, dla których kosmologia zapewnia górną granicę masy. W pozostałym zakresie mas mogą istnieć osie, które dostarczają większość lub całość kosmicznej ciemnej materii.
Dziwne gwiazdy
Podstawowymi składnikami materii jądrowej są kwarki, a nie protony i neutrony, i można się zastanawiać, czy gwiazdy neutronowe nie przechodzą przejścia fazowego do ośrodka składającego się z wolnych kwarków. Nawet dziwny kwark jest stosunkowo lekki, więc można spekulować, że "gwiazdy neutronowe", pozostałość masywnych gwiazd po zapadnięciu się supernowej typu II, są w rzeczywistości "dziwnymi gwiazdami" składającymi się z silnie oddziałującego ośrodka up (u), kwarki dolne (d) i dziwne (s). Zaskakująco trudno jest rozróżnić te dwa przypadki obserwacyjnie. Uważa się, że dziwne gwiazdy mogą obracać się szybciej, zanim się rozpadną, więc pulsary submilisekundowe, jeśli kiedykolwiek zostaną wykryte, mogłyby być może rozwiązać kwestię stanu podstawowego materii jądrowej. Podsumowując, astrofizyka i kosmologia zapewniają ważne ograniczenia dotyczące właściwości i interakcji cząstek elementarnych, które często uzupełniają się z tym, co można zmierzyć w eksperymentach laboratoryjnych.
Dżety astrofizyczne
W astronomii istnieje wiele sytuacji, w których stwierdza się, że gaz krąży wokół centralnej masy grawitacyjnej. Dzieje się tak w GWIAZDACH PODWÓJNYCH, gdzie jednym ze składników jest zwarty obiekt - biały karzeł, gwiazda neutronowa lub czarna dziura - a masa jest przenoszona od normalnego gwiezdnego towarzysza. Dzieje się tak w jądrach galaktyk, gdzie obiektem grawitacyjnym jest masywna czarna dziura, a także ma to miejsce podczas najwcześniejszej fazy ewolucji protogwiazdy. Te przepływy gazu nazywane są DYSKAMI AKRECJI i często towarzyszą im szybkie wypływy, uruchamiane w kierunkach przeciwnych, mniej więcej prostopadle do dysków. Wypływy są zwykle nazywane strumieniami i w tym artykule opisano część tego, co o nich wiemy. Pierwszy przykład astrofizycznego dżetu odkrył HEBER CURTIS w 1918 roku przy użyciu Obserwatorium Licka w Kalifornii. Obserwował galaktykę znaną jako M87 w gromadzie galaktyk w Pannie, a kiedy zbadał jądro, znalazł "ciekawy promień prosty". . . najwyraźniej połączony z jądrem cienką
linią materii. Była to niezwykła obserwacja (dokonana przez wybitnego astronoma), a dżet w M87 jest nadal jednym z najdokładniej zbadanych obiektów tej klasy. To, co obserwujemy bezpośrednio w M87, to dość prosty obiekt o długości około 2 kpc. Można go dostrzec od długich fal radiowych po wysokoenergetyczne promieniowanie rentgenowskie i stwierdzono, że na całej swojej długości wykazuje około ośmiu obszarów o dużej intensywności, zwanych "węzłami". Dżet można prześledzić w skali rzędu 0,01 pc, która jest mniejsza niż 10-5 razy jego całkowita długość i mniej niż 100 razy promień czarnej dziury, która, jak stwierdzono, znajduje się w jądrze M87 i której masa jest mierzona na około 3 miliardy mas Słońca (patrz M87: JĄDRO I STRUMIEŃ. Wiemy, że gaz wypływa z czarnej dziury w M87, ponieważ możemy użyć bardzo długiej interferometrii bazowej do pomiaru jego prędkości. Odkryto, że że niektóre części dżetu wydają się poruszać na zewnątrz z prędkością, która wydaje się być aż sześciokrotnie większa od prędkości światła. W rzeczywistości jest to dość powszechne zjawisko zwane ekspansją nadświetlną. Nie narusza to szczególnej teorii względności (co stanowi, że wszelki ruch materialny zachodzi wolniej niż prędkość światła). Zamiast tego nadświetlna ekspansja jest iluzją, która wymaga jedynie, aby gaz w strumieniu poruszał się w naszą stronę z prędkością bliską prędkości światła. Z tego powodu dżety jak które w M87 są często stylizowane na dżety relatywistyczne. To całkiem naturalne, że te strumienie poruszają się z prędkością bliską prędkości światła; w końcu jest to prędkość ucieczki z centralnej czarnej dziury. Dżet w M87 wykazuje inną wspólną cechę tych obiektów, a mianowicie, że jego przeciwrównoległy dżet, którego obecność oczekuje się, nie został jeszcze wykryty. To jest ilustracja efektu zwanego ABERRACJĄ. Kiedy źródło promieniowania porusza się z prędkością bliską prędkości światła, wydaje się, że emituje emisję wzdłuż kierunku swojego ruchu. W rezultacie, jeśli źródło się do nas zbliży, będzie wyglądało na bardzo jasne, natomiast jeśli źródło się od nas oddali, będzie wydawało się słabe. To wyjaśnia, dlaczego jesteśmy w stanie wykryć tylko jeden dżet w M87 i dlaczego duża część najjaśniejszych źródeł, które widzimy, wykazuje RUCH NADŚWIETLNY. Przejdźmy teraz do węzłów. Uważa się, że są to fale uderzeniowe powstające w wypływających strumieniach, gdy na przykład prędkość strumienia u źródła wzrasta o wartość większą niż prędkość dźwięku w strumieniu, a zatem jest większa niż prędkość, z jaką informacja może być przekazywana przez strumień. poruszający się płyn strumieniowy. W przepływie musi w końcu powstać silna nieciągłość uderzeniowa, co okazuje się doskonałym miejscem do przyspieszania wysokoenergetycznych, relatywistycznych elektronów o energiach do 100 TeV. Elektrony te promieniują, wirując spiralnie w polu magnetycznym przenikającym dżet - proces znany jako PROMIENIOWANIE SYNCHROTRONOWE - i uważa się, że to właśnie jest odpowiedzialne za całą emisję promieniowania radiowego w zakresie rentgenowskim. Dżet M87 jest stosunkowo słaby. Wiemy o nim tak dużo, ponieważ jest tak blisko. W przeszłości niemal na pewno był zaopatrywany w paliwo gazowe w znacznie większym tempie niż obecnie. Zostałby wówczas sklasyfikowany jako KWASAR. Kwazary to nadpobudliwe jądra bardzo odległych galaktyk, które w zakresie fal optycznych mogą przyćmić swoje gwiezdne gospodarze. Emitują potężnie w całym spektrum elektromagnetycznym. Kwazary często wykazują gigantyczne, podwójne źródła radiowe - dwa "płaty" intensywnej emisji radiowej zlokalizowane po przeciwnych stronach galaktyki. Historycznie rzecz biorąc, tak to wyglądało w którym pierwotnie zidentyfikowano kwazary. Przez długi czas pozostawało tajemnicą, w jaki sposób te płatki radiowe mogą powstawać i utrzymywać się. Wraz z odkryciem dżetów relatywistycznych zagadka została rozwiązana. Źródłem ich mocy jest centralna czarna dziura i otaczający ją dysk akrecyjny. Tworzy to relatywistyczne cząstki i pole magnetyczne, które wypływają na zewnątrz, wzdłuż dwóch przeciwrównoległych kierunków, aby uzupełnić płatki radiowe i wypchnąć je z galaktyki, podobnie jak spaliny kojarzone z samochodami i samolotami odrzutowymi. W pewnym sensie dżety przenoszą produkty przemiany materii na czarną dziurę. Znamy tysiące takich podwójnych źródeł radiowych i udokumentowaliśmy ich właściwości, dzięki czemu zaczynamy rozumieć, w jaki sposób pasują one do sekwencji ewolucyjnej. Najpotężniejsze dżety relatywistyczne, które są wysyłane niemal bezpośrednio na nas, nazywane są czasami BLAZARSAMI i powszechnie obserwuje się je jako źródła promieniowania ?. Fotony o energiach sięgających kilku GeV powstają, gdy foton promieniowania rentgenowskiego jest rozpraszany przez relatywistyczny elektron - proces znany jako odwrotne rozpraszanie Comptona. (W kilku lokalnych przykładach udało się wykryć bardzo wysokoenergetyczne promienie ? o energiach TeV, które prawdopodobnie powstają w pobliżu centralnej czarnej dziury.) Zaskakująco duże natężenie tych dżetów promieniowania ? mówi nam, że w wielu W niektórych przypadkach odprowadzają one dużą część całkowitej mocy generowanej przez silniki centralnych czarnych dziur. Nie wszystkie dżety są powiązane z odległymi galaktykami. W naszej Galaktyce i pobliskich galaktykach odkryto wiele czarnych dziur wielkości gwiazd. Kiedy mają one gwiezdnych towarzyszy, którzy mogą utracić gaz, gaz zostanie przyciągnięty przez czarną dziurę i może również utworzyć dysk akrecyjny. Wczesnym przykładem było źródło SS433, w którym odkryto dwa poprzedzające je antyrównoległe dżety poruszające się z prędkością nieco ponad jedną czwartą prędkości światła. W niektórych przypadkach źródła te wytwarzają również dżety relatywistyczne, czyli mniejsze wersje pozagalaktycznych źródeł radiowych. Wykazują gigantyczne wybuchy, ekspansję nadświetlną i promienie, w związku z czym czasami nazywane są "mikrokwazarami". Są one szczególnie dobre do badania, ponieważ astronomowie mogą obserwować wiele cykli zmian w czasie potrzebnym na zmianę kwazara. Odkryto także, że dżety są powiązane z nowo powstałymi gwiazdami. Tutaj ponownie znajduje się krążący dysk zbudowany z gazu, który nie osiadł jeszcze na gwieździe (ani nie skondensował się w planety). Te "MŁODE OBIEKTY GWIAZDOWE" obserwuje się głównie w liniach emisyjnych w świetle optycznym i podczerwieni, a dżet porusza się z prędkościami kilku stu km na sekundę, co jest porównywalne z prędkością ucieczki z centralnej protogwiazdy. Dżety te czasami wykazują również poruszające się fale uderzeniowe, zwane obiektami Herbiga-Haro (rysunek 2), które rozprzestrzeniają się wzdłuż dżetów. (Ponieważ prędkości strumieni są znacznie mniejsze niż prędkość światła, w tym przypadku nie ma ani ruchu nadświetlnego, ani aberracji.) Jest prawie prawdopodobne, że tutaj również zachodzą podobne podstawowe procesy fizyczne. Te "dżety protogwiazdowe" są szczególnie dobre do badania, ponieważ prędkości przepływu można dokładnie zmierzyć za pomocą linii widmowych. Charakter mechanizmu powstawania i kolimacji dżetów jest nadal przedmiotem kontrowersji. Wielu astronomów uważa, że w dysku akrecyjnym generowane są silne pola magnetyczne, które są odpowiedzialne za uruchomienie i skupienie wypływu. Większość energii dżetu pochodzi prawdopodobnie z obiektu znajdującego się blisko centralnego obiektu, czarnej dziury, gwiazdy neutronowej, białego karła lub protogwiazdy, również za pośrednictwem pola magnetycznego. Symulacje komputerowe przepływów namagnesowanego gazu wokół centralnych ciał grawitacyjnych zaczynają dawać pewien wgląd w to, w jaki sposób i dlaczego dżety są tak częstym towarzyszem dysków akrecyjnych.
Astrofizyka do 1900 roku
W praktyce nie ma wyraźnej linii podziału między astrofizyką a astronomią. Pierwszą z nich definiuje się zwykle jako badanie właściwości fizycznych ciał niebieskich, drugą zaś z ich położeniem i ruchem. Jednakże te dwa rodzaje pomiarów są często ze sobą powiązane. Na przykład masę gwiazd - właściwość fizyczną - zwykle mierzy się obserwując orbity dwóch gwiazd wokół siebie. Jednakże od początku było oczywiste, że używany sprzęt i wiedza wymagana w przypadku tych dwóch rodzajów działalności były różne. W drugiej połowie XIX wieku, gdy przedmiot ten zaczął się szybko rozwijać, uznano go za odrębny kierunek studiów, chociaż minęło trochę czasu, zanim "astrofizyka" stała się akceptowaną nazwą. W tamtym czasie pomiary astrofizyczne opisywano równie często w kategoriach "chemii nieba", jak i "fizyki nieba". Ponieważ obserwacje te różniły się od tradycyjnych pomiarów pozycyjnych, astrofizykę czasami nazywano "nową astronomią". (Aby zwiększyć zamieszanie, badania ruchu nazywano czasami "astronomią fizyczną"). Te współczesne terminy zostaną tutaj zignorowane: odpowiednie prace będą po prostu nazywane "astrofizycznymi".
Wczesne obserwacje astrofizyczne
Niektóre właściwości fizyczne ciał niebieskich można określić poprzez bezpośrednią obserwację przez teleskop. Z tego punktu widzenia obserwacje o znaczeniu astrofizycznym sięgają wynalezienia teleskopu na początku XVII wieku. Wcześniej spekulowano - na przykład, że gwiazdy są ciałami podobnymi do Słońca - ale nie było to żadnych solidnych dowodów. Kilka obserwacji Galileusza przeprowadzonych w 1610 roku za pomocą nowo wynalezionego teleskopu astronomicznego okazało się mieć implikacje fizyczne. Jednym z nich było odkrycie, że topografia Księżyca jest w pewnym stopniu podobna do ziemskiej (pierwszy krok w kierunku księżycowej geologii ery kosmicznej). Najważniejszymi jego obserwacjami dla późniejszej astrofizyki było odkrycie PUNKTÓW SŁOŃCOWYCH. Oprócz rejestrowania złożonej i zmieniającej się natury plam słonecznych Galileusz wykorzystał je także do pokazania, że Słońce, podobnie jak Ziemia, obraca się wokół własnej osi. Później, w XVII wieku, kolejne odkrycie Galileusza - księżyce Jowisza (patrz Jowisz: SATELITY) - doprowadziło do pierwszego określenia prędkości światła. R?MER pracujący w nowo powstałym Obserwatorium Paryskim odkrył, że godziny pojawiania się i znikania księżyców za Jowiszem wydają się systematycznie zmieniać. Przypisał to zmianom odległości Ziemia-Jowisz oraz skończonej prędkości światła. Pomiary R?mera stanowią wczesny przykład faktu, że choć badania astrofizyki polegają głównie na tym, że astronomowie opierają się na rozwoju fizyki, czasami byli w stanie wnieść coś w zamian. W drugiej połowie XVII wieku NEWTON zbadał, w jaki sposób światło słoneczne po przejściu przez pryzmat rozkłada się na kolory składowe. Takie obserwacje spektroskopowe miały stać się najważniejszą częścią astrofizyki, ale dopiero z pewnym opóźnieniem. W 1800 roku WHerschel w Anglii powtórzył eksperyment Newtona (patrz RODZINA HERSCHEL), ale z nowym celem pomiaru mocy grzewczej różnych części widma słonecznego. Termometr, którego użył, zarejestrował istnienie znacznego ogrzewania poza czerwonym końcem widma widzialnego. Była to pierwsza identyfikacja promieniowania podczerwonego (choć, jak to często bywa w przypadku ważnych osiągnięć, Herschel zinterpretował to inaczej). Równolegle do tego w następnym roku doszło po raz pierwszy wykrycie promieniowania ultrafioletowego. Ritter w Niemczech, zainspirowany pracą Herschela, badał działanie widma słonecznego na chlorek srebra. Odkrył, że maksymalny rozkład substancji chemicznej nastąpił poza fioletowym końcem widma widzialnego. (Był to wczesny krok na drodze do fotografii). Jeszcze rok później, w 1802 roku, Wollaston, który również badał widmo słoneczne w Anglii, odkrył, że jest ono przecięte kilkoma ciemnymi liniami. Uważał, że reprezentują one po prostu punkty rozgraniczenia, w których zaczynają się i kończą różne kolory widmowe. Dziesięć lat później Fraunhofer w Niemczech odkrył, że całe widmo słoneczne przecinają ciemne linie. Wykrył ich prawie 600; nic więc dziwnego, że zaczęto je nazywać LINIAMI FRAUNHOFERA.
Widmo słoneczne
Jak sugeruje ten zalew odkryć, to zainteresowanie Słońcem, a w szczególności jego widmem, spowodowało rozwój astrofizyki w XIX wieku. Powody tego zainteresowania były różne. Jednym z nich było to, że Słońce jest doskonałym źródłem światła. W porównaniu z innymi źródłami światła, czy to niebieskimi, czy laboratoryjnymi, Słońce wytwarzało obfite ilości światła. W rezultacie nawet bardzo nieefektywny sprzęt optyczny może dać rezultaty. Innym powodem było szczególne zainteresowanie naukowców z początku XIX wieku zjawiskami koloru. Najłatwiejszym sposobem ich badania było widmo słoneczne. Badania laboratoryjne wykazały, że różne substancje wytwarzają różne zestawy linii widmowych. Dlatego też od początku istniała tendencja do przypuszczeń, że linie Fraunhofera mogą być powiązane z substancjami chemicznymi występującymi na Ziemi. Przypuszczenie to zostało jednak w pełni potwierdzone dopiero w drugiej połowie XIX wieku. Najpierw należało rozwiązać wiele problemów. Na przykład stwierdzono, że niektóre linie Fraunhofera nie pochodziły w ogóle na Słońcu, ale byli pod wrażeniem światła słonecznego podczas jego przejścia przez atmosferę ziemską. Mówiąc bardziej zasadniczo, widma laboratoryjne składały się z jasnych, a nie ciemnych linii. Jak połączono tę dwójkę? W 1849 roku FOUCAULTowi w końcu udało się wykazać tożsamość linii pojawiających się w emisji i absorpcji. Aby to zrobić, eksperymentował z parą linii w widmie słonecznym, które Fraunhofer oznaczył jako "D", ponieważ były szczególnie intensywne. Jednakże te same linie były również odpowiedzialne za opóźnianie prób interpretacji widm. Trudność polegała na tym, że linie D wydawały się być wszechobecne w laboratorium. Bez względu na to, jaką substancję badano, zawsze zdawała się ona pojawiać. Dopiero w latach pięćdziesiątych XIX wieku w pełni rozpoznano powszechne zanieczyszczenie chemikaliów laboratoryjnych solą, co doprowadziło do pojawienia się linii D sodu. Całe to oczyszczenie ziemi musiało nastąpić, zanim widmo słoneczne mogło zostać właściwie zinterpretowane. Ostatni krok w tym procesie można uznać za kluczowe wydarzenie w podstawach astrofizyki. Zrobił je KIRCHHOFF we współpracy ze swoim kolegą z Heidelbergu, Bunsenem, około 1860 roku. Ich badania rozpoczęły się w laboratorium wraz z wynalezieniem palnika Bunsena. Bunsen zamierzał zastosować powstały w ten sposób nieświecący płomień do badania kolorów emitowanych przez różne pierwiastki podczas ich spalania. W tym celu zaproponował zastosowanie zestawu filtrów barwnych. Kirchhoff zasugerował, że Bunsen powinien zamiast tego użyć pryzmatu, co doprowadziło do porównania ze widmem słonecznym. Kirchhoff ustalił dwie podstawowe zasady analizy widm. Po pierwsze, żarzące się ciała stałe lub ciecze dają widmo ciągłe, natomiast gazy tworzą linie lub pasma (których położenie zależy od konkretnego obecnego gazu). Po drugie, gdy źródło widma ciągłego ogląda się przez chłodniejszy gaz, długości fali, przy których zachodzi absorpcja, odpowiadają tym, przy których następuje emisja podczas ogrzewania gazu. Bezpośrednie konsekwencje dla Słońca były podobnie dwojakie. Po pierwsze, ciało Słońca musi składać się z gorącej, gęstej materii, aby wytworzyć obserwowane widmo ciągłe. Po drugie, linie absorpcyjne powstające w chłodniejszej atmosferze słonecznej można wykorzystać do badania składu chemicznego Słońca. Chociaż było to badanie linii atmosferycznych, które zdominowało późniejszą astrofizykę XIX wieku, wnioski Kirchhoffa dotyczące ciała Słońca wywarły natychmiastowy wpływ na współczesną myśl. Powszechnie rozpowszechniony w pierwszej połowie XIX wieku obraz Słońca przedstawiał plamy słoneczne jako dziury w świetlistej chmurze, przez które można było oglądać zimniejsze wnętrze. W istocie W. Herschel spekulował, że wnętrze Słońca, wyobrażane jako posiadające stałą powierzchnię, może być nawet zamieszkane. Analiza widma Kirchhoffa wykazała, że taki obraz jest niemożliwy.
Inne badania słoneczne
W tym czasie pojawił się kolejny problem dotyczący Słońca. W pierwszej połowie XIX wieku podjęto pierwsze znaczące próby pomiaru ilości ciepła docierającego do nas ze Słońca. Takie pomiary tego, co zaczęto nazywać "STAŁĄ SŁONECZNĄ", dostarczyły ilościowego oszacowania ogromnej ilości istoty energetycznej emitowane przez Słońce. Mniej więcej w tym samym czasie zaczęła się kształtować idea oszczędzania energii. Pojawiło się więc pytanie - skąd Słońce czerpie energię? Było jasne, że źródła chemiczne zapewnią świecenie Słońca jedynie przez bardzo krótki czas, więc potrzebne było źródło fizyczne. Rozwiązanie, które zyskało szeroką akceptację w drugiej połowie XIX wieku, zaproponował HELMHOLTZ w 1854 roku. Zasugerował on, że Słońce uzyskuje ciepło w wyniku skurczu grawitacyjnego. Wymagana szybkość była znacznie niższa od granicy obserwacyjnej, a proces był w stanie utrzymać energię słoneczną przez kilka milionów lat. Naukowcom zajmującym się fizyką ten czas życia wydawał się rozsądny, ale spotykał się z coraz większym atakiem ze strony geologów i biologów. Myśleli - jak się okazało słusznie - że ewolucja powierzchni Ziemi i jej mieszkańców wymagała znacznie dłuższego okresu czasu. W połowie XIX wieku zwrócono uwagę na jeszcze jedną cechę Słońca. To była jego zmieniająca się działalność. Na początku lat czterdziestych XIX wieku SCHWABE, niemiecki astronom amator, na podstawie obliczeń plam słonecznych odkrył, że liczba widocznych na dysku słonecznym zmienia się okresowo w czasie. Jego wnioski zostały opublikowane kilka lat później przez HUMBOLDTA, w czasie, gdy prowadzono szereg badań nad fluktuacjami pola magnetycznego Ziemi. W 1852 roku SABINE z Anglii zauważyła, że te fluktuacje magnetyczne zmieniają się w okresie pokrywającym się z cyklem plam słonecznych. Wniosek ten został wkrótce potwierdzony i rozszerzony przez innych, co doprowadziło do ciągłego zainteresowania . Stosunki słoneczno-ziemskie w drugiej połowie XIX wieku. Główne cechy atmosfery Słońca zostały już dostrzeżone, zanim Kirchhoff zainteresował się widmem słonecznym. Ponieważ atmosfera słoneczna była zbyt słaba, aby można ją było dostrzec w pełnym świetle słonecznym, należało zbadać jej właściwości podczas zaćmień słońca. Wyprawy na zaćmienia w latach 1842 i 1851 pokazały, że powierzchnię Słońca zwieńcza CHROMOSFERA (tzw. ze względu na jej czerwony kolor). Powyżej rozciągała się znacznie cieńsza KORONA. Z chromosfery rozciągały się duże "płomienie" (później zwane "występami"). Wyjaśnienie widma słonecznego przez Kirchhoffa otworzyło teraz drogę do bardziej szczegółowego badania struktury atmosfery. Pierwszy postęp astrofizyczny nastąpił w 1868 roku. W tym samym roku z Indii można było zobaczyć zaćmienie słońca i jeden z obserwatorów - Francuz JANSSEN - przyglądał się widmom protuberancji. On i inni znaleźli jasne linie, które wskazywały, że protuberancje to chmury gazu. Janssen doszedł do wniosku, że linie są tak jasne, że powinny być widoczne podczas zaćmienia. Następnie przeskanował kończynę słoneczną i wykazał, że rzeczywiście tak było. W tym samym czasie LOCKYER w Anglii przeprowadził obserwacje spektroskopowe Słońca i zaobserwował te same linie. Oznaczało to, że zarówno chromosferę, jak i protuberancje można było odwzorować na krańcu Słońca, bez konieczności zaćmienia. Ponieważ korona była tak słaba, w XIX wieku nadal można ją było obserwować tylko podczas zaćmień. Podczas zaćmienia w 1869 roku odkryto pierwszą jasną linię koronalną. Teraz stało się oczywiste, że linie emisyjne zarówno chromosfery, jak i korony znacznie różnią się od widma absorpcyjnego Słońca. Z pracy Kirchhoffa oznaczało to, że żadne z nich nie mogło być źródłem linii Fraunhofera. Podczas zaćmienia w 1870 roku amerykański astronom YOUNG wykazał, że linie absorpcyjne w rzeczywistości powstały w ograniczonym obszarze - zwanym "warstwą odwracającą" - pomiędzy chromosferą a pozorną powierzchnią Słońca. Wyjaśnienie jasnej powierzchni Słońca również rozwinęło się dalej w latach sześćdziesiątych XIX wieku. Pod koniec tej dekady Andrews w Anglii wykazał, że gazów o wystarczająco wysokiej temperaturze nie można skroplić. Potwierdziło to to, co już podejrzewano: że ciało Słońca musi składać się z gazu pod wysokim ciśnieniem, a nie z cieczy, jak przypuszczał Kirchhoff. To zrodziło nowe pytanie - dlaczego Słońce w ogóle wydawało się mieć wyraźnie określoną powierzchnię (oznaczoną jako fotosfera)? Powszechnie uznano, że fotosfera musi reprezentować poziom na Słońcu, przy którym gazy stały się wystarczająco chłodne, aby mogły nastąpić skroplenie materiałów ogniotrwałych. Odnowiona wiara w zachmurzoną powierzchnię Słońca pozostawała w modzie aż do początków XX wieku. Zatem w ciągu kilku lat obserwacje spektroskopowe dostarczyły w miarę wyraźny obraz atmosfery Słońca. Następnych kilka dekad poświęcono na wyjaśnianie niektórych niejasności tego obrazu. Jeden związany ze składem chemicznym. Następny Kirchhoffa wielu obserwatorów porównało widma ziemskie z widmem słonecznym, próbując określić skład chemiczny Słońca. Stwierdzono, że prawie wszystkie pierwiastki, które można było wykryć, to metale (chociaż wodór odnotowano wcześnie). Jednak nie udało się zidentyfikować jednej bardzo jasnej linii w widmie chromosferycznym. Lockyer zasugerował, że tak wytwarzany przez nowy pierwiastek, zwany w związku z tym "helem", którego nie znaleziono jeszcze na Ziemi. Sugestia ta została mocno zakwestionowana, ale Lockyer został potwierdzony w latach 90. XIX wieku, kiedy Ramsay odkrył gaz w skałach lądowych, poprzez jego widmo. Podobnie stwierdzono, że niemożliwe jest zidentyfikowanie linii koronalnych. Dlatego też wysunięto równoległą sugestię, że są one spowodowane nowym pierwiastkiem, oznaczonym jako "koronium". W tym przypadku nigdy nie znaleziono żadnego odpowiadającego elementu. (Dopiero w połowie XX wieku wykazano, że linie koronalne powstają w wyniku znanych pierwiastków w stanach silnie zjonizowanych.)
Astrofizyka gwiazd
W początkach astrofizyki Słońce było tak popularnym celem obserwacji, że cały temat nazywano czasem po prostu "fizyką Słońca". Pominęło to fakt, że odkrycia Kirchhoffa zostały natychmiast zastosowane do obserwacji widm gwiazd. Wkrótce stało się jasne, że widma gwiazd mogą znacznie się od siebie różnić. Zatem oprócz badania składu chemicznego gwiazd konieczne było również zbadanie możliwości klasyfikowania gwiazd w grupy. Zajmował się tym w latach sześćdziesiątych XIX wieku przede wszystkim jezuicki astronom SECCHI. Po zbadaniu kilku tysięcy gwiazd doszedł do wniosku, że można je wszystkie podzielić na cztery grupy, w zależności od wyglądu ich widm. Zauważono, że te typy widmowe były skorelowane z kolorami gwiazd - białym, żółtym lub czerwonym. W tym samym okresie projekt HUGGINS w Anglii wykorzystał widma o większym rozproszeniu do poszukiwania składników chemicznych. Pomimo różnic pomiędzy widmami odkrył, że wiele linii można utożsamić z pierwiastkami występującymi na Ziemi i Słońcu. W tych wczesnych dniach widma gwiazd - podobnie jak widmo Słońca - były obserwowane wizualnie. Podczas gdy Słońce wytwarzało odpowiednią ilość światła, nie dotyczyło to gwiazd. Oczywistą odpowiedzią było użycie fotografii, ale modny w latach sześćdziesiątych XIX wieku proces "mokrej płyty" był niewystarczająco czuły. Fotografowanie widm gwiazd stało się możliwe dopiero pod koniec lat 70. XIX wieku, kiedy dostępna stała się metoda "suchej płyty". Wkrótce nastąpiły nowe odkrycia. Ważna z nich wynikała z faktu, że klisze fotograficzne były bardziej czułe na ultrafiolet niż ludzkie oko, w wyniku czego w tym obszarze wykryto wiele nowych linii. Huggins w Anglii i VOGEL w Niemczech znaleźli tam linie, które ich zdaniem przedłużały sekwencję linii wodoru występujących w widzialnym. Badanie długości fal tych linii doprowadziło Szwajcara BALMERA do ogłoszenia wzoru numerycznego na długości fal linii wodorowych, nazywanych obecnie jego imieniem. Jego sukces ugruntował pogląd, że linie widmowe powstają w wyniku powiązanych sekwencji wibracji atomowych. Fotograficzna rejestracja widm gwiazd umożliwiła także pierwszy w miarę dokładny pomiar prędkości radialnych. Doprowadziło to do odkrycia spektroskopowych układów podwójnych: pierwszy znaleziony - Mizar - został odkryty przez pannę Maury na Harvardzie pod koniec lat osiemdziesiątych XIX wieku.
Gwiazdy i mgławice
Fotografia ostatecznie pomogła także w innym rodzaju pomiarów astrofizycznych - jasności gwiazd. W latach osiemdziesiątych XIX wieku E C PICKERING na Harvardzie i Pritchard na Oksfordzie stworzyli katalogi fotometryczne jaśniejszych gwiazd na półkuli północnej w oparciu o wizualne szacunki jasności. Zostały one rozszerzone na gwiazdy półkuli południowej na początku lat 90. XIX wieku przez Baileya obserwującego w Peru. Powszechnie panowało już wówczas przekonanie, że przyszłością będzie fotometria fotograficzna. Niestety, trudno było osiągnąć porozumienie co do tego, jak zredukować obrazy fotograficzne do równoważnych wielkości (dopiero powoli zdano sobie sprawę, że wielkość fotograficzna i wizualna mogą znacznie się różnić w zależności od koloru gwiazdy). W rezultacie fotometria fotograficzna do końca XIX wieku przyczyniła się jedynie w niewielkim stopniu. Pod koniec stulecia hotografia - zwłaszcza prace badawcze na Harvardzie - okazała się cenną metodą wykrywania gwiazd zmiennych. Zainteresowanie wizualną obserwacją zmiennych, na które pierwotnie zwracał uwagę Argelander w Niemczech, wzrosło od połowy stulecia. System oznaczania gwiazd zmiennych za pomocą liter alfabetu obowiązywał już w latach osiemdziesiątych XIX wieku, a pod koniec stulecia badano przykłady głównych typów zmiennych. Największą uwagę przykuły NOVAE (supernowe wyodrębniono jako odrębną kategorię dopiero w XX wieku). Hug ins w 1866 roku jako pierwszy zbadał widmo nowej. Odkrył, że składa się ono ze zwykłego widma absorpcyjnego gwiazd z nałożonymi na siebie jasnymi liniami. Dlatego zarówno to, jak i późniejsze widma nowych zostały zinterpretowane jako wskazujące na eksplozję chmury gazu z ciała gwiazdowego. W latach sześćdziesiątych XIX wieku Huggins przeprowadził przegląd widm jasnych mgławic. (W XIX wieku "mgławica" oznaczała dowolną rozległą plamę światła w porównaniu z gwiazdami, które były źródłami punktowymi). Od czasów WHerschela toczyła się debata na temat natury mgławic. Czy były to jakieś ciecze, czy też gwiazdy skupione tak blisko siebie, że nie dało się ich rozróżnić? Pierwszym obiektem zbadanym przez Hugginsa była Mgławica Planetarna. Pokazał jasne widmo liniowe, co natychmiast zinterpretowano jako oznaczające, że mgławice są obłokami gazu. Problem polegał na tym, że niektórych linii widmowych nie można było powiązać z żadnymi znanymi elementami ziemskimi. Dlatego zasugerowano, analogicznie do helu, że obecny jest nowy pierwiastek - "mgławica". Chociaż pomysł pozostawał w użyciu przez resztę stulecia, mgławica, podobnie jak korona, ostatecznie okazała się fałszywa. W XX wieku wykazano, że jasne linie wynikają z obecności tlenu w stanie rozrzedzonym. W miarę obserwowania większej liczby widm mgławic początkowe wnioski dotyczące ich natury stawały się coraz bardziej wątpliwe. Mgławice planetarne i tak zwane mgławice "nieregularne" (których najlepszym przykładem była mgławica Oriona) zawsze dawały linie emisyjne. Jednakże inne mgławice (kluczowym przykładem jest mgławica Andromeda) dały widma, które wydawały się być ciągłe, bez ciemnych i jasnych linii. Interpretacja tego rodzaju widma była przedmiotem sporu przez resztę stulecia. Pierwsza wskazówka dotycząca dalszych działań pojawiła się dopiero w 1899 r., kiedy SCHEINER w Niemczech odkrył słabe ślady linii absorpcyjnych na fotografii widma mgławicy Andromedy z długim czasem naświetlania. Do tego czasu bezpośrednie zdjęcia dostarczyły dalszych informacji na temat tego ostatniego typu mgławic. LordROSSE, obserwując w Irlandii w latach czterdziestych XIX wieku, zauważył wizualnie, że kilka mgławic wydawało się mieć strukturę spiralną. Kiedy pod koniec stulecia dostępne stały się czułe klisze fotograficzne, wykazano - zwłaszcza KEELER w Stanach Zjednoczonych - że istnieje znacznie więcej mgławic spiralnych. Naturalnym było przypuszczenie, że niezwykłe widmo i niezwykły kształt takich mgławic są ze sobą powiązane. Pod koniec XVIII wieku francuski matematyk LAPLACE zasugerował sposób, w jaki mógł powstać Układ Słoneczny. Wyobraził sobie kurczącą się mgławicę, która w miarę kurczenia się wirowała szybciej. Szybkość wirowania w końcu osiągnęła punkt, w którym materiał został wyrzucony w pierścieniach wokół równika. Materia ta następnie skondensowała się, tworząc planety, a końcowa centralna kondensacja utworzyła Słońce. Obraz nakreślony przez tę "hipotezę mgławicy" sugerował, że kurcząca się materia będzie wyglądać bardzo podobnie do mgławicy spiralnej. Dlatego zaczęto sądzić, że takie mgławice są po prostu pobliskimi układami planetarnymi w procesie formowania. W 1885 roku zamieszanie pogłębiło pojawienie się nowej gwiazdy - właściwie supernowej - w mgławicy Andromedy. Można to oczywiście porównać z innymi nowymi gwiazdami - zwykłymi gwiazdami nowymi - obserwowanymi w Drodze Mlecznej w XIX wieku. Odpowiednie błędne oszacowanie odległości sugerowało, że mgławica Andromedy była częścią naszej własnej Galaktyki. Innym czynnikiem mającym wpływ na to było rozmieszczenie mgławic spiralnych. Stało się jasne, że nie miały one miejsca w pobliżu płaszczyzny Drogi Mlecznej (tzw. "strefa unikania"). Chociaż przyczyna nie była znana (później stwierdzono, że jest to zasłaniający pył w Drodze Mlecznej), rozkład ten sugerował, że mgławice są powiązane z naszą Galaktyką. Na początku stulecia szeroko dyskutowano pogląd, że wiele mgławic to gromady gwiazd, niektóre pod względem wielkości dorównujące naszej Drodze Mlecznej. Pod koniec stulecia większość uważała, że Wszechświat jest zdominowany przez Drogę Mleczną.
Ewolucja gwiazd
W tym czasie rozwinęło się żywe zainteresowanie ewolucją gwiazd. Po ustaleniu różnych kategorii gwiazd nieuniknione było pytanie, w jaki sposób grupy są ze sobą powiązane. Współczesne zainteresowanie ewolucją w geologii i biologii w naturalny sposób zachęcało do poszukiwania zależności o charakterze ewolucyjnym. Pierwszym szeroko rozpowszechnionym poglądem, opracowanym szczególnie przez Zöllnera i Vogela w Niemczech, było to, że gwiazdy tworzą pojedynczą sekwencję ewolucyjną. Urodziły się gorące i białe. W miarę rozpraszania ciepła stawały się kolejno żółte, a następnie czerwone. Wystąpił problem. Jedynym znanym mechanizmem fizycznym napędzającym zmiany było kurczenie się. Zarówno Lane w USA, jak i Ritter w Niemczech wykazali, że kurcząca się kula w rzeczywistości nagrzewa się, a nie chłodzi. Jednak ich wyniki zakładały, że gwiazda jest kulą gazu doskonałego. Nikt wówczas nie przypuszczał, że taki model może reprezentować prawdziwą gwiazdę. Pod koniec stulecia zaczęły gromadzić się dowody na to, że gwiazdy tego samego koloru mogą znacznie różnić się innymi cechami, takimi jak rozmiar. Najbardziej radykalna rewizja XIX-wiecznego obrazu ewolucji gwiazd - "hipoteza meteorytyczna" Lockyera zaproponowana w latach osiemdziesiątych XIX wieku - zakładała, że tak właśnie było. Lockyer zasugerował, że gwiazdy powstają z mgławic składających się z obłoków meteorytów (popularnych obiektów badań w drugiej połowie stulecia). Kurczenie się mgławicy doprowadziło do zwiększonej szybkości zderzeń pomiędzy wchodzącymi w jej skład meteorytami, a tym samym podniosło jej temperaturę. Mgławica, widoczna teraz jako gwiazda, stopniowo zmieniała swój kolor z czerwonego, przez żółty, aż do białego. Zanim osiągnięto ten ostatni punkt, wszystkie meteoryty wyparowały. Dlatego też biała gwiazda teraz ostygła i stała się mniejsza w miarę powracania do sekwencji z żółtej na czerwoną. W przeciwieństwie do innych schematów, hipoteza Lockyera zakładała zatem, że czerwone gwiazdy można podzielić na dwie kategorie - albo bardzo duże, albo bardzo małe.
Interpretacja widm
Lockyer oparł swoje argumenty na porównaniu widm meteorytów w laboratorium z widmami szerokiego zakresu gwiazd. Niektóre z tych prac zostały zaatakowane, a jego hipoteza nie zyskała szerokiego wsparcia. Niemniej jednak szczegółowe badania widm gwiazd stawały się coraz bardziej tematem zainteresowania. W połowie lat osiemdziesiątych XIX wieku EC Pickering z Harvardu zainicjował zakrojone na szeroką skalę badania spektroskopii i fotometrii gwiazd. Pierwsze wyniki pojawiły się w latach 90. XIX wieku jako pamiątkowy katalog widm gwiazd Drapera. (Draper był pionierem amerykańskiego astrofizyka, którego rodzina przekazała pieniądze na projekt po jego śmierci.) W katalogu wprowadzono alfabetyczną klasyfikację widm gwiazd, która jest nadal używana. Widma użyte do klasyfikacji na Harvardzie były zbyt małe, aby je szczegółowo zbadać, ale panna Maury zbadała bardziej szczegółowo podzbiór gwiazd. Odkryła, że gwiazdy tego samego koloru mogą nadal wykazywać subtelne różnice w wyglądzie swoich widm. Spekulowała, że mogą one mieć wpływ na ewolucję gwiazd. (W istocie jej prace doprowadziły do rozróżnienia dokonanego przez Hertzsprunga na gwiazdy olbrzymy i karły na początku XX wieku). Podstawowy problem polegał na tym, że teoretyczne rozumienie widm pozostawało przez cały XIX wiek dość prymitywne. Trudność polegała na tym, że widma nie tylko same w sobie były często złożone, ale co gorsza, mogły się zmieniać w zależności od źródła światła. Na przykład widmo laboratoryjne pierwiastka wytworzonego za pomocą łuku elektrycznego może mieć pewne linie różniące się od widma tego samego pierwiastka wytworzonego za pomocą iskry elektrycznej. Jedno z proponowanych wyjaśnień było takie, że elementy można rozbić w stopniu zróżnicowanym w zależności od warunków, jakim były poddawane. Sugestia ta spotkała się ze znacznym sprzeciwem, między innymi dlatego, że podstawową zasadą XIX-wiecznej nauki było przekonanie, że atomy są niezniszczalne. Niestety Lockyer, który był najsilniejszy zwolennik tego argumentu, początkowo miał błędne wyobrażenie o tym, co się dzieje. Już wcześniej zauważono, że w widmach laboratoryjnych różnych pierwiastków niektóre linie często pokrywały się w swoich pozycjach. Locker nazwał je liniami "podstawowymi" i uważał, że ujawniają one obecność wspólnego produktu rozpadu z pierwiastków początkowych. Gdy stały się dostępne spektroskopy o wyższej dyspersji, odkryto, że te podstawowe linie po prostu znajdowały się blisko siebie, a nie pokrywały się. W związku z tym nie miały one żadnego zasadniczego znaczenia. Pod koniec stulecia Lockyer pod wpływem swojego asystenta, FOWLERA, zmienił swoje poglądy na temat rozkładu pierwiastków. Zwrócono teraz uwagę na inną grupę wersetów - oznaczonych jako "udoskonalone" - które różniły się w zależności od źródła. Linie te rzeczywiście były powiązane z tym, co obecnie nazwalibyśmy zjonizowanymi atomami. Jednak współcześni Lockyerowi byli w większości tak zdezorientowani jego reinterpretacją, że nowy pomysł nie wzbudził początkowej uwagi. Do tego czasu - końca stulecia - dowody zaczynały się gromadzić, tak że atomy mogły zostać rozbite. Kluczowym tego przykładem jest praca JJ Thomsona nad elektronem. Szczegółowe zrozumienie widm astronomicznych musiało poczekać na rozwój teorii kwantowej w XX wieku. Próbując zinterpretować widma, Słońce pozostawało głównym źródłem danych porównawczych przez cały XIX wiek. Na przykład odkryto, że widma plam słonecznych mają pasma podobne do widm czerwonych gwiazd. Ponieważ uważano, że plamy słoneczne są chłodniejsze od Słońca jako całości, zgadzało się to z oczekiwaniami dotyczącymi temperatur gwiazd. Problem polegał na tym, aby faktycznie przedstawić liczbę związaną z temperaturami. Biała gwiazda może być gorętsza niż czerwona, ale o ile gorętsza? Ponownie spodziewano się, że najpierw uda się odpowiedzieć na to pytanie w odniesieniu do Słońca. W połowie XIX wieku możliwości powiązania temperatury ciała z emitowanym przez nie promieniowaniem były ograniczone. Opierały się one głównie albo na prawie Newtona, albo na prawie Dulonga i Petita, ale dawały one bardzo różne wyniki. Na przykład jedno oszacowanie z 1860 r. sugerowało, że powierzchnia Słońca ma temperaturę około 7 000 000 ?C, podczas gdy inne z 1872 r. sugerowało 1400 ?C. Spośród różnych proponowanych poprawek, ta, która ostatecznie okazała się najbardziej użyteczna, została wysunięta przez Stefana w 1879 roku. Jego sugestia dotycząca zależności od czwartej potęgi temperatury nie miała oparcia teoretycznego aż do rozwoju teorii kwantowej. Dlatego w XIX wieku traktowano go z pewną rezerwą.
Rozwój astrofizyki
W 1859 roku po raz pierwszy zaobserwowano rozbłysk słoneczny. Było ono na tyle intensywne, że było widoczne w białym świetle na tle tarczy Słońca, a towarzyszyła mu potężna burza magnetyczna i rozległe zorze polarne na Ziemi. Trudność polegała na tym, że takie zdarzenia były zwykle niewidoczne, ponieważ ograniczenia instrumentalne oznaczały, że większość obserwacji Słońca prowadzono na żywo. Zmieniło się to w latach 90. XIX wieku, kiedy HALE w USA (a także DESLANDRES we Francji) wprowadzili pomysł oglądania całego Słońca w świetle pojedynczej linii, umożliwiając w ten sposób skanowanie aktywności słonecznej na całym dysku. Rozwój ten dobrze ilustruje ciągły związek między nowymi badaniami astrofizycznymi a lepszym instrumentarium. Pod koniec stulecia na końcach teleskopów zawieszano nie tylko coraz większą różnorodność sprzętu: same teleskopy przechodziły zmiany. Zatem fakt, że klisze fotograficzne były wrażliwe na inny obszar widma niż ludzkie oko, oznaczał, że teleskopy refrakcyjne do zastosowań fotograficznych musiały być specjalnie zaprojektowane i dostosowane. Co więcej, potrzeba maksymalnego uchwycenia światła doprowadziła do rosnącego zainteresowania wykorzystaniem teleskopów zwierciadlanych w badaniach astrofizycznych. W początkach swojej działalności wielu astronomów uważało astrofizykę za słabszy dodatek do astronomii klasycznej. Było mniej rygorystyczne i nie wymagało podstaw matematycznych niezbędnych w astronomii klasycznej. Pomimo prób powiązania aktywności słonecznej z ziemską pogodą, przyniosło to mniej praktyczne skutki niż klasyczna astronomia, która stanowiła tradycyjną podstawę ziemskiego pomiaru czasu i położenia. Przede wszystkim nie istniała zadowalająca teoria, która umożliwiłaby zintegrowanie tego wszystkiego w jedną całość. Nic dziwnego, że wielu pionierów strofizyków było amatorami lub wywodziło się z innych dyscyplin. Jednak w ciągu kilku dziesięcioleci astrofizyka stała się odrębnym tematem: w latach 90. XIX wieku poświęcono jej już główne czasopismo - Astrophysical Journal (patrz ASTRONOMICAL TOWARZYSTWA I PUBLIKACJE). Co istotne, rozwiązanie to wprowadzono w Stanach Zjednoczonych. Ameryka Północna odegrała jedynie niewielką rolę w rozwoju astronomii klasycznej. Wraz z nastaniem nowego stulecia w świecie astronomicznym powszechnie przyjęto, że odegra on znacznie większą rolę w rozwoju astrofizyki.
Atom
Najmniejsza cząsteczka pierwiastka chemicznego, która zachowuje właściwości tego pierwiastka. Każdy atom składa się ze zwartego jądra, w którym znajduje się cała jego całkowita masa z wyjątkiem niewielkiej części, otoczonego chmurą elektronów - lekkich cząstek o ujemnym ładunku elektrycznym. Typowe jądro atomowe ma promień około 10-14 m; całkowity promień atomu (czyli promień jego chmury elektronów) jest około 10 000 razy większy (około 10?10 m). Jądro składa się z pewnej liczby protonów (masywnych cząstek o dodatnim ładunku elektrycznym) wraz z pewną liczbą neutronów (cząstek o masie podobnej do protonu, ale o zerowym ładunku elektrycznym), przy czym wszystkie te cząstki są powiązane ze sobą silnym oddziaływaniem jądrowym. Otaczająca chmura ujemnie naładowanych elektronów jest utrzymywana wokół dodatnio naładowanego jądra dzięki sile elektromagnetycznej. Kompletny (neutralny) atom zawiera taką samą liczbę protonów jak elektrony, a ponieważ ma taką samą liczbę cząstek naładowanych dodatnio i ujemnie, ma zerowy ładunek wypadkowy. Atom, który utracił jeden lub więcej elektronów i dlatego ma ładunek dodatni, nazywany jest jonem dodatnim. Atom, który pozyskał jeden lub więcej dodatkowych elektronów i w związku z tym ma ładunek ujemny, nazywany jest jonem ujemnym. Każdemu pierwiastkowi przypisany jest symbol chemiczny w formie litery lub pary liter; na przykład wodór oznacza się H, hel He i tak dalej. Atom charakteryzuje się liczbą atomową (oznaczoną symbolem Z), która oznacza liczbę protonów w jego jądrze, oraz liczbą masową (A), która oznacza całkowitą liczbę protonów i neutronów zawartych w jego jądrze. Tradycyjnie pierwiastek jest oznaczony jego symbolem chemicznym, poprzedzonym liczbą masową jako indeksem górnym i liczbą atomową jako indeksem dolnym. Zatem pierwiastek X o liczbie atomowej Z i liczbie masowej A można zapisać jako A ZX. Na przykład normalny atom wodoru z jednym protonem i bez neutronów w jądrze (Z = 1; A = 1) byłby oznaczony przez 11 H; jądro helu z dwoma protonami (Z = 2) i dwoma neutronami (A = 2 + 2 = 4) byłoby oznaczone jako 42 He i tak dalej. Liczba atomowa określa pierwiastek chemiczny, którego przykładem jest dany atom. Zatem na przykład każdy atom wodoru ma Z = 1, każdy atom helu ma Z = 2 i tak dalej. Jądra tego samego pierwiastka chemicznego mogą jednak zawierać różną liczbę neutronów. Atomy, które mają tę samą liczbę protonów, ale różną liczbę neutronów w swoich jądrach, a zatem mają tę samą liczbę atomową, ale różną liczbę masową, nazywane są izotopami. Na przykład "ciężki wodór" lub deuter, oznaczony jako 21H (lub 2D), to izotop wodoru, który w swoim jądrze ma jeden proton i jeden neutron, a nie tylko jeden proton. Hel występuje w dwóch postaciach, hel-4 (42 He) i hel-3 (32 He), lżejszy izotop z dwoma protonami, ale tylko jednym neutronem w jądrze. Średnia liczba różnych naturalnie występujących izotopów danego pierwiastka, ważona według ich względnej liczebności, jest masą atomową tego pierwiastka. Chociaż mechanika kwantowa wykazała, że elektronów w atomach nie można traktować ściśle jako punktów zlokalizowanych w przestrzeni i że chmury elektronów otaczające jądro reprezentują obszary, w których prawdopodobieństwo znalezienia elektronów jest największe, model atomu wodoru Bohra zaproponowany w 1913 r. autorstwa duńskiego fizyka Neilsa Bohra (1885-1962) w dalszym ciągu stanowi dobrą podstawę do opisu sposobu, w jaki atomy emitują i pochłaniają promieniowanie. Według tego modelu atom wodoru składa się z pojedynczego protonu, wokół którego pojedynczy elektron porusza się po jednej z szeregu dozwolonych orbit, z których każda odpowiada innemu poziomowi energii. Jeśli elektron spadnie z wyższego poziomu na niższy (dokonuje "przejścia w dół"), emituje foton (ilość energii promieniowania) o energii równej różnicy energii pomiędzy górnym i dolnym poziomem. Długość fali emitowanego promieniowania jest odwrotnie proporcjonalna do energii fotonu (im większa różnica poziomów energii, tym krótsza długość fali emitowanego promieniowania). I odwrotnie, jeśli elektron pochłonie ilość energii równą różnicy energii między niższym i wyższym poziomem, przeskoczy na wyższy poziom (dokonuje "przejścia w górę"). Emisja i absorpcja promieniowania, która zachodzi, gdy elektrony dokonują przejść w dół i w górę pomiędzy różnymi poziomami energii atomów wodoru, powoduje powstanie szeregu linii emisyjnych lub absorpcyjnych tworzących widmo wodoru. W przypadku masywnych atomów, które mają wiele elektronów ułożonych w koncentrycznych powłokach, zbiór poziomów energii i dozwolonych przejść jest bardziej złożony, ale obowiązuje ta sama ogólna zasada: przejścia w dół powodują emisję promieniowania, a przejścia w górę mają miejsce po absorpcji energii.
Zorza polarna
Zorza polarna to rozległe źródło światła o różnych formach i kolorach, które można zaobserwować na dużych, a czasami na średnich szerokościach geograficznych. Ich jasność może osiągnąć intensywność światła pełni księżyca. Owal zorzy polarnej (po jednej na każdej półkuli) to miejsce, w którym można zaobserwować większość zórz polarnych. Jest to pas otaczający każdą z Ziemi bieguny magnetyczne o maksymalnym zasięgu równoleżnikowym o północy magnetycznej. Zorze polarne (wewnątrz owalu) i zorze dzienne są zwykle słabe i rozproszone, natomiast w owalu są bardziej intensywne i zmienne w czasie. W obu przypadkach zorze powstają w wyniku interakcji cząstek pochodzenia słonecznego z atomami i cząsteczkami górnych warstw atmosfery ziemskiej w wyniku bezpośrednich zderzeń i reakcji chemicznych. Jednakże w przypadku owalu zorzy polarnej cząstki są przyspieszane przez pewne złożone procesy magnetosferyczne prowadzące do zjawisk o jaśniejszej intensywności i różnych formach, przy czym oba znaki są w dużym stopniu zależne od czasu. Zorze polarne obserwuje się zwykle na wysokości od 80 do 300 km, w zależności od charakterystyki wytrącających się cząstek (energii elektronów i protonów) oraz składu atmosfery, co prowadzi do widma zorzy składającego się z wielu linii atomowych i molekularnych obojętnych lub zjonizowanych. Występowanie i intensywność zorzy polarnej zależą od aktywności Słońca; na przykład w obserwacjach można znaleźć typowy 11-letni cykl słoneczny. Charakterystyka zorzy polarnej stanowi ostatni etap szeregu procesów rozpoczynających się w atmosferze słonecznej i biorących pod uwagę ziemską magnetosferę i fizykę atmosfery.
Krótkie tło historyczne
Obserwując nasze otoczenie, ujawniają się różne zjawiska. Występują regularne zjawiska, takie jak wschody i zachody słońca, ruchy gwiazd i planet. Występują także zjawiska występujące nieregularnie, o charakterze astronomicznym lub geofizycznym, takie jak tęcze, komety, aureole i zorze polarne. Zanim stały się przewidywalne, ich wystąpienie było powiązane z kilkoma ważnymi wydarzeniami. Dlatego właśnie zjawiska te zostały odnotowane w celach wróżbiarskich, a także prawdopodobnie dla ciekawości. W pierwszych wiekach naszej ery Chińczycy, Grecy i Rzymianie odnotowali zorze polarne. Jednak ludzie zamieszkujący obszary położone na dużych szerokościach geograficznych byli bardziej przyzwyczajeni do ich występowania i nazwali je Zorzą Polarną. Pierwsze współczesne obserwacje zorzy rozpoczęły się w drugiej połowie XVI wieku za sprawą Tycho Brahe z jego obserwatorium w Uraniborgu. Jakiś czas później występowanie zorzy zorzy zmniejszyło się, szczególnie na średnich szerokościach geograficznych. P. Gassendi opisał kilka zorzy obserwowanych na początku XVII wieku i zaproponował nazwę "aurora borealis". Po odkryciu plam słonecznych w 1609 roku, regularnie obserwowano Słońce. Występowanie plam słonecznych znacznie spadło od 1645 do 1715 roku, czyli do "minimum Maundera", podczas którego wystąpiło niewiele zorzy. Aktywność słoneczna została wznowiona na początku XVIII wieku, a na średnich szerokościach geograficznych (1716 i 1726) zaobserwowano kilka intensywnych zórz polarnych. E Halley, a później JJ Dortou de Mairan zostali poproszeni o zbadanie ich pochodzenia odpowiednio przez Towarzystwo Królewskie (Londyn) i Acad′emie Royale des Sciences (Paryż). Wcześniej wysunięto różne hipotezy wyjaśniające występowanie zorzy polarnej. Mairan zasugerował w 1733 roku, że światło zorzy zostało wygenerowane przez płyn słoneczny uderzający w ZIEMSKĄ SATMOSFERĘ. Choć była to hipoteza przybliżona, była to pierwsza hipoteza oparta na związku Słońca z Ziemią. W drugiej edycji swojego raportu Mairan stwierdził, że istnieje związek pomiędzy plamami słonecznymi i zorzą polarną, a także ich sezonowym występowaniem. Związek między występowaniem zorzy polarnej a zaburzeniami magnetycznymi został eksperymentalnie wykazany przez P. Hiortera w 1741 r., obserwując jednocześnie maleńkie zaburzenia doświadczane przez igłę kompasu (podawana w stopniach Celsjusza). Mairan podejrzewał, że zorze polarne mogą pojawiać się na półkuli południowej i skierował notatkę do Don Ulloa, hiszpańskiego oficera marynarki, który potwierdził obserwacje zorzy polarnej podczas okrążania Przylądka Horn w 1745 roku. J. Cook badający wysokie południowe szerokości geograficzne potwierdził występowanie " aurora australis" w 1770 r. W drugiej połowie XVIII wieku W. Wargentin (1717-1783) na podstawie różnych obserwacji wywnioskował, że zorze polarne można obserwować z różnych miejsc w tym samym czasie i rozciągają się poziomo jako pas otaczający Biegun Północny. Po odkryciu elektronu K. Birkeland zaproponował w 1896 r., że zorze polarne powstają w wyniku elektronów wyrzucanych ze Słońca i kierowanych przez ziemskie pole magnetyczne do regionów położonych na dużych szerokościach geograficznych. Poparł tę ideę eksperymentami laboratoryjnymi. Jednak ze względu na odpychanie elektrostatyczne konieczne było uwzględnienie PLAZMY wyrzuconej przez Słońce, a nie samych elektronów. S Chapman i V Ferraro wykazali, że poruszająca się plazma będzie oddziaływać z polem magnetycznym Ziemi, zamykając ją we wnęce. To były narodziny fizyki magnetosferycznej. Kilka ekspedycji pod koniec XIX wieku z dużą dokładnością zlokalizowało strefę zorzową. Zorze były przedmiotem wielu obserwacji (form, widma itp.) i opracowań teoretycznych.
Główne właściwości
Nowoczesnymi sposobami obserwacji zórz polarnych są spektrometry analizujące ich widmo, fotometry badające zachowanie jednej lub kilku linii emisyjnych, kamery rejestrujące formy zorzy w funkcji czasu oraz radar. Instrumentów tych można używać na ziemi lub z platform orbitujących, gdzie umożliwiają globalne badanie zórz polarnych. Jednak przed instrumentalnym badaniem zórz polarnych przeprowadzono obserwacje wizualne. Aby umożliwić porównania obserwacji dokonanych przez różnych autorów, na arenie międzynarodowej przyjęto nomenklaturę opisującą cechy zorzy polarnej (intensywność, forma i kolor). Jest nadal w użyciu.
Intensywność
Linia o największym natężeniu wynika z emisji tlenu atomowego przy 557,7 nm, często nazywana w literaturze naukowej "zieloną linią". Jasność zorzy polarnej jest skalowana do intensywności zielonej linii za pomocą Międzynarodowego Współczynnika Jasności (IBC), jak pokazano w tabeli .

Dla porównania podano równoważne źródła jasności. We współczesnych pomiarach intensywność emisji zorzy polarnej podaje się w Rayleighu. Jednakże w przypadku wykorzystywania starych zapisów do badań długoterminowych odniesienie do równoważnego natężenia źródła jest przydatne pomimo jego względnej niedokładności.
Formy i kolory
Obserwacje wizualne i obrazy zarejestrowane przez kamery ujawniają kilka typowych form, jak pokazano na przykład na rysunku 1. Są one dokładnie opisane jako łuki, pasma, promieniste lub nie, powierzchnia rozproszona lub pulsująca, korona i płomienie. Opis form zorzowych opiera się na nomenklaturze międzynarodowej Kolory zorzy są zwykle zielone, czerwone lub niebieskie, w zależności od gatunków atmosferycznych biorących udział w procesach wzbudzenia. Zorze o intensywności IBC I lub II wydają się bezbarwne. Żółte zorze powstają w wyniku zmieszania się czerwieni i czerwieni , zielone zorze. Intensywność zorzy jest funkcją czasu. Zmiana może być powolny, jak w przypadku powierzchni pulsującej (0,1 Hz), lub osiągać 10 Hz w przypadku niektórych form jednorodnych. Zmiany w czasie mogą być spowodowane podróżującymi formami, jak w przypadku zorzy typu płonącego, które wydają się poruszać w górę. Pozorne ruchy poziome występują w zorzach łukowych lub pasmowych o prędkościach sięgających 100 km na s-1. To oczywista prędkość generalnie wzrasta wraz z amplitudą burzy magnetycznej. Podczas obserwacji wizualnych takich zdarzeń, szybkość zmian w czasie jest z pewnością najbardziej uderzającą i spektakularną cechą zjawiska zorzy. Zdarzenia zorzowe są spowodowane wytrącaniem się cząstek w górnych warstwach atmosfery ziemskiej. Ich wzory są złożone i dlatego należy dokładnie zdefiniować opis zorzy polarnej. Na tej podstawie możliwa była klasyfikacja zdarzeń zorzowych i uzyskanie informacji o procesach ich powstawania.
Lokalizacja
Kiedy prowadzi się obserwacje naziemne w funkcji szerokości geograficznej, można określić średnią częstotliwość występowania. Umożliwia zdefiniowanie obszaru maksymalnego występowania, zwanego obecnie "strefą zorzową". Strefa zorzowa i owal zorzowy to dwa różne pojęcia, które zostaną wyjaśnione później. Zdjęcia owalu zorzy polarnej uzyskano z orbity za pomocą sondy kosmicznej DYNAMICS EXPLORER 1 (rysunek 2). Owalny środek zorzy polarnej jest przesunięty o około 3? od bieguna geomagnetycznego w kierunku ciemnej półkuli. Jego grubość jest maksymalna o północy magnetycznej. Owal zorzowy leży na około 70? szerokości magnetycznej i ma średnią szerokość około 5? w spokojnych warunkach. Kiedy zorze są obserwowane w tym samym czasie z dwóch magnetycznie sprzężonych miejsc (jednego na północy, a drugiego na południowym owalu zorzowym), tworzą się podobne wzory. Występowanie zórz polarnych jest większe w owalu zorzowym niż w jego środkowej części. Ten ostatni obszar nazywany jest CZAPKĄ POLARNĄ, a zorze polarne mają słabszą intensywność i mniejsze tempo zmian w czasie niż w owalu zorzowym. Czasami wewnątrz można zobaczyć niezwykłe pokazy zorzy polarnej. Na przykład łuk obserwowany w pobliżu zenitu pozostaje zgodny z kierunkiem Słońca. Zostało to odkryte przez D. Mawsona w 1913 roku na stacji Dumont d′Urville (Antarktyda). Łuk ten może rozciągać się aż do obu wewnętrznych krawędzi owalu zorzowego. Został nazwany theta aurora, ponieważ wyglądem przypomina grecką literę. Powyższe zorze obserwowane są w nocy. Inny rodzaj zorzy można zaobserwować w ciągu dnia. Zwykle są słabe i rozproszone.
Wysokość i zasięg przestrzenny
Najpierw mierzono wysokości metodą paralaktyczną z ziemi. Obecnie powszechnie stosuje się pomiary z rakiet i statków kosmicznych. Większość zórz polarnych ma miejsce na wysokościach od 80 do 120 km. Jednak dolna granica bardzo intensywnych zorzy może spaść do 70 km. Ich pionowy zasięg zależy od procesów wytwarzania i w przypadku niektórych zorzy może osiągnąć wysokość 300 km. Rozkład intensywności nie jest jednorodny wzdłuż pionu; jego pionowa konstrukcja zbudowana jest z elementów o grubości od setek metrów do kilku kilometrów. Zorze polarne pozostają w pasie szerokości geograficznej, którego grubość jest funkcją czasu magnetycznego (definiowanego jako lokalny czas słoneczny, ale liczony od południka zawierającego bieguny magnetyczne i geograficzne), jak widać na ryc. 2. W owalu zorzowym znajduje się spokojna łuki są przeważnie zorientowane wzdłuż owalu i mogą mieć długość 500 km. Częstotliwość występowania Dla danej stacji naziemnej w strefie zorzy polarnej, średnie roczne występowanie jest zgodne z 11-letnim cyklem słonecznym, jednakże z opóźnieniem od roku do dwóch lat. Korzystając z danych z kilku lat, posortowanych według średniej miesięcznej, pokazana jest zmienność półroczna z maksymalnym występowaniem zorzy w pobliżu równonocy. Podobnie można wskazać 27-dniową rotację Słońca. Występowanie czapy polarnej i zorzy dziennej nie przestrzega ściśle tych zasad, szczególnie w przypadku najbardziej intensywnych wydarzeń.
Związek z aktywnością magnetyczną
Słońce jest gwiazdą zmienną. Doświadcza zmian mniej lub bardziej cyklicznie, inne mają charakter bardziej chaotyczny. Jego zmienna aktywność powoduje wahania charakterystyki WIATR SŁONECZNEGO (prędkość, gęstość, temperatura jonów i elektronów oraz pole magnetyczne) o większym lub mniejszym znaczeniu. Powoduje to niewielkie wahania pola magnetycznego Ziemi, które są wykrywane przez magnetometry na ziemi. Ich amplitudy służą do określenia wskaźników aktywności magnetycznej. Zdarzenia te nazywane są burzami magnetycznymi. Występowanie i intensywność zorzy polarnej zbadano jako funkcję zaburzeń magnetycznych i określono odpowiadający im owal zorzy. Z typowego kształtu (ryc. 2), wraz ze wzrostem aktywności magnetycznej, owal przesuwa się nieco w kierunku równika i rozciąga się w kierunku biegunowym i równikowym. To wyjaśnia, dlaczego niektóre zorze można zaobserwować na średnich szerokościach geograficznych. Aktywność magnetyczna przebiega zgodnie z 11-letnim cyklem słonecznym. Jednakże, biorąc pod uwagę chaotyczną naturę Słońca, silne zjawiska magnetyczne mogą wystąpić nawet podczas niskiej aktywności słonecznej. Zorze elektronowe i protonowe Zorze powstają głównie w wyniku zderzeń pomiędzy substancjami atmosferycznymi a cząstkami, elektronami lub protonami. Większość właściwości omówionych powyżej dotyczy zórz elektronowych. Różnice między zorami elektronowymi i protonowymi wynikają z ich odmiennego sposobu propagacji w górnych warstwach atmosfery. Ze względu na masę protonu jego promień wirowania jest znacznie większy (200 m) niż elektronu. Co więcej, protony poruszające się w polu magnetycznym mogą zderzać się z niektórymi cząsteczkami i wychwytywać elektron. W efekcie atom wodoru porusza się po linii prostej, wolny od wpływu ziemskiego pola magnetycznego. Kolejna kolizja może później przywrócić początkowy proton. W rezultacie zorze protonowe mają słabą intensywność (maksymalna IBC I) i są rozproszone. Wysokość występowania wynosi około 100 km. Owal zorzy protonowej jest nieco przesunięty w stronę równika w stosunku do owalu zorzy elektronowej.
Widmo zorzy polarnej i mechanizmy emisji
Większość zórz polarnych ma kolor zielony ze względu na linię emisyjną O(1S) przy 557,7 nm. Istnieje jednak wiele innych linii pochodzących z atomów, cząsteczek lub gatunków zjonizowanych. Jest to superpozycja wielu linii z: O i N; O2, N2, NO i OH; O+, N+; i O+2, Nsup>+2. Kolor niebieski pochodzi z pasma Nsup>+2 przy 391,4 nm. Widmo zorzy polarnej powstaje w wyniku zderzeń elektronów/protonów z substancjami występującymi w atmosferze ziemskiej oraz reakcji fotochemicznych:
(a) Zderzenia z elektronami. Pierwotne elektrony z magnetosfery zderzają się z atomami (A) i cząsteczkami (M) atmosfery ziemskiej i ustawiają te gatunki w stany metastabilne (?), takie jak
A+e ? A? + e
M+e ? M? + e
z podobnymi reakcjami prowadzącymi do jonów. Elektrony po lewej stronie to elektrony pierwotne, a te po prawej stronie to elektrony wtórne, które również mogą zderzać się z innymi gatunkami i generować wzbudzone stany molekularne i atomowe, aż do ich pełnej termalizacji. Stany wzbudzone (?) są dezaktywowane albo przez wypromieniowanie fotonów, albo przez zderzenia z innymi substancjami przed emisją światła (wygaszenie). Ponieważ zagęszczenie gatunków neutralnych rośnie w dół, wygaszanie wyjaśnia, dlaczego na małych wysokościach (zwykle poniżej 70 km) nie obserwuje się zórz polarnych. (b) Pośrednie mechanizmy wzbudzenia. Dwa najważniejsze mechanizmy to:
(1) Rekombinacja dysocjacyjna; typowym przykładem jest O+2 + e ? O(1D lub 1S)+O.
(2) Transfer i hartowanie energii; typowym przykładem jest
O(1D)+N2 ? O(3P)+N2.
Symbol oznacza stan wzbudzony lub stan podstawowy. W pierwszym przypadku mamy do czynienia z transferem energii, w drugim zaś z dezaktywacją kolizyjną. Skuteczność hartowania jest funkcją wysokości i czasu życia stanu wzbudzonego zderzających się gatunków. (c) Zderzenia z protonami. Reakcje obejmują rotony i obojętny wodór zderzający się z cząsteczkami. Podczas tych zderzeń obojętny wodór może rozbić swój elektron, zjonizować cząsteczkę lub przekazać jej energię. Jeśli chodzi o proton, może on również jonizować cząsteczkę, przekazywać jej energię lub wychwytywać elektron. Aby obliczyć różne intensywności linii emisyjnych, konieczne jest pozbycie się widma energii elektronów pierwotnych. Zwykle mierzy się to na dużych wysokościach (zwykle 300 km). Obliczenia widma zorzy polarnej opierają się na widmie energii elektronów pierwotnych, przekroju poprzecznym atomów i cząsteczek oraz procesach zachodzących, gdy elektrony przenikają do atmosfery w kaskadzie kolejnych zderzeń. Problem jest dość trudny i obarczony jest również niepewnością wpływającą na przekroje poprzeczne. Obserwacje wizualne, a także instrumenty pokładowe rakiet i statków kosmicznych wykazały zależność intensywności emisji liniowej od wysokości. Rozważmy przypadek emisji tlenu atomowego przy długości fali 630 nm. Mechanizm emisji (rekombinacja dysocjacyjna i wzbudzenie przez zderzenie), pionowy rozkład cząstek obojętnych i widmo energii wytrącających elektronów pozwalają nam obliczyć szybkość wytwarzania stanu wzbudzonego (1D) w funkcji wysokości. Uwzględnienie dezaktywacji wzbudzonych atomów tlenu w wyniku zderzeń zapewnia profil szybkości emisji wraz z wysokością. W przypadku tej emisji czas życia stanu wzbudzonego 1D wynoszący 110 sekund tłumi całą emisję na małych wysokościach. Dlatego właśnie zorzę polarną obserwowaną przy 630 mil morskich można znaleźć na wysokości 250 km. Ten sam proces pozwala nam obliczyć profil wysokości zielonej linii stanu wzbudzonego tlenu atomowego 1S. Jego czas życia wynoszący 0,7 s pozwala uniknąć dezaktywacji na małych wysokościach, a emisję tę będzie można zaobserwować już na 80 km, w zależności od intensywności wytrącania elektronów. Dla danej linii emisyjnej, im silniejsze jest wytrącanie elektronów, tym niższa będzie zorza polarna.
Zorza polarna i magnetosfera Ziemi oraz inne powiązane zjawiska
Sugeruje się, aby czytelnik zapoznał się z rozdziałami poświęconymi magnetosferze ziemskiej, aby mieć na uwadze jej reprezentację oraz terminologię . Ponieważ Słońce jest gwiazdą zmienną, wiatr słoneczny charakteryzuje się różnymi reżimami, które wpływają na stan magnetosfery Ziemi. Międzyplanetarne pole magnetyczne (IMF) ulega zmianom w czasie. W stanie cichym MFW ma składową północną (tj. równoległą do ziemskiego pola magnetycznego), która podczas burz magnetycznych skręca na południe. Aby zbadać mechanizm emisji zorzy polarnej, podczas prezentacji zorzy zmierzono widmo wytrącających się cząstek. W przypadku zorzy dziennej i zorzy polarnej stwierdzono, że jest ona rzędu energii wiatru słonecznego. W związku z tym uważa się, że zorze dzienne powstają w wyniku przedostawania się cząstek wiatru słonecznego górne warstwy atmosfery poprzez północne i południowe wierzchołki dzienne, gdzie w magnetycznie spokojnych warunkach istnieje punkt neutralny (północny IMF). Zorze polarne powstają w wyniku cząstek wiatru słonecznego z ogona magnetycznego. W owalu zorzowym energia cząstek jest 50-krotnie lub więcej większa niż w wietrze słonecznym. W związku z tym zasadniczym pytaniem jest mechanizm przyspieszania cząstek. Kwestia ta jest wciąż przedmiotem dyskusji i nie można jej jeszcze uznać za całkowicie zrozumianą. Jednak najbardziej prawdopodobnym mechanizmem jest ponowne połączenie pola magnetycznego Ziemi z MFW. Ponowne połączenie następuje, gdy MFW ma składową południową (przeciwrównoległą do ziemskiego pola magnetycznego). W tym przypadku generuje neutralną osłonę, do której strumienie plazmy są wtryskiwane w górę i w dół od tego obszaru. Powoduje to rozrzedzenie arkusza plazmy i ruch cząstek do wewnątrz. Kurczenie się arkusza plazmy prowadzi do wzrostu energii cząstek. Proponowanych jest kilka procesów. Najbardziej prawdopodobna metoda opiera się na adiabatycznej kompresji pewnej ilości plazmy zamkniętej w sprężonej rurze strumienia magnetycznego podczas jej konwekcji do przodu, aż w końcu wytrąci się w górnych warstwach atmosfery ziemskiej w chwili, gdy system staje się niestabilny. Owal zorzowy jest wówczas przecięciem warstwy plazmy z górną atmosferą na wysokości 100-200 km. Owal zorzowy jest ustalony względem Słońca, ale stacja naziemna na szerokościach zorzowych obraca się poniżej, wokół bieguna geograficznego. W zależności od czasu może znajdować się w czapie polarnej, wewnątrz lub na zewnątrz owalu, doświadczając różnych reżimów występowania zorzy. Ich średnia określa strefę zorzową widzianą z ziemi. Kiedy magnetosfera jest umiarkowanie zakłócona z powodu niewielkich zmian IMF, odpowiednie zdarzenia nazywane są podburzami magnetycznymi i składają się z czterech odrębnych faz (ciszy, wzrostu, ekspansji i regeneracji) mających specyficzne cechy, takie jak typowe zmiany w polu magnetycznym Ziemi. Duże zdarzenia słoneczne, takie jak rozbłyski, generują burze magnetyczne, które są analizowane jako seria następujących po sobie burz. Podczas burzy magnetycznej poruszające się cząstki wytwarzają pole magnetyczne, które łączy się z polem ziemskim. Zmienna charakterystyka wytrącających się cząstek (prędkość, kierunek i gęstość liczbowa) oraz zderzenia z ziemską atmosferą są przyczyną złożoności zaburzeń pola magnetycznego. W związku z tym zorze stanowią wizualną ilustrację zaburzeń pola magnetycznego Ziemi. W niektórych przypadkach układ pola jest prosty, jak na przykład promienie, które pojawiają się jako prawie pionowe kolumny światła, wskazujące na duże nachylenie linii pola na szerokości geograficznej strefy zorzowej. Z zorzami wiąże się wiele innych zjawisk, takich jak elektroodrzutowy zorzowy krążący w obszarze E (na wysokości około 100 km), który jest podgrzewany przez rozpraszanie Joule′a i prąd pierścieniowy na niskich szerokościach geograficznych. Generowane są również promienie rentgenowskie i fale radiowe w zakresie od 40 do 500 MHz. Podczas zorzy powstają pola elektryczne, które oddziałują na ruch elektronów, protonów i jonów. Co więcej, wszystkie te gatunki poruszają się w neutralnej atmosferze, której siłą napędową są zderzenia z jonami. W rezultacie dynamika jest silnie powiązana z wydarzeniami zorzowymi, co ilustruje rozwój pionowych neutralnych wiatrów podczas burz.
Wykorzystanie obserwacji zorzowych
Na podstawie obserwacji statystycznie ustalono związek między występowaniem zorzy polarnej a aktywnością Słońca. Dlatego też do rekonstrukcji aktywności Słońca przed pierwszymi obserwacjami instrumentalnymi wykorzystano występowanie zórz polarnych. Długie okresy aktywności słonecznej stwierdzone w zmianach 14C zostały potwierdzone przez występowanie zórz polarnych. Mówiąc bardziej bezpośrednio, występowanie zorzy polarnej reprezentuje ostateczny etap różnych zjawisk zachodzących od wiatru słonecznego po atmosferę ziemską. Zrozumienie szczegółowych cech zorzy polarnej (występowanie, formy, widmo) gwarantuje zrozumienie całego procesu fizycznego. To samo dotyczy zorzy obserwowanej w atmosferze Jowisza i Saturna. Dane zorzowe pokazują, jak ważne w nauce są długie serie starannie wykonanych obserwacji.
Aurorae: obserwacja przez amatorów
Naukowcy-amatorzy od dawna interesują się niebem, dlatego obserwacje zorzy polarnej były amatorskie już od dawna, odkąd istnieją zapisy. W epoce nowożytnej amatorom przypisuje się znaczący wkład w badania zorzy polarnej, ponieważ postęp w wielu naukach zaczął się nasilać w XVIII wieku. Ponieważ zorza polarna jest zjawiskiem na dużą skalę i ma charakter globalny, wcześnie dostrzeżono wartość międzynarodowej współpracy obejmującej zarówno profesjonalistów, jak i amatorów. Jeden z najbardziej udanych pokazów takiej współpracy miał miejsce podczas Międzynarodowego Roku Geofizycznego (1957/58). Wraz z nadejściem ery kosmicznej badacze zaczęli w większym stopniu polegać na satelitach i wyrafinowanym naziemnym sprzęcie obserwacyjnym do monitorowania zorzy polarnej, ale nadal przywiązuje się dużą wagę do raportów wizualnych jako ich uzupełnienia. Ważnym celem obserwacji wizualnych jest kontynuacja pisemnych zapisów aktywności zórz polarnych, które zachowały się od czasów greckich przez kilka cywilizacji. Do przeprowadzenia użytecznych obserwacji wizualnych zorzy polarnej wymagane jest minimum sprzętu, a jedynym potrzebnym instrumentem optycznym jest nieuzbrojone oko. Do pewnego stopnia możliwe jest prognozowanie wystąpienia zorzy polarnej na podstawie ostatnich wydarzeń na Słońcu, dzięki czemu wysiłki obserwacyjne można zaplanować tak, aby pokrywały się z nocami, w których prawdopodobieństwo wystąpienia zorzy jest największe. Magnetometry i krótkofalówki mogą być również pomocne w ostrzeganiu obserwatora o obecności zorzy polarnej (chociaż nie zawsze ma to wizualny odpowiednik). Najczęściej jednak zobaczysz zorze polarne, jeśli będziesz wytrwale dokonywał regularnych inspekcji wzrokowych nieba na biegunie w ciągu nocy, między zachodem a świtem, gdy tylko pozwoli na to pogoda i światło księżyca. Amatorzy obserwatorzy mieszkający w miastach lub tam, gdzie występują częste zachmurzenia, mogą nie być w stanie zbyt często obserwować zorzy wizualnie, mogą jednak przedstawić obserwację, że aktywność zorzy została wykryta za pomocą magnetometru lub radia krótkofalowego. W tym wypadku obserwacja nie ogranicza się do godzin nocnych, jak w przypadku obserwatora czysto wizualnego. Do podstawowych obserwacji słuchowych nie jest potrzebny żaden specjalny sprzęt. Jednakże przydatne może być posiadanie instrumentu, takiego jak prosty teodolit lub alidada, do dokładnego określenia położenia i wysokości obiektów w zorzy polarnej. Jako dodatek do zapisu wizualnego, obserwatorzy-amatorzy czasami wykrywają subwidzialne szczegóły na obrazach zorzy polarnej za pomocą fotografii lub obrazowania za pomocą URZĄDZENIA CHARGE-COUPLED DEVICE (CCD). Fotografia to popularny sposób rejestrowania zorzy polarnej i idealny sposób na podzielenie się spektaklem pokazowym po wydarzeniu . Wystarczy dowolny aparat, który może wykonywać czas ekspozycji od kilku sekund do kilku minut, z obiektywem otwartym na najszerszą przysłonę - wielu fotografów wybiera szybki film kolorowy (taki jak ISO 400) i szybki, szerokokątny obiektywu (np. ogniskowa f/3 i ogniskowa 28 mm). Fotografie stanowią także trwały zapis położenia i struktury wyświetlacza, co może być przydatne w pracach triangulacyjnych. Dla osób zainteresowanych zastosowaniem innych technik w celu poszerzenia swoich obserwacji można również zastosować wideografię, obrazowanie CCD i spektroskopię. Aby wykryć obecność lub prognozować prawdopodobieństwo aktywności zorzy, obserwatorzy zainteresowani elektroniką mogą używać magnetometrów lub krótkofalowych urządzeń radiowych do wykrywania zaburzeń w polu geomagnetycznym lub jonosferze. Zachęcamy autorów do przesyłania obserwacji zorzy polarnej w formacie zalecanym na mocy umowy międzynarodowej, co zwiększa wartość obserwacji i także ocena zjawiska przez obserwatora. Zapis zawiera lokalizację obserwatora i warunki obserwacji, datę i godzinę zaobserwowania wyświetlacza, a także szczegóły dotyczące jasności, koloru, formy, aktywności, kierunków i wysokości obiektów oraz zachodzących zmian. Informacje te można zapisać w formie notatek lub diagramów, przedstawionych z różnym stopniem szczegółowości, w zależności od preferencji lub doświadczenia indywidualnego obserwatora. Do wszelkich zdjęć lub innych rodzajów obserwacji zorzy polarnej należy również dołączyć zapis zawierający co najmniej lokalizację, datę i godzinę, a także odpowiednie informacje techniczne, aby nadać im wartość naukową. To także zwiększa zainteresowanie i użyteczność zapisu dla innych obserwatorów. Aby jak najlepiej wykorzystać obserwacje, wyniki można przekazać jednej z kilku organizacji o ugruntowanej pozycji, które gromadzą, analizują i archiwizują raporty do wykorzystania w przyszłości. Wstępna analiza raportów zwykle obejmuje porównanie z prognozami i korelację zdarzenia zorzy z aktywnością na Słońcu i w polu geomagnetycznym Ziemi. W dłuższej perspektywie interesujące jest określenie częstotliwości pokazów obserwowanych z poszczególnych lokalizacji oraz ich częstotliwości w określonych warunkach lub w określonych porach roku lub cyklu plam słonecznych. Zorza odnotowana przez wielu obserwatorów z różnych lokalizacji pozwala opisać kształt, rozmiar, położenie, rozwój i czas trwania zorzy polarnej. Wyniki udostępniane organizacjom regionalnym i międzynarodowym umożliwiają sporządzenie wykresu całego zdarzenia zorzowego, poza granicami światła dziennego i pomiędzy półkulami, co pozwala na zbadanie globalnego wzorca aktywności zorzy polarnej. Obserwacje wizualne można ostatecznie porównać ze zdjęciami i innymi danymi dotyczącymi owalu zorzowego uzyskanymi z satelitów i profesjonalnych obserwatoriów. Brytyjskie Stowarzyszenie Astronomiczne (BAA) gromadzi obserwacje zorzy polarnej za pośrednictwem swojej Sekcji Aurorów i posiada sieć obserwatorów, w skład której wchodzą członkowie BAA lub innych towarzystw astronomicznych, obserwatorzy indywidualni, zawodowi meteorolodzy i oficerowie statków na morzu. BAA gromadzi i publikuje obserwacje, głównie zorzy burzowej na średnich szerokościach geograficznych, z Wysp Brytyjskich, Europy, Islandii, Kanady i Stanów Zjednoczonych Ameryki; są one również publikowane przez Brytyjskie Biuro Meteorologiczne. Na półkuli południowej obserwacje koordynuje Królewskie Towarzystwo Astronomiczne Nowej Zelandii (RASNZ), które otrzymuje i publikuje obserwacje z Nowej Zelandii i Australii. Istnieje ścisła współpraca i wymiana pomiędzy BAA i RASNZ. Raporty koordynowane przez BAA i RASNZ są następnie archiwizowane na Uniwersytecie Aberdeen w Szkocji, gdzie są udostępniane badaczom. Podobne archiwa istnieją w takich krajach jak Chiny, Korea i Japonia. Obserwacje radiowe zorzy polarnej koordynują Towarzystwo Radiowe Wielkiej Brytanii i Amerykańska Liga Przekaźników Radiowych w USA. Profesjonaliści korzystają z danych dostarczonych przez amatorów; na przykład wyniki amatorów pomogły odkryć procesy zachodzące w termosferze. Obserwatorzy-amatorzy również wnoszą istotny wkład w trwające badania nad złożoną korelacją między zorzą polarną a nocnymi obłokami. Procesy zorzowe i złożone interakcje, które je powodują, nie są jeszcze w pełni poznane, dlatego zorza jest nadal przedmiotem intensywnych badań. Ponieważ naukowcy nie rejestrują już zorzy wizualnej, jedynym źródłem takich obserwacji jest amatorska społeczność astronomiczna. Zapisy dotyczące wizualnej zorzy polarnej są przechowywane od setek lat i w przeszłości dostarczyły cennych informacji na temat aktywności Słońca i górnych warstw atmosfery Ziemi - istnieją jeszcze obszerne archiwa, które nie zostały jeszcze wykorzystane, a które mogą mieć podobne znaczenie w nowych badaniach w Ziemi przyszły. Niektóre obszary, w których można wykorzystać zapisy zorzy wizualnej, obejmują geomagnetyzm, magnetyzm słoneczny i międzyplanetarny, pogodę ziemską, górne warstwy atmosfery i pogodę kosmiczną.
Zorzowe promieniowanie kilometrowe
Ziemia jest potężnym naturalnym źródłem radiowym, które emituje jasną emisję na falach kilometrowych: zorzowe promieniowanie kilometrowe (AKR). Jak sama nazwa wskazuje, regiony źródłowe AKR znajdują się na dużych szerokościach geograficznych, na wysokościach wahających się zazwyczaj od 0,5 do 2 promieni Ziemi. Jego maksymalna częstotliwość (rzędu 700 kHz) jest mniejsza od częstotliwości odcięcia jonosfery i dlatego promieniowania tego nie można obserwować z ziemi. W ten sposób odkryto go i zbadano już po rozpoczęciu ery kosmicznej . AKR organizuje się w burze radiowe trwające kilka 10 minut i posiadające moc kilku megawatów. Ta sporadyczna aktywność jest skorelowana z okresami intensywnych opadów cząstek zorzy polarnej, podczas których obserwuje się energetyczne elektrony o typowych energiach kilku keV spływające wzdłuż linii pola magnetycznego zorzy i tworzące zorzę polarną (patrz AURORA). Te wytrącające się populacje elektronów wynikają ze złożonego łańcucha procesów fizycznych powiązanych z głównymi zakłóceniami ogona magnetosferycznego, znanymi jako podburze magnetosferyczne (patrz MAGNETOSFERA ZIEMI: SUBSTORY). AKR jest zatem bezpośrednio powiązany z globalną aktywnością magnetosferyczną i może nawet być uważany za wskaźnik tej aktywności. Jeśli chodzi o jego wewnętrzne właściwości, AKR charakteryzuje się ekstremalną temperaturą jasności (do 1020 K), która jest całkowicie niewytłumaczalna za pomocą klasycznych mechanizmów promieniujących (takich jak promieniowanie żyrosynchrotronowe). Aby wyjaśnić ich powstawanie, należy zatem przywołać spójne procesy związane z rozwojem mikroniestabilności plazmy. Oprócz tej ekstremalnej jasności, dobra teoria AKR musi również opisywać polaryzację emisji oraz jej silną organizację czasową i widmową. AKR sama w sobie nie jest szczególnie potężnym zjawiskiem. Jest to nawet do pominięcia w globalnym budżecie energetycznym aktywności magnetosferycznej. Jednakże budzi pewne zainteresowanie astrofizyczne, gdyż należy do szerokiej klasy emisji radiowych bezpośrednio związanych z rozwojem mechanizmów przyspieszania w bezkolizyjnych plazmach otaczających większość obiektów astrofizycznych. Rzeczywiście zaobserwowano emisje radiowe o charakterystyce porównywalnej z AKR, pochodzące z obiektów astrofizycznych tak różnych, jak inne namagnesowane planety Układu Słonecznego, Słońce, niektóre gwiazdy i układy podwójne. Ponieważ jego źródła mogą być bezpośrednio badane przez statki kosmiczne, AKR stanowi zatem bardzo interesujący przypadek zjawiska astrofizycznego, dla którego modele teoretyczne można sprawdzić za pomocą pomiarów in situ. Większość wspomnianych emisji radiowych prawdopodobnie pochodzi z samego miejsca przyspieszania cząstek, a ich analiza może służyć jako narzędzie diagnostyczne do badania uwalniania energii w środowiskach plazmy. W tym kontekście kluczowe jest zrozumienie mechanizmu generowania AKR. Poniższe obserwacje dotyczą tego szczególnie ważnego aspektu problemu.
Warunki fizyczne w źródłach AKR
Przykład precyzyjnych obserwacji fal przeprowadzonych w pobliżu i wewnątrz źródła AKR przedstawiono na rysunku 1. Pomiary te zostały wykonane przez szwedzką sondę kosmiczną - Viking - specjalnie zaprojektowaną do analizy mechanizmów przyspieszania i promieniowania zachodzących w zorzy polarnej. strefy MAGNETOSFERY ZIEMI. Kiedy dokonał tej obserwacji, Viking znajdował się na wysokości około 10 000 km, na szerokości magnetycznej bliskiej 70° szerokości geograficznej północnej, około północy czasu lokalnego i przeleciał przez obszar magnetycznie połączony z dyskretnym łukiem zorzowym. Na rysunku przedstawiono wykres czasowo-częstotliwościowy składowej elektrycznej fal elektromagnetycznych. Intensywność jest podawana za pomocą kodu kolorowego (od niebieskiego do czerwonego i białego w miarę wzrostu intensywności od mniej niż 10-8 V m-1 Hz-1/2 do ponad 10-5 V m-1 Hz-1/2) . Zakres częstotliwości wynosi 10 kHz-500 kHz i wyświetlanych jest 20 minut danych. Biała linia wskazuje częstotliwość żyroskopową elektronów (fce) zmierzoną przez sondę. AKR obserwuje się powyżej tej charakterystycznej częstotliwości (tutaj około 150 kHz), tworząc emisje w kształcie litery V. Jego niższe częstotliwości, które odpowiadają wyraźnemu odcięciu, mają minimum około 22,39 UT. W tym czasie częstotliwości AKR sięgają fce. Ten obszar częstotliwości minimalnych jest jednocześnie obszarem maksymalnego poziomu fal (biały kod intensywności). To jest źródło AKR. Kształt V widm dynamicznych AKR jest łatwo zrozumiany, jeśli założy się, że fale powstają w fce (a więc przy rosnących częstotliwościach w miarę zmniejszania się wysokości) w źródle wydłużonym wzdłuż pola magnetycznego, pod kątem ukośnym do linii pola magnetycznego oraz w kierunek w górę. Daleko od źródła (na przykład o 22:35 lub 22:45) wykrywane są jedynie fale generowane znacznie poniżej statku kosmicznego (a więc przy wysokich częstotliwościach). Gdy statek kosmiczny zbliża się do źródła, wykrywane są fale generowane coraz bliżej statku kosmicznego, a tym samym o coraz niższych częstotliwościach, aż statek kosmiczny przetnie źródło, co odpowiada maksymalnemu natężeniu i minimalnym częstotliwościom. Na tym spektrogramie można również zaobserwować systematyczną modulację AKR w całym zakresie częstotliwości w okresie 20 s. Modulacja ta jest powiązana z wirowaniem statku kosmicznego (anteny elektryczne znajdują się wówczas na przemian równolegle i prostopadle do pola magnetycznego) i jest oznaką silnej polaryzacji fal. Można to wykorzystać do zidentyfikowania sposobu propagacji AKR. Okazuje się, że jest to tak zwany mod X, elektromagnetyczny mod nadświetlny, który ma prawoskrętną polaryzację kołową (składnik elektryczny fal obraca się w płaszczyźnie prostopadłej do pola magnetycznego w tym samym sensie, co elektrony). W najniższej części spektogramu obserwuje się emisję szerokopasmową (syk zorzy). Górna częstotliwość odcięcia tej emisji (przejście z żółtego na zielony na spektrogramie) to lokalna częstotliwość plazmy. Jest rzędu 30 kHz, co wskazuje, że gęstość plazmy wynosi zazwyczaj około 10 cm-3. Tuż około godziny 22.39, podczas przeprawy przez źródło AKR, odcięcie to zanika. W rzeczywistości jest to poniżej pasma częstotliwości analizatora (10 kHz). Źródłem AKR jest wówczas obszar znacznego ubytku plazmy, typowa gęstość waha się od typowo 10 cm-3 do mniej niż 2 cm-3 na krótkim dystansie (kilka km). Źródła można wówczas postrzegać jako "kurtyny" zubożonej plazmy, z dość dużymi odcinkami pionowymi i ze wschodu na zachód, ale bardzo cienkimi (mniej niż 50 km) w kierunku północ-południe. Pomiary cząstek są ważne dla zrozumienia mechanizmu wytwarzania. Ze względu na wirowanie statku kosmicznego strumienie cząstek mierzone są pod różnymi kątami w stosunku do pola magnetycznego (ząb piły poniżej strumieni protonów). 0? odpowiada kierunkowi równoległemu do pola magnetycznego, skierowanemu w stronę Ziemi (wytrącające się cząstki). Ten przedział czasu odpowiada detekcji wiązek jonów, które rozchodzą się w górę z typowymi energiami rzędu 4 keV. Jednocześnie maksymalna energia elektronów spada z 8-10 keV (przed pierwszą strzałką i za drugą) do typowo 4 keV (pomiędzy strzałkami). Najprostszym wyjaśnieniem tych obserwacji jest to, że wchodząc do źródła AKR, sonda wchodzi również w obszar przyspieszeń cząstek, który odpowiada istnieniu spadku potencjału wzdłuż pola magnetycznego. Tuż przed lub po przejściu źródła ten spadek potencjału znajduje się całkowicie nad statkiem kosmicznym, dzięki czemu wykrywane są wytrącające się elektrony o maksymalnej energii. Wewnątrz źródła część potencjalnego spadku znajduje się teraz poniżej statku kosmicznego; energia elektronów maleje, ale obserwuje się pobudzenie jonów pochodzących z dołu. Stanowi to jedną z podstawowych obserwacji dotyczących AKR: źródłami tego promieniowania są jednocześnie miejsca przyspieszania cząstek . Zostało to niedawno potwierdzone przez obserwacje statku kosmicznego FAST. Dokładniejsze badanie strumieni cząstek może pomóc nam zrozumieć rodzaj funkcji rozkładu odpowiedzialnych za generowanie fal. Rozkłady te charakteryzują się rozszerzonymi stożkami strat (duża przerwa w strumieniu elektronów skierowanych w górę) i akumulacją elektronów przy dość dużych prędkościach prostopadłych i małych równoległych. Powstawanie takich rozkładów można wytłumaczyć powstaniem równoległego pola elektrycznego odpowiedzialnego za przyspieszenie cząstek. Odpowiada to również ewakuacji plazmy niskoenergetycznej i utworzeniu obszaru wyczerpania gęstości. Te dwie cechy funkcji rozkładu, akumulacja elektronów przy dużych prędkościach prostopadłych i niskich gęstościach, mają fundamentalne znaczenie dla najbardziej prawdopodobnego mechanizmu generacji AKR: niestabilności masera cyklotronowego.
Teoria masera cyklotronowego
W przeszłości zaproponowano wiele teorii wyjaśniających powstawanie AKR (liniowa konwersja elektrostatycznych górnych fal hybrydowych, nieliniowe dudnienie fal elektrostatycznych, promieniowanie z zapadających się kawitonów). Obecnie powszechnie przyjmuje się, że szczególna niestabilność mikroskopowa - niestabilność masera cyklotronowego (CMI; po raz pierwszy zaproponowana przez Wu i Lee (1979)) - adekwatnie opisuje to zjawisko. Teoria ta opiera się na rezonansowym oddziaływaniu pomiędzy polem elektrycznym fal a wirującymi elektronami i opisuje przeniesienie momentu pędu z populacji elektronów do falowego pola elektromagnetycznego. Sukces tej teorii tłumaczy się faktem, że uwzględnia ona niektóre z najważniejszych wyników eksperymentalnych zaprezentowanych wcześniej. Przeniesienie pędu jest szczególnie ważne, jeśli pole elektryczne podąża za ruchem elektronów, tj. Jeśli fale mają prawoskrętną polaryzację kołową (co ma miejsce w przypadku fal w trybie X). Co więcej, to przeniesienie jest korzystne dla fal, jeśli plazma wykazuje nadmiar momentu pędu w stosunku do równowagi termicznej. Taki nadmiar może odpowiadać istnieniu dodatnich zboczy ?f/?P? w pewnym obszarze przestrzeni faz pędu (gdzie P? jest składową pędu cząstki prostopadłą do pola magnetycznego), co dokładnie obserwuje się wewnątrz regiony źródłowe AKR. Ten mechanizm generowania jest zatem tylko szczególnym przykładem wzbudzenia fali przez plazmę poza równowagą, charakteryzującą się inwersją populacji w energii "prostopadłej". Mechanizm ten można opisać w sposób bardziej matematyczny za pomocą układu równań Maxwella - Własowa. Jeśli zachowa się tylko najważniejsze interakcje między falami i elektronami (czysty ruch cyklotronowy i oddziaływanie z jednorodnym polem elektrycznym, które wiruje we właściwym sensie z częstotliwością bliską częstotliwości żyroskopowej elektronów), układ można zapisać jako

Tutaj f0 to funkcja rozkładu tła, E1, J1, f1 to odpowiednio zaburzone pole elektryczne, prąd i funkcja rozkładu, indeksy dolne +, ? i || odnoszą się do składowych lewoskrętnych, prawoskrętnych i równoległych, θ to kąt Larmora elektronów, ich współczynnik Lorentza ((1?v2/c2)-1/2) a ωc elektronową częstotliwość żyroskopową. Z czasową transformatą Fouriera równania (1) otrzymuje się uproszczone równanie dyspersji:

Następnie można łatwo obliczyć tempo wzrostu fal. Jest proporcjonalna do całki ∂f0/∂P⊥ wzdłuż krzywej rezonansowej określonej przez Γω = ωc. Oznacza to, że maksymalne przeniesienie pędu następuje wtedy, gdy częstotliwość fali dokładnie odpowiada częstotliwości żyroelektronowej elektronów. Nieco bardziej złożone obliczenia dają dokładny warunek rezonansowy: ω ? k|| v ? ωc/Γ = 0. Dla ∂f0/∂P⊥ > 0 wzdłuż krzywej rezonansowej współczynniki absorpcji mogą stać się ujemne, prowadząc w ten sposób do niestabilności : tak zwany CMI. Dokładne i pełne obliczenia powodują, że równanie dyspersji jest bardziej złożone, ale nie zmienia jego fizycznego znaczenia. Za powstawanie nietermicznych cech ∂f0/∂P⊥ w funkcji rozkładu mogą być odpowiedzialne dwa procesy fizyczne: (1) jonosferyczna absorpcja elektronów, która wytwarza funkcje rozkładu stożka strat oraz (2) adiabatyczna ewolucja populacji elektronów przyspieszane w dół wzdłuż linii pola magnetycznego. Ze względu na siłę lustra ich energia prostopadła rzeczywiście stopniowo wzrasta kosztem ich energii równoległej, tak że może powstać lokalny nadmiar pędu prostopadłego. Obecność przyspieszającego pola elektrycznego sprzyja występowaniu niestabilności masera także w inny sposób: usuwa zimne elektrony, składnik plazmy, który zawsze przyczynia się do stabilizacji CMI. Aby mody X były niestabilne, w przybliżeniu konieczne jest, aby (ωpc/ωc)2 = W/2mc2, gdzie ωpc to częstotliwość zimnej plazmy, a W typowa energia elektronów - o masie spoczynkowej m - dla której ∂f0/∂P⊥ . Chociaż obserwacje in situ dostarczają mocnych dowodów na to, że AKR jest generowany przez CMI, stopy wzrostu określone bezpośrednio za pomocą zmierzonych funkcji rozkładu niekoniecznie są zbyt znaczące. Dzieje się tak ze względu na wrażliwość niestabilności na różne niejednorodności występujące w plazmie i/lub jej szybkie nasycanie procesami nieliniowymi. Spośród różnych gradientów występujących w ośrodku magnetosferycznym, dwa z nich prawdopodobnie wpływają na generację AKR: (1) niejednorodność pola magnetycznego, która powoduje niewielkie modyfikacje częstotliwości żyroskopowej wraz z wysokością, tak że warunek rezonansowy nie może być spełniony na bardzo dużej odległości oraz (2) niejednorodność prostopadłą powiązaną z występowaniem ostrych gradientów gęstości, które ograniczają źródła AKR . Efekty te mogą mieć pewne znaczenie przy określaniu makroskopowych właściwości promieniowania (w szczególności kształtu listków emitujących). Jeśli chodzi o efekty nieliniowe, wzrost fal może zostać nasycony albo poprzez relaksację quasiliniową, albo przez proces nasycania typu pułapkowego, co jest nadal przedmiotem dyskusji. Nieliniowe nasycenie i efekty niejednorodności mogą być ważne dla wyjaśnienia powstawania niektórych drobnych struktur obserwowanych w widmach dynamicznych AKR.
Wniosek
AKR można uznać za stosunkowo dobrze poznane zjawisko magnetosferyczne. Zbadano źródła tego promieniowania, a teoria - CMI - daje dobre jakościowe wyjaśnienie jego powstawania. Jednakże nie ma pełnej teorii, która mogłaby wyjaśnić niektóre ilościowe aspekty promieniowania. Na przykład, wychodząc z danej niestabilnej funkcji rozkładu, przewidywanie końcowego natężenia fal i ich charakterystyk widmowych pozostaje kwestią otwartą. Jest to istotna kwestia, gdyż tylko w przypadku rozwiązań tego typu problemów fale radiowe mogłyby zostać wykorzystane jako precyzyjne narzędzia diagnostyczne.
Australijska astronomia
Astronomia jest jedną z głównych nauk w Australii od czasu pierwszego osadnictwa europejskiego ponad 200 lat temu. W epoce nowożytnej dostęp do bogatego południowego nieba i tradycja innowacji w oprzyrządowaniu podtrzymują aktywny i zróżnicowany program badawczy.
Wczesna historia
Głównym celem podróży kapitana Jamesa Cooka w 1769 r., podczas której odkrył i sporządził mapę wschodniego wybrzeża Australii, była obserwacja tranzytu Wenus znad Morza Południowego. Dokładny czas, w którym Wenus przeszła przez dysk Słońca, zapewnił dokładniejszą wartość odległości od Ziemi do Słońca, a nawet wielkości całego Układu Słonecznego, jak po raz pierwszy zasugerował Kepler. Kiedy w 1788 r. w Sydney Cove założono pierwszą europejską osadę, znaczenie nawigacji, badań geodezyjnych i pomiaru czasu było powodem założenia obserwatorium. Później założono oficjalne obserwatoria państwowe, z których pierwszym było Obserwatorium w Sydney w 1855 r. Zapewniało ono usługę pomiaru czasu dla statków w porcie w Sydney i przyczyniło się do ówczesnych badań astronomicznych, zwłaszcza astronomii pozycyjnej gwiazd. Ostatecznie wydano 53 tomy projektu Cart du Ciel (Międzynarodowy katalog astrograficzny). Obserwatoria państwowe utworzono także w Perth i Melbourne - to ostatnie stało się dobrze znane dzięki przejęciu Wielkiego Teleskopu Melbourne. Był to teleskop o średnicy 1,2 m (48 cali), a w chwili jego montażu w 1869 roku był największym w pełni sterowalnym teleskopem na świecie. Niektóre z wczesnych zdjęć Księżyca okrzyknięto najlepszymi jak dotąd, a obserwacje wizualne południowych mgławic zostały znacznie ulepszone w stosunku do tych wykonanych przez Sir Johna Herschela w jego pionierskiej pracy z Przylądka Dobrej Nadziei (patrz RODZINA HERSCHELA). Niemniej jednak problemy ze zwierciadłem wziernika i drgania wiatru, wynikające między innymi z zastosowania podnoszonego budynku, doprowadziły do tego, że teleskop wyszedł z użycia pod koniec stulecia. Problemy z Wielkim Teleskopem Melbourne opóźniły budowę dużych teleskopów o wiele lat, a kolejnym był Mount Wilson 60 cali (1,5 m) zbudowany w Kalifornii w 1908 roku i prawdopodobnie pierwszy z nowoczesnych teleskopów. Wielki Teleskop Melbourne został sprzedany Obserwatorium Mount Stromlo i w ostatnich latach (wraz z nową optyką) był używany w poszukiwaniach MACHO w zakresie soczewkowania grawitacyjnego przez gwiazdy. Dziś z byłych obserwatoriów kolonialnych jedynie Obserwatorium w Perth pełni rolę badawczą.
Rozwój powojenny
Nowoczesna era astronomii w Australii rozpoczęła się zaraz po II wojnie światowej. Wpływ rozwoju technicznego w czasie wojny był najbardziej zauważalny w nowej dziedzinie radioastronomii, gdzie wiedza specjalistyczna w zakresie systemów radarowych i nadmiar dostępnego sprzętu stanowiły idealną bazę. W Australii prace prowadzono w Laboratorium Radiofizyki CSIR (Rada ds. Badań Naukowych i Przemysłowych, później CSIRO). W tym czasie niewiele wiedziano o emisji radiowej spoza Ziemi: Karl Jansky odkrył fale radiowe z Galaktyki Drogi Mlecznej w 1932 roku, pracując nad źródłami hałasu w transmisjach radiowych, a inny Amerykanin, Grote Reber, zbudował antenę o długości 31 stóp antenę na własnym podwórku i wykonał pierwsze mapy emisji galaktycznej na szeroką skalę. Wreszcie wojenne dochodzenie w sprawie podejrzenia zakłócania radaru wykazało niezwykle intensywną emisję radiową ze Słońca. W takim klimacie rozpoczęły pracę grupy radioastronomiczne w Wielkiej Brytanii, Holandii i Australii. Prace radiofizyczne przeprowadzono w wielu stacjach terenowych w rejonie Sydney i szybko przyszły odkrycia: na przykład korelacja emisji słonecznej z liczbą plam słonecznych i wykazanie efektywnej temperatury około miliona kelwinów, znacznie powyżej powierzchni optycznej temperatura około 6000 K. Być może najbardziej znane prace przeprowadzono przy użyciu INTERFEROMETRA na szczycie klifu, który wykorzystano do odkrycia szeregu izolowanych źródeł radiowych i wykazania, że mają one bardzo mały rozmiar kątowy. Identyfikacja kilku z tych źródeł ze znanymi obiektami optycznymi, w tym Mgławicą Krab i galaktykami zewnętrznymi w konstelacjach Panny i Centaura, pokazała, że radioastronomia może nas wiele nauczyć o odległych obiektach. Kontynuowano rozwój interferometrii, aby przezwyciężyć grubą rozdzielczość kątową wczesnych radioteleskopów. Wykazano, że wczesna teoria "gwiazd radiowych" dotycząca natury dyskretnych źródeł radiowych jest błędna, ponieważ większość źródeł radiowych oddalonych od płaszczyzny Galaktyki Drogi Mlecznej ma rozmiary kątowe większe niż 1 minuta łuku. Stały się znane jako RADIO GALAXIE, ze względu na moc wyjściową radiową tysiące, a nawet miliony razy większą niż normalna galaktyka. Badania takich źródeł wykazały nadmiar źródeł słabych, jednak mniej wyraźny niż we wczesnych badaniach przeprowadzonych w Cambridge, które, jak wykazano, miały wpływ na "pomieszanie" wielu źródeł w obrębie szerokości wiązki instrumentalnej. Późniejsze obliczenia tych odległych źródeł pozagalaktycznych, zarówno z Cambridge, jak i Sydney, były zgodne i odegrały kluczową rolę w kontrowersjach kosmologicznych, w szczególności w upadku TEORII STANU STAŁEGO. Wydarzenia wojenne miały także wpływ na astronomię optyczną, choć była to już jedna z najstarszych nauk uznanych za granicą. Obserwatorium Słoneczne Wspólnoty Narodów w Mount Stromlo niedaleko Canberry zostało założone w 1924 roku, a podczas wojny zostało rozbudowane w celu produkcji celowników i innej amunicji optycznej. Po wojnie kierunek badań zmieniono na astronomię gwiazdową, a nazwę zmieniono na Commonwealth Observatory, a później na Mount Stromlo Observatory. Modernizacja oprzyrządowania, m.in. wprowadzenie technik fotoelektrycznych, przebiegała równolegle z licznymi programami badawczymi. CHMURKI MAGELLANIC są od dawna intensywnie badane na Górze Stromlo: te bliskie sąsiadom galaktyki mają tę wielką zaletę, że znajdują się w znanej odległości, a jednocześnie są na tyle blisko, że gromady gwiazd i jaśniejsze gwiazdy mogą być rozróżnione pojedynczo. W 1955 roku na górze Stromlo oddano do użytku 74-calowy (1,88 m) teleskop, który wraz z podobnym teleskopem w Pretorii był przez około 20 lat największym instrumentem optycznym na półkuli południowej. Pod wpływem rozwoju pobliskiego miasta Canberra dla przyszłych teleskopów wybrano miejsce w Siding Spring Mountain w pobliżu miasta Coonabarabran w Nowej Południowej Walii, a nazwę zmieniono na MOUNTSTROMLO AND SIDING SPRING OBSERVATORIES (MSSSO). Obserwatorium od wielu lat jest częścią Australijskiego Uniwersytetu Narodowego, a obecnie mieści się w Szkole Badawczej Astronomii i Astrofizyki. Era radiofizycznych stacji terenowych CSIRO dobiegła końca na początku lat sześćdziesiątych XX wieku wraz z decyzją, że rosnące zaawansowanie radioastronomii wymaga skoncentrowania zasobów w znacznie mniejszej liczbie głównych instrumentów. Były to w pełni sterowalny paraboloid o długości 210 stóp (64 m) w Parkes i Culgoora Radioheliograph. Teleskop Parkesa został ukończony w 1961 roku, kiedy jedynym innym teleskopem z dużą czaszą był Jodrell Bank (Wielka Brytania) 250 stóp (76 m). Godnym uwagi wczesnym rezultatem uzyskanym za pomocą teleskopu Parkesa była obserwacja zakrycia Księżyca, która określiła położenie 3C 73, umożliwiając identyfikację z obiektem gwiazdopodobnym, który jako pierwszy ujawnił duże optyczne przesunięcia ku czerwieni kwazarów. Teleskop wkrótce stał się dobrze znany ze swoich badań radiowych o wysokiej częstotliwości, które zaowocowały odkryciem wielu kwazarów, a także ze wsparcia w latach 60. i 70. XX w. misji NASA Apollo na Księżyc. Teleskop przez lata zajmował się wieloma innymi projektami, obejmującymi zarówno linię widmową, jak i kontinuum, źródła galaktyczne (w tym pulsary) i pozagalaktyczne, badania polaryzacji itp. Radioheliograf Culgoora składał się z 96 prostych czasz o średnicy 13 m, ułożonych w okrąg o średnicy 3 km na terenie niedaleko Narrabri w Nowej Południowej Walii. Zakończono go w 1967 roku. W erze, zanim zaczęto używać komputerów do tworzenia obrazów z surowych danych, używano genialnego sprzętu, aby umożliwić syntezę dwuwymiarowego obrazu Sunto co sekundę. Oddzielne zdjęcia w obu polaryzacjach ujawniły dalsze informacje na temat procesów emisji plazmy na dysku słonecznym i nad nim. Oryginalna częstotliwość robocza 80 MHz została później rozszerzona o możliwości w zakresie 43, 160 i 327 MHz. Radioheliograf zamknięto w 1984 roku, a miejsce to wykorzystano dla Australia Telescope Compact Array. W latach sześćdziesiątych XX wieku zbudowano także radioteleskop Molonglo Mills Cross o długości 1 mili, instrument tranzytowy przeznaczony do szybkiego badania nieba na częstotliwości 408 MHz. Obsługiwany przez Uniwersytet w Sydney, już wkrótce po odkryciu obiektów tej klasy w Cambridge, odniósł sukces w znajdowaniu wielu pulsarów. Krzyż Molonglo dokonał następnie przeglądu południowego nieba, a także licznych badań poszczególnych klas obiektów. W 1978 roku wstrzymano pracę w układzie krzyżowym, a ramię wschód-zachód przekonwertowano na syntezę aperturową przy 843 MHz, jako OBSERWATORYJNY TELESKOP SYNTEZY MOLONGLO (MOST). W tej formie ma lepszą czułość i zdolność tworzenia obrazu. Od tego czasu pole widzenia zostało jeszcze bardziej powiększone do prawie 2?, a teleskop przeprowadza przegląd "SUMSS" całego południowego nieba z rozdzielczością i czułością podobną do przeglądu północnego (i równikowego) NVSS. Innym projektem radioteleskopu z lat sześćdziesiątych XX wieku był Teleskop Syntezowy Fleurs, przerobiony przez Uniwersytet w Sydney z wcześniejszego instrumentu krzyżowego siatkowego CSIRO na operację syntezy aperturowej. Przez wiele lat zapewniał obrazowanie radiowe o najwyższej rozdzielczości kątowej na południu, ale został zastąpiony przez Teleskop Australijski i od tego czasu został zamknięty. Nowatorskim instrumentem z lat sześćdziesiątych XX wieku był interferometr intensywności gwiazdowej Narrabri (NSII). Zasada interferometrii intensywności została opracowana i przetestowana w kontekście radioastronomii i miała tę zaletę, że obserwacja przez turbulentny ośrodek nie miała na nią wpływu. W zastosowaniu do obserwacji optycznych umożliwiło to NSII obserwację średnic kątowych gwiazd aż do 0,0004 sekundy łuku. Instrument był obsługiwany przez Uniwersytet w Sydney i składał się z dwóch dużych (6,5 m) REFLEKTORÓW umieszczonych na okrągłym torze kolejowym o średnicy 188 m. Udało mu się zaobserwować rozmiary 32 gwiazd w granicach swojej czułości, określając w ten sposób rzeczywistą skalę temperatur gorących gwiazd. Następnie instrument zamknięto i rozpoczęto prace nad interferometrem gwiazdowym Uniwersytetu w Sydney (SUSI), "nowoczesnym instrumentem Michelsona", wykorzystującym interferencję dwóch wiązek światła z szeroko oddalonych siderostatów zamiast korelować wahania częstotliwości radiowej, jak w NSII. SUSI znajduje się w tym samym miejscu, co Australia Telescope Compact Array, a po całkowitym uruchomieniu będzie miał linie bazowe do 640 m, co zapewni najwyższą rozdzielczość kątową spośród wszystkich obecnych projektów interferometru optycznego. Oprócz rozszerzenia średnicy gwiazd, a tym samym efektywnych pomiarów temperatury na znacznie większy zakres gwiazd, kluczowym programem będzie bezpośrednia obserwacja promieniowej pulsacji zmiennych cefeid, co poprawi wykorzystanie tych gwiazd jako wskaźników odległości.
Instrumenty Krajowego Instrumentu
W latach sześćdziesiątych XX wieku było jasne, że potrzebny jest większy teleskop optyczny ogólnego przeznaczenia, zarówno w celu rozszerzenia istniejących prac gwiazdowych i galaktycznych, jak i w celu optycznej identyfikacji źródeł radiowych. Astronomowie w Wielkiej Brytanii również poczuli potrzebę większego instrumentu i osiągnięto porozumienie między rządami Australii i Wielkiej Brytanii, w wyniku którego zbudowano 150-calowy (3,9 m) instrument Teleskop Anglo-Australijski (AAT) na istniejącym terenie Siding Springs. Ukończony w 1974 roku, AAT obejmował innowacje w systemach serwonapędów, obsłudze lusterek, a zwłaszcza w sterowaniu komputerowym. Uzyskana w ten sposób precyzja wskazywania wynosząca kilka sekund łukowych była wówczas niespotykana i umożliwiała każdemu obserwatorowi łatwe zlokalizowanie nawet słabych obiektów. AAT jest obsługiwany przez powołaną w tym celu organizację ANGLOAUSTRALIAN OBSERVATORY (AAO). Wczesnym sukcesem AAT było wykrycie impulsów optycznych z pulsara Vela, wówczas najsłabszego obiektu, jaki kiedykolwiek zarejestrowano (24 mag). Chociaż lokalizacja w Siding Spring nie jest tak dobra, jak najlepsza na Hawajach czy w Chile, AAT jest teleskopem wysoce produktywnym, głównie dzięki silnemu wsparciu technicznemu i ciągłym inwestycjom w nowe instrumentarium. W obecnej erze teleskopów klasy 8-10 m, AAT w dalszym ciągu oferuje obrazowanie i spektroskopię ogólnego przeznaczenia, ale został przesunięty w stronę badań szerokokątnych. Szczególnie godny uwagi jest główny instrument o polu dwustopniowym (2dF), który zapewnia jednoczesną spektroskopię światłowodową 400 obiektów w polu o wielkości 2?. Głównym programem dla tego instrumentu jest badanie przesunięcia ku czerwieni 250 000 galaktyk, mające na celu znaczne poszerzenie wiedzy na temat struktur wielkoskalowych. Pod koniec lat siedemdziesiątych XX wieku było jasne, że Australia potrzebuje zwiększonych możliwości w zakresie obrazowania radiowego i spektroskopii o wysokiej rozdzielczości kątowej i wysokiej czułości. Potrzeba ta została zaspokojona poprzez budowę teleskopu Australia Telescope (AT), otwartego w 1988 roku. Głównym komponentem jest teleskop AT Compact Array w Culgoora. Jest to teleskop z syntezą apertury, składający się z sześciu anten o średnicy 22 m, które można przenosić do różnych stacji wzdłuż linii bazowej o długości 6 km ze wschodu na zachód. Zestaw jest obecnie modernizowany do działania na falach tak krótkich jak 3 mm, poprzez dodanie nowych odbiorników, ulepszonych powierzchni anten i toru odgałęzienia północnego. AT jest obsługiwany jako obiekt krajowy przez AUSTRALIA TELESCOPE NATIONAL FACILITY (ATNF), oddział CSIRO, który w tym celu został wydzielony z macierzystego oddziału radiofizyki. Podobna antena 22mantenna znajduje się również w Mopra niedaleko Coonabarabran, używana do VLBI lub do samodzielnych programów. Australijski przemysł zyskał cenne korzyści dzięki projektowi AT: firma, która skonstruowała anteny, zdobyła kontrakty na anteny do satelitarnych stacji naziemnych w Australii i Azji Południowo-Wschodniej. Dobrze znanym wcześniej produktem ubocznym, także z radioastronomii, był mikrofalowy system lądowania samolotu Interscan. ATNF obsługuje także teleskop z talerzem Parkesa o średnicy 64 m, który na przestrzeni lat był unowocześniany, aby zachować konkurencyjność. Niedawno rozpoczął pracę system wielowiązkowy z 13 jednoczesnymi źródłami zasilania na odległość 21 cm i jest używany do przeglądu H I całego południowego nieba z prędkością radialną 12 700 km na s-1.
Astronomia w różnych instytucjach
Inne obiekty radioastronomiczne obejmują 26-metrowy paraboloid Uniwersytetu Tasmanii zlokalizowany w Mt Pleasant niedaleko Hobart oraz 30-metrową antenę dawnej firmy Telstra w Ceduna w Australii Południowej. Obie anteny są używane głównie w VLBI, w połączeniu z AT Compact Array i teleskopami w Parkes i Mopra. Uniwersytet ten obsługuje także kilka teleskopów optycznych i kosmicznych. Szereg innych grup uniwersyteckich zajmuje się astronomią, korzystając z obiektów krajowych (np. uniwersytety w Melbourne i Western Sydney oraz Macquarie University) lub za pomocą własnych instrumentów (np. Uniwersytet w Adelajdzie zajmuje się wysokoenergetycznymi promieniami kosmicznymi, Uniwersytet Zachodni rozwój australijskich detektorów fal grawitacyjnych i teleskopów balonowych Australijskiej Akademii Sił Obronnych). Australijscy astronomowie w dużym stopniu korzystają także z zagranicznych obiektów i obserwatoriów satelitarnych, w tym z HST, a dzięki ścisłej współpracy międzynarodowej około 350 astronomów z zagranicy odwiedza Australię każdego roku. Najważniejszym nowym teleskopem optycznym lat 80. XX wieku jest teleskop o średnicy 2,3 m zbudowany przez MSSSO w Siding Spring. Podobnie jak praktycznie wszystkie nowoczesne duże teleskopy, wykorzystuje montaż alt-az, aby zmniejszyć koszty budowy obudowy. Wczesnym godnym uwagi rezultatem uzyskanym za pomocą tego teleskopu była demonstracja, że Mały Obłok Magellana jest podzielony wzdłuż linii wzroku na dwie części, prawdopodobnie w wyniku zderzenia z Wielkim Obłokiem Magellana około 300 milionów lat temu. Innym ważnym obiektem w Siding Spring Mountain jest teleskop Schmidta o średnicy 1,2 m, pierwotnie działający wyłącznie w Wielkiej Brytanii, ale od 1988 roku połączony z AAO. Teleskop ten jest dobrze znany z wysokiej jakości fotograficznych przeglądów południowego nieba. Oprócz kontynuowania dużych przeglądów i mniejszych projektów fotograficznych, teleskop jest również używany do spektroskopii wielowłóknowej w polu 6°.
Przyszłe możliwości
Australijscy astronomowie uznali potrzebę dostępu do teleskopu optycznego na podczerwień klasy 8 m, aby zachować konkurencyjność w obecnych warunkach. W rezultacie Australia dołączyła do międzynarodowego projektu Gemini jako partner na poziomie 5%. Zapewni to australijskim obserwatorom dostęp zarówno do półkuli północnej, jak i południowej, z różnorodnymi wysokiej jakości instrumentami optycznymi i podczerwonymi. Jednakże przy alokacji odpowiadającej 10% pojedynczego teleskopu, w porównaniu z 50% AAT w epoce, w której wiodły teleskopy klasy 4 m, dostęp do czasu 8 m będzie poważnie ograniczony. Dlatego niezwykle ważne będzie utrzymanie AAT przy wysokim standardzie konkurencyjnego oprzyrządowania. Na uwagę zasługuje kilka innych inicjatyw rozwojowych. Australijscy astronomowie aktywnie uczestniczą w rozwoju Antarktydy jako miejsca obserwacyjnego. Niskie temperatury i minimalna ilość pary wodnej w atmosferze stwarzają wyjątkowo dobre warunki do obserwacji w podczerwieni, w tym w zakresie długości fal, które normalnie nie są obserwowalne z ziemi. Istnieje również możliwość, że wysoki płaskowyż Antarktyczny będzie miał najlepszą WIDOCZNOŚĆ ze wszystkich miejsc naziemnych. Wspólne Australijskie Centrum Badań Astrofizycznych na Antarktydzie (JACARA) z siedzibą na Uniwersytecie Nowej Południowej Walii obsługuje już 60-centymetrowy teleskop na podczerwień na biegunie południowym. Planowane jest przeniesienie teleskopu w późniejszym terminie do jednego z prawdopodobnie lepszych (ale mniej dostępnych) miejsc na płaskowyżu. Jeśli chodzi o radioastronomię, Australia aktywnie uczestniczy w planowaniu i rozwoju układu kilometrów kwadratowych, międzynarodowego projektu mającego na celu zbudowanie radioteleskopu o długości fali cm o czułości 1-2 rzędów wielkości większej niż jakikolwiek obecny instrument. Jednym z głównych celów astrofizycznych byłoby wykrycie i zbadanie emisji 21 cm z obojętnego wodoru przy dużych przesunięciach ku czerwieni, w protogalaktykach i obszarach powstawania gwiazd. Podsekcje sieci rozciągałyby się na setki km, a jedną z najlepszych perspektyw na utworzenie wolnego od zakłóceń miejsca o wymaganej wielkości znajdują się zachodnie obszary pustynne Australii.
Organizacja
W 1989 roku raport dotyczący astronomii w Australii odnotował słabość astrofizyki teoretycznej. Obszar ten został wzmocniony na początku lat 90. XX wieku poprzez utworzenie Centrum Badawczego Astrofizyki Teoretycznej (RCfTA) na Uniwersytecie w Sydney, a później Australijskiego Uniwersytetu Astrofizycznego Teorii Centrum w Canberze. Obie grupy potrafią czerpać obopólne korzyści wynikające z bliskiego kontaktu teoretyków z obserwatorami. RCfTA utworzono przy wsparciu finansowym Australijskiej Rady ds. Badań Naukowych (ARC), która wypłaca fundusze rządowe w wielu obszarach nauki i technologii. Poprzez swoje programy stypendialne ARC wspiera także większość prac badawczych prowadzonych na australijskich uniwersytetach. Społeczność zawodowa astronomów w Australii składa się z około 200 stanowisk, z czego około 30 to stanowiska na czas określony. Na różnych uniwersytetach w całym kraju studiuje około 75 doktorantów, a każdego roku około 15 kończy studia. Głównym stowarzyszeniem astronomów zawodowych i studentów jest ASTRONOMICAL SOCIETY OFAUSTRALIA (ASA), zrzeszające około 300 członków. Do głównych działań ASA należy organizacja corocznych spotkań naukowych, zarządzanie publikacjami ASA oraz reprezentowanie interesów astronomów wobec rządu i ogółu społeczeństwa. Oficjalną współpracę z rządem zapewnia Narodowy Komitet Astronomii (NCA), który działa pod auspicjami Australijskiej Akademii Nauk. NCA zarządza stosunkami Australii z MIĘDZYNARODOWĄ UNIĄ Astronomiczną (IAU), a Australia liczy obecnie 190 członków IAU.
Astronomia babilońska
Cywilizacje Mezopotamii pielęgnowały bogatą tradycję astronomiczną przez około dwa tysiące lat, od początków drugiego tysiąclecia p.n.e. - jeśli nie wcześniej - aż do I wieku naszej ery. Zachęceni wiarą, że wydarzenia widziane na niebie są zwiastunami przyszłych, ziemskich warunków, Babilończycy i Asyryjczycy rozwinęli skomplikowaną praktykę obserwowania wróżb, dzięki której poznali różnorodne zjawiska niebieskie i opracowali zasady przewidywania ich wystąpienia. Od VII wieku p.n.e. w Babilonie prowadzono zapisy obserwacji Księżyca, pięciu widzialnych planet i Słońca. Babilończycy odkryli nie tylko okresowy charakter wielu obserwowanych przez siebie zjawisk, ale także to, że pewne zjawiska obejmowały kilka okresowych elementów, co im się udało, izolowanie, mierzenie i wreszcie naśladowanie za pomocą ciągów arytmetycznych. W ten sposób powstała astronomia matematyczna, która działała na zupełnie innych zasadach niż modele geometryczne ASTRONOMII greckiej i średniowiecznej. Pomimo tej rozbieżności w metodach wpływ astronomii babilońskiej na jej grecką odpowiedniczkę był głęboki, a niektóre elementy pochodzenia babilońskiego przetrwały w żywych tradycjach astronomicznych w całej Eurazji od średniowiecza do czasów współczesnych.
Źródła
Prawie wszystko, co wiemy o astronomii babilońskiej, pochodzi ze współczesnych dokumentów spisanych w języku akadyjskim pismem klinowym na glinianych tabliczkach. Tablice klinowe odnaleziono obficie podczas wykopalisk w połowie XIX wieku, a wkrótce potem rozszyfrowano pismo. Teksty związane z astronomią liczą się w tysiącach. Duża i wciąż rosnąca ich część dostępna jest w wydaniach i tłumaczeniach na języki nowożytne, jednakże nadal istnieje wiele niepublikowanych tabliczek, zwłaszcza wśród tekstów omenowych i zapisów obserwacyjnych. Tabliczki przechowywane we współczesnych muzeach i innych kolekcjach tylko częściowo uzyskano w wyniku wykopalisk naukowych, które dostarczyły informacji o ich pochodzeniu, a resztę zakupiono od handlarzy. niemniej jednak większość tablic astronomicznych można odnaleźć w trzech miejscach: w bibliotece królewskiej i archiwum stolicy Asyrii, Niniwie, najważniejszym źródle tekstów odnoszących się do niebiańskich wróżb, datowanych głównie na pierwszą połowę VII wieku p.n.e., tabliczkach z niepewne lokalizacje w Babilonie, prawie jedyne źródło zapisów obserwacyjnych, a także bogate w astronomię matematyczną, oraz archiwum świątynne z południowo-babilońskiego miasta Uruk, które jest źródłem pozostałej części tekstów matematycznych. Przed współczesnym rozszyfrowaniem pisma klinowego praktycznie jedyne dostępne informacje na temat astronomii w Mezopotamii składały się z rozproszonych wypowiedzi klasycznych autorów greckich i łacińskich. Obejmują one od ewidentnie absurdalnych twierdzeń pochodzących z tysięcy lat obserwacji po konkretne dane techniczne, które zostały triumfalnie potwierdzone na tablicach babilońskich. Rozprzestrzenianie się babilońskich metod i koncepcji można obecnie pełniej prześledzić w greckich i egipskich fragmentach papirusów astronomicznych z rzymskiego Egiptu oraz w niektórych indyjskich tekstach astronomicznych.
Astronomia w tradycji omenów Mezopotamii
Niebiańskie wróżby stanowiły dużą część szerokiego repertuaru wydarzeń uznawanych przez Mezopotamczyków za złowieszcze. Wiara w znaki była zasadniczo religijna: przypuszczano, że bogowie informują ludzi o ich nastroju i zamiarach za pomocą widocznych znaków, których interpretacja była zadaniem doświadczonych wróżbitów. teksty omenowe, zwykle wyrażane jako zdania warunkowe łączące zapowiedź z przewidywanym rezultatem (np. "Jeśli księżyc w chwili swego pojawienia się prześlizgnie się przez chmury: nadejdzie powódź"), zostały zebrane w kompendiach, takich jak seria niebiańskich wróżb En?uma Anu Enlil (" kiedy bogowie Anu i Enlil", od słów początkowych), która składała się z około 70 tablic. En?uma Anu Enlil przetrwał we fragmentarycznych kopiach z VII wieku p.n.e. i późniejszych, lecz niektóre niebiańskie wróżby, zarówno zawarte w tym zbiorze, jak i zachowane poza nim, pochodzą z pierwszej połowy drugiego tysiąclecia p.n.e., a niewielka liczba odnosi się do wydarzeń historycznych trzecie tysiąclecie. Wróżby Enumy Anu Enlila są w najszerszym znaczeniu "wróżbami nieba", obejmującymi zjawiska meteorologiczne, a także obserwacje Księżyca, Słońca, pięciu planet i gwiazd stałych. Nawet w przypadku obserwacji ciała niebieskiego kolor i jasność, aureole i towarzysząca im pogoda są traktowane na równi z czasami, datami i pozycjami. Nazywanie obserwacyjnego elementu tego wróżenia astronomią byłoby mylące, ale kryje się w nim wiele z astronomii. Zatem aspekty zaćmienia Księżyca, które pomogły określić jego złowieszcze znaczenie - zazwyczaj śmierć króla - obejmowały datę i przybliżoną porę dnia, kierunki, z których dysk Księżyca był zasłonięty na początku i na końcu zaćmienia, a czasami także konstelacja, w której miało miejsce zaćmienie. W archiwach królów asyryjskich w Niniwie, obecnie w British Museum, zachowały się liczne listy i raporty adresowane do królów Asarhaddona (680-669 p.n.e.) i Asurbanipala (668-627 p.n.e.) przez sieć obserwatorów wróżb z Niniwy i innych asyryjskich i miasta babilońskie. W tej fascynującej korespondencji widać, że czujne obserwowanie Księżyca, Słońca i planet było sprawą najwyższej wagi politycznej, wpływającej na decyzje dotyczące wszelkich poczynań króla. Uczeni, na których polegał król, mieli najlepsze motywy, aby z wyprzedzeniem dowiedzieć się, kiedy można spodziewać się lub wykluczyć złowieszcze zjawiska: koledzy byli zawsze gotowi wskazać królowi błędne lub spóźnione obserwacje. Prognozy, które często pojawiają się w korespondencji królewskiej, dotyczą głównie zaćmień Księżyca i Słońca oraz pierwszych widzialności planet. Typowe prognozy są albo z pewnością negatywne ("zaćmienie nie nastąpi w tym miesiącu" lub "pojawienie się określonej planety nie jest bliskie"), albo warunkowo potwierdzające ("jeśli zaćmienie nastąpi w tym miesiącu, powinniśmy go wypatrywać w określonym czasie dnia lub nocy"). Oprócz metod wróżbiarskich, na których trudno było polegać, obserwatorzy omenów najwyraźniej polegali na wiedzy o przybliżonych możliwych odstępach czasu pomiędzy zaćmieniami oraz pomiędzy kolejnymi pojawianiami się i znikaniem planet. Nie wiadomo, czy korzystali również z dłuższych okresów. MUL.APIN ("Gwiazda Pługowa") to najważniejszy z nielicznych tekstów z II i początków I tysiąclecia p.n.e., które dotyczą przede wszystkim autentycznych tematów astronomicznych. Najdłuższą część tego zestawienia stanowią wykazy konstelacji i gwiazd, noszące mniej lub bardziej obrazowe nazwy, takie jak "wóz", "liść Eru" i "najemnik". Gwiazdy wschodzące i zachodzące są pogrupowane w trzy "ścieżki", najwyraźniej według części wschodniego horyzontu, w których wschodzą, ale nie podejmuje się dalszych prób opisania ich układu ani położenia. Podano testy astronomiczne w celu ustalenia, kiedy należy wstawić miesiąc przestępny do kalendarza księżycowego, aby był on zgodny z porami roku. MUL.APIN zawiera niewiele astronomii księżycowej, a omówienie planet ogranicza się do przybliżonych szacunków odstępów czasu między pojawianiem się i znikaniem. Drugim tekstem cieszącym się dużym zainteresowaniem jest czternasta tablica Enuma Anu Enlil, która w odróżnieniu od reszty kompilacji nie jest zbiorem tekstów omenowych, lecz zbiorem tablic liczbowych. Jedna z tych tabel przedstawia zmienny czas trwania nocnej widoczności Księżyca w ciągu miesiąca synodycznego, przy założeniu, że długość nocy jest maksymalna, tj. blisko przesilenia zimowego, a druga tabela przedstawia miesiąc po miesiącu w sposób schematyczny rok słoneczny, dzienna zmiana czasu trwania nocnej widoczności Księżyca. Z wyjątkiem początku i końca pierwszej tabeli, gdzie zastosowano ciekawy wzór stałych drugich różnic, liczby rosną do maksimum, a następnie ponownie maleją w wyniku stałych różnic, co jest rodzajem sekwencji, którą współcześni autorzy nazywają (od jej wyglądu na wykresie) liniową funkcję zygzakowatą. Proste funkcje zygzakowate składające się z małych liczb całkowitych są oczywistym sposobem opisu okresowo zmieniającej się wielkości, a najstarszym znanym przykładem jest przybliżona tabela przedstawiająca zmieniającą się długość światła dziennego w ciągu roku na papirusie z drugiego tysiąclecia p.n.e. z Egiptu, kraju nienotowanego dla swojej astronomii matematycznej. Godne uwagi jest to, że około 1000 roku p.n.e. astronomowie mezopotamscy próbowali wyizolować i przedstawić modele matematyczne dwóch niezależnych pierwiastków okresowych w zjawisku, które oscyluje w złożony sposób.
Dzienniki i teksty dotyczące roku docelowego
Nie wiadomo, w jakim stopniu obserwatorzy omenów prowadzili zapisy tego, co widzieli na niebie. W co najmniej jednym mieście, Babilonie, grupa skrybów, którzy być może lub nie byli obserwatorami omenów, zaczęła już w połowie VII wieku zapisywać niezwykłą różnorodność datowanych zjawisk na tablicach, które obecnie nazywamy Dziennikami. Zachowało się wiele setek fragmentów tabliczek Dziennika z Babilonu, obejmujących lata od 652 do 61 p.n.e., przy czym większość z nich pochodzi z ostatnich trzech wieków p.n.e. Zazwyczaj tabliczka Dziennika obejmowała pół roku księżycowego, czyli sześć lub siedem miesięcy księżycowych. Dla każdego miesiąca, noc po nocy i dzień po dniu, Dziennik odnotowuje obserwacje ciał niebieskich i pogody, a każdy miesiąc kończy się zapisami cen towarów, poziomu rzeki Eufrat i bieżących wydarzeń. Najbardziej rzucającym się w oczy obiektem w Dziennikach jest Księżyc. Co miesiąc mierzono sześć przedziałów czasowych ("księżycowa szóstka") w jednostkach zwanych us lub "stopniami czasu", tak że 360 stopni czasu równa się jednemu (średniemu) dniu od zachodu do zachodu słońca:
1. od zachodu słońca do zachodu księżyca wieczorem pierwszej widoczności Księżyca;
2. od zachodu Księżyca do wschodu słońca rano przed pełnią Księżyca;
3. wschód i zachód Księżyca wieczorem przed pełnią Księżyca;
4. wschód słońca do zachodu księżyca rano po pełni księżyca;
5. zachód słońca do wschodu księżyca wieczorem po pełni księżyca;
6. wschód księżyca do wschodu słońca rankiem ostatniej widoczności Księżyca.
Jest to rozwinięcie zainteresowania księżycową widocznością w nocy, ujawnionego na tabliczce 14 Enuma Anu Enlil. W Dziennikach z dużą częstotliwością rejestrowane są również przejścia Księżyca przez około 30 jasnych gwiazd w pobliżu EKLIPTYKI, znanych jako gwiazdy normalne. Okoliczności zaćmień Księżyca i Słońca podano szczegółowo. W przypadku planet Pamiętniki rejestrują przejścia Gwiazd Normalnych i bliskie wzajemne zbliżenia, a także pewne wydarzenia w ich cyklach synodycznych. Opisywane zjawiska synodyczne Saturna, Jowisza i Marsa to ich pierwsze widzialności i zaginięcia, stacje i wschody akronychalne (zachody słońca). Pierwsze widzialności i zaginięcia gwiazd porannych i wieczornych odnotowano dla Wenus i Merkurego. Położenie planet w ich zjawiskach synodycznych jest określone, jeśli w ogóle, tylko w przybliżeniu w odniesieniu do konstelacji lub, w późniejszych Dziennikach, przez znak zodiaku zajmowany przez planetę. Wydaje się, że przejście od konstelacji do konwencjonalnych znaków zodiaku obejmujących równe dwunaste ekliptyki miało miejsce około połowy V wieku p.n.e. Wiele wpisów w Dziennikach nie ma charakteru obserwacji. Przewidywane lub skorygowane dane są rejestrowane w przypadku, gdy pogoda opóźnia lub utrudnia obserwację, czemu często towarzyszy uwaga "Nie oglądałem". Źródła wielu z tych przewidywań nie zostały ustalone poza dyskusją. Ważną metodą prognozowania zjawisk planetarnych i księżycowych było z pewnością zastosowanie "okresów Roku Docelowego". Były to okresy od zaledwie 8 lat dla Wenus do aż 83 lat dla Jowisza, po których następuje przybliżona powtarzalność zjawisk (zdarzenia synodyczne lub normalne przejścia gwiazd). Wszystkie okresy planetarne są liczbami całkowitymi lat słonecznych. Ważną okresowością dla Księżyca był tak zwany "SAROS", okres zaćmień obejmujący 223 miesiące synodyczne (około 18 lat), który obejmuje również prawie całą liczbę okresów anomalii księżycowych i szerokości geograficznej Księżyca. Na tabliczkach zwanych Tekstami Roku Celu gromadzone są raporty z obserwacji wydobyte z Dzienników jeden Rok Celu wstecz, aby zapewnić podstawę do przewidywań na nadchodzący rok. Aby dokonać rzeczywistych przewidywań, należałoby zastosować poprawki, aby uwzględnić niedokładność okresowości. Produktem tego procesu będą prawdopodobnie tabliczki znane jako Almanachy i Almanachy Normal Star, zawierające przewidywania pewnych kategorii zjawisk typu Pamiętnika na dany rok.
Astronomia matematyczna
Podstawowym celem babilońskiej astronomii matematycznej było obliczenie niektórych zjawisk odnotowanych w Dziennikach. Obejmowały one daty i długości geograficzne zjawisk synodycznych planet, przedziały czasowe "Księżycowej Szóstki" i zaćmienia. Przewidywania realizowano za pomocą ciągów liczb generowanych arytmetycznie według zasad, tak aby każdy ciąg powtarzał się z dokładnie taką częstotliwością, jaka jest wymagana dla danej składowej ruchu ciała niebieskiego. Modele predykcyjne można podzielić na dwie kategorie. Modele, w których wśród sekwencji dominują liniowe funkcje zygzakowate, nazywane są modelami systemu B. Te, w których liczby odpowiadają "funkcjom schodkowym" zależnym numerycznie od położenia ciała niebieskiego w przegrodach ekliptyki, nazywane są modelami systemu A. Modele systemu A i systemu B były używane jednocześnie w Babilonie i Uruk. Modele planetarne wykorzystują "łuki synodyczne", czyli liczbę stopni, o jakie planeta przechodzi przez ekliptykę od jednego wystąpienia zjawiska synodycznego do następnego wystąpienia tego samego zjawiska, oraz "czasy synodyczne", czyli liczbę miesięcy i dni od jednego wydarzenia do drugiego. Rzeczywiste długości geograficzne (stopnie w obrębie znaków zodiaku) i daty zjawisk są uzyskiwane jako suma bieżąca łuków synodycznych i czasów, które są generowane jako sekwencje okresowe. Okresowość można wyrazić równaniem występowanie = Z obrotów ekliptyki = Y yr gdzie , Z i Y są liczbami całkowitymi, a i Z są względnie pierwsze. Zatem w tabeli zjawisk planetarnych przewidywanych według modelu babilońskiego, po liniach długość geograficzna powróci dokładnie do swojej pierwotnej wartości. W modelach planet Układu A zasady równoważne następującym założeniom: (1) ekliptyka jest podzielona na dwie lub więcej stref o ustalonych granicach, (2) wystąpienia zjawiska w pełnym okresie Y roku są rozmieszczone wzdłuż ekliptyki w taki sposób że są one rozmieszczone w równych odstępach wewnątrz każdej ze stref oraz (3) postęp od jednego wystąpienia do następnego to odstępy Z. Babiloński zapis wartości miejsca o podstawie 60 dla liczb wprowadza pewne nieastronomiczne ograniczenia do modelu, ponieważ zawsze chce się, aby obliczenia prowadziły do liczb kończących się po małej liczbie miejsc ułamkowych, zwykle dwóch. Niemniej jednak sekwencję łuków synodycznych można kształtować poprzez odpowiedni dobór parametrów, tak aby z powodzeniem odtworzyć rzeczywiste zachowanie planety, co ilustruje rysunek 1, na którym przebieg łuków synodycznych pomiędzy pierwszymi stacjonarnymi punktami Marsa obliczony przez system Model porównuje się z tymi samymi przedziałami obliczonymi przez współczesną teorię. System B, według którego łuki synodyczne i czasy są funkcjami zygzakowatymi, jest modelem bardziej restrykcyjnym i mniej skutecznym w odtwarzaniu zjawisk. Pełna tabela obliczonych zjawisk planety może zawierać kolumny podające daty i długości geograficzne pełnego cyklu zjawisk synodycznych, na przykład pierwsza widoczność Marsa, wschody akronychalne pierwszej stacji, stacja druga i zniknięcie. Długości geograficzne w datach pośrednich można uzyskać poprzez ekstrapolację lub interpolację między tabelarycznymi parami data-długość geograficzna. Babilońskie modele księżycowe są bardziej niezwykłym osiągnięciem niż modele planetarne. Na zaćmienia i czas widoczności Księżyca wpływa kilka niezależnych składników okresowych, których wyizolowanie i zmierzenie nie było łatwe. W modelach systemu A i systemu B występują co najmniej cztery okresy: rok (najwyraźniej nie wprowadzono rozróżnienia na lata gwiezdne, tropikalne i anomalistyczne), miesiąc synodyczny oraz okresy anomalii i szerokości geograficznej Księżyca. Do zilustrowania podejścia może posłużyć obliczenie dokładnego czasu koniunkcji. Zakłada się, że odstęp między poprzednią a obecną koniunkcją wynosi 29 dni plus dwa zmienne składniki (wyrażone w stopniach czasu), zwane J i G. G zmienia się w zależności od anomalistycznego okresu Księżyca. W systemie B jest to funkcja liniowa zygzakowata, natomiast w systemie Ait jest to funkcja zygzakowata "wciągnięta" w sinusoidalny kształt w jej skrajnych ciągach arytmetycznych drugiego rzędu. J ma rok słoneczny za swój okres. Modeluje się ją w systemieA za pomocą funkcji krokowej zależnej od długości geograficznej Słońca, natomiast w systemBit jest to gładka sekwencja sinusoidalna otrzymana jako suma liniowa funkcji zygzakowatej. Rysunek 2 przedstawia serię wartości G, J i ich sumę z tabletu systemu B. Błędy w obliczonych czasach, które mogą sięgać nawet 2 godzin, wynikają częściowo z zastosowania dość prostych funkcji arytmetycznych, a częściowo z nieodłącznej niedokładności przedstawiania prawdziwego miesiąca synodycznego jako sumy dwóch niezależnych funkcji okresowych. Okresowości, szczególnie te z teorii księżycowej układu B, są bardzo dokładne. Ostatnimi tabliczkami astronomii Mezopotamii są almanachy z lat 70. XX w. n.e. Jednak do tego czasu metody babilońskiej astronomii matematycznej rozprzestrzeniły się na świat greckojęzyczny, gdzie zapewniły podstawę obliczeniową ASTROLOGII grecko-rzymskiej, dopóki w późnej starożytności nie zostały zastąpione tablicami Ptolemeusza. HIPPARCHUS i PTOLEMEUSZ korzystali z babilońskich raportów obserwacyjnych i okresowości teorii księżycowej układu B, a na ich prace mogły mieć mniej bezpośredni wpływ inne aspekty modeli matematycznych.
Bariogeneza (geneza barionu lub asymetria materii / antymaterii)
Z każdym typem cząstki związana jest cząstka ANTYMATERIA o przeciwnych liczbach kwantowych. Na przykład pozyton (ładunek +1) jest antycząstką elektronu (ładunek -1), a antyproton (ładunek -1, liczba barionowa -1) jest antycząstką protonu (ładunek +1, liczba barionowa +1 ). Cząstki mogą anihilować wraz ze swoimi antycząstkami w promieniowanie, a pary cząstka-antycząstka mogą powstawać w próżni. Obserwacje wydają się sugerować, że wszechświat składa się z materii, bez żadnych znaczących ilości antymaterii. Domeny galaktyk antymaterii i gromad galaktyk antymaterii, jeśli istnieją, muszą być znacznie od siebie oddzielone. Najprostszym wyjaśnieniem jest to, że we wszechświecie występuje asymetria antymaterii: obecnie wszechświat składa się wyłącznie z cząstek bez dużych układów antymaterii. Asymetrię materii i antymaterii zwykle wyraża się w postaci bezwymiarowej liczby znanej jako "liczba barionowa wszechświata". Jeśli barionom (neutronom, protonom i masywniejszym rezonansom barionowym) przypisuje się liczbę
barionową +1, a antybarionom liczbę barionową -1, to z powodu braku dużych ilości antymaterii obecna gęstość liczby barionowej ( gęstość liczby barionowej minus gęstość liczby antybarionowej) można wyrazić w kategoriach całkowitej gęstości masy Wszechświata. Liczba barionowa to stosunek gęstości liczby barionowej do gęstości entropii Wszechświata. Przy niepewności wynoszącej od trzech do pięciu liczba barionowa Wszechświata wynosi około 10-10. Dopóki liczba barionowa jest zachowana w każdej indywidualnej reakcji, a ekspansja wszechświata jest izentropowa (zachowująca entropię), liczba barionowa wszechświata jest zachowana w historii wszechświata. Chociaż obecnie we wszechświecie nie ma antymaterii, gdyby temperatura wszechświata była kiedykolwiek wyższa niż około 1013 K, a tym samym jego energia cieplna przekraczałaby energię spoczynkową protonu, wówczas antymateria istniałaby w ogromnych ilościach. Wcześniej niż około milisekundę po WIELKIM WYBUCHU Wszechświat powinien być
wystarczająco gorący, aby promieniowanie mogło utworzyć pary cząstka-antycząstka. Jeśli liczba barionowa jest zachowana, to w wystarczająco wysokiej temperaturze liczba barionowa wynosząca 10-10 oznacza, że we wszechświecie było mniej więcej tyle samo barionów i antybarionów, ale na każde 10 miliardów antybarionów przypadało 10 miliardów i jeden barion. Gdy Wszechświat ostygł poniżej temperatury wymaganej do wytworzenia par proton-antyproton z promieniowania, wszystkie antybariony uległy anihilacji, pozostawiając nadmiarową liczbę barionową wynoszącą 1 część na 10 miliardów. Chociaż tak niewielka asymetria pomiędzy liczbą barionów i antybarionów może wydawać się nieistotna, bez asymetrii wszystkie bariony i antybariony uległyby anihilacji, w wyniku czego powstałby wszechświat pozbawiony materii (lub antymaterii) niezbędnej do powstania galaktyk, gwiazd i planety. Chociaż obecna liczba barionowa Wszechświata może po prostu odzwierciedlać początkowy stan Wielkiego Wybuchu, bardziej naturalne wydaje
się, że wszechświat o zerowej liczbie barionowej, co by nastąpiło, gdyby wszechświat przeszedł okres "INFLACJA", ewoluował we wszechświat z mała liczba barionowa. W 1967 roku rosyjski fizyk Andriej Sacharow nakreślił trzy "składniki" niezbędne do wygenerowania asymetrii barionowej z początkowo symetrycznych warunków. Pierwszym wymaganiem jest to, że niektóre reakcje cząstek muszą naruszać liczbę barionową. Drugim warunkiem jest naruszenie symetrii CP (parzystość razy koniugacja ładunku). Wreszcie bariogeneza wymaga odejścia od lokalnej równowagi termodynamicznej. Te trzy składniki Sacharowa mogły występować we wczesnym wszechświecie. Ekspansja wszechświata może prowadzić do warunków nierównowagowych. Naruszenie CP zostało odkryte w 1964 roku przez Jamesa Cronina i Val Fitcha w reakcjach z udziałem cząstek znanych jako kaony. Chociaż nigdy nie zaobserwowano naruszenia liczby barionowej, w kilku teoriach przewiduje się, że nastąpi to. Różne możliwości naruszenia liczby barionowej zaowocowały opracowaniem
różnych scenariuszy bariogenezy. W teoriach unifikacji oddziaływania silnego, słabego i elektromagnetycznego w WIELKĄ ZJEDNOCZONĄ TEORIĘ (GUT) przewiduje się, że liczba barionowa zostanie naruszona w wyniku rozpadu supermasywnych cząstek o masie aż 1016 mas protonu. W najprostszych wersjach bariogenezy GUT supermasywne cząstki były obecne w promieniowaniu cieplnym, a gdy temperatura Wszechświata spadła poniżej równoważnej masy supermasywnej cząstki, preferencyjnie rozpadały się na bariony. W scenariuszu GUT bariogeneza nastąpiła 10-35 sekund po wybuchu. Ujednolicenie oddziaływań elektromagnetycznych i słabych polega na złamaniu symetrii elektrosłabej, w której pole Higgsa przyjmuje wartość oczekiwaną próżni. Choć dziś zepsuta, to przy odpowiednio wysokich temperaturach symetria powinna zostać przywrócona. Oczekuje się, że przemiana fazowa związana z naruszeniem symetrii elektrosłabej, gdy temperatura Wszechświata spadnie poniżej około 1015 K. Przewiduje się, że powyżej
przejścia fazowego będą działać nieperturbacyjne procesy naruszające liczbę barionową. Opracowano scenariusz bariogenezy elektrosłabej, w którym asymetria barionowa jest generowana w czasie przejścia fazowego elektrosłabego, około 10-12 sekund po wybuchu. Teorie SUPERSYMETRY mają bozonowych partnerów dla kwarków i leptonów. Cząstki te, zwane skwarkami i spaniami, są bozonami i mogą osiągać wartości oczekiwane podciśnienia. Jakakolwiek zmiana wartości oczekiwanej próżni pola kwadratowego powoduje naruszenie liczby barionowej. W tym scenariuszu nie określono wieku Wszechświata w trakcie bariogenezy. Inne scenariusze bariogenezy obejmują odmiany lub kombinacje trzech powyższych scenariuszy. Chociaż dokładny mechanizm bariogenezy jest nadal przedmiotem intensywnych spekulacji, oczekuje się, że we wczesnym Wielkim Wybuchu obecne będą trzy składniki Sacharowa: w przyrodzie zaobserwowano naruszenie CP, ekspansja wszechświata w naturalny sposób prowadzi do odstępstw od równowagi, a barion Oczekuje się, że
naruszenie liczby -number będzie miało miejsce na różne sposoby. Chociaż szczegóły bariogenezy nie są znane, eksperymenty laboratoryjne mogą pomóc w rozwikłaniu zagadki. Badanie naruszenia CP z udziałem kwarków dolnych może doprowadzić do głębszego zrozumienia tego składnika. Znajomość masy elektrosłabego Higgsa jest ważna dla bariogenezy elektrosłabej. Odkrycie supersymetrii niskoenergetycznej miałoby ważne implikacje dla bariogenezy elektrosłabej, a także scenariuszy obejmujących wartości oczekiwane kwadratu. Wreszcie obserwacja rozpadu protonów lub inny bezpośredni dowód wielkiej unifikacji byłaby ważna dla scenariuszy bariogenezy GUT.
Kalendarz
Kalendarz to system organizowania jednostek czasu w celu liczenia czasu w dłuższych okresach. DZIEŃ jest najmniejszą kalendarzową jednostką czasu; pomiar ułamków dnia to mierzenie czasu. Niektóre kalendarze odtwarzają cykle astronomiczne według ustalonych zasad, inne regulują obserwacje astronomiczne. Powszechnie kalendarze przyjmują formę liczenia czasu ze względu na początek, długość i podziały ROKU. Przedstawiono je w formie tabelarycznego zestawienia dni każdego MIESIĄCA i tygodnia w roku. Okresy ruchu Słońca i Księżyca oraz dzienne obroty Ziemi są naturalnymi podstawami do tworzenia kalendarzy. Jednak niektóre cywilizacje oparły kalendarze na innych ciałach Układu Słonecznego, na przykład na wykorzystaniu Wenus przez Majów. Niestety, żaden z powstałych w sposób naturalny okresów (rok, lunacja czy dzień) nie jest dokładną wielokrotnością drugiego. Zatem kalendarze oparte na miesiącach księżycowych wymagają korekt, aby pozostawały zbliżone do roku opartego na pozornym ruchu Słońca. Dokładny okres ruchu Ziemi wokół Słońca nie jest całkowitą liczbą dni, dlatego wymaga dostosowania, aby pory roku, a co ważniejsze, święta religijne, znajdowały się w kalendarzu o tej samej porze. Pory roku i niektóre święta religijne wywodzą się z naturalnych ruchów ciała. Niektóre z nich definiuje się w kategoriach równonocy wiosennej, która ściśle podąża za ruchem Ziemi. Istnieje kościelna równonoc zdefiniowana w celu umożliwienia określenia Wielkanocy bez różnic wynikających z prawdziwego ruchu. Rok tropikalny definiuje się jako średni odstęp pomiędzy równonocą wiosenną. Obecna średnia wartość roku tropikalnego wynosi 365,242 190 dni. Wartość maleje z powodu hamowania pływowego o sześć milionowych dnia na stulecie. Prawdziwy odstęp między konkretną równonocą wiosenną a następną może różnić się od tej średniej o kilka minut. Dokładna długość roku tropikalnego zależy od ogólnej teorii planet lub integracji numerycznej stosowanej do określenia elementów orbity. Obecnym kalendarzem używanym na całym świecie jest kalendarz gregoriański. W niektórych krajach zostało to wprowadzone przez papieża Grzegorza w 1582 r., a w innych dopiero w 1927 r. Kalendarz gregoriański ma 365 dni w roku z wyjątkiem dnia przestępnego 366 dni. Lata przestępne to lata, które dzielą się równomiernie przez 4, z wyjątkiem lat, które są dokładnie podzielne przez 100; te lata centralne są latami przestępnymi tylko wtedy, gdy można je dokładnie podzielić przez 400. Zatem lata 1800, 1900, 2100 i 2200 nie są latami przestępnymi, ale rok 2000 jest rokiem przestępnym. Rok kalendarzowy gregoriański ma 365,2425 dni w porównaniu z obecnym rokiem tropikalnym wynoszącym 365,242 190 dni, co stanowi różnicę 0,000 310 dni, czyli 1 dzień na 3000 lat. MIĘDZYNARODOWA UNIA Astronomiczna (IAU) przyjęła rok juliański wynoszący 365,25 dni jako jednostkę czasu w wielu obliczeniach, takich jak elementy precesji i orbity, aby uniknąć zmienności i niepewności wartości roku tropikalnego. Pojawiły się niepotwierdzone oświadczenia dotyczące modyfikacji kalendarza gregoriańskiego dokonanych przez niektóre kraje w celu skorygowania pozostałych rozbieżności. Jednakże nie są znane żadne korekty długoterminowych rozbieżności, a ulepszone efemerydy mogą zmienić wielkość rozbieżności. Często pojawiają się także radykalne propozycje uproszczenia, ujednolicenia lub ulepszenia kalendarza gregoriańskiego. Obecne całkowite międzynarodowe wykorzystanie kalendarza gregoriańskiego będzie wymagało, aby jakakolwiek zmiana zapewniała ogólnoświatową korzyść, która uzasadnia tę zmianę. W wielu przypadkach kalendarze opierały się na cyklu księżycowym. Miesiąc synodyczny, średni odstęp między koniunkcjami Księżyca i Słońca, odpowiada cyklowi faz Księżyca. Średnia wartość miesiąca synodycznego wynosi 29.530 589 dni i zwiększa się z powodu efektów pływowych o dwie milionowe dnia na stulecie. Każdy cykl fazy księżycowej może odbiegać od średniej nawet o 7 godzin. Niektóre kalendarze księżycowe (np. islamskie) rozpoczynają nowy miesiąc na podstawie obserwacji półksiężyca po nowiu. W takich przypadkach początek miesiąca zależy od warunków pogodowych, przejrzystości atmosfery, ostrości wzroku i lokalizacji na Ziemi, ponieważ Księżyc można zazwyczaj obserwować dopiero około 15 godzin po nowiu i około dwóch stopni nad horyzontem. Warunki te można ogólnie dokładnie przewidzieć z około 30-stopniową niepewnością długości geograficznej Ziemi, aby zapewnić rzeczywistą obserwowalność. W niektórych przypadkach przewidywania nie są akceptowane i do określenia początku miesiąca wymagane są obserwacje. Ponieważ w roku słonecznym nie ma całkowitej liczby miesięcy księżycowych, w niektórych kalendarzach (np. hebrajskim) wprowadzono miesiące interkalowane w celu dostosowania miesięcy w taki sposób, aby święta religijne wypadały każdego roku w tej samej porze roku .Kalendarze mają funkcje nieastronomiczne, takie jak siedmiodniowy tydzień. Pochodzenie siedmiodniowego tygodnia jest niepewne, a wyjaśnienia sięgają od cykli pogodowych po teksty biblijne i talmudyczne. Istnieje również niepotwierdzone założenie, że cykliczna ciągłość tygodnia została zachowana bez przerwy od jej powstania w czasach biblijnych.
Kalendarz na Bliskim Wschodzie i w Europie
Kalendarze są sposobem na zaznaczenie upływu czasu. Mogą mieć charakter cywilny, do porządkowania życia codziennego, religijny, do oznaczania dni świątecznych lub do odnotowywania rytmu pór roku w celach rolniczych. Duża część struktury kalendarza jest całkowicie dowolna, np. długość godzin, godzin w dniu, dni w tygodniu i rok w epoce. Jednak większość kalendarzy odzwierciedla naturalne cykle astronomiczne - pozorne ruchy Słońca i Księżyca oraz codzienny obrót Ziemi. Pierwotne kalendarze mogły być używane w czasach neolitu , ale tutaj rozważamy rozwój, w czasach historycznych, idei kalendarzy na Bliskim Wschodzie i w Europie, których kulminacją był system używany dzisiaj na całym świecie. Kalendarze w tradycji zachodniej zakorzenione są w cyklicznych ruchach Słońca, Księżyca lub obu. Rok gwiazdowy mierzy czas potrzebny Słońcu na powrót w to samo miejsce na niebie w stosunku do gwiazd stałych. Rok tropikalny to czas od jednej równonocy wiosennej do następnej. Ta ostatnia jest nieco krótsza, ponieważ PRECESJA co roku przesuwa punkty równonocy na zachód. Kluczowym cyklem księżycowym jest okres synodyczny, przejście Księżyca przez jego fazy. Kiedy połączy się je w kalendarz księżycowo-słoneczny, koordynacja jest bardziej złożona. Ponieważ ani okresy słoneczne, ani księżycowe nie są dokładnymi wielokrotnościami dni, pierwsi astronomowie byli zmuszeni wprowadzać dni interkalarne w pewnych odstępach czasu, aby wyrównać cykle. W przeciwnym razie miesiące (lub lata) powoli cofałyby się w zależności od pory roku. Ponieważ cykle księżycowy i słoneczny są niewspółmierne, żadna liczba miesięcy synodycznych nie będzie równa danej liczbie lat tropikalnych, nawet w bardzo długich okresach. Niemniej jednak można je porównać na tyle blisko, aby stworzyć wykonalny kalendarz.
Starożytne kalendarze
Aby uregulować praktyki religijne, pierwsi Egipcjanie opracowali kalendarz księżycowy, inaugurowany każdego roku heliakalnym wschodem Syriusza, tj. kiedy Syriusz po raz pierwszy pojawił się na krótko o porannym zmierzchu. Do celów administracyjnych wprowadzili kalendarz słoneczny na początku trzeciego tysiąclecia p.n.e. System ten stał się podstawą naszego nowoczesnego. Zakładając, że rok ma 365 dni, podzielili go na 12 równych miesięcy po 30 dni, po których na końcu nastąpiło 5 dni. Każdy miesiąc miał trzy 10-dniowe tygodnie. Ponieważ do roku tropikalnego brakowało około ćwierć dnia, początkowy dzień kalendarza powoli cofał się, a nowy rok za około 4 lata nadszedł dzień wcześniej, ale rozbieżność została zignorowana. Egipcjanie również wprowadzili 24-godzinny dzień, chociaż 12 godzin nocnych, 10 godzin dziennych i 2 godziny świtu i zmierzchu były nierównej długości. Nierówne godziny sezonowe były powszechne na całym Zachodzie, aż do czasu, gdy w XIV wieku astronomowie rozpowszechnili system równych godzin wraz z zegarami mechanicznymi. Cywilizacje Mezopotamii rozwinęły kalendarz księżycowo-słoneczny oparty na 7-dniowym tygodniu. Długość ta mogła symbolizować siedem "planet" (Słońce, Księżyc i pięć planet widocznych gołym okiem). Chociaż mezopotamscy astronomowie interkalowali dodatkowe miesiące księżycowe wcześniej, dopiero w IV wieku p.n.e. pojawiła się systematyczna interkalacja siedmiu miesięcy księżycowych w okresie 19 lat. Schemat ten, zaproponowany mniej więcej w tym samym czasie przez ateńskiego astronoma METOSA, był później znany jako cykl Metosa. Obserwacje wykazały, że w ciągu 19 lat tropikalnych nastąpiło prawie dokładnie 235 lunacji. Do obliczenia dat nowiu księżyca stosowano naprzemienne miesiące 30 i 29 dni. Po 12 lunacjach łącznie 354 dni było mniej niż rok słoneczny o około 11,25 dnia. Jednak po 3 latach skumulowały się one do ponad 33 dni i wprowadzono dodatkową lunację. Zatem 12 lat z 12 lunacjami w połączeniu z 7 latami z 13 lunacjami spowodowałoby powrót cyklu do początku. Imperium Perskie ujednoliciło system, dodając interkalację w trzecim, szóstym, ósmym, jedenastym, czternastym, siedemnastym i dziewiętnastym roku cyklu. Żydzi i inne narody Bliskiego Wschodu przyjęły ten schemat. Greckie miasta-państwa stosowały mniej dokładny schemat interkalacji, oktaeteris, opracowany być może w VIII wieku p.n.e. Założono, że osiem lat tropikalnych to 96 regularnych plus 3 interkalowane lunacje trwające średnio 29,5 dnia. Jednak nie mając jedności politycznej, greckie miasta utrzymywały indywidualne kalendarze księżycowo-słoneczne, z różnymi datami rozpoczęcia i godzinami miesięcy interkalacyjnych. Metos w V wieku zauważył, że rok tropikalny trwa około 365,25 dni. Jego 19-letni cykl rozprzestrzenił się dalej w okresie hellenistycznym. HIPPARCHUS w II wieku p.n.e. rozpoznał precesję i określił bardzo dokładne wartości zarówno dla roku tropikalnego, jak i okresu synodycznego. Kalendarz rzymsko-republikański był mniej wyrafinowany niż babiloński. Bazując na starszym kalendarzu księżycowym, miał on 12 miesięcy, niektóre nazwane (Ianuarius, Februarius, Martius, Aprilis, Maius, Iunius) i inne ponumerowane (Quintilis, Sextilis, wrzesień, październik, listopad, grudzień). Ponieważ rok zaczynał się w marcu, Ianuarius i Februarius mieli odpowiednio 11 i 12 miesięcy. Ten kalendarz cywilny był o dzień dłuższy niż rok tropikalny i cierpiał na niesystematyczne wstawki. W I wieku p.n.e. nowy rok przypadał prawie 2 miesiące po równonocy wiosennej. Rynek ustalił 8-dniowy tydzień , chociaż na terytoriach tematycznych coraz bardziej powszechny stał się 7-dniowy tydzień żydowski. W przeciwieństwie do innych ludów śródziemnomorskich, Rzymianie rozpoczynali dzień o północy.
Reforma juliańska i kalendarze średniowieczne
Juliusz Cezar podczas swego pobytu w Egipcie dostrzegł wartość przyjęcia egipskiego kalendarza słonecznego i za radą aleksandryjskiego astronoma Sosigenesa w roku 46 p.n.e. ogłosił tak zwany kalendarz juliański. W tym całkowicie słonecznym kalendarzu rok wynosił 365,25 dni. Zamiast uwzględniać pięć dodatkowych dni na koniec roku, kalendarz juliański rozłożył dodatkowe dni w ciągu roku, naprzemiennie 31 i 30-dniowymi miesiącami. Rok zaczynał się w styczniu, który miał 31 dni. Taki podział dałby rok składający się z 366 dni, więc z lutego usunięto jeden dzień, który teraz miał 29 dni. Aby uwzględnić kumulację dodatkowego dnia co 4 lata, luty otrzymał 30 dni w roku przestępnym, przy czym dzień interkalowany był zwykle wstawiany po 24 dniu miesiąca. Później wprowadzono tylko drobne zmiany: w 44 roku p.n.e. miesiąc Quintilis został przemianowany na Iulius, na cześć zamordowanego Cezara, a w 8 roku p.n.e. Augustus nazwał go swoim imieniem Sextilis, zapewniając mu 31 dni. Zmieniło to kolejność naprzemiennych długości miesięcy i pozbawiło lutego jego 29 dnia. Augustowskie dostosowania dotyczące długości miesięcy przetrwały we współczesnym użyciu. August, zdając sobie sprawę, że od czasów Cezara kapłani co roku czynili rok przestępny, usunął wszystkie lata przestępne aż do 8 roku naszej ery. Kalendarz juliański, podobnie jak jego egipski model, miał wartość prostoty. Różnica między rokiem juliańskim a tropikalnym była na tyle mała, że różnica narastała powoli. Jako oficjalny kalendarz Cesarstwa Rzymskiego, od Bliskiego Wschodu po Szkocję obowiązywał system juliański; kiedy Kościół chrześcijański stał się religią dominującą w imperium, kalendarz przetrwał. Przed wygnaniem żydowski kalendarz był księżycowy, choć niewiele o nim wiadomo. Po podboju Babilonu Izraelski kalendarz żydowski, podobnie jak inne kalendarze semickie, stał się księżycowo-słoneczny i każdego roku miał 12 naprzemiennych miesięcy po 29 i 30 dni. Po zmianach w II i III w. n.e. nastąpił cykl metoński, z interkalacjami dokonanymi według porządku babilońskiego. Rok zaczynał się od równonocy jesiennej - przed wygnaniem do Babilonu rozpoczynał się od równonocy wiosennej - i miał 7 dni tygodni, rozpoczynających się o zachodzie słońca w piątek. Miesiące rozpoczęły się wraz z pierwszą obserwacją nowego sierpa Księżyca; w praktyce czas obliczony astronomicznie był używany przez niektóre społeczności żydowskie od III wieku. Dni rozpoczynały się o zachodzie słońca, chociaż we współczesnej praktyce oficjalnie rozpoczynają się o godzinie 18:00, a tydzień rozpoczyna się w szabat (piątek wieczorem). Zgodnie z tradycją babilońską każdą dobę dzieli się na 1080 jednostek w oparciu o obliczenia sześćdziesiętne. Lata liczone są od początku świata (anno mundi, czyli 3761 p.n.e.). Kalendarz islamski miał wspólne pochodzenie z kalendarzami żydowskim i chrześcijańskim, z tą różnicą, że porzucił powiązanie z rokiem tropikalnym. Dwanaście miesięcy księżycowych po 29 i 30 dni na przemian. Ponieważ jest to ściśle księżycowy (a nie księżycowo-słoneczny), nie ma miesięcy interkalowanych - chociaż do danego roku można dodać dzień interkalowany - tak więc święta religijne, takie jak Ramadan, przypadają w różnych porach roku na przestrzeni lat, przechodząc przez wszystkie pory roku w około 33 lata. Podobnie jak żydowski, kalendarz islamski ma 7 dni, każdy rozpoczynający się o zachodzie słońca. Rzeczywista wizualna obserwacja nowego sierpu Księżyca była początkiem każdego miesiąca księżycowego. W późniejszym średniowieczu islamscy astronomowie opracowali metody i tabele umożliwiające określenie czasu nowiu księżyca w różnych miejscach oraz momentu, gdy Księżyc był zasłonięty chmurami . Dla celów cywilnych Imperium Osmańskie przyjęło kalendarz juliański w XVII wieku, a Turcja przeszła na system gregoriański w XX wieku. Większość krajów islamskich używa obecnie kalendarza gregoriańskiego do celów cywilnych, ale używa także epoki datowanej na ucieczkę Mahometa do Medyny (622 r.). Natomiast Rzymianie jeszcze przed reformą juliańską rozpoczęli rok 1 stycznia, w ich ślady poszła tylko zachodnia część imperium. Cesarstwo Bizantyjskie przeniosło się na 1 września. Wczesnośredniowieczni chrześcijanie Zachodu nie mogli zgodzić się na datę inauguracji. W Anglii i Francji Boże Narodzenie było nowym rokiem; w innych obszarach pierwszeństwo miał 25 marca, a nawet Wielkanoc (która była datą ruchomą). Pod koniec średniowiecza dzień 1 stycznia odzyskał swój status. Żydowski 7-dniowy tydzień, przyjęty przez pierwszych chrześcijan, stał się prawnie wiążący w Cesarstwie Rzymskim dopiero za czasów Konstantyna (321 r.). Chociaż Kościół próbował usunąć rzymskie nazwy miesięcy - na przykład zastępując dies Saturni przez sabbata, a dies soli przez domenicus - starsze nazwy przetrwały w północnej Europie. W liczeniu dni miesiąca też było zamieszanie. Rzymsko-republikańska metoda rozpoczynania miesiąca od kalend, po których kilka dni później następują nony i idy oraz numeracja dni wstecz w stosunku do tych trzech stałych dni, przetrwały na niektórych obszarach aż do XV wieku, kiedy to powszechna stała się kolejna numeracja dni. Ponieważ kalendarz juliański obejmował dłuższy rok tropikalny niż faktycznie występuje, data równonocy wiosennej powoli przesuwała się do tyłu. Dla Kościoła chrześcijańskiego spowodowało to problem w ustaleniu daty Wielkanocy. Wielkanoc, powiązana z żydowską Paschą, opartą na kalendarzu księżycowo-słonecznym, była trudna do ustalenia. Sobór Nicejski (325 r.) ustalił dzień 21 marca jako datę równonocy wiosennej i przyjął cykl metoniczny. Dionizy Exiguus w VI wieku podał zasadę ustalania Wielkanocy: przypadała ona w pierwszą niedzielę po pierwszej pełni księżyca po równonocy wiosennej. Jeżeli pełnia księżyca przypadała w niedzielę, Wielkanoc przesuwano na następny tydzień. Te komplikacje dały początek literaturze kalendarzowej, computus, której Beda na początku VIII wieku był znaczącym współautorem. Powszechnym schematem było wstawienie 30-dniowych miesięcy przestępnych w 19-letni cykl, stosując ten sam schemat, co w kalendarzu żydowskim. W ciągu 19 lat kalendarz juliański liczył 6939 dni i 18 godzin, podczas gdy cykl księżycowy 6940 dni i 18 godzin. Aby zapewnić im synchronizację, usuwano dzień (saltus lunae), zwykle w ostatnim miesiącu cyklu. Bardziej złożone było zapewnienie, że Wielkanoc przypada w niedzielę i wiedza, kiedy ona nastąpi. Bede i inni wprowadzili wieczny kalendarz oparty na cyklach złożonych, złotych liczbach i epaktach. Dzięki takiemu schematowi można było sporządzić tabele z dużym wyprzedzeniem w celu obliczenia dat Wielkanocy. Porozumienie co do ery randek było już kwestią czasu. Wiele starożytnych krajów opierało swoje epoki na latach panowania lub kadencji wysokich urzędników. Niektóre greckie miasta uczestniczyły w olimpiadach. W czasach cesarstwa Rzymianie wykorzystywali zarówno lata panowania, jak i rok od założenia Rzymu (ab urbe condita). Założenie ery chrześcijańskiej (anno Domini) zostało zasugerowane przez Dionizego Exiguusa w VI wieku. Próbując rozwiązać problem liczenia Wielkanocy, Dionizjusz przyjął okres wiktoriański (wymyślony przez Wiktoryna z Akwitanii w V wieku), który pomnożył 19-letni cykl Metona przez 28-letni cykl słoneczny, uzyskując cykl 532-letni. Poganie obliczyli rok narodzin Chrystusa, od którego rozpoczynał się pierwszy cykl 532 lat. Uważał, że jest to 753 AUC. Anglicy pod wpływem Bedy przyjęli epokę chrześcijańską do celów kościelnych w VII wieku, ale w Europie została ona powszechnie zaakceptowana dopiero w XI wieku.
Reforma kalendarza
Do czasów Rogera Bacona w XIII wieku było jasne, że paschalne pełnie księżyca nie przypadały w obliczonych datach. Kiedy precesja została powszechnie zrozumiana i dostępne stały się lepsze tablice, zwłaszcza tablice Alfonsine z końca XIII wieku, wzrosła presja na reformę kalendarza. Pomimo różnorodnych propozycji, dopiero za papieskiego panowania Grzegorza XIII w 1582 r. ogłoszono poprawiony system, opracowany przez Aloisio Lilio. Długość roku tropikalnego w Alfonsine jest nieco o ponad 10,5 minuty krótsza niż rok juliański oznaczało, że trzeba będzie upuszczać jeden dzień co 134 lata. Komisja papieska zaleciła przestrzeganie układu juliańskiego roku przestępnego, ale pomijanie lat przestępnych w latach stuleci (takich jak 1900), które nie są podzielne przez 400. Reforma gregoriańska dostosowała również system liczenia Wielkanocy. Ponieważ w ciągu następnych stuleci data równonocy wiosennej cofnęła się o około 10 dni od 21 marca, Grzegorz zadekretował, że po 5 października 1582 r. nastąpi 15 października. Kraje katolickie przyjęły system w ciągu pierwszych 5 lat; została zaakceptowana w większości krajów protestanckich w XVIII wieku, np. w Wielkiej Brytanii w 1752 r. Ponieważ Kościół prawosławny nigdy nie zaakceptował reformy, kraje Europy Wschodniej opóźniły jej przyjęcie do XX wieku, np. Rewolucyjna Rosja w 1918 r. i Grecja w 1923 r. Niektóre kraje azjatyckie i muzułmańskie również przyjęły ten system na przełomie XIX i XX wieku. Na krótki okres (1793-1805) rewolucyjna Francja wprowadziła kalendarz oparty na starożytnym egipskim kalendarzu słonecznym, aby usunąć wszelkie konotacje religijne. Po dwunastu 30-dniowych miesiącach następowało pięć dni wakacji, wprowadzanych na początek lipca; poprawiony schemat roku przestępnego został zmodyfikowany z gregoriańskiego. Podobnie jak w kalendarzu egipskim, każdy miesiąc składa się z trzech 10-dniowych tygodni. Zmieniono nazwy samych miesięcy, aby odzwierciedlić sezonową pogodę i zajęcia. Ponieważ daty początkowe miesięcy nie pokrywały się z resztą Europy, problemy narosły i Napoleon I przywrócił kraj do systemu gregoriańskiego. Od XIX wieku pojawiały się różne propozycje reform kalendarza, zwłaszcza mające na celu rozwiązanie problemu miesięcy z nierówną liczbą dni. Międzynarodowy stały kalendarz zapewniałby 13 miesięcy po 28 dni każdy plus jeden nienazwany dzień, co równałoby się 365; dzień roku przestępnego byłby dodawany co cztery lata. Zaletą tego schematu jest to, że wszystkie miesiące rozpoczynają się w niedzielę i kończą w sobotę. Alternatywą jest Kalendarz Światowy, który miałby cztery 91-dniowe kwartały, każdy rozpoczynający się w niedzielę, a miesiące miałyby 31, 30 i 30 dni. Dzień światowy zostanie dodany po 30 grudnia oraz dodatkowy dzień światowy w latach przestępnych. Obydwa mają zalety, ale ani one, ani inne nie wzbudziły większego oficjalnego entuzjazmu. Chociaż w ciągu ostatnich kilku tysięcy lat wiele kultur opracowało kalendarze oparte na zjawiskach astronomicznych, hybryda utworzona z tradycji babilońsko-żydowskiej i tradycji egipsko-rzymskiej stała się dominującym systemem kalendarzowym na całym świecie. Chociaż nie może być dokładnie dokładny, biorąc pod uwagę niewspółmierność okresów księżycowego i słonecznego, jest całkowicie wystarczający dla potrzeb politycznych i gospodarczych. Reforma kalendarza, jeśli do niej dojdzie, będzie najprawdopodobniej racjonalizacją istniejącego systemu, a nie całościową zmianą jego struktury.
Kalippus z Kyzikos (ok. 370 - ok. 310 p.n.e.)
Grecki filozof urodzony w Kyzikos w Azji Mniejszej (obecnie Turcja), młodszy współczesny EUDOKSUSOWI, który dodał więcej kul do gniazd sfer Eudoksosa, aby lepiej uwzględnić niejednorodności ruchu planet. Słońce, Księżyc, Merkury, Wenus i Mars miały po pięć kul, podczas gdy Jowisz i Saturn miały cztery, a gwiazdy jedną. Zwiększyło to dokładność teorii, zachowując jednocześnie przekonanie, że ciała niebieskie poruszają się po okręgach. Współpracował z Arystotelesem. Określono długość pór roku. Skonstruował 76-letni cykl (okres kallippijski) jako dokładniejszą wersję (cztery cykle) 19-letniego cyklu metonicznego, czyli czasu, w którym kalendarze księżycowy i słoneczny powracają do tej samej synchronizacji i podczas którego można zaobserwować zaćmienia Księżyca przewidywane.
Callisto
Kalisto, najbardziej oddalony z satelitów Galileusza , ma około 38% większą średnicę niż ziemski Księżyc (promień Kallisto wynosi 2410 km, a promień Księżyca 1738 km). Jednak niższa masa, grawitacja powierzchniowa i wyższe albedo Kallisto odzwierciedlają jej skład lodowo-skalny. Uważa się, że powierzchnia Callisto składa się z mieszaniny lodu i pyłu lub materiałów skalistych. Pokryty kraterami teren Callisto można podzielić na podjednostki o nieregularnych kształtach w oparciu o ALBEDO, które różnią się dwukrotnie między jednostkami. W rozdzielczości VOYAGER kilka podjednostek wydaje się stosunkowo gładkich i pozbawionych kraterów uderzeniowych; obszary te zinterpretowano jako obszary możliwego wynurzania się wulkanu. Jednakże dane z MISJI GALILEO, których celem były te regiony, pokazują, że gładkość wynika raczej z degradacji powierzchni, a nie z lodowatego wulkanizmu. Sugerowano, że wczesny globalny tektonizm wyjaśnia obecność równoległych i promienistych zestawów lineamentów. Na podstawie danych z Voyagera nie można określić, czy Kallisto jest zróżnicowane. Obrazy powierzchni Kallisto wykonane przez Galileo nie dostarczają wyraźnych dowodów na RÓŻNICOWANIE lub obecność podpowierzchniowego oceanu w postaci ciekłej wody. Brakuje wyraźnych dowodów geologicznych na jakąkolwiek endogeniczną modyfikację powierzchni Kallisto. Przed misją Galileo naukowcy wierzyli, że powierzchnia Kallisto będzie pokryta kraterami we wszystkich skalach. Jednakże powierzchnia Kallisto jest widoczna na zdjęciach Galileo o średniej i wysokiej rozdzielczości jako gładka i lekko pofałdowana, zawierająca niewielką gęstość przestrzenną małych (<10 km/piksel) KRATERÓW uderzeniowych . Szeroki rozkład przestrzenny tej gładkiej tekstury sugeruje, że proces(y) wygładzania mają zasięg globalny. Ciemny materiał niebędący lodem, który wydaje się pokrywać powierzchnię, może się skoncentrować w wyniku utraty materiałów lotnych podczas uderzeń, bombardowania magnetosferycznego i/lub sublimacji. Materiał ten może być również rozprzestrzeniany w wyniku uderzeń i bombardowań mikrometeorytami, w wyniku czego następuje wypełnienie nisko położonej topografii. Lewitacja elektrostatyczna lub inne mechanizmy mogą dodatkowo przyczynić się do mobilizacji ciemnej materii Kallisto. Kratery uderzeniowe na Callisto wykazują różne rozmiary i stany degradacji, od świeżych z wyraźnie określonymi kożuchami wyrzutowymi po kratery, które są ledwo rozróżnialne. Wydaje się, że głównym procesem tej degradacji jest masowe niszczenie ścian kraterów. Przeważają osady w kraterach, które wydają się być wynikiem osuwania się gruzu do wewnątrz. Kilka z tych strumieni gruzu ma swoje źródło w zachodnich ścianach geologicznie niedawnych kraterów. Może to wskazywać na stromienie ściany krateru, być może w wyniku sublimacji, co skutkuje zmniejszeniem jego stabilności. Późniejsze zawalenie się może zostać wywołane energią sejsmiczną powstałą w wyniku pobliskiego uderzenia lub ostatecznym przechyleniem Kallisto. ściana prowadząca do zapadnięcia się grawitacyjnego. Ta ciągła erozja sublimacyjna i marnowanie masy najlepiej wyjaśnia preferowane cofanie się krawędzi zwróconej w stronę słońca i erozję ścian kraterów widoczne na zdjęciach Galileo, przyczyniając się do stopniowego wypełniania kraterów na powierzchni Kallisto. Zdjęcia z Voyagera pokazują, że powierzchnia Kallisto nie ma znaczącej topografii i jest pokryta kraterami. Dane z sondy Voyager wykazały braki w dużych kraterach uderzeniowych (o średnicy większej niż 60 km) w porównaniu z Księżycem i planetami ziemskimi. Jednakże na zdjęciach Galileo zidentyfikowano dodatkowe struktury o dużych uderzeniach, które ulegają znacznej degradacji. Zdjęcia Galileo o umiarkowanej rozdzielczości (0,4-1,1 km/piksel) pokazują bardziej szczegółowe cechy strukturalne w trzech systemach wielopierścieniowych Kallisto (interpretowane jako obiekty o dużym uderzeniu) niż te widoczne na danych z sondy Voyager. Najmłodsza, Walhalla, charakteryzuje się jasnymi równinami centralnymi otoczonymi nieciągłymi, koncentrycznymi, łukowatymi strukturami (rynny i skarpy skierowane na zewnątrz). System wielopierścieniowy Asgardu składa się z jasnej centralnej jednostki równinnej otoczonej kilkoma nieciągłymi pierścieniami składającymi się z rynien, ale brakuje mu skarp skierowanych na zewnątrz. Jasność centralnych równin Asgardu zwiększa obecność nowszego krateru uderzeniowego Doh, z którego wydobyto lodowszy (jaśniejszy) materiał podpowierzchniowy. Zdjęcia Asgardu w wysokiej rozdzielczości ujawniają pęknięcia wewnątrz i w sąsiedztwie najbardziej wewnętrznego pierścienia. Pęknięcia te są prawdopodobnie wynikiem pękania kruchej warstwy zewnętrznej Kallisto w wyniku uderzenia. Bliskość tych pęknięć (widocznych tylko w najbardziej wewnętrznym pierścieniu) do krateru uderzeniowego Doh może wskazywać, że pęknięcia te zostały reaktywowane w wyniku niedawnego uderzenia. Dobrze zachowane zewnętrzne rynny związane z Asgardem mają niższe albedo niż otaczające je równiny pokryte kraterami. Adlinda, najstarsza z tych trzech wielopierścieniowych struktur, nie posiada jasnej jednostki centralnej równiny. Widoczne są jednak koncentryczne pierścienie o niskim albedo, które są bardziej odporne na degradację. Szczegółową morfologię Adlindy przesłaniają liczne uderzenia, a także wyrzuty z Lofn, pobliskiego krateru uderzeniowego. Spektrometr mapujący bliskiej podczerwieni (NIMS) znajdujący się na statku kosmicznym Galileo dostarczył do 408-kanałowych widm powierzchni Kallisto, od 0,7 do 5,2 μm przy rozdzielczości przestrzennej w zakresie od jednego do setek kilometrów na element obrazu. Obszary o silnych cechach absorpcji lodu wodnego w widmach NIMS zwykle odpowiadają jasnym cechom (np. osadom świeżych kraterów uderzeniowych) na obrazach Galileo z filtrem przezroczystym. Interpretuje się, że słabe cechy absorpcji w pobliżu 3,88, 4,05, 4,25 i 4,57 μm wynikają z obecności odpowiednio wiązania S-H, SO2, CO2 i związków organicznych (np. tolin). Ogólnie rzecz biorąc, korelacje między tymi związkami a geologią powierzchniową są złożone i obecnie słabo poznane. Globalnie absorpcja 4,25 μm jest silniejsza na półkuli końcowej Kallisto, podczas gdy absorpcja 4,05 i 4,57 μm jest silniejsza na półkuli wiodącej. Oprócz zapewnienia wglądu w skład materiałów powierzchniowych i ich rozkład, analiza danych NIMS ujawniła obecność rzadkiej (powierzchnia = 7,5 × 10-12 barów) atmosfery dwutlenku węgla rozciągającej się około 100 km nad powierzchnią. Na podstawie modeli szybkości usuwania CO2 szacowany czas życia atmosfery Kallisto wynosi około 4 lata. W rezultacie albo atmosfera ta jest zjawiskiem przejściowym, albo jakiś proces(y) obecnie dostarcza do atmosfery dwutlenek węgla. Podobnie jak GANYMEDE, Kallisto jest znane jako lodowy satelita ponieważ jego stosunkowo niska średnia gęstość (1836 kgˇm-3) wymaga, aby był wykonany z mniej więcej równych masowo ilości lodu i metalu skalnego. Kalisto jest tylko nieznacznie mniejsza od Ganimedesa, ale różni się od niego pod wieloma uderzającymi względami. Chociaż średnia gęstość Kallisto i Ganimedesa jest podobna, Kallisto ma większy znormalizowany osiowy moment bezwładności C/(MR2)(C/(MR2) = 0,359±0,005, C to osiowy moment bezwładności, M to masa satelity i R to promień Księżyca, znany z radiowych pomiarów dopplerowskich wykonanych przez sondę Galileo), co sugeruje zupełnie inną strukturę wnętrza Kallisto w porównaniu z wnętrzem Ganimedesa. W przeciwieństwie do Ganimedesa, Kalisto jest tylko częściowo zróżnicowane i składa się z ciekłej powłoki z lodu i lodu o grubości mniejszej niż 350 km, otaczającej zasadniczo niezróżnicowany rdzeń z lodu, skał i metalu. Skały i lód w Callisto nie są całkowicie oddzielone, a Callisto może nie mieć centralnego metalowego rdzenia. Dane grawitacyjne uzyskane przez sondę Galileo podczas przelotu obok Kallisto nie wykluczają istnienia małego metalicznego rdzenia w Callisto o promieniu mniejszym niż około 25% promienia satelity. Jednak argumenty geofizyczne i inne właściwości Kallisto sprawiają, że istnienie małego metalicznego rdzenia na Księżycu jest mało prawdopodobne. Biorąc pod uwagę brak metalicznego rdzenia, Callisto nie ma wewnętrznego pola magnetycznego. Brak dowodów na jakąkolwiek endogenną modyfikację powierzchni Kallisto jest zgodny z częściowym zróżnicowaniem jedynie kilkuset kilometrów zewnętrznych Kalisto. Chociaż Kalisto nie posiada własnego pola magnetycznego, sonda Galileo wykryła w Kallisto zaburzenia magnetyczne związane z indukcją elektromagnetyczną. Indukcja występuje, gdy satelita doświadcza okresowych zmian w otaczającym polu magnetycznym magnetosfery Jowisza w wyniku jego ruchu orbitalnego wokół Jowisza, obrotu Jowisza i nachylenia pola magnetycznego Jowisza. Wielkość sygnału indukcji elektromagnetycznej wymaga, aby w pobliżu powierzchni Kallisto znajdowała się globalna warstwa o wysokiej przewodności elektrycznej. Jedynym wyjaśnieniem istnienia takiej warstwy jest to, że jest to podpowierzchniowy ocean wody w stanie ciekłym o zasoleniu podobnym do ziemskiej wody morskiej. W przeciwieństwie do powierzchni Europy, powierzchnia Callisto nie wskazuje na to, że pod nią może kryć się ocean ciekłej wody. Sygnał indukcyjny jest jedynie pośrednim dowodem na to, że Callisto może mieć podpowierzchniowy ocean ciekłej wody. Istnienie takiego wewnętrznego oceanu na Kalisto jest trudne do pogodzenia z brakiem endogenicznych modyfikacji jego powierzchni. Kallisto nie wchodzi w skład orbitalnego rezonansu dynamicznego Laplace′a trzech wewnętrznych satelitów Galileusza (IO, Europa i Ganimedes), w związku z czym nie jest ogrzewana przez pływy. Bez takiego źródła ciepła trudno zrozumieć, w jaki sposób można zapobiec zamarzaniu podziemnego oceanu wody w stanie ciekłym na Kallisto w czasie geologicznym. Oczekuje się, że konwekcja Subsolidus kontrolowana przez lepkość lodu skutecznie ochłodzi wnętrze Callisto. Przynajmniej w przypadku Europy, dla której istnieją geologiczne dowody istnienia wewnętrznego oceanu wody ciekłej w przeszłości lub obecnie, rozpraszanie pływów jest możliwym źródłem ciepła umożliwiającym utrzymanie podpowierzchniowej warstwy wody w stanie ciekłym. Ogrzewanie pływowe w odległej przeszłości może również wyjaśniać, dlaczego Ganimedes jest całkowicie zróżnicowany wewnętrznie, podczas gdy Kallisto jest zróżnicowane tylko częściowo. W końcu oba te księżyce są porównywalne pod względem wielkości i masy, mają podobną ilość radiogenicznych źródeł ciepła i doświadczyły podobnej ilości nagrzewania akrecyjnego podczas formowania się.
Aktualizacja najświeższych wiadomości (30 kwietnia 2002)
Niedawne zdjęcie wykonane przez należącą do NASA sondę Galileo stanowi dowód na teorię, że na Kallisto może znajdować się podziemny ocean. Zdjęcie pokazuje część powierzchni Kallisto, dokładnie naprzeciwko basenu Walhalli, w którym Kalisto zostało uderzone w wyniku poważnej kolizji. Punkt oporu nie wykazuje żadnego efektu uderzenia. Punkty naprzeciw głównych obiektów uderzeniowych na niektórych światach o podobnej wielkości, takich jak Merkury i Księżyc Ziemi, pokazują nierówny teren przypisywany wstrząsom sejsmicznym powodowanym przez odległe uderzenia. Nowy obraz jest spójny z modelem z lat 90. XX w., który sugerował, że warstwa cieczy może działać jako amortyzator wewnątrz Callisto
Basen Kalorii
Duża wielopierścieniowa struktura uderzeniowa na Merkurym, ześrodkowana na 30,5 °N, 170,2 °E. Jej oficjalna nazwa to Caloris Planitia, co oznacza "równina ciepła" - to właśnie w tym regionie sonda Mariner 10 zarejestrowała najwyższe temperatury powierzchni, która sfotografowała około połowę konstrukcji, a druga połowa znajdowała się w cieniu. Na podstawie zaobserwowanej połowy średnicę basenu Caloris szacuje się na 1340 km. Zewnętrzny pierścień wyznaczają góry Caloris (Montes Caloris), formacja o szerokości około 100-150 km, składająca się z gładkich jednostek blokowych o wysokości 1 lub 2 km i długości do 50 km. Wewnątrz tego pierścienia dno basenu pokryte jest zmarszczkami i spękaniami, z których wiele układa się w przybliżeniu według linii koncentrycznych łuków. Inne cechy są związane z wpływem, który utworzył basen. Pierścień górski jest przerywany małymi równinami i kraterami wtórnymi utworzonymi w wyniku cofania się wyrzutów i stopionego materiału. Na północny wschód od basenu znajduje się formacja Van Eycka, zawierająca szereg obiektów promienistych rozciągających się na długości około 1000 km i uważa się, że powstały w wyniku wyrzutu. W antypodalnym punkcie uderzenia (punkt diametralnie po drugiej stronie Merkurego) znajduje się teren niespotykany nigdzie indziej w Układzie Słonecznym: pogmatwany, popękany krajobraz składający się ze wzgórz o wysokości do 2 km i szerokości do 10 km, i zagłębienia, które przecinają starsze cechy. Uderzenie spowodowało powstanie sejsmicznych fal powierzchniowych wokół planety i fal kompresyjnych w jej jądrze. Oblicza się, że tam, gdzie fale te skupiły się w punkcie antypodalnym, skała skorupy ziemskiej uległa pęknięciu wskutek uderzenia i wypchnięciu w górę o 1 km. Obecny krajobraz ukształtował się po ustąpieniu przewrotu. Szacuje się, że Basen Caloris powstał w wyniku uderzenia obiektu o długości 150 km około 3,85 miliarda lat temu, pod koniec okresu znanego jako późne ciężkie bombardowanie, które oznacza ostatni poważny epizod kraterów uderzeniowych we wczesnym Układzie Słonecznym. O tym, że było to ostatnie poważne uderzenie w Merkurego, świadczy niższa od średniej gęstość kraterów na dnie basenu.
Kamery
Czytelnicy tego artykułu używają naturalnego aparatu, ludzkiego oka. Ma prosty obiektyw, ale fenomenalne przetwarzanie sygnału, co jest opracowaniem samym w sobie i nie jest tematem tego artykułu. Bardziej odpowiednimi przykładami aparatów są te, które wykorzystują kliszę fotograficzną jako detektor. Innymi przykładami są kamery wideo wyposażone w detektor CCD. Teleskop to duży aparat, ale w większych teleskopach zamiast soczewki wypukłej jako pierwszy element optyczny zastosowano zwierciadło wklęsłe. Niezależnie od tego, czy jest to lustro, czy soczewka, ten element optyczny nazywany jest obiektywem. Jeśli jest to zwierciadło, nazywa się je również zwierciadłem głównym. System Atelescope to seria kamer, z których ostatnia ma w swoim ognisku detektor. Czasami aparatem nazywa się tylko ostatni aparat. Rysunek przedstawia podstawową konstrukcję optyczną wszystkich systemów teleskopowych, w najprostszej formie składającej się z trzech soczewek singletowych. Każda z tych soczewek stanowi główny element systemu teleskopu, który w nowoczesnym teleskopie byłby bardziej złożony niż pojedyncza soczewka sferyczna.

Aberracje optyczne i straty odbiciowe
Układ optyczny
Pierwszy element na rysunku jest oznaczony jako cel. Przedstawiona jest jako soczewka singletowa, chociaż tak prostego obiektywu nie używano od 1733 roku. Obiektyw ukazany jest skupiając wiązki światła z dwóch gwiazd, przy czym każda wiązka składa się z promieni równoległych, na pierwszą powierzchnię ogniskową. Mówi się, że ma pozytywną moc, ponieważ zmienia cylindryczną wiązkę światła w zbiegający się stożek światła. Promienie krzyżują się w tym pierwszym ognisku, w ten sposób zbieżny stożek staje się rozbieżnym stożkiem, który jest przechwytywany przez soczewkę kolimatora, która zmienia rozbieżną wiązkę z powrotem w równoległą, skolimowaną wiązkę. Soczewka ta również ma dodatnią moc, ale jej funkcja jest odwrotnością SOCZEWKI OBIEKTYWNEJ. Soczewka kolimatora ma krótszą ogniskową niż obiektyw, dlatego skolimowana wiązka ma mniejszą średnicę niż wiązka padająca na soczewkę obiektywu. Soczewka ta wytwarza również obraz otworu wejściowego (który na rysunku znajduje się przy obiektywie). Ten obraz nazywa się źrenicą. Nazywa się to również przystankiem apertury lub przystankiem Lyota, jeśli znajduje się tam czarna płytka z otworem równym średnicy wiązki, która przepuszcza wiązkę, ale blokuje niepożądane, rozproszone światło. Obiektyw kamery na rysunku ponownie skupia wiązkę, aby skupić się na detektorze z taką samą szybkością zbieżności, jak przy pierwszym ogniskowaniu; zatem ma jednostkowe powiększenie. Gdyby ogniskowa obiektywu aparatu została potrojona, powiększenie M byłoby trzykrotne, a zatem M = 3. Część ogromnej równoległej wiązki gwiazdy, która może wejść do teleskopu, jest ograniczona średnicą ogranicznika apertury wejściowej , która na rysunku znajduje się na przedniej powierzchni soczewki obiektywu. Ten przystanek nie jest pokazany; jest to struktura mechaniczna wokół soczewki. Promień każdej gwiazdy lub punktu obiektu przechodzący przez środek przysłony nazywany jest głównym promieniem tego obiektu. Zatem główny promień przechodzi również przez dowolny obraz otworu wejściowego, taki jak źrenica między drugą a trzecią soczewką. Promienie przechodzące przez krawędzie soczewki nazywane są promieniami brzegowymi. Na rysunku promień krańcowy z krawędzi pola przecina soczewkę kolimatora daleko od jej środka, co powoduje tak duże rozmycie źrenicy i końcowego obrazu, że jest to zauważalne na rysunku. Gdyby w pierwszym ognisku znajdowała się soczewka dodatnia, przesunęłaby promienie bliżej środka soczewki kolimatora i źrenicę bliżej soczewki kolimatora, ale nie zmieniłoby położenia ogniska końcowego. Taka soczewka o ogniskowej pośredniej nazywana jest soczewką polową. To głównie to, co znajduje się pomiędzy drugim i trzecim elementem soczewki na rysunku , odróżnia jeden instrument od drugiego. Włożone urządzenie nazywa się procesorem. Czasami jest to zbieżne z źrenicą, ale nie jest to konieczne. Istnieje wiele opcji procesora optycznego, a każda z nich tworzy inny system teleskopu. Niektóre systemy mają dwa lub więcej instrumentów połączonych szeregowo, np. moduł OPTYKI ADAPTACYJNEJ, po którym następuje obrazowanie
SPEKTROGRAF
Niektóre opcje procesora
Jeśli procesorem jest ludzkie oko umieszczone w miejscu źrenicy, obiektyw aparatu nie jest potrzebny. Jeśli procesor jest wysokiej jakości, bardzo płaską, cienką parą okien, które powodują dodawanie lub odejmowanie fal świetlnych, instrumentem jest INTERFEROMETR. Jeśli procesorem jest polaryzator, taki jak pryzmat Wollastona w kształcie litery N, który powoduje oscylacje fal świetlnych w jednej płaszczyźnie, instrumentem jest polarymetr. Jeśli procesor składa się z dwóch pryzmatów w kształcie litery N, które można obracać w przeciwnych kierunkach, aby zwiększyć lub zmniejszyć ilość ROZPRASZAJĄC w celu dopasowania do tej w atmosferze, procesor jest kompensatorem dyspersji atmosferycznej, ADC. Często procesorem jest KRATA DYFRAKCYJNA, która zmienia kierunek światła o kąt odchylenia, a także rozprasza światło bardziej lub mniej niż średni kąt odchylenia w zależności od długości fali. Ze względu na odchylenie obiektyw kamery musi zostać przesunięty, aby przechwycić środek obracanej wiązki. Jeśli siatka znajduje się na zwierciadle, zwana siatką odbiciową, odbija światło z powrotem w kierunku kolimatora. Soczewka ta, odbita bezpośrednio z powrotem do kolimatora, służyłaby również jako soczewka aparatu w układzie zwanym spektrografem Littrowa. Zwykle nachylenie siatki dobiera się tak, aby odbita wiązka leżała obok kolimatora. W przypadku tego instrumentu obiektyw aparatu zostałby obrócony i umieszczony w tym miejscu. Ponadto przesłona pola byłaby umieszczona w pierwszym ognisku w postaci pojedynczej, długiej szczeliny w przypadku spektrografu z pojedynczą szczeliną lub w postaci szeregu krótkich szczelin, po jednej na każdym obrazie gwiazdy, w przypadku spektrografu z wieloma obiektami, MOS. Jeżeli zamiast siatki odbiciowej zastosowane zostanie zwierciadło odkształcalne DM, system będzie modułem optyki adaptacyjnej AOM. Niektóre systemy mają AOM i spektrograf połączone szeregowo, zatem na drodze światła znajduje się drugi kolimator i kamera, w którym to przypadku ostatecznym ogniskiem jest trzecie ognisko. Jeśli procesorem jest prosty pryzmat w kształcie odwróconego trójkąta, wiązka jest obracana o kąt odchylenia, ale dyspersja jest mniejsza niż w przypadku siatki transmisyjnej. Dlatego też, jeśli siatka transmisyjna jest połączona z pryzmatem w taki sposób, że kąty odchylenia znoszą się, wówczas wiązka nie ulega odchyleniu, ale nadal jest rozproszona. Dzięki temu nie trzeba przesuwać obiektywu aparatu. Taka kombinacja nazywana jest grizmem i zwykle znajduje się przed pierwszym ogniskiem; dlatego nie może być szczeliny, a system nazywa się spektroskopią bez szczeliny. Powierzchnia pryzmatu, która nie jest połączona z siatką, może być zakrzywiona i w ten sposób działać jak soczewka, która w przypadku Teleskopu Kanadyjsko-Francusko-Hawajskiego (CFHT) jest częścią soczewki korekcyjnej ogniskowej w pobliżu ogniska lustro główne. To urządzenie jest czasami nazywane grens. Jeśli zamiast umieszczać szczelinę w miejscu każdego obrazu gwiazdy, zostanie tam umieszczone włókno i zagięte tak, aby jego wyjście znajdowało się na długiej szczelinie w tym ognisku, w rezultacie otrzymamy spektrograf wieloobiektowy zasilany włóknem. Alternatywą jest umieszczenie w pierwszym ognisku układu małych mikrosoczewek lub lusterek, które dzielą część pola i ponownie ogniskują każdy segment wzdłuż długiej szczeliny; takie urządzenie nazywa się fragmentatorem obrazu.
Bardziej złożone cele
Soczewkę achromatyczną wynalazł w 1733 roku Chester Moor Hall, który zastosował ją w teleskopie o aperturze 3,5 cm. Achromat pozytywowy łączy w soczewce dwa rodzaje szkła: soczewkę wypukłą ze szkła koronowego połączoną z soczewką wklęsłą ze szkła flintowego. Szkło flintowe ma wyższą dyspersję niż szkło koronowe. Słaba soczewka krzemienna o wklęsłej powierzchni, a zatem o ujemnej mocy optycznej, w połączeniu z soczewką z wypukłą koroną o równej, ale przeciwnej wielkości aberracji chromatycznej, daje w rezultacie dodatnią moc netto, ale przy tej samej ogniskowej przy dwóch różnych długościach fal. Dwuwypukłe i meniskowe kształty soczewek służą do zmniejszenia aberracji sferycznej do poziomu mniejszego niż w przypadku soczewki singletowej. (Uwaga: aby uzyskać niską aberrację sferyczną, achromat musi być zamontowany we właściwej orientacji, przy odległościach obiektów i obrazu zbliżonych do tych, dla których obiektyw został zoptymalizowany.) Soczewki achromatyczne cierpią na wtórną aberrację chromatyczną, ponieważ ogniskowa przy pośrednich długościach fali różni się od tej w parach długości fali, gdzie jest taka sama. Apochromat to soczewka z trzema różnymi rodzajami szkła. Może mieć tę samą ogniskową przy trzech różnych długościach fal. Charakteryzuje się mniejszą wtórną (lub resztkową) aberracją chromatyczną niż achromat, ale nadal jest zauważalna w przypadku dużego obiektywu. Jeśli na rysunku 1 wklęsłą soczewkę negatywową dodamy przed pierwszym ogniskiem w odległości równej jej ogniskowej, powstanie skolimowana wiązka, w związku z czym soczewka ta będzie działać jak okular. Taki układ zastosowano w pierwszym teleskopie Galileusza w 1662 roku. Jakość obrazu była bardzo słaba. Jeżeli soczewkę negatywową przesunięto bliżej ogniska o połowę jej ogniskowej, wychodząca z niej wiązka nie byłaby już kolimowana, ale zbiegałaby się, aby skupić się poza pierwszym ogniskiem na odległość równą połowie ogniskowej obiektyw. Zatem liczba F zostanie podwojona, a zatem w tym przykładzie powiększenie będzie dwukrotnie większe. Jednakże odległość od obiektywu nie zostanie podwojona, ale efektywna ogniskowa EFL, która jest liczbą F w ognisku pomnożoną przez średnicę obiektywu, zostanie podwojona. Taki układ nazywa się teleobiektywem. Jego zaletą jest to, że jest bardziej kompaktowy, niż gdyby obiektyw był po prostu biorąc pod uwagę dłuższą ogniskową.
Cele odblaskowe i teleskopy kosmiczne
Główną zaletą stosowania LUSTER w teleskopie jest to, że są one wolne od aberracji chromatycznych i wymagają wypolerowania optycznego tylko z jednej strony półfabrykatu. Odpowiednikiem teleobiektywu w teleskopie zwierciadlanym jest umieszczenie wypukłego zwierciadła wtórnego przed głównym ogniskiem większego wklęsłego zwierciadła głównego. Taki układ dwóch zwierciadeł nazywa się klasycznym TELESKOPEM CASSEGRAINA, jeśli zwierciadło główne jest paraboliczne, lub Ritcheyem-Chretienem, jeśli zwierciadło główne jest hiperboliczne. Większość dużych teleskopów jest tego typu. Jednakże do planowanego Teleskopu Kosmicznego Nowej Generacji NGST zostanie dodane trzecie zwierciadło po pierwszym ognisku, które utworzy obraz źrenicy w zbieżnej wiązce, która następnie uzyska ostrość z wyjątkowo ostrymi obrazami w polu widzenia wynoszącym 6 minut łukowych. Aby wiązka od strony wtórnej do trzeciorzędowej miała prześwit po jednej stronie źrenicy, stosowane pole widzenia jest ograniczone do jednej strony osi, dlatego
potrzebny jest większy maksymalny kąt pola. Zwiększa to aberracje, ale teleskop z trzema zwierciadłami nadal daje ostrzejsze obrazy niż teleskop z dwoma zwierciadłami (Ritchey-Chretien), a także mniejsze zniekształcenia pola i mniejszą krzywiznę powierzchni ogniskowej. Układ optyczny NGST pokazano na rysunku
Lusterka tylne
Duże zwierciadła w teleskopach są zwierciadłami znajdującymi się na powierzchni przedniej, ale w przypadku mniejszych zwierciadeł istnieją zalety luster z powierzchnią tylną. Typowym przykładem jest pryzmat prostokątny. W takim przypadku nie jest wymagana żadna powłoka metaliczna, ponieważ odbicie po przekątnej jest całkowitym odbiciem wewnętrznym. Jeżeli kąt padania światła jest mniejszy od kąta krytycznego, konieczne jest zastosowanie powłoki odblaskowej na zewnętrznej stronie tylnej powierzchni, np. w lustrze w łazience. Ta odblaskowa powierzchnia może być dobrze zabezpieczona przed korozją i kurzem. Jeśli lustro jest zakrzywione z mniejszym promieniem z przodu niż z tyłu, nazywa się je lustrem Mangina. Aberracja sferyczna powstająca, gdy światło przechodzi przez przód, jest równoważona przez aberrację spowodowaną odbiciem od kulistej tyłu. Służy jako zwierciadło główne w niektórych małych teleskopach. Jeśli szkło jest grube i prawie płaskie, ale asferyzowany, wynik nazywa się solidną kamerą Schmidta. W czujniku położenia obrazu w systemie optyki adaptacyjnej teleskopu WIYN na Kitt Peak zastosowano szereg małych lusterek umieszczonych na tylnej powierzchni. Jest to opisane pod adresem http://claret.kpno.noao.edu/wiyn/wttm.html. Ponadto opcja projektowania fragmentatora obrazu dla NGST wykorzystuje tablice mikroluster na tylnej powierzchni. Zaletą jest to, że zmiana temperatury zmienia zarówno krzywiznę zwierciadeł, jak i ich odstępy, dzięki czemu pozostają one ostre.
Okulary
Okular jest odwróconym obiektywem aparatu, ale w szczegółach ma zupełnie inne zadanie niż obiektyw lub obiektyw aparatu komercyjnego ze względu na położenie źrenicy. W przypadku okularu źrenica musi znajdować się na zewnątrz soczewki, ponieważ musi znajdować się na oku patrzącego, które w przypadku rzęs znajduje się w odległości 10-15 mm od soczewki lub 18-20 mm, jeśli osoba nosi okulary. Odległość ta nazywana jest ODSTĘPEM OD OCZU. Ponadto średnica ŹRENICY WYJŚCIOWEJ powinna być na tyle mała, aby cała wiązka światła dostała się do ludzkiego oka, którego średnica tęczówki waha się od 2 do 5 lub 8 mm, w zależności od wieku. Kolejną komplikacją w konstrukcji optycznej okularu jest zwiększone POLE WIDZENIA, które jest odwrotnie proporcjonalne do średnicy źrenicy. Jeżeli średnica teleskopu wynosi 1 m i ma on pole widzenia 1/3 stopnia, to pole widzenia okularu o źrenicy 5 mm musi być 200 razy większe, czyli 67°, co wymaga skomplikowanej konstrukcji z kilkoma elementy. Wymagana ogniskowa okularu jest wprost proporcjonalna do liczby F obserwowanego ogniska, a zatem jest dwukrotnie dłuższa przy ogniskowaniu F-20 niż przy ognisku F-10. Nowoczesne okulary projektowane komputerowo posiadają aż osiem soczewek z kilku rodzajów szkła i pole widzenia aż do 82°, czyli więcej niż oko jest w stanie objąć na raz i sprawia wrażenie przebywania w przestrzeni.
Pasza włóknista
Włókna mają tę zaletę, że w spektroskopii wieloobiektowej wybierają obiekty z dowolnego miejsca w polu widzenia teleskopu i ustawiają je wzdłuż szczeliny spektrografu. Jednakże włókna ulegają degradacji współczynnika ogniskowego, FRD. Ta wada jest większa w przypadku teleskopów wytwarzających ostre obrazy, takich jak teleskopy kosmiczne. FRD jest mniejszą wadą w przypadku teleskopów naziemnych, gdzie jakość obrazu jest już obniżona z powodu turbulencji w atmosferze ziemskiej lub widzenia.
Lokalizacja teleskopu: Ziemia lub przestrzeń
Z powodu turbulencji atmosferycznych, zwanych widzeniem, obraz gwiazdy w ognisku systemu teleskopów naziemnych jest powiększony, dlatego wymagany jest krótszy EFL, aby dopasować ostrość obrazu do rozdzielczości detektora. Zatem potrzebna jest szybsza (mniejsza) liczba F, niż gdyby teleskop znajdował się w kosmosie. Dla dużej bazy naziemnej teleskopu elementy optyczne są nie tylko bardzo duże, ale także aparat jest bardziej skomplikowany i wymaga większej liczby elementów do korygowania aberracji optycznych. Rysunek przedstawia znakomity obiektyw aparatu spektrograficznego zaprojektowanego przez Harlanda Eppsa dla 10-metrowego teleskopu Keck.
Granica dyfrakcji
Granica dyfrakcji wyrażona jako pełna średnica AIRY DISK, która jest średnicą pierwszego ciemnego pierścienia dyfrakcyjnego, w sekundach łuku, wynosi
Φ=λ/2D
dla λ w mikronach i D w metrach. Dla 8 m NGST, przy λ = 2 μm (bliska podczerwień) Φ = 0,25 sekundy łukowej. Limit Rayleigha wynosi połowę tej wartości, 0,125 sekundy łukowej, co stanowi połowę szerokości dysku Airy′ego.
Optyka adaptacyjna i aktywna
Aktywna komórka optyczna może zginać podparte zwierciadło, aby skorygować niedoskonałości kształtu zwierciadła, np. zwierciadła głównego. Dla porównania optyka adaptacyjna to zwierciadło odkształcalne DM, umieszczone bliżej ogniska (ale nie w nim), gdzie wiązka jest znacznie mniejsza niż w zwierciadle głównym. DM ulega szybkiemu odkształceniu w celu skorygowania aberracji spowodowanych turbulencjami w atmosferze ziemskiej, a także koryguje błędy czoła fali spowodowane niedoskonałościami zwierciadła głównego. Pierwszy niemilitarny system optyki adaptacyjnej, nazwany Come-on, rozpoczął pracę w Europejskim Obserwatorium Południowym w 1989 roku na teleskopie o średnicy 3,6 m. Najnowszy, udoskonalony system nosi nazwę Adonis. W 1996 roku na Kanadyjsko-Francusko-Hawajskim Teleskopie CFHT oddano do użytku optykę adaptacyjną Bonnette (PUEO). System optyki adaptacyjnej, podobnie jak spektrograf, składa się z kolimatora, po którym następuje kamera, zwykle zwierciadła pozaosiowe, aby uniknąć przeszkód. Zamiast siatki lub pryzmatu, pomiędzy kolimatorem a kamerą znajduje się odkształcalne zwierciadło DM. W większości systemów lusterka kolimatora i kamery są paraboliczne, jedno dla kolimatora i jedno dla kamery. W przypadku tylko dwóch zasilanych lusterek powierzchnia ogniskowa jest zakrzywiona, ale nie na tyle, aby znacząco pogorszyć rozdzielczość pola o średnicy kilku minut kątowych. Ponieważ wiązka pomiędzy dwoma paraboloidami jest skolimowana, obraz w ognisku na osi w środku pola jest doskonały, niezależnie od ogniskowych dwóch paraboloid i niezależnie od odległości, w jakiej odcinają one oś zwierciadeł macierzystych . Powierzchnie ogniskowe są nachylone względem osi paraboloidów, ale nie są nachylone względem osi teleskopu. Dzięki temu nie ma konieczności pochylania czujki, gdy włożony jest układ optyki adaptacyjnej. Często wymagane jest, aby kamera miała dłuższą ogniskową niż kolimator, aby powiększyć wyostrzony obraz i dopasować go do rozdzielczości detektora. W takim przypadku aberracje pola (środka pola widzenia) są minimalizowane, jeśli odległość zwierciadła kamery od osi powierzchni zwierciadła macierzystego zwiększa się proporcjonalnie do kwadratu powiększenia. System optyki adaptacyjnej Gemini jest nietypowy pod tym względem, że moduł dostępny dla systemu optyki adaptacyjnej (na derotatorze potrzebnym, ponieważ teleskop ma montaż azymutalny) znajduje się dalej od ogniska niż liczba F pomnożona przez średnicę DM, a zatem aparat musi mieć formę odwróconego teleobiektywu - musi zwiększać średnicę wiązki z DM przed zbieżnością. I tak system Gemini, zwany Altair, oprócz lustra kolimatora posiada w aparacie dwa zwierciadła, wypukłe i wklęsłe, jest to więc rodzaj anastygmatu trójlustrowego, TMA. Zaletą posiadania trzech zwierciadeł zamiast dwóch jest to, że powierzchnia ogniskowa jest płaska, dzięki czemu obrazy są ostrzejsze na płaskim detektorze. Analizuje się czoło fali naturalnej gwiazdy przewodniej w celu wygenerowania sygnału deformującego DM. Przeanalizowane zostaną także gwiazdy lasera asodowego w atmosferze ziemskiej. Ponieważ w miejscu, gdzie naturalna gwiazda jest ostra w centrum cienia (zwierciadła wtórnego) wiązki lasera, jest nieostre, zwierciadło otworkowe pozwala na bardzo efektywną separację dwóch wiązek w projekcie Gemini. System w Mount Wilson jako pierwszy wykorzystuje ultrafioletową laserową gwiazdę prowadzącą, opisaną pod adresem http://www.astro.uiuc.edu/projects/unisis/. Najprostsze systemy optyki adaptacyjnej, takie jak teleskop WIYN na Kitt Peak, korygują jedynie drgania obrazu, zwane tip-tilt. Co zaskakujące, NGST będzie wyposażony w prosty system optyki adaptacyjnej, który będzie korygował drgania satelity, które mają wynosić nawet ±2,7 sekundy łuku.
Katalogi szklane
Kiedy promień światła pada w powietrzu na płaski kawałek szkła, kierunek promienia zmienia się wewnątrz szkła. Jeżeli kąt padania mierzony względem normalnej (prostopadle) do powierzchni szkła wynosi α, a kąt po załamaniu wynosi β, współczynnik załamania N jest zdefiniowany jako
N = sin α/ sin β
Współczynnik załamania światła N jest odwrotnie proporcjonalny do prędkości światła w szkle w porównaniu z prędkością w próżni. Jest on jednak mierzony w odniesieniu do prędkości w powietrzu, stąd konieczna jest niewielka korekta wskaźników podanych w katalogach szkła, jeśli materiał stosowany jest w próżni. Katalogi wymieniają około 250 różnych rodzajów szkła. Najstarszym producentem jest firma Schott w Niemczech. Nowszym dostawcą jest Ohara w Japonii . W teleskopach stosowane są okulary obu producentów. Hoya to kolejny ważny dostawca. Szkła można rozpoznać po współczynniku załamania światła Nd na linii widmowej żółtego helu o długości fali 587 nm oraz po różnicy w N między niebieską linią wodoru Nf przy 486 nm a czerwoną linią wodoru Nc przy 656 nm , wymienione w katalogach jako Nf - Nc. Trzecią, bardzo ważną identyfikacją jest wartość Abbego, która łączy w sobie zarówno współczynnik załamania światła, jak i dyspersję,
Vd = Nd - 1/Nf - Nc
Zatem szkło o niskiej dyspersji ma wysoką liczbę Vd. Każdy typ szkła ma sześciocyfrowy numer kodowy: pierwsze trzy cyfry Nd - 1, po których następują pierwsze trzy cyfry Vd. Każdemu rodzajowi szkła nadawana jest także nazwa, która różni się w zależności od producenta. Na przykład powszechnie stosowanym szkłem optycznym z koroną borokrzemową (o niskiej dyspersji) 517642 jest Schott BK7, Ohara S-BSL& i Hoya BSC7. Zwykłe szkło krzemienne 620364 to Schott F2, Ohara PBM2 i Hoya EF2. Diagram przedstawiający Nd w funkcji Vd, wymieniony jako diagram Nd/Vd, dla szkieł katalogowych jest dostępny w Internecie pod adresem http://www.schottglasstech.com/. Przeniesienie szkieł katalogowych zależy od typu. Jest on wymieniony dla zakresu długości fal od 0,28 do 2,4 μm, ale większość szkieł przepuszcza tylko ułamek tego obszaru. Specjalne materiały przepuszczające dalej ultrafiolet i podczerwień nie są ujęte w tych katalogach, ponieważ nie są to konwencjonalne szkła. Fluorek wapnia, który jest obecnie dostępny w dużych kawałkach, przepuszcza w znacznie szerszym zakresie długości fal, od 0,23 do 7,8 μm. Posiada bardzo niski współczynnik załamania światła i dyspersji: Nd = 1,4, Vd = 96. Selenek cynku ma bardzo wysoki współczynnik załamania światła: Nd = 2,6, Vd = 8.
Korektory do teleskopów z ciekłym zwierciadłem
. Obracając cienką warstwę rtęci, powstaje paraboliczna powierzchnia o jakości optycznej, służąca jako zwierciadło główne teleskopu z płynnym zwierciadłem LMT. Ze względu na naturalnie paraboliczny kształt obrazy w centrum pola widzenia są ostre. W Ameryce Północnej działa kilka LMT o średnicach od 2,4 do 3 m, a w Kanadzie budowany jest LMT o średnicy 6 m. Ermanno Borra z Laval, Paul Hickson z UBC i Mark Mulrooney z Obserwatorium Cloudcroft w Nowym Meksyku odegrali kluczową rolę w rozwoju LMT. 6-metrowy LMT budowany na Uniwersytecie Kolumbii Brytyjskiej będzie miał bardzo krótką ogniskową: 9 m, a więc f/1.5. Tę szybką ogniskową można uzyskać bez dodatkowych kosztów lustra, po prostu projektując jego mocowanie pod kątem większej prędkości obrotowej, co pozwala na zastosowanie mniejszej obudowy. Jednak krótka ostrość zwiększa trudność korekcji komy i astygmatyzmu. Dobrze znana soczewka korekcyjna typu zapoczątkowanego przez Raya Wilsona w Niemczech i nieżyjącego już Charlesa Wynne′a w Anglii składa się z trzech soczewek: dodatniej soczewki meniskowej, po której następuje soczewka ujemna i zakończona soczewką dodatnią w pobliżu ogniska. Nazywane soczewkami z korektorem ostrości stałoogniskowej, są używane w wielu teleskopach. Mają płaską powierzchnię ogniskową, ale charakteryzują się znaczną dystorsją poduszkową, która w czasach detektorów fotograficznych nie była uważana za niepożądaną. Po opracowaniu matrycy CCD umożliwiającej obrazowanie znacznie słabszych pól gwiazdowych, korzystne stało się zminimalizowanie zniekształceń pola w celu uproszczenia odejmowania światła tła od nieba. Takie korektory mają cztery elementy zamiast trzech. Przegląd LMT na całym świecie można znaleźć pod adresem http://www.astro.ubc.ca/lmt. Te niedrogie teleskopy służą do śledzenia śmieci kosmicznych, w lotnictwie i astronomii. W przypadku LMT istnieje dodatkowa potrzeba kontrolowania zniekształceń, ponieważ ekspozycję czasową ruchomych obrazów na detektorze CCD uzyskuje się poprzez integrację opóźnienia czasowego, TDI, zwaną także skanowaniem dryfu. W przypadku konwencjonalnych matryc CCD odczyt elektroniczny odbywa się ze stałą szybkością wzdłuż każdej kolumny pikseli, dlatego obrazy powinny poruszać się ze stałą prędkością i po liniach prostych, co wymaga zerowego zniekształcenia pola podczas obserwacji śmieci kosmicznych lub satelitów. Jednakże podczas obserwacji gwiazd za pomocą LMT, który nie jest położony na równiku Ziemi, obrót Ziemi powoduje, że obrazy poruszają się po zakrzywionej ścieżce i z szybkością zależną od deklinacji obiektu. Na szczęście tę zniekształcenie gwiazdowe można usunąć poprzez asymetryczną dystorsję korektora uzyskaną poprzez celowe decentrowanie i pochylanie elementów soczewki korektora. Układ takiej soczewki pokazano na rysunku , gdzie elementy są ustawione pod kątem deklinacji 49°.
Kanadyjska astronomia
Kanada jest duża (pod względem wielkości ustępuje tylko Rosji) i słabo zaludniona (30 milionów). Te fakty, choć banalne, wyjaśniają wiele o kraju, nawet o jego przedsięwzięciach naukowych. Prawie cała astronomia prowadzona w Kanadzie w ciągu wieków eksploracji przed 1900 rokiem była związana z geodezją i pomiarem czasu. Nawet wysiłki Sandforda Fleminga mające na celu wprowadzenie ogólnoświatowych stref czasowych w latach osiemdziesiątych XIX wieku wydają się właściwe w kraju o długości prawie 90° długości geograficznej. Przykładami XX wieku są: identyfikacja przez CS Bealsa dziesiątek starożytnych kraterów meteorytowych w prekambryjskiej tarczy kanadyjskiej, wystrzelenie satelity komunikacyjnego Alouette I w 1962 r. (Kanada była trzecim krajem na świecie, który zbudował satelitę) oraz pionierskie prace w radioastronomia o długiej linii bazowej, dzięki której w 1967 r. połączono dwa kanadyjskie radioteleskopy oddalone od siebie o tysiące kilometrów. Kolejnym banałem dotyczącym życia w Kanadzie jest kulturowa i gospodarcza dominacja jej gigantycznego sąsiada, Stanów Zjednoczonych. Niektórzy z najbardziej znanych amerykańskich astronomów XIX wieku, w tym SIMON NEWCOMB, urodzili się w Kanadzie, ale udali się na południe, do krainy możliwości. "Drenaż mózgów" nadal stanowi problem. W rzeczywistości Rada ds. Nauk Przyrodniczych i Inżynierii (NSERC), wspierana przez rząd agencja przyznająca granty, prowadzi programy zachęcające młodych, zdolnych naukowców do studiowania i pracy w Kanadzie. Na koniec należy uznać, że Kanada jest oficjalnie dwujęzyczna. Oznacza to, że wszystkie usługi federalne są dostępne zarówno w języku francuskim, jak i angielskim. Wyjaśnia także, dlaczego niektóre akronimy, takie jak CASCA (Kanadyjskie Towarzystwo Astronomiczne/Soci'et'e canadienne d'astronomie) odzwierciedlają ten podwójny charakter. W praktyce wśród instytucji, w których wykłada się astronomię, uniwersytety de Montr'eal i Laval w Quebecu działają w języku francuskim, uniwersytety w Moncton w Nowym Brunszwiku i Laurentian w Ontario posługują się obydwoma językami urzędowymi, a pozostałe opierają się na języku angielskim.
Wczesna historia
Niewiele napisano na temat rdzennych tradycji astronomicznych w Kanadzie, z wyjątkiem książki Johna MacDonalda The Arctic Sky, która zgłębia wiedzę Eskimosów z dalekiej północy. To właśnie w Arktyce europejska astronomia po raz pierwszy dotknęła wybrzeży Kanady. Angielscy odkrywcy zamierzający udać się na północny zachód na wschód, spoglądali na Słońce, Księżyc i gwiazdy, aby ustalić swoją szerokość i długość geograficzną. Najlepsze wyniki przedteleskopowe osiągnął Thomas James, który w 1632 roku zimował w zatoce noszącej jego imię. Jednak to misjonarze jezuici z Francji, którzy często spędzili tu większą część swojego życia, tak naprawdę wprowadzili astronomię do Kanady. Oni także zajmowali się położeniem geograficznym i w tym celu obserwowali zaćmienia. Najdokładniejszą z nich była obserwacja zaćmienia Księżyca przeprowadzona 30 stycznia 1646 roku przez księdza Josepha Bressaniego przy użyciu małego teleskopu podczas odległej misji w pobliżu dzisiejszego Midland w Ontario. Misjonarze w Quebecu zanotowali
pozycje jasnych komet z lat sześćdziesiątych XVII wieku i mniej więcej w tym samym czasie wraz z kilkoma świeckimi nauczycielami rozpoczęli nauczanie geodezji, nawigacji i hydrografii. Tradycja astronomii praktycznej jako podstawy kartografii była kontynuowana po zajęciu Quebecu przez Brytyjczyków w 1759 r., zarówno w regionie atlantyckim, jak i na rozległe zachodnie terytoria Kompanii Zatoki Hudsona. Naukowo znaczące były tranzyt Wenus w 1761 r., zaobserwowany w Nowej Fundlandii przez Johna Winthropa z Massachusetts oraz tranzyt Wenus w 1769 r. zaobserwowany przez geodetę Samuela Hollanda i jego asystenta w dwóch lokalizacjach w Quebecu oraz w imieniu Towarzystwa Królewskiego przez Williama Walesa w Fort Churchill brzegi Zatoki Hudsona. Za radą Walii firma wyznaczyła swojego pierwszego geodetę, Philipa Turnora, który sporządził mapę dużej części zachodniej Kanady wraz z dwoma młodszymi mężczyznami, Thompsonem i Fidlerem, których uczył procedur astronomii praktycznej, gdy stacjonowali w Cumberland House w
Saskatchewan. Wschodnia Kanada stała się bardziej zadomowiona po przybyciu lojalistów z nowo niepodległych Stanów Zjednoczonych. W 1789 roku założyli pierwszą anglojęzyczną instytucję szkolnictwa wyższego w Windsorze w Nowej Szkocji, nadając jej nazwę King&porime;s College. Chociaż kilka innych uniwersytetów powstało na początku XIX wieku, pierwszy, który został wyposażony w obserwatorium i oferował wykłady z astronomii, znajdował się w Fredericton w stanie New Brunswick w latach pięćdziesiątych XIX wieku. Inne wczesne obserwatoria to Obserwatorium w Toronto (pierwotnie obserwatorium magnetyczne, otwarte w 1840 r.), prywatne obserwatorium Charlesa Smallwooda w pobliżu Montrealu, wyposażone w 18-centymetrowy refraktor Fraunhofera pod koniec lat czterdziestych XIX wieku oraz obserwatoria z 15-centymetrowymi refraktorami w Quebecu i Kingston założone w Lata 50. XIX wieku. Do roku 1867, kiedy cztery kolonie utworzyły nowe Dominium Kanady, zaczęło pojawiać się pewne zainteresowanie "czystą" astronomią, chociaż nadal zajmowano się bardzo realnymi potrzebami geodezji i pomiaru czasu. Wielebny Bolduc w seminarium w Quebecu wykładał astronomię i miał do dyspozycji 40-centymetrowy reflektor Foucaulta, a astronomia była częścią programu nauczania na Queen's University w Kingston i King's College w Windsorze w Nowej Szkocji. EH Ashe z Obserwatorium w Quebecu udał się do Iowa, aby zbadać i sfotografować zaćmienie słońca w sierpniu 1869 roku. Smallwood w Montrealu pisał o zjawiskach księżycowych i słonecznych. Wydarzeniem, które ostatecznie miało trwałe znaczenie, było utworzenie w 1868 roku Toronto Astronomical Club przez małą grupę amatorów. W latach osiemdziesiątych XIX wieku jeden z nich obserwował widma Słońca i gwiazd, niektórzy robili zdjęcia Słońca i Księżyca, a jeszcze inni nadal obserwowali i szkicowali cechy powierzchni planet. W 1890 roku przekształcili się w stowarzyszenie i zaczęli publikować transakcje, które były rozprowadzane wśród uniwersytetów i obserwatoriów na całym świecie. Grupa ta przekształciła się w ROYAL ASTRONOMICAL SOCIETY OF CANADA (RASC), którego czasopismo nadal pozostaje jedyną krajową publikacją zawierającą kanadyjskie badania i wiadomości astronomiczne. Jednym z członków tej grupy w latach 90. XIX wieku był młody profesor fizyki na Uniwersytecie w Toronto , C A Chanta, który przewidywał połączenie astronomii na uniwersytecie z fizyką. W.F/ King, który w latach siedemdziesiątych XIX wieku brał udział w badaniu granic równoległych, a w roku 1890 awansował na stanowisko pierwszego "głównego astronoma" Kanady, również przyznał, że badania wykraczają poza tradycyjne pola czasu i pozycji. Tak więc na początku XX wieku założono znaczące obserwatorium rządowe w stolicy kraju, Ottawie, a na Uniwersytecie Toronto. utworzono oddzielny Wydział Astronomii. Chociaż astronomia pozycyjna i geofizyka stanowiły podstawę programu na Uniwersytecie Dominion Observatory (DO), kiedy zostało otwarte w 1905 r., jego głównym instrumentem był 38-centymetrowy refraktor Brasheara, a jego personel przez wiele lat składał się głównie z absolwentów Uniwersytetu.
Rozwój zawodu 1905-1970
Badania astrofizyczne w obserwatorium narodowym były niezwykłe i mogłyby nie zostać przeprowadzone w Ottawie, gdyby w kraju istniały uniwersytety posiadające odpowiednią infrastrukturę. Tak jednak nie było i uznano, że Obserwatorium będzie stanowić bodziec dla nauki w całym Dominium. Jest to rola, jaką rząd nadal odgrywa w kanadyjskiej astronomii, ponieważ wiele mniejszych instytucji nie jest w stanie samodzielnie zapewnić obiektów niezbędnych do nowoczesnych badań. Badania słoneczne i spektroskopia gwiazd były głównymi obszarami badań astrofizyki w DO, ale wkrótce stało się jasne, że zakres 38-centymetrowego instrumentu w niezbyt pożądanym środowisku jest ograniczony. Główny impuls do ulepszenia obiektów wyszedł od J. S. PLASKETTA, który jako dojrzały student ukończył Toronto i dołączył do personelu DO jeszcze przed jego otwarciem. W 1910 roku zdał sobie sprawę, że "nasze wyniki w zakresie obserwacji prędkości radialnych spektroskopowych układów podwójnych prawdopodobnie znacznie się zmniejszą" …. Jedynym lekarstwem jest zwiększenie apertury teleskopu. Jest to hołd złożony jego geniuszowi organizacyjnemu i politycznemu, że pomimo I wojny światowej w kwietniu 1918 roku w pobliżu Victorii w Kolumbii Brytyjskiej otwarto DOMINION ASTROPHYSICAL OBSERVATORY (DAO) wyposażone w reflektor o średnicy 1,8 m. Było to wówczas największy działający Teleskop na świecie od czasu Mount Wilson 2,5 m wciąż przechodził modyfikacje. DAO wciąż się rozwija - w 1961 roku dodano drugi teleskop, 1,2 m ze spektrografem Coud′e, a sprzęt detekcyjny w obu instrumentach jest stale udoskonalany i aktualizowany. Spektroskopia zawsze była podstawą programów DAO, a do najważniejszych osiągnięć zaliczały się prace Plasketta nad rotacją Galaktyki przy użyciu prędkości radialnych gwiazd typu O i B, prace McKellara nad absorpcją międzygwiazdową, kalibracja Petriego wielkości bezwzględnych gwiazd B oraz katalogi Battena dotyczące spektroskopowych orbit podwójnych. Rozpoczęto budowę jeszcze większego teleskopu zwierciadlanego (1,9 m), operacji w 1935 r. dzięki uporowi doktora Chanta na Uniwersytecie Toronto i bardzo hojnej prywatnej darowiznie OBSERWATORIUM DAVID DUNLAP (DDO). Przez wiele lat była to jedyna duża placówka astronomiczna na kanadyjskim uniwersytecie, a Uniwersytet w Torontp był jedynym miejscem w kraju, gdzie aż do lat pięćdziesiątych XX wieku student mógł odbyć specjalistyczne szkolenie z astronomii. Spektroskopia i fotometria były podstawą większości prowadzonych tam badań, przy czym szczególnie zapadają w pamięć trwająca całe życie praca HELEN HOGG nad gwiazdami zmiennymi w gromadach kulistych oraz przekonujące badania Boltona z 1972 roku nad Cygnus X-1 jako czarną dziurą. Po drugiej wojnie światowej narodziła się radioastronomia. W Kanadzie był to odgałęzienie prac radarowych przeprowadzonych przez A.E. Covingtona w KRAJOWEJ RADZIE BADAWCZEJ (NRC). Dostrzegł potencjał niektórych urządzeń do badań Słońca i w 1945 roku rozpoczął program monitorowania Słońca przy długości fali 10,7 cm - program, który trwa do dziś. W latach sześćdziesiątych XX wieku zainaugurowano dwa duże, sterowalne radioteleskopy - jeden o średnicy 45 m w ALGONQUIN RADIO OBSERVATORY (obecnie używany do pomiarów geodezyjnych), a drugi o średnicy 26 m w DOMINION RADIO ASTROPHYSICAL OBSERVATORY (DRAO) w Penticton w Kolumbii Brytyjskiej. Instrumenty te okazały się bardzo wszechstronne w badaniu ośrodka międzygwiazdowego i identyfikowaniu niektórych największych cząsteczek w przestrzeni. Do 1966 roku DRAO zainstalowało także dwa duże układy interferometryczne wykorzystywane do obrazowania dyskretnych źródeł w wysokiej rozdzielczości i mapowania płaszczyzny galaktycznej. Z powodu powojennego wyżu demograficznego i zimnej wojny w przestrzeni kosmicznej, w latach sześćdziesiątych XX wieku nastąpił ogromny wzrost liczby zakładanych uniwersytetów, niektórych z wydziałami astronomii lub ich częściami. W rzeczywistości jedna trzecia wszystkich kanadyjskich uniwersytetów powstała w latach sześćdziesiątych XX wieku. Pierwszy doktorat z astronomii uzyskał w Kanadzie w 1953 roku na Uniwersytecie Torontp, 20 lat później na siedmiu różnych uniwersytetach nagrodzono ich 12. W tym okresie prace doktorskie dotyczyły szerokiego zakresu tematów, ale preferowano strukturę i ewolucję gwiazd, a także prędkości radialne stosowane w badaniach zmiennych wewnętrznych i ruchów kosmicznych gwiazd w Galaktyce.
Najnowsze wydarzenia, stan obecny i plany na przyszłość
W 1970 roku stare Obserwatorium Dominion przestało być przydatne, więc zostało zamknięte, a wszystkie rządowe programy badań astronomicznych przekazano pod egidę NRC. W tamtym czasie oznaczało to, że niektóre programy, takie jak badania meteorów, które były dziełem życia Petera Millmana, były kontynuowane w Ottawie, ale większość astronomii skupiała się w Kolumbii Brytyjskiej w DAO i DRAO. W 1971 roku jeden z wybitnych naukowców pracujących w NRC, GERHARD HERZBERG, zdobył Nagrodę Nobla w dziedzinie chemii za "wkład w wiedzę o strukturze elektronowej i geometrii cząsteczek, zwłaszcza wolnych rodników". W 1975 r. NRC utworzyło INSTYTUT ASTROFIZYKI HERZBERGA (HIA) na jego cześć. Reorganizacja nastąpiła nie tylko w rządzie. Mając do dyspozycji większą społeczność naukową, w 1971 r. utworzono stowarzyszenie zawodowe CASCA, które na swoim pierwszym dorocznym zgromadzeniu liczyło 145 członków. Obecnie liczy 381 członków, z czego 281 znajduje się w Kanadzie. Fakt, że ponad jedna czwarta członków mieszka za granicą,
wynika głównie z emigracji. Multi-użytkownikowe zaplecze naukowe i współpraca międzynarodowa stały się jedynym sposobem, w jaki Kanada mogła sobie pozwolić na udział w dużych projektach będących w czołówce bieżących badań. MEGANTIC ASTRONOMICAL OBSERVATORY, otwarte w 1978 roku, jest prowadzone wspólnie przez Université de Montreal i Université Laval. HIA odpowiada za udział Kanady w trzech międzynarodowych przedsięwzięciach - 3,8 mCANADA-FRANCE-HAWAII TELESCOPE (CFHT), który został otwarty w 1979 r. i w którym Kanada ma 42,5% udziałów, a ostatnio także 15-metrowy JAMES CLERK MAXWELL TELESCOPE (25%) na Hawajach i 8-metrowe teleskopy GEMINI OBSERVATORY (14%) na Hawajach i Chile. We wszystkich trzech placówkach HIA zatrudnia na stałe personel, ale przydział czasu jest powszechnie dostępny. Ponadto HIA w dalszym ciągu ponosi odpowiedzialność za dwa kanadyjskie obserwatoria, o których już wspomniano - DRAO, obecnie główny współpracownik Canadian Galactic Plane Survey i DAO, w którym obecnie mieści
się Canadian Astronomy Data Center, centrum dystrybucyjne dla danych z Kosmicznego Teleskopu Hubble′a i centrum archiwalnego danych z CFHT. Dwa inne niedawne kanadyjskie projekty angażujące wielu użytkowników to Kanadyjski Instytut Astrofizyki Teoretycznej (CITA) zlokalizowany na Uniwersytecie w Toronto oraz Obserwatorium Neutrino Sudbury (SNO), wspólny projekt kilku kanadyjskich i amerykańskich uniwersytetów. Od 1984 r. cięcia finansowe były na porządku dziennym. W szczególności budżety na naukę i astronomię spadły w tym samym czasie, gdy międzynarodowe przedsięwzięcia kooperacyjne wykorzystywały większą część dostępnych środków. W latach 90-tych granty badawcze zapewniane przez NSERC w dziedzinie kosmosu i astronomii wynosiły zaledwie około 4 milionów dolarów rocznie. Obecnie istnieje około 35 kanadyjskich instytucji szkolnictwa wyższego, w których naucza się astronomii; około połowa tych badań jest prowadzona i oferuje stopnie doktora w astronomii lub dziedzinach pokrewnych. Co roku przyznawanych jest około 20 doktoratów, a najczęstsze tematy to astrofizyka teoretyczna, struktura i ewolucja normalnych galaktyk, gromad galaktyk, kosmologia, materia międzygwiazdowa i środowisko gwiazdowe. Większy udział w pracach teoretycznych, od kosmologii po dynamikę układów planetarnych w ostatnich latach, jest częściowo odzwierciedleniem powołania CITA. Opierając się na wiedzy technicznej, którą Kanadyjczycy już posiadają w takich obszarach, jak projektowanie instrumentów i oprogramowania, w ramach partnerstwa pomiędzy NRC, NSERC i CASCA opracowywany jest dalekosiężny plan dla astronomii w Kanadzie do 2015 roku. W chwili obecnej panel ten rozważa szeroką gamę zagadnień, w tym utrzymanie obecnych programów i obiektów wraz z udziałem w Kosmicznym Teleskopie Nowej Generacji, Atacama Large Millimeter Array i Square Kilometre Array działających na falach cm i dm. Prace nad małym kanadyjskim satelitą do badania mikrozmienności i oscylacji gwiazd (MOST) są również w przygotowaniu, a jego wystrzelenie możliwe jest w 2001 r. Zrównoważenie różnych wymagań i aspiracji jest trudnym zadaniem w środowisku, w którym przyszłe finansowanie badań jest niepewne. Na szczęście obecnie warunki gospodarcze są dobre i wydaje się, że istnieje polityczna świadomość, że przyszłość Kanady w nauce i technologii wymaga większego wsparcia rządu.
Capella
Capella - "Gwiazda Koza" w konstelacji Woźnicy, "Woźnica" - to szósta pod względem jasności gwiazda na niebie i trzecia na półkuli północnej. Jest dobrze znanym spektroskopowym układem podwójnym żółtych olbrzymów, który wydaje się tworzyć układ fizyczny z Capellą HL, odległą parą CZERWONYCH KARŁÓW i jest członkiem rozszerzonej GRUPY RUCHU Hiadów (równej z obszarem jądrowym pobliskiej młodej gromady ). Olbrzymy Capelli są prawie bliźniacze, ale różnią się masą na tyle, aby przypadać na wyraźnie oddzielne fazy ewolucyjne: wtórna to bogata w lit, szybko rotująca gwiazda szczelinowa Hertzsprunga, podczas gdy bardziej zaawansowana pierwotna to zubożona w lit, wolno rotująca "kępka" gigant. Capella jest filarem skali mas gwiazd i od dawna jest stanowiskiem testowym dla technik interferometrycznych i modeli ewolucyjnych. Capella charakteryzuje się znaczną emisją promieniowania rentgenowskiego i dalekiego ultrafioletu - być może jest to przesadna forma aktywności magnetycznej Słońca - co czyni ją popularnym celem wielu obserwatoriów kosmicznych. Pochodzenie znaczących, wysokoenergetycznych zjawisk w tym układzie oraz ciekawe różnice pomiędzy dwoma bardzo dobrze scharakteryzowanymi gigantami typu G w dalszym ciągu wywołują ożywioną debatę w społeczności gwiazd.
Tło
Capella (α Aurigae; HD 34029; BS 1708; Gl 194) to pobliski (d = 12,9 szt.) jasny (V = 0,08) układ wielokrotny gwiazd składający się z pary prawie identycznych żółtych olbrzymów (G8 III (Aa) + G1 III (Ab)) na ciasnej orbicie o małym mimośrodzie 0,7 AU i trwającej 104 dni, okrążanej w dużej odległości (∿104 AU) przez luźniejszy układ podwójny czerwonych karłów 50 AU, około 300 lat (Capella HL; Gl 195; dM2 (H ), dM5 (L)). System podziela ruch kosmiczny gromady otwartej Hiades i O. J. Eggen uznał go za członka Ruchomej Grupy Hyades (lub "Supergromady"). Spektroskopowo określone masy (2,6M⊙ dla pierwiastka pierwotnego, 2,5M⊙ dla wtórnego) wskazują na wiek ewolucyjny 600 milionów lat, podobny do czasu wyłączenia klastra w jądrze Hiadesa. Główna para żółtych olbrzymów tworzy SPEKTROSKOPOWĄ GWIAZDĘ PODWÓJNĄ o amplitudach prędkości radialnych 26 km s-1 i 27 km s-1 (odpowiednio dla Aa i Ab) oraz prędkości recesyjnej 29 km s>sup>-1. Oddzielenie dwóch olbrzymów o wartości 0,056 zostało łatwo rozwiązane za pomocą różnych technik interferometrycznych, poczynając od pionierskiej pracy Andersona na Mt Wilson w 1919 r., a kończąc na pierwszych prawdziwych mapach przestrzennych w 1995 r. wykonanych przez Cambridge Optical Aperture Teleskop Syntezowy (COAST). Spektroskopowe monitorowanie wahań prędkości radialnej towarzyszy, dokładna fotometria UV-optyczna-IR, interferometryczne pomiary wymiarów orbit, wąskopasmowe rekonstrukcje plamkowe jasności względnych oraz wysoce precyzyjna PARALLAX z Hipparcosa pozwalają na udoskonalenie parametrów gwiazdowych do stopień rzadko spotykany w astronomii gwiazd podwójnych. Fizyczne wymiary gigantów z Capelli i ich orbity porównano na ryc. 2 ze Słońcem, Układem Słonecznym i pobliskim układem podwójnym składającym się z karłów ? Centauri (G2V+ K1 V). &aplha; Cen ma powierzchowne podobieństwa z Capellą, ponieważ jest to układ wielokrotny składający się ze stosunkowo ściśle związanego podwójnego (karły G i K) z odległym, jaśniejszym towarzyszem (w tym przypadku gwiazdą dM Proxima Centauri). Jednakże ? Cen stanowi tylko jedną trzecią całkowitej masy układu Capella.
Zagadkowe spektrum wizualne
Wizualne widmo Capelli zostało zarejestrowane przez licznych obserwatorów pod koniec XIX wieku. W.W. Campbell i niezależnie H. F. Newall odkryli okresowe przesunięcia Dopplera , które wskazywały na podwójną naturę gwiazdy. Ogólne widmo było jednak zagadkowe: linie absorpcji jednego składnika były ostre i wyraźne, podczas gdy linie absorpcji drugiego składnika były ledwo rozpoznawalne. Jednocześnie prace interferometryczne przeprowadzone w latach dwudziestych XX wieku wykazały, że obie gwiazdy miały porównywalną jasność. W latach pięćdziesiątych O Struve i S.M. Kung, a później K.O. Wright, odnieśli sukces w pomiarze widma wtórnego. Wright - który zastosował sprytnie zaprojektowaną technikę mechanicznego odejmowania w celu odizolowania widma wtórnego od kompozytu - opisał widmo wtórne jako "rozproszone", co prowadzi do "zasłonięcia" (lub rozcieńczenia) widma pierwotnego. Wyblakły wygląd widma wtórnego przypisywano wówczas zwiększonym turbulencjom atmosferycznym lub szybkiej rotacji. W latach sześćdziesiątych
G. Wallerstein zwrócił uwagę na widmo absorpcji litu - oznakę ewolucyjnej "młodości", całkowicie zdominowanej przez gwiazdę wtórną - i wykazał, że hipoteza szybkiej rotacji jest słuszna. We wczesnych latach siedemdziesiątych A.M. Boesgaard wykrył słabą absorpcję Li I w uzwojeniu pierwotnym, co doprowadziło do scenariusza ewolucyjnego opracowanego przez Ibena . Obie gwiazdy Capelli rozpoczęły swoje życie w górnej ciągu głównym (MS) jako karły z późnego B. Nieco bardziej masywna część pierwotna wyewoluowała z MS jako źródło powłoki wodorowej, wspięła się na gałąź olbrzyma, zapaliła jej rdzeń helowy, a następnie powróciła do podstawy gałęzi czerwonego olbrzyma jako gwiazda spalająca hel z rdzeniem, tracąc lit w wyniku głębokiej konwekcji mieszając po drodze. Faza spalania helu trwa stosunkowo długo, około 20% czasu trwania stwardnienia rozsianego; w ten sposób wyewoluowane gwiazdy mają tendencję do gromadzenia się w tej części diagramów jasności barw, co prowadzi do "skupienia". Tymczasem nieco mniej masywna
cząsteczka wtórna dopiero niedawno wyewoluowała z MS i obecnie znajduje się w powłoce wodorowej, spalając "pierwsze przejście". , a etap rozcieńczania litu należy do jego przyszłości. Ponieważ pozioma część trajektorii płonącej powłoki pokonuje bardzo szybko, być może w ciągu zaledwie 0,1% czasu życia MS, na diagramach jasności i koloru widać tam niewiele gwiazd, a obszar ten zaczęto nazywać "przerwą Hertzsprunga". Zatem chociaż olbrzymy z Capelli znajdują się blisko siebie na diagramie Hertzsprunga-Russella (tj. pod względem temperatury powierzchni i jasności), olbrzymy pierwotne pokonały znacznie większą "dystans" ewolucyjną niż olbrzymy wtórne, aby dotrzeć do swojej obecnej pozycji; właściwości pomocnicze, takie jak rotacja, zawartość litu i stosunki izotopowe CNO, mówią prawdę. W latach 80. XX w. F.C. Fekel i współpracownicy uzyskali bardzo precyzyjne prędkości obrotowe obu elementów: vAa sin i = 6 km s?1; vAb sin i = 36 km s?1. Od tego czasu do chwili obecnej
wymiary orbity układu Capella są stale udoskonalane za pomocą interferometrii i dalszych udoskonaleń orbity spektroskopowej. Całkiem niedawno nowa paralaksa Hipparcosa dla Capelli daje odległość (12,9 pc.) o około 3% bliższą niż poprzednie szacunki trygonometryczne, co sugeruje jasność o około 6% mniejszą. Promień pierwotnego wynosi 13R; wartość wtórna wynosi 9R⊙. Efektywne temperatury wynoszą odpowiednio 4940 K i 5700 K. Φ = 0,25 (kwadratura, gdy Aa oddala się z maksymalną prędkością, a Ab zbliża się z maksymalną prędkością) i pół cyklu później przy Φ = 0,75 (Aa zbliża się do Ab cofa się).
Pomiary wysokoenergetyczne
Capella była pierwszą "normalną" gwiazdą pozasłoneczną wykrytą w promieniach rentgenowskich (nieoczekiwanie podczas lotu rakiety sondującej) i jest jasnym źródłem linii emisyjnej w dalekim ultrafiolecie. Wysoka "aktywność" systemu sprawiła, że stał się on popularnym celem obserwatoriów statków kosmicznych, począwszy od programu Copernicus w połowie lat 70. obserwatorium BeppoSAX. We wczesnych pracach Kopernika A.K. Dupree odkrył silnie przesunięte w stronę błękitu wysokie wzbudzenie O VI λ1032 w Capelli w stosunku do oczekiwanej prędkości gwiazdy głównej w konkretnej obserwowanej fazie orbity. Zinterpretowała te przesunięcia jako dowód na masywny wiatr T ∿ 105 K emanujący z gwiazdy głównej. Później, podczas przeglądu całego nieba przeprowadzonego przez HEAO-1, odkryto, że Capella ma podobny wysoki poziom promieniowania rentgenowskiego z krótkotrwałymi (P ∿ kilka dni) zamkniętymi pływowo układami podwójnymi RS Canum Venaticorum i został wyznaczony na długookresowego członka tej klasy. Późniejsze badania T.R. Ayresa i J.L. Linsky′ego przy użyciu spektrometru echelle dalekiego ultrafioletu na pokładzie International Ultraviolet Explorer, rozpoczęte wkrótce po jego wystrzeleniu w 1978 r., nieoczekiwanie odkryły, że szybko rotująca gwiazda wtórna G1 III była odpowiedzialna za praktycznie wszystkie zjawiska o wysokim wzbudzeniu emisje układu (z gatunków takich jak Si IV λ1393 i C IV λ1548, tworzących się w T ∿ 6 × 104-105 K, warunki charakterystyczne dla Słońca podkoronowego REGIONU PRZEJŚCIOWEGO). Wykryto jedynie niewielki udział wolno obracającej się części pierwotnej G8 III. (Z perspektywy czasu wcześniejsze wyniki programu Copernicus dla O VI można zreinterpretować jako lekko przesuniętą ku czerwieni emisję gwiazdy wtórnej w określonej fazie orbitalnej.) Dolne panele rysunku ilustrują wpływ dubletu C IV na podstawie szerokości linii i względnych przesunięć oraz intensywności kontinuum zmierzone w widmach Kosmicznego Teleskopu Hubble′a (instrument GHRS) przez BE Wooda i współpracowników. Pionowa przerywana linia oznacza położenie spoczynkowe C IV λ1548. W przeciwieństwie do obszaru widzialnego, gwiazda wtórna G1 całkowicie dominuje w linii dalekiego ultrafioletu i (słabej) emisji kontinuum, podczas gdy gwiazda pierwotna G8 jest jedynie niewielkim zaburzeniem. Zwróć także uwagę na ogromne szerokości (∿150 kms-1 pełnej szerokości przy połowie intensywności) składników C IV w gwieździe wtórnej (biorąc pod uwagę, że skala prędkości na tym obrazie jest "skompresowana" czterokrotnie w dolnych panelach w porównaniu z widma widzialnego ze względu na krótszą długość fali, ale taki sam odstęp 10 Å). Trudniej dojrzeć na tym odwzorowaniu systematyczne przesunięcia ku czerwieni linii C IV (w obu gwiazdach) w stosunku do prędkości oczekiwanych w każdej fazie orbity. Takie przesunięcia są powszechnie rejestrowane w widmach ultrafioletowych Słońca, na liniach wychodzących ze strefy przejściowej 105 K, i uważa się, że są spowodowane ruchami masowymi materii w złożonym systemie cyrkulacji w koronalnych pętlach magnetycznych. We wczesnych latach 80. szybką rotację uważano za kluczowe ogniwo pomiędzy nadpobudliwością koronalną krótkookresowych RS CVns i długookresowych Capelli. (Synchronizacja pływów w półrozłączonych układach podwójnych RS CVn powoduje, że każda z gwiazd składowych obraca się w okresie orbitalnym, a zatem szybko, ponieważ Porb jest krótki.) W rzeczywistości Capella to "połowa RS CVn", ponieważ tylko jedna z gwiazd gwiazdy obracają się szybko. Związek między szybkim wirowaniem a wzmożoną aktywnością koronalną prawdopodobnie zachodzi poprzez silne powierzchniowe pola magnetyczne, wytwarzane w gwiezdnej powłoce konwekcyjnej w wyniku katalizowanego obrotowo działania "dynama". Dychotomię między szybkościami rotacji dwóch prawie identycznych współczesnych olbrzymów przypisano dużej separacji ewolucyjnej, która może powstać nawet na skutek niewielkiej różnicy mas (jak opisano wcześniej w scenariuszu Ibena). Rzeczywiście, istnieje wyraźny gwałtowny spadek spinów gwiazd tuż za G1 III. Przyczyna epizodu szybkiego hamowania jest obecnie przedmiotem debaty (głównymi pretendentami są ewolucyjna redystrybucja momentu pędu we wnętrzu gwiazdy i utrata pędu przez silny wiatr gwiazdowy), ale nie ma wątpliwości, że wiele ciekawych obiektów ultrafioletowych (i wizualne) właściwości Capelli można zrozumieć, jeśli gwiazda G8 przeszła już fazę gwałtownego hamowania, podczas gdy gwiazda G1 stoi na krawędzi.
Aktualne badania
Ostatnie badania skupiły się na pomiarach w ultrafiolecie Capelli w wysokiej rozdzielczości widmowej w krytycznych fazach orbity, w szczególności na procesach dynamicznych ujawnionych w postaci globalnych przesunięć ku czerwieni linii wysokiej temperatury oraz tajemniczych "szerokich składowych" (rozciągniętych skrzydeł o dużej prędkości na profilach linii emisyjnych ) zidentyfikowane przez B.E. Wooda, które mogą być sygnaturami gwiezdnych analogów słonecznych "zdarzeń wybuchowych w strefie przejściowej". Innym obszarem zainteresowań jest stwierdzenie, że pomimo silnej emisji dalekiego UV, gwiazda wtórna G1 (i inne szybko rotujące olbrzymy z przerwą Hertzsprunga) ma stosunkowo słabą jasność koronalnego promieniowania rentgenowskiego. W rzeczywistości gwiazda G1 ma prawdopodobnie mniej więcej taką samą jasność w promieniowaniu rentgenowskim jak główna gwiazda G8, pomimo 10-krotnej przewagi przy C IV λ1548. Paradoks jest wyraźnie widoczny w pomiarach UV za pomocą HST koronalnej linii zabronionej Fe XXI λ1354, która jest wykrywana w obu gigantach przy mniej więcej równym natężeniu. Sama gwiazda pierwotna należy do odrębnej klasy aktywnych olbrzymów zbitych, której prototypem jest β Ceti (K0 III), do której należą dwa z czterech czerwonych olbrzymów Hiades (ewolucyjni kuzyni gwiazd Capelli). Kolejną ciekawostką Capelli jest to, że pomimo znacznych emisji koronalnych (obu składników) i intensywnych badań prowadzonych przez historyczne i współczesne misje rentgenowskie i ultrafioletowe, istnieje zaskakująco niewiele raportów na temat zmienności i niezwykłego braku BŁYSKÓW. Natomiast dramatyczna zmienność promieniowania rentgenowskiego i aktywność rozbłysków (w tym emisja nietermiczna na częstotliwościach radiowych) są znakami towarowymi klasycznych układów podwójnych RS CVn
Streszczenie
Jako pobliski jasny spektroskopowy układ podwójny żółtych olbrzymów - jeden z nich to rzadka gwiazda szczeliny Hertzsprunga - i podążający za młodą gromadą otwartą Hiades, Capella przyciąga uwagę spektroskopistów od ponad stulecia. Astronomowie testowali techniki interferometryczne na "podwidzialnej" orbicie niemal tak długo. Około 30 lat temu natura nieco tajemniczej gwiazdy wtórnej została odkryta i wyjaśniona w kontekście przekonującego scenariusza ewolucyjnego. Wraz z rozwojem obserwatoriów kosmicznych w połowie lat 70. XX wieku Capella ponownie znalazła się w centrum uwagi astronomów, często zajmując ważne miejsce na liście celów nowej misji. Zainteresowanie układem i jego przesłaniem dotyczącym roli struktury gwiazd w ewolucji koronalnej aktywności magnetycznej nie słabnie do dziś.
Gwiazdy węglowe
Wewnętrzne właściwości gwiazd węglowych
W 1868 roku ANGELO SECCHI S.J. ogłosił, że odkrył czwarty typ widma gwiazd. Jego pierwsze trzy typy, oznaczone cyframi rzymskimi, to gwiazdy z liniami wodorowymi (obecnie gwiazdy A i B), gwiazdy z liniami metalicznymi (obecnie typy F, G i K) oraz gwiazdy z pasmami absorpcji, które zmniejszają się w kierunku dłuższych fal (obecnie typy M i S). Typ IV Secchiego pokazał pasma zmierzające w stronę krótszych fal. Umieszczając łuk węglowy w swoim spektroskopie wizualnym, natychmiast rozpoznał, że nowe pasma wynikają z obecności C2 i innych związków C, o których obecnie wiadomo, że składają się głównie z CN. Fujita uznał, że różnica między pasmami tlenkowymi typu III Secchiego i pasmami C typu IV jest kontrolowana przez chemię bardzo stabilnej cząsteczki CO. Jeśli liczebność O przekracza zawartość C, pozostały O po utworzeniu CO jest dostępny do tworzenia cząsteczek tlenku widocznych w widmach typów Mand i S. Jednakże w gwiazdach z C > O, O jest zużywane w CO, a pozostały C jest dostępny do tworzenia
cząsteczek węgla, takich jak C2, CN i CH. Nowoczesny system klasyfikacji gwiazd węglowych został stworzony przez Keenana (1993), który podzielił je na trzy sekwencje C-R, C-N i C-H odpowiadające dawnym klasyfikacjom gwiazd RN i CH. Następnie znajdują się cyfry wskazujące kolejność temperatur, np. od C-N1 do CN9. Pełny opis widm Keenana obejmuje mocne strony pasm C2, CN i Merrill-Sanford, a także stosunek 12C/13C i siłę linii Li. Przydałby się wskaźnik wzmocnienia procesu s, ale trudno go zaobserwować z wyjątkiem wysokich rozdzielczości widmowych. Własną jasność gwiazd węglowych można wyznaczyć albo na podstawie PARALAKS HIPPARCOS, albo na podstawie powiązania gwiazdy węglowej z układem gwiazd, którego odległość została określona. Dodatkowo konieczna jest fotometria od pasma K (2,2 μm). Ograniczając próbkę do gwiazd z paralaksami co najmniej trzykrotnie przekraczającymi ich prawdopodobny błąd i błędami mniejszymi niż 1,5 marcsec, Wallerstein i Knapp (1998)
sporządzili listę 33 obiektów. Większość gwiazd jest typu C-N, a reprezentowanych jest tylko kilka gwiazd C-H, C-R i Mira. Jeśli kryteria przyjęcia do próby zostaną obniżone, wpada się w statystyczne bagno, a widoczny rozrzut MV i MK gwałtownie wzrasta. Istnieje wiele gwiazd węglowych w innych galaktykach, takich jak Obłoki Magellana, gdzie przeprowadzono szeroko zakrojone badania. Ponieważ odległości do obłoków są obecnie dość dobrze znane, można obliczyć jasność gwiazd węglowych. Występują wartości MK tak jasne jak -9, podczas gdy wspomniana powyżej próbka gwiazd Hipparcosa zawierała tylko cztery gwiazdy jaśniejsze niż MK = -8 i żadną jaśniejszą niż MK = -8,8. Gwiazdy CR wykazują MK ≃ -5 i MV ≃ +1,0, znacznie słabsze niż gwiazdy C-N. Obliczenie efektywnej temperatury Teff zależy jedynie od pomiaru całkowitego strumienia promieniowania gwiazdy i średnicy kątowej. Tego ostatniego można dokonać albo poprzez zakrycie Księżyca, albo za pomocą
interferometrii. Od 1998 r. w ten sposób oszacowano wartości Teff 26 gwiazd C-N. Zakres wartości mieści się w przedziale od 2000 do około 3300 K. Gwiazdy C-R i C-H są znacznie cieplejsze, a wartości Teff mieszczą się w zakresie 4000-5000 K, jak określono na podstawie analizy ich linii widmowych. Masy gwiazd węglowych są znane jedynie na podstawie pośredniego wnioskowania. Modele gwiazd, które prowadzą do karbonizacji atmosfery w wyniku błysków i mieszania powłoki helu, można śledzić w przypadku gwiazd o wielkości około 1-3M⊙. Górna granica może wynosić nawet 5 lub 6 M⊙, ale funkcja masy gwiazd ciągu głównego gwarantuje, że takie obiekty powinny być stosunkowo rzadkie. Spektroskopowe orbity gwiazd C-H wskazują masy bliskie 0,8 M⊙, ale wydaje się, że atmosfery pierwotne C-H uzyskały bogatą w węgiel atmosferę w wyniku przeniesienia od swoich obecnych białych karłów, których pierwotne masy są nieznane, ale prawdopodobnie ograniczały się do
liczb sugerowanych powyżej. Jednakże gwiazdy C-H w Wielkim Obłoku Magellana są bardzo jasne, a ich pochodzenie jest niepewne. Ewolucja gwiazd węglowych intryguje astronomów gwiazdowych od około 50 lat; tj. odkąd znaczenie reakcji 3 4He → 12C zostało niezależnie wskazane przez Öpika i Salpetera odpowiednio w latach 1951 i 1952. Do zajścia reakcji potrójnej alfa potrzebne są temperatury powyżej około 108 K, natomiast nadmiar węgla ostatecznie pojawia się w atmosferze gwiazdowej, gdzie temperatura waha się od 2-5 × 103 K. Ponadto należy wziąć pod uwagę szczegółowe wskaźniki liczebności, takie jak 12C/13Cratio i wzmocnienie wielu ciężkich pierwiastków. W gwiazdach o średnicy mniejszej niż około 2,0 M⊙ reakcja potrójnej alfa zapala się na końcu gałęzi czerwonego olbrzyma w postaci "błysku rdzenia" (ponieważ początkowo jej szybkość wzrasta wykładniczo), ale powstały hel wytwarzany przez błysk i następujące po nim spokojne
spalanie wydaje się być ograniczony do jądra gwiazdowego. W bardziej masywnych gwiazdach pali się spokojnie, tworząc rdzeń C z pewnym rozszerzeniem do 16O, gdy 12C wychwytuje dodatkowe jądro 4He. Ostatecznie gwiazdy o małej masie z rdzeniami C i otoczką helową mogą zapalić swoje ogrzewanie granicy C-He w "błysku powłoki". W wyniku serii zdarzeń obejmujących nagłe mieszanie konwekcyjne 12C reaguje z protonami, tworząc 13C, który z kolei może reagować z jądrami helu, wytwarzając tlen i wolne neutrony. Wychwytywanie wolnych neutronów przez żelazo i inne ciężkie pierwiastki powoduje następnie powstanie wielu ciężkich pierwiastków, od rubidu po ołów ze szczególnie rzucającymi się w oczy pierwiastkami, takimi jak Sr, Y, Zr, Ba i lekkie pierwiastki ziem rzadkich. Nawet niestabilny pierwiastek Tc, którego okres półtrwania wynosi 2 × 105 lat, jest wytwarzany i konwekowany na powierzchnię gwiazdy, gdzie obserwuje się go w niektórych gwiazdach węglowych i wielu
gwiazdach typu S. Ile z tego obserwuje się na powierzchniach gwiazd węglowych? Obserwacja gwiazd węglowych przy wysokiej rozdzielczości widmowej od 400 do 2400 nm nie jest trudna. Jednak analiza obserwowanych widm jest niezwykle skomplikowana i niepewna ze względu na ogromną liczbę linii atomowych i pasm molekularnych w widmach gwiazd węglowych. Chociaż pełne analizy są trudne, można z powodzeniem przeprowadzić analizy ograniczone. Na przykład stosunek 12C/13C można dokładnie określić i waha się od około 100 do prawie 4 w gwiazdach węglowych, pokazując w ten sposób niejednorodność historii ewolucji. Większość gwiazd C-N wykazuje stosunki ⊙ powyżej 30, podczas gdy tylko kilka wykazuje stosunki w pobliżu 4. Stosunki C/O wahają się od 1,01 do 1,76 ze średnią 1,15 ± 0,03. Azot prawie nigdy nie ulega wzmocnieniu, nawet w gwiazdach o niskiej temperaturze 12C/13C, co jest zaskakujące. W rzeczywistości suma C+N+O rzadko ulega zwiększeniu w gwiazdach C-N,
pomimo konieczności wzmocnienia węgla, aby gwiazda była gwiazdą węglową. Gwiazdy CR są łatwiejsze do analizy ze względu na ich wyższe wartości Teff, od 4200 do 5000 K, ale są rzadkie i niewiele jest jasnych. Wszystkie wykazują zwiększoną zawartość 13C przy stosunku 12C/13C w zakresie od 4 do 9. Zwiększona jest także zawartość azotu, co wskazuje na systematyczne cykle CNO po wzmocnieniu 12C. Żaden z nich nie wykazuje wzmocnień w postaci ciężkich elementów. Przeanalizowano dwie cefeidy z wczesnymi widmami typu R, które wykazały podobne właściwości do niezmiennych gwiazd R. Gwiazdy C-H są najłatwiejsze do analizy, ponieważ są stosunkowo gorące i zasadniczo ubogie w metale, więc stopień wymieszania jest znacznie zmniejszony. Jak wspomniano powyżej, wydaje się, że odziedziczyli atmosferę po swoich nieistniejących już towarzyszach. Ich stosunki 12C/13C są mniejsze niż 8 lub większe niż 25. Niektóre z tej ostatniej grupy mogą wynosić 100
lub więcej. Wszystkie z nich są ubogie w metale od 3 do 50 razy. Węgiel i azot są zwiększone około 10-krotnie, tlen jest normalny, a zatem C+N+O okazuje się zwiększone 2-5-krotnie. Najwyraźniej ich niska początkowa obfitość wszystkiego, od C do Fe, uczyniła ich procesy nukleosyntezy bardziej widocznymi. Największe ulepszenia wykazują elementy procesu s, tj. Sr, Y, Zr, Ba i pierwiastki ziem rzadkich. Źródłem neutronów jest prawdopodobnie reakcja 13C(α n)16O.
Koperty okołogwiazdowe
Oprócz tego, że są same w sobie interesujące z punktu widzenia EWOLUCJI GWIAZD, gwiazdy węglowe są ważne dla ewolucji ośrodka międzygwiazdowego, a tym samym całej Galaktyki. Obserwacje CZERWONYCH GIGANTÓW w bliskiej podczerwieni do 2,2 μm przeprowadzono po raz pierwszy w latach 60. XX wieku i wkrótce ujawniły wiele gwiazd, których promieniowanie powyżej około 1,0 μm znacznie przekracza to, czego oczekiwano od atmosfer modelowych. Wkrótce odkryto, że nadmiar podczerwieni musi być spowodowany stosunkowo chłodnym gazem i pyłem, podczas gdy jego intensywność można zrozumieć tylko wtedy, gdy materia okołogwiazdowa wypełnia objętość znacznie większą niż objętość samej gwiazdy. Wcześniejsze obserwacje niektórych czerwonych olbrzymów i nadolbrzymów wykazały linie widmowe NaI i Ca II. Przesunięcia Dopplera odpowiadające materiom opuszczającym powierzchnię gwiazdy z prędkością do 20 kms-1. W ciągu kolejnych dziesięcioleci obserwacje otoczek okołogwiazdowych rozszerzono na średnią podczerwień (5-30 μm), daleką podczerwień (30-200 μm), submilimetrową (0,2-1,0 mm), milimetrową (1-10 mm) i radiową (10 mm) i dłuższe) obszary widmowe. Wiele instrumentów przyczyniło się do poszerzenia naszej wiedzy o obwiedniach okołogwiazdowych, ale badanie IRAS, a ostatnio satelita ISO, przyczyniły się do znaczących postępów. Pył okołogwiazdowy promieniuje w zakresie fal bliskiej i średniej podczerwieni. Pył pochłania światło gwiazd i w pobliżu gwiazdy nagrzewa się do temperatur w zakresie 1000-100 K, które maleją w większych odległościach. Widma w podczerwieni gwiazd M i C różnią się ze względu na różne właściwości pyłu krzemianowego i związków węgla. Pył węglowy jest nieprzezroczysty w zakresie widzialnym, co znacznie zmniejsza strumień widzialny, podczas gdy krzemiany są częściowo przezroczyste (sadza jest czarna, a szkło przezroczyste). Gaz osiąga równowagę termiczną z pyłem w wyniku zderzeń, podgrzewając gaz. Zapewnia to wystarczające wzbudzenie, aby wiele cząsteczek mogło promieniować na długościach fal odpowiadających przejściom rotacyjnym. Najpowszechniejszą cząsteczką promieniującą jest oczywiście CO, gdzie często wykrywane są przejścia (1-0), (2-1), (3-2) itp. Otoczki wokół gwiazd węglowych stanowią laboratorium chemii organicznej, a nawet nieorganicznej, której nie można zrealizować na Ziemi. W pobliżu gwiazdy wysoka gęstość w połączeniu z temperaturami sięgającymi 1500 K zapewnia równowagę chemiczną, ale w warstwach zewnętrznych należy dokładnie rozważyć szybkość reakcji. Gwiazda IRC+10216 wydaje się wykazywać najbogatszy skład chemiczny z ogromną liczbą związków organicznych, a nawet niektórymi chlorkami i fluorkami pojawiającymi się w wewnętrznej otoczce. Dalsze reakcje fotochemiczne stają się ważne, ponieważ pole promieniowania międzygwiazdowego o energiach fotonów do 10 eV przenika przez otoczkę; obecne są pewne jony, dlatego ważna staje się chemia jonowo-cząstkowa. Badania w podczerwieni, takie jak IRAS, ujawniły, że wszystkie gwiazdy C-N mają nadmiar podczerwieni wskazujący na utratę masy. Gwiazdy C-R i C-H nie wykazują oznak utraty masy. Wskaźniki utraty masy można obliczyć z równania ciągłości: ˙M = 4πr2ρ?(r)V∞, gdzie gęstość ρ w odległości r należy oszacować z modelu, a V∞, prędkość ruchomej obwiedni, może można oszacować na podstawie szerokości lub odstępu linii emisyjnych CO w obszarach mm i submm. Utratę masy można łatwo wykryć do 10-7M⊙ rok-1, a w kilku przypadkach do prawie 10-8. Na drugim końcu skali obliczono współczynniki utraty masy sięgające 10-5 lub nawet kilkukrotnie 10-5M⊙ rok-1-1 delikatnego wiatru pochodzącego od gwiazdy węglowej. Ten tak zwany "superwiatr" może osiągnąć prędkość 1-200 km s-1 i może porwać wcześniej wyrzucony materiał. Wstrząs powstanie w miejscu interakcji wiatrów, powodując znaczne podgrzanie szoku gazu. Ponadto ewoluująca gwiazda będzie się kurczyć, aż jej temperatura osiągnie 1-2 × 105 K. Promieniowanie takiej gwiazdy będzie jonizować otaczający gaz, a powstała konfiguracja utworzy Mgławicę PLANETARNĄ. Stąd końcowe etapy utraty masy gwiazdy węglowej można opisać jako "Śmierć i Przemienienie" - tego tytułu użył G.R. Knapp na konferencji zorganizowanej w 1989 r. z okazji 50-tej rocznicy otwarcia obserwatorium McDonalda.
Misja Cassini/Huygens
Misja Cassini/Huygens to misja planetarna, której celem jest szczegółowe zbadanie układu Saturna. Misja jest wspólnym przedsięwzięciem Narodowej Agencji Aeronautyki i Przestrzeni Kosmicznej Stanów Zjednoczonych (NASA) oraz EUROPEJSKIEJ AGENCJI KOSMICZNEJ (ESA). Został pomyślnie wystrzelony z Cape Canaveral na Florydzie 15 października 1997 r. w ramach trwającej 7 lat podróży międzyplanetarnej. Sonda Cassini/Huygens składa się z głównego statku, Saturn Orbiter i Titan Probe, Huygens. Celem misji jest przeprowadzenie szczegółowych badań planety SATURN, jej pierścieni, satelitów i magnetosfery. TITAN, największy księżyc Saturna, jest głównym celem misji. Nadrzędnym celem misji jest także zbadanie powiązań pomiędzy pierścieniami a satelitami, interakcji pomiędzy plazmą magnetosferyczną a satelitami, pierścieniami i atmosferą Tytana. Cassini będzie badać nie tylko każdą część układu Saturna, ale także system jako całość. Misja prowadzi 26 badań naukowych, w tym 18 badań instrumentalnych i osiem badań interdyscyplinarnych, które będą opierać się na danych uzyskanych za pomocą więcej niż jednego instrumentu. Saturn Orbiter ma na pokładzie 12 instrumentów naukowych, a sześć instrumentów umieszczono w sondzie Huygens. Cassini/Huygens to przedsięwzięcie międzynarodowe. Planowanie misji Cassini/Huygens rozpoczęto w 1984 r., kiedy zainicjowano wspólne badanie ESA-NASA. Aby obie agencje mogły rozpocząć działalność, wymagało to ponad 6 lat intensywnych badań i starannego planowania w 1990, która jest najbardziej ambitną misją na planetę zewnętrzną, jaką dotychczas podjęto. W fazie rozwoju sprzętu zaangażowanych było łącznie 18 krajów. WŁOSKA AGENCJA KOSMICZNA (ASI, Agencia Spatiale Italiana) dostarczyła główne elementy statku Orbiter w ramach programu współpracy dwustronnej nawiązanego z NASA w 1992 r. Antena o dużym wzmocnieniu 4 m jest jednym z elementów dostarczonych przez ASI. Podróż na Saturna trwa 7 lat. Chociaż Cassini/Huygens została wystrzelona przez najpotężniejszą rakietę (Titan IVB/Centaur), jaka istniała w tamtym czasie, statek kosmiczny o masie 5,6 t był zbyt ciężki, aby wynieść go na bezpośrednią trajektorię do Saturna. Ścieżka jego podróży obejmuje kilka spotkań planet, które są wykorzystywane do manewrów wspomaganych grawitacją w celu przyspieszenia statku kosmicznego w kierunku następnej planety. Pierwsze trzy spotkania planet miały miejsce na Wenus 27 kwietnia 1998 r. i 24 czerwca 1999 r. oraz na Ziemi 17 sierpnia 1999 r. Ostatnie spotkanie planet przed Saturnem nastąpi pod koniec grudnia 2000 r. na Jowiszu. Sonda Cassini/Huygens dotrze do Saturna w lipcu 2004 roku. Nominalna misja w układzie Saturna potrwa 4 lata. Sonda Cassini/Huygens zostanie umieszczona na orbicie wokół Saturna 1 lipca 2004 r., kiedy odbędzie się manewr wprowadzenia na orbitę Saturna (SOI). Pięć miesięcy po SOI sonda Huygens zostanie wycelowana i wypuszczona z Orbitera w celu spotkania z Tytanem 3 tygodnie później. Pod koniec listopada 2004 r. Huygens wejdzie w atmosferę Tytana i opadnie na spadochronie przez gęstą, mglistą atmosferę Tytana, aż dotrze na powierzchnię. Po misji Huygens, sonda Cassini Saturn Orbiter podejmie własną misję eksploracji układu Saturna podczas 75 orbit wokół planety. Czterdzieści cztery orbity obejmą bliski przelot Tytana na wysokościach zaledwie 850 km nad powierzchnią, zarówno w celu prowadzenia obserwacji, jak i manewrów wspomaganych grawitacją. Pod koniec misji Tytan będzie rekordzistą jako ciało planetarne najczęściej wykorzystywane do wspomagania manewrów grawitacją. Misja została nazwana na cześć francusko-włoskiego astronoma JEAN-DOMINIQUE CASSINI. W latach 1671-1685 odkrył cztery satelity Saturna oraz dużą szczelinę w pierścieniu (przedział Cassiniego), nazwaną jego imieniem. Sonda została nazwana na cześć holenderskiego astronoma CHRISTIAANA HUYGENSA, który odkrył Tytana w 1655 roku podczas obserwacji pierścieni Saturna. Huygens był także pierwszym, który wyjaśnił prawdziwą naturę pierścieni.
Cele naukowe i ładunek
Misja Cassini/Huygens będzie opierać się na odkryciach dokonanych przez niezwykle udane misje VOYAGER i umożliwi milowy krok w zrozumieniu układu Saturna, powstawania i ewolucji układu planetarnego oraz pochodzenia i ewolucji Układu Słonecznego jako cały. Tytan, największy księżyc Saturna i drugi co do wielkości księżyc w Układzie Słonecznym po Ganimedesie Jowisza, jest specjalnym celem misji. Tytan to unikalny typ obiektu w Układzie Słonecznym. Jest spowita gęstą, bogatą w metan, mglistą, azotową atmosferą. Ciśnienie i temperatura na powierzchni wynoszą 1,5 bara (1,5 razy więcej niż interakcje między pierścieniami a aagnetosferą, jonosferą, atmosferą i satelitami Saturna. W odniesieniu do satelitów lodowych: w celu zbadania składu i rozkładu powierzchni , materiały i zdefiniować mechanizmy modyfikacji skorupy ziemskiej i powierzchni; określić ogólną charakterystykę satelitów, w tym nałożyć ograniczenia na skład masowy i struktury wewnętrzne; badać interakcje z magnetosferą. W odniesieniu do magnetosfery Saturna: określenie konfiguracji pola magnetycznego; określać właściwości, w tym źródła i pochłaniacze cząstek naładowanych magnetosferycznie; zbadać interakcję magnetosfery z wiatrem słonecznym oraz atmosferą i jonosferą Tytana. Ładunki Orbitera i Sondy wymieniono odpowiednio w tabelach 1 i 2, w których podajemy również krótki opis pomiarów, które zostaną wykonane i co będzie badane. Interdyscyplinarne badania, które będą wymagały danych z więcej niż jednego instrumentu, wymieniono w tabeli 3. Poniżej opisano przegląd obserwacji planowanych w układzie Saturna.
Planowane obserwacje
Tytan
Księżyc Tytan jest głównym celem misji Cassini/Huygens. Ze średnicą 5150 km Tytan jest drugim co do wielkości satelitą Układu Słonecznego po Ganimedesie Jowisza (5262 km). Jest większa od planet Merkury (4878 km) i Pluton (2300 km), a Ziemia (3476 km). Tytan ma gęstą, mglistą atmosferę, która przesłania powierzchnię w zakresie widzialnym. Sonda Huygens zmierzy właściwości fizyczne i określi profil składu atmosfery Tytana. Huygens wykona także zdjęcia powierzchni i zmierzy jej skład wzdłuż toru opadania. Rozdzielczość obrazów będzie się poprawiać w miarę zbliżania się sondy do powierzchni. W pobliżu powierzchni powinny być widoczne szczegóły mniejsze niż 1 m, a może nawet mniejsze niż 10 cm. Wysokościomierz radarowy zmierzy powierzchnię topografi poniżej sondy. Zmierzony zostanie również profil wiatru. Orbiter Cassini Saturn i sonda Huygens będą badać Tytana w ramach podejścia uzupełniającego. Za każdym razem, gdy Orbiter przelatuje obok Tytana, wykona zestaw obserwacji teledetekcyjnych atmosfery i powierzchni. Powierzchnia Tytana będzie mapowana za pomocą radarowego urządzenia mapującego Titan znajdującego się na statku Orbiter oraz, być może, instrumentów optycznych, które będą w stanie widzieć powierzchnię przez "okna atmosferyczne" w zakresie 0,8-2 μm. Obserwacje za pomocą Orbitera zostaną zaprojektowane tak, aby zapewnić globalne pokrycie właściwości atmosfery Tytana i powierzchni; obejmą także ponowne obserwacje atmosfery i powierzchni wzdłuż toru lotu sondy.
Planeta Saturn
Cassini zmierzy właściwości fizyczne atmosfery Saturna i określi jej skład na całym świecie w funkcji wysokości. Zbadane zostaną właściwości ciągle zmieniających się chmur i globalna cyrkulacja atmosfery. Szybki obrót planety (10 godz. 12 min) pozwoli nam wielokrotnie badać dobowe zmiany właściwości atmosfery. Ze względu na wyrównanie dipolarnej osi planety z jej osią obrotu, pole magnetyczne Saturna różni się od pola magnetycznego Ziemi, Jowisza, Urana i Neptuna. Głównym tematem badań jest mechanizm generowania pola magnetycznego Saturna (zobacz także SATURN: MAGNETOSFERA). Szczegółowe badanie magnetyzmu Saturna pozwoli nam zbadać wnętrze planety i lepiej ją zrozumieć , jak działa efekt dynama wewnątrz planety Ziemia. Wnętrze planety będzie również badane za pomocą technik pomiaru grawitacji, opartych na precyzyjnym pomiarze trajektorii statku kosmicznego nad planetą. Pozwoli nam to nałożyć ograniczenia na wnętrze planety.
Pierścienie
Słynne pierścienie Saturna będą fotografowane pod wszystkimi kątami fazowymi Słońca i z różnych perspektyw geometrycznych. Obserwowana będzie konfiguracja pierścieni, a skład i procesy dynamiczne odpowiedzialne za strukturę pierścieni zostaną wywnioskowane z obrazów i zakryć w zakresie fal optycznych i radiowych. Uważa się, że pierścienie składają się głównie z cząstek lodu wodnego. Uważa się, że zróżnicowanie składu pierścieni wynika z różnych rodzajów zanieczyszczeń w lodzie. Otrzymany zostanie rozkład wielkości i skład chemiczny cząstek pierścienia. Bezpośrednie pomiary in situ cząstek pyłu i meteoroidów w pierścieniach zostaną wykonane za pomocą analizatora Cosmic Dust Analyzer. Celem Cassini jest także poszukiwanie nowych księżyców w pierścieniach oraz badanie wzajemnych powiązań między pierścieniami a satelitami, w tym satelitami osadzonymi.
Lodowe satelity
Lodowe satelity oferują wiele nowych światów do odkrycia. Saturn ma 18 znanych księżyców. Cassini będzie fotografować i mapować ich powierzchnie podczas podróży orbitalnej. Pozwoli nam to uzyskać skład i rozkład materiału powierzchniowego. Głównym celem misji jest zbadanie historii geologicznej satelitów oraz zbadanie mechanizmów odpowiedzialnych za modyfikację ich powierzchni. Wykrywanie wewnętrznych pól magnetycznych satelitów jest również ważnym celem Cassini, ponieważ Galileo na Jowiszu pokazał, że należy się spodziewać niespodzianek. Pomiary radiowe trajektorii statku kosmicznego podczas przelotu każdego satelity pozwolą nam wywnioskować ich skład masowy i nałożyć ograniczenia na ich wewnętrzne struktury. Cassini będzie szukać materii organicznej na powierzchniach satelitów. Jednym z głównych celów Cassini jest zbadanie związku między lodowymi satelitami a pierścieniami. Poszukiwane będą podobieństwa w składzie między satelitami i pierścieniami. Cassini będzie także poszukiwać i, jeśli zostanie odnaleziona, scharakteryzować słabe atmosfery wokół księżyców Saturna. Chociaż pełne możliwości operacyjne statku kosmicznego Cassini/Huygens i systemu naziemnego będą dostępne dopiero na 2 lata przed przybyciem na Saturna, przeprowadzono pewne badania naukowe i obserwacje podczas przelotu każdej planety (Wenus, Ziemia-Księżyc, Jowisz). W misji Cassini/Huygens uwzględniono konkretny cel naukowy, który będzie wykorzystywał możliwości włączenia w podsystemie telekomunikacyjnym łączy w górę i w dół zarówno w paśmie X, jak i w paśmie Ka. Pozwoli to na wsparcie poszukiwań fal grawitacyjnych. Eksperymenty z falą grawitacyjną będą prowadzone przez okres co najmniej 40 dni; zaplanowano je podczas trzech opozycji po przelocie Jowisza w grudniu 2001 r., grudniu 2002 r. i styczniu 2004 r.
Sonda Cassini/Huygens
Sonda Cassini/Huygens to największy i najbardziej złożony statek kosmiczny z planetą zewnętrzną, jaki kiedykolwiek zbudowano. Jest dwukrotnie większy od statku kosmicznego Galileo, który obecnie bada układ Jowisz; ma 6,8 m wysokości i 4 m szerokości. Jego masa startowa, łącznie z Huygensem, wynosiła 5650 kg. Ponad połowę masy startowej stanowił materiał pędny (3130 kg).
Orbiter Saturna
Orbiter to statek kosmiczny stabilizowany trójosiowo. Korpus główny składa się ze stosu składającego się z dolnego modułu wyposażenia, modułu napędowego, górnego modułu wyposażenia i anteny o dużym wzmocnieniu (HGA). Do tego stosu przymocowana jest paleta teledetekcyjna, na której znajdują się przyrządy do przenoszenia ładunku optycznego, paleta z polami i cząsteczkami, na której znajduje się większość cząstek plazmy i przyrządy pyłowe, oraz sonda Huygens, przymocowana z boku do modułu napędowego. Wyposażenie elektroniczne radaru mocowane jest do górnego modułu wyposażenia. Długa antena elektryczna (pokazana w rozłożonej konfiguracji) oraz anteny magnetyczne Podsystemu Fal Radiowych i Plazmowych (RPWS) są przymocowane do dolnej części górnego modułu sprzętowego. Kanister wysięgnika magnetometru jest przymocowany w górnej części górnego modułu wyposażenia, poniżej HGA. Energię elektryczną zapewniają trzy radioizotopowe generatory termoelektryczne (RTG), które dostarczają ponad 700 W mocy elektrycznej.
Magistrala elektroniki statku kosmicznego i kilka podsystemów elektroniki przyrządów są umieszczone w górnym module wyposażenia, który jest regulowany termicznie, aby zapewnić łagodne środowisko (∿10-20 ° C). Będąc w wewnętrznym Układzie Słonecznym, statek kosmiczny leci z HGA skierowanym w stronę Słońca i wykorzystuje go jako osłonę przeciwsłoneczną. Na Saturnie, wykorzystując 20 W nadajnik w paśmie X i 4 m HGA, statek kosmiczny będzie w stanie komunikować się z siecią Deep Space Network NASA z szybkością transmisji danych do 166 kbit s-1. Dwie anteny o niskim wzmocnieniu (LGA) przesyłają dane z małą szybkością (co najmniej 40 bitów s-1) i odbierają polecenia telepolecenia, gdy HGA nie może być skierowany na Ziemię. Do napędu i manewrów w drodze na Saturna i podczas fazy orbitalnej Saturna Orbiter wykorzystuje jeden z dwóch redundantnych silników 445 N i 16 mniejszych silników odrzutowych 0,5 N, połączonych w grupy po cztery w redundantnych parach. Mechanizmy przegubowe
głównych silników umożliwiają skierowanie ich ciągu przez środek ciężkości statku kosmicznego. W głównych silnikach wykorzystuje się hipergoliczną mieszaninę paliwa monometylohydrazyny (N2H3CH3) i utleniacza czterotlenku azotu (N2O4) pod ciśnieniem helu. W sterach strumieniowych wykorzystuje się hydrazynę (N2H4). Główne silniki są zakryte chowaną osłoną, gdy nie są używane. Podsystem dowodzenia i danych Orbitera (CDS) odbiera polecenia naziemne za pośrednictwem podsystemu częstotliwości radiowej (RFS). CDS rozdziela polecenia do innych podsystemów, do instrumentu ładunkowego Orbitera lub do sondy (jeśli jest podłączona do Orbitera). Z kolei CDS zbiera dane z innych podsystemów, ładunku Orbitera lub sprzętu pomocniczego sondy zamontowanego na orbicie i przesyła je do jednego z dwóch redundantnych rejestratorów półprzewodnikowych 1,8 Gbit (SSR). CDS następnie pobiera te dane z SSR, formatuje je i dostarcza do RFS w celu przesłania na
Ziemię za pośrednictwem HGA lub jednego z dwóch LGA. Dynamiczną kontrolę orientacji Cassini zapewnia podsystem kontroli położenia i artykulacji (AACS). Gdy wymagana jest wysoka stabilność statku kosmicznego, obrót statku kosmicznego jest kontrolowany przez zespoły kół reakcyjnych (RWA). Pędniki stosuje się, gdy wymagane są duże prędkości obrotowe lub przyspieszenia. System AACS wykorzystuje dwie nadmiarowe inercyjne jednostki odniesienia (IRU), dwie nadmiarowe jednostki odniesienia gwiazd (SRU) i zespół czujnika słonecznego (SSA). AACS jest w stanie zapewnić dokładność wskazywania 1 mrad (3,4 minuty łuku) przy stabilności 8 μrad (0,2 sekundy łuku) i szybkościach obrotu 0,02-1° s-1. Kontrola termiczna Orbitera odbywa się na kilka sposobów, z których najbardziej widocznym jest czarno-złota izolacja wielowarstwowa (MLI). Ponadto sterowanie termiczne wykorzystuje żaluzje umieszczone na 12-polowej szynie elektronicznej, grzejniki elektryczne, jednostki grzewcze radioizotopowe (RHU) i grzejniki.
Przyrządy na podczerwień (VIMS i CIRS) są izolowane termicznie od szyny statku kosmicznego i zapewniają własną kontrolę termiczną jako integralna część instrumentu.
Sonda Huygensa
Sonda Huygens to sonda wejściowa. Jego masa wynosi 330 kg. Składa się z dwóch głównych elementów: systemu zabezpieczenia wejścia i zawartego w nim modułu zniżania. Sonda jest przymocowana bokiem do orbitera Saturn. Sonda oddziela się od Orbitera z prędkością względną 0,3 m s-1 i szybkością wirowania 7 obr/min-1, co zapewnia stabilność podczas 22-dniowego dotarcia do Tytana oraz podczas wejścia w atmosferę. Podsystem wejściowy składa się z przedniej osłony termicznej o średnicy 2,75 m i tylnej pokrywy, obydwie pokryte materiałem termoizolacyjnym na bazie krzemianów, chroniącym moduł wejściowy przed promieniowaniem i konwekcyjnymi strumieniami ciepła (do 1 MW m-2) generowane w fazie wejścia w zakresie wysokości 350-220 km, gdzie sonda zwalnia od około 6000 m s-1 do 400 m s-1 (1,5 Macha) w czasie krótszym niż 2 minuty. Przy prędkości 1,5 Macha, na wysokości około 170 km, sekwencja otwierania spadochronu jest inicjowana przez urządzenie pirotechniczne, które wyciąga spadochron pilotujący o średnicy 2,59 m w celu odciągnięcia tylnej pokrywy od reszty zespołu. Po chwili tylna pokrywa wyciąga z pojemnika spadochron główny o średnicy 8,3 m. Osłona ta napełnia się w fazie naddźwiękowej, aby wyhamować i ustabilizować sondę w trybie transsonicznym. Przednia osłona zostaje zwolniona z prędkością około 0,6 Macha, 30 sekund po napełnieniu głównego spadochronu. W rzeczywistości wymiary głównego spadochronu zapewniają wystarczające opóźnienie, aby zagwarantować pozytywne oddzielenie przedniej osłony od modułu zniżania.
Przegląd misji Cassini/Huygens
Sonda Cassini/Huygens została wystrzelona 15 października 1997 r. o godzinie 08:43 czasu GMT przez rakietę Titan IVB/Centaur ze stacji sił powietrznych Cape Canaveral na Florydzie. Statek kosmiczny o masie 5,6 t był zbyt ciężki, aby można go było wystrzelić bezpośrednio na trajektorię zbliżania się do Saturna; aby dotrzeć do celu, wymaga kilku planetarnych wzmocnień. Trajektoria międzyplanetarna (rysunek 4) obejmuje asysty grawitacyjne Wenus (26 kwietnia 1998 i 24 czerwca 1999), Ziemi (18 sierpnia 1999) i Jowisza (30 grudnia 2000). Przylot statku kosmicznego Cassini/Huygens do Saturna planowany jest na 1 lipca 2004 r. W tym momencie zostanie wykonany główny manewr, podczas gdy statek kosmiczny przetnie płaszczyznę pierścieni. Główny silnik będzie pracował przez około 90 minut, aby spowolnić statek kosmiczny i umożliwić mu uchwycenie go na orbicie wokół Saturna. Sonda ma zostać wypuszczona z orbitera Saturn pod koniec początkowej orbity wokół Saturna, nominalnie 22 dni przed spotkaniem Tytana. Przed wypuszczeniem sondy Orbiter jest kierowany na trajektorię kolizji z Tytanem, ponieważ sonda nie ma możliwości manewrowania samodzielnie. Krótko po wypuszczeniu sondy Orbiter wykona manewr odchylenia, aby nie wejść w atmosferę Tytana. Manewr ten ustawi także geometrię komunikacji radiowej pomiędzy sondą a orbiterem do wykorzystania podczas opadania sondy. Ustali także wstępne warunki kolejnej podróży satelitarnej, która rozpocznie się po zakończeniu misji Sonda. Wejście Huygensa w atmosferę Tytana planowane jest na 27 listopada 2004 r. Zejście pod spadochronem zajmie maksymalnie 2,5 godziny. Po drodze na dół Huygens zmierzy właściwości fizyczne i chemiczne atmosfery oraz wykona zdjęcia powierzchni pod sondą. Podczas opadania i prawdopodobnie przez krótki czas na powierzchni sonda będzie przesyłać zebrane dane drogą radiową do sondy Cassini Saturn Orbiter, która odbierze je za pośrednictwem HGA skierowanego na Tytana. Orbiter z kolei wyśle dane na Ziemię po zakończeniu misji Huygens, również wykorzystując HGA, a następnie wyceluje w Ziemię. Scenariusz wejścia i zejścia Huygensa przedstawiono na rysunku 5. Po zakończeniu misji sondy Saturn Orbiter rozpocznie trwającą 4 lata podróż po systemie Saturna, tzw. podróż satelitarną. W obecnym scenariuszu misji składa się ona z ponad 70 orbit skupionych wokół Saturna, połączonych przelotami w pobliżu Tytana przy wsparciu grawitacyjnym lub manewrami napędowymi. Rozmiar tych orbit, ich orientacja w stosunku do linii Słońce - Saturn oraz ich nachylenie w stosunku do równika Saturna są podyktowane różnymi wymaganiami naukowymi, które obejmują pokrycie śladów naziemnych Tytana, przeloty lodowych satelitów, zakrycie Saturna, Tytana lub pierścieni, pokrycie magnetosfery , nachylenia orbit i przejścia przez płaszczyznę pierścienia.
Operacje lotnicze
Operacje lotnicze w ramach misji Cassini/Huygens są wykonywane w JET PROPULSION LABORATORY (JPL) w Pasadenie w Kalifornii. Operacje łącza w górę i w dół są realizowane z Centrum Kontroli Misji w JPL. Dane są gromadzone za pośrednictwem sieci kosmicznej NASA i przechowywane na komputerach w JPL, gdzie rutynowo ocenia się stan i status statku kosmicznego. Operacje Cassini/Huygens opierają się na koncepcji operacji rozproszonych. W tej koncepcji zespoły instrumentalne analizują dane ze swoich instrumentów i przygotowują sekwencje operacji na instrumentach ze swoich macierzystych instytutów, a następnie przesyłają je do JPL w celu przesłania. Podczas głównej misji, od początku spotkania z Saturnem do końca misji, zespoły instrumentów Orbiter będą codziennie kontaktować się z zespołem operacyjnym statku kosmicznego w JPL. Operacje lotnicze sondy Huygens Probe są wykonywane z Centrum Operacyjnego ESA w ESOC w Darmstadt w Niemczech, gdzie utworzono Centrum Operacyjne Huygens Probe (HPOC). Wszystkie działania związane z misjami związane z Huygensem (okresowe kontrole podczas lotu i faza misji sondy) są realizowane z HPOC. Dane telemetryczne z Huygens są kierowane do HPOC, gdzie są przetwarzane i przekazywane badaczom z Huygens.
Przelot obok Jowisza
Sonda Cassini pomyślnie przeleciała obok Jowisza podczas wspomaganego grawitacyjnie obrotu w stronę Saturna, a ponadto została wykorzystana do wypróbowania niektórych swoich przyrządów, dokonując ważnych naukowych obserwacji Jowisza i jego księżyców. Obserwacje Cassini przeprowadzono w połączeniu z obserwacjami prowadzonymi przez sondę kosmiczną Galileo, również krążącą wokół Jowisza. Obserwacje wykonane przez obie sondy zostały uzupełnione niemal jednoczesnymi zdjęciami z krążącego wokół Ziemi Kosmicznego Teleskopu Hubble′a i Obserwatorium Rentgenowskiego Chandra. Wykorzystano także naziemne teleskopy radiowe i optyczne. Sonda Galileo znajduje się na orbicie wokół Jowisza od grudnia 1995 r., podczas gdy Cassini obserwował Jowisza od 1 października 2000 r. do 31 marca 2001 r. Najbliższe podejście Cassini miało miejsce 30 grudnia 2000 r., w odległości około 9,7 miliona kilometrów. Dało to Cassini impuls grawitacyjny Jowisza, który przyspieszył statek kosmiczny o około 2 km na godzinę (około 4500 mil na godzinę) i umożliwił mu dotarcie do ostatecznego celu, Saturna, w lipcu 2004 r. w ramach planowanych czteroletnich badań. Większy niż normalnie opór wykryty na jednym z kół reakcyjnych sondy Cassini nie pojawił się ponownie. Koła reakcyjne służą do obracania statku kosmicznego w różnych kierunkach, a problem doprowadził do zawieszenia od 19 do 28 grudnia obserwacji naukowych, które wymagałyby skierowania statku kosmicznego, na przykład w celu robienia zdjęć. Tylko dwa eksperymenty, spektrometr mas jonowych i obojętnych oraz Radio Science, a także sonda Huygens do badania księżyca Saturna, Tytana, nie zebrały danych podczas badań Jowisza. Wyniki obserwacji obejmują ujawnienie nowych danych na temat dynamiki magnetosfery Jowisza, jego pasów radiacyjnych, zórz polarnych i jego interakcji z wiatrem słonecznym.
Kataklizmiczne układy podwójne: klasyczne i nawracające nowe
Łacińskie słowo nova, oznaczające "nowy", było historycznie stosowane do określenia nagłego pojawienia się jasnej gwiazdy, wcześniej nienotowanego. Takie novae stellae pojawiają się we wschodnich zapisach z około 1500 roku p.n.e. oraz w zapisach europejskich z ostatnich trzech stuleci (jednak wiele z nich to starożytne SUPERNOWE). Odkrycie w połowie XIX wieku innego rodzaju nowych, karłowatych, doprowadziło do wykorzystania klasycznej nowej jako pierwotnego typu. Do 1887 roku, kiedy za pomocą fotografii szerokokątnej zaczęto odkrywać słabsze nowe, w epoce postteleskopowej odkryto tylko sześć nowych. Najjaśniejsze z nich to Nova Vulpecula 1670 (maksymalna jasność 2,6), Nova Ophiuchi 1848 (4,2mag) i Nova Cygni 1876 (3,0mag). Obserwacje Nowej Oph po wybuchu wykazały, że po kilku latach jej jasność spadła do 13,5mag, co pokazało, że niezależnie od przyczyny dramatycznej eksplozji nowej, nie zniszczyła ona całkowicie gwiazdy. Uświadomienie sobie, że niektóre nowe erupcje powtarzają się (np. Nova Corona Borealis w 1866 i 1946 r.), podkreśliło fakt, że proces ten ma raczej charakter kataklizmiczny niż katastrofalny. Przy obecnym zrozumieniu przyczyn erupcji uważa się, że wszystkie nowe muszą się powtarzać i że wszystkie rodzaje zmiennych kataklizmicznych muszą regularnie przekształcać się w nowe, ale odstępy między erupcjami są na ogół znacznie dłuższe niż kilka wieków zarejestrowanych historia. W swoim najjaśniejszym miejscu nowe zwykle osiągają wielkość absolutną Mv ∿? -9, co uczyniłoby je łatwo wykrywalnymi w całej naszej Galaktyce, gdyby nowe nie skupiały się w kierunku Płaszczyzny Galaktycznej i Centrum Galaktyki, co powoduje silne międzygwiazdowe wymieranie światła z najbardziej odległych nowe. W rezultacie, chociaż w Galaktyce może wybuchać około 80 nowych gwiazd rocznie, wykrywane są średnio tylko około trzech rocznie. W Obłokach Magellana i Galaktyce Andromedy (M 31) nowe są łatwo odkrywane (maksymalnie przy jasnościach pozornych odpowiednio mv ∿ 10 i ∿?15), a za pomocą dużych teleskopów naziemnych i detektorów CCD nowe można badać nawet w gromadzie w Pannie galaktyk, przy najjaśniejszej jasności mv ∿ 23. Lista nowych, które osiągnęły pozorną jasność 3,0 lub jaśniejszą, podana jest w tabeli 1. W tabeli 1 zastosowano oznaczenia gwiazd zmiennych; na przykład Nova Herculis 1934 jest również znana jako DQ HERCULIS.
Krzywe blasku nowych
Najprostszym pomiarem do wykonania jest zmiana pozornej jasności wizualnej podczas erupcji nowej. Chociaż rzadko zdarza się odkryć nową na długo przed jej maksymalną jasnością, jej wzrost można czasami określić na podstawie przypadkowego pojawienia się nowej na fotograficznych płytach pomiarowych o szerokim polu widzenia. Istnieje szeroki zakres prędkości, z jakimi nowe przechodzą przez okres erupcji, ale wszystkie można w przybliżeniu opisać za pomocą schematycznych krzywych pokazanych na ryc. 1. Początkowy wzrost, zwykle o 6-13 magnitudo, następuje w ciągu jednego lub dwóch dni, często z tymczasowe zatrzymanie trwające od kilku godzin dla szybkich nowych do kilku dni dla wolnych nowych, przed mniej stromym końcowym wzrostem od około ∿ 2 mag do maksimum. Wczesny spadek jest gładki w przypadku wszystkich gwiazd nowych z wyjątkiem najwolniejszych, w których widoczne są nieregularne zmiany. Klasa prędkości nowej jest określona przez tempo, w jakim następuje wczesny spadek. Jest to mierzone jako czas
t2 lub t3 potrzebny do spadku odpowiednio o 2 lub 3 wielkości; Począwszy od około 3 mag poniżej maksymalnej jasności wizualnej, aż do spadku o około 2,5 mag, znanego jako obszar przejściowy, nowe wykazują różnorodne zachowania. Niektóre, szczególnie szybsze nowe, nadal płynnie zanikają. Inne przechodzą przez głębokie minimum, sięgające 7-10 mag, trwające od 2 do 3 miesięcy, po czym następuje płynny spadek. Inne wykazują quasi-okresowe zmiany jasności z amplitudą 1-1,5 mag i quasi-okresy zazwyczaj w zakresie 5-25 dni. Końcowy spadek do postnowej jest zwykle gładki, ale w kilku przypadkach wybuchy nowej karłowatej mogą rozpocząć się w późnym okresie schyłku (np. Nova Per 1901, która rozpoczęła wybuchy o mocy 2-3 mag w 1950 r. w odstępach ∿2 lat). Bezwzględne wielkości gwiazdowe nowych przy maksymalnej jasności Mv(max) można znaleźć, jeśli można określić odległości i ekstynkcję międzygwiazdową. Paralaksa ekspansji dla niektórych pojedynczych nowych, uzupełnionych maksymalnymi jasnościami nowych w Obłokach Magellana i M31, pokazują, że istnieje silna korelacja pomiędzy t2 i Mv(max) lub Mpg(max) (dla jasności fotograficznych w niebieskim obszarze), znana jako " zależność bezwzględna wielkość od tempa spadku". Można to wyrazić równaniem Mpg(max) = 3,35 log t2?12,2. Zastosowanie tej zależności daje cenną metodę wyznaczania odległości do układów pozagalaktycznych, w których występują nowe. Inna technika wykorzystuje fakt, że wszystkie nowe, prawie niezależne od klasy prędkości, osiągają Mv ∿ -5,5 15 dni po maksymalnym świetle. Obserwacje satelitarne ultrafioletowych jasności nowych pokazują, że szczyty rozkładów strumieni przesuwają się stale w stronę krótszych fal po maksymalnym świetle. Wczesny spadek jasności wizualnej jest prawie całkowicie spowodowany redystrybucją strumienia w kierunku fal ultrafioletowych. Krzywe blasku gwiazd nowych zachowują się zupełnie inaczej niż krzywe blasku światła widzialnego. Strumień podczerwieni rośnie powoli podczas początkowego spadku i znacznie wzrasta, jeśli w obszarze przejściowym występuje głębokie minimum. Rozkład strumienia składnika IR jest typowy dla emisji ziaren pyłu o temperaturach ∿1000 K i jest interpretowany jako absorpcja promieniowania o krótkich falach, gdy ziarna pyłu rosną w rozszerzającym się i schładzającym gazie wyrzucanym przez eksplozję nowej. W skrajnych przypadkach pył staje się optycznie gruby w świetle widzialnym, powodując głębokie minimum wizualne. Dodanie strumieni światła widzialnego, ultrafioletowego i podczerwonego pokazuje, że wizualna krzywa blasku nowej jest bardzo myląca: całkowita jasność nowej w rzeczywistości pozostaje prawie stała przynajmniej aż do głębokiego obszaru przejściowego. Te "plateau" jasności nowych we wczesnych fazach mieszczą się w zakresie (2-4) × 104 L⊙ . Są to mniej więcej jasności Eddingtona dla gwiazd o masie około jednej masy Słońca. Krótkotrwała szczytowa jasność może być jeszcze kilka razy wyższa, szczególnie w przypadku szybkich nowych. Obserwacje te pokazują, że ciśnienie promieniowania jest prawdopodobnie siłą motywującą wyrzucenie gazu podczas wybuchu nowej.
Widma nowych
Po ostatecznym wzroście do maksymalnego światła widmo nowej przypomina widmo nadolbrzyma; klasa widmowa jest wczesnego typu B, przechodząca do późniejszego typu i osiągająca maksymalnie około A5. Linie są bardzo szerokie i występuje krótkie przesunięcie Dopplera długości fal; zarówno przesunięcia, jak i szerokości wynoszą (1-2) × 103 km s-1, co wskazuje na szybko rozszerzającą się optycznie grubą powłokę. Często widać profile linii P Cygni, ponownie wskazujące na rozszerzającą się muszlę. Po maksymalnym oświetleniu zmiany w widmie są dość złożone i wskazują na kilka rozszerzających się obwiedni z różnymi prędkościami. Podczas początkowego spadku rozwija się zestaw linii absorpcyjnych przypominających nadolbrzyma typu A lub F, z przesunięciem ku błękitu większym niż widmo przedmaksymalne. Nazywa się to widmem głównym; jej przemieszczenie prędkości jest silnie skorelowane z klasą prędkości, z prędkościami dochodzącymi do 4000 km s-1 dla bardzo szybkich nowych i zaledwie
100 km s-1 dla najwolniejszych. Linie absorpcyjne często wykazują zróżnicowaną strukturę, co wskazuje na obecność wielu podpowłok lub bąbli gazu w rozszerzającej się powłoce. Wkrótce po maksymalnym świetle najsilniejsze linie rozwijają profile P Cyg i pojawia się duża liczba linii emisyjnych, głównie H, Ca II, Na I i Fe II w świetle widzialnym. Później widmo główne (identyfikowane przez przesunięcie prędkości) słabnie i pojawiają się zabronione linie [O I], [O II] i [N II] - są one charakterystyczne dla gazu o małych gęstościach. Inny wyraźny zestaw linii absorpcyjnych - widmo wzmocnione rozproszone - pojawia się wkrótce po tym, jak widmo główne stało się jasne, ale przesunięte w kierunku błękitu około dwukrotnie większe niż to drugie. Jeszcze inny układ - widmo Oriona - pojawia się o jedną do dwóch magnitudo w dół od maksimum i charakteryzuje się pojedynczymi składnikami, przesuniętymi w kierunku niebieskim przynajmniej w takim samym stopniu jak rozproszony system wzmocniony. Na późnym etapie
erupcji nowej rozwija się widmo mgławicowe, początkowo jedynie wzmacniając zabronione linie emisyjne widma głównego, ale ostatecznie pojawiając się [O III], [Ne III], nadając widmu nowej wygląd podobny do mgławicy planetarnej. W nowych najwyższych energiach obserwuje się sukcesywnie wyższe stopnie jonizacji, aż do jonów typowych dla warunków koronalnych: m.in. linie z [Fe X] i [Fe XIV]. Ewolucję widma nowej rozumie się ogólnie jako generowaną przez rozszerzającą się, niejednorodną powłokę, zjonizowaną przez intensywne źródło wysokoenergetycznego promieniowania (temperatura 105-106 K) w jej środku. Ta ostatnia musi być gwiazdą centralną, ogrzaną przez eksplozję. Widma nowych można wykorzystać do określenia warunków fizycznych i składu chemicznego rozszerzającej się powłoki. Nowe zazwyczaj wykazują obfitość C, N, O, Ne, Mg i niektórych cięższych pierwiastków, znacznie zwiększoną w porównaniu ze Słońcem i innymi normalnymi gwiazdami. Względne liczebności różnią się w zależności od nowych; typowe ulepszenia to współczynniki od 10 do 100. Stosunek helu do wodoru jest również często inny niż w Słońcu i jest wyższy aż o współczynnik 1,5 lub niższy aż o współczynnik 5. Większa obfitość węgiel prawdopodobnie pomaga w tworzeniu się zasłaniającego pyłu w niektórych powłokach nowych. Wiele nowych wykazuje znacznie zwiększoną liczebność neonów - wystarczającą do zdefiniowania klasy nowych neonowych. Większość nowych neonowych jest szybkich lub bardzo szybkich, ale przynajmniej jedna (Nova Ophiuichi 1988) była nową wolną.
Powłoki Nova
Dowody na wyrzucenie powłoki pochodzą nie tylko z wykrytej spektroskopowo ekspansji, ale także z bezpośredniego obrazowania. Kosmiczny Teleskop Hubble′a był w stanie rozróżnić powłokę Nova Cygni 1992 467 dni po erupcji, gdy promień kątowy powłoki wynosił zaledwie 0,13. Emisja radiowa z powłok nowych (w zakresie częstotliwości 2-100 GHz) umożliwia interferometrię o bardzo długiej linii bazowej (VLBI), również w celu obrazowania powłok z rozdzielczością kątową sięgającą 0,1. Ostatecznie, przynajmniej w przypadku stosunkowo pobliskich gwiazd nowych, powłoka może rozszerzyć się na tyle, że będzie można ją zobaczyć bezpośrednio na zdjęciach wykonanych z ziemi. Ryc. 2 przedstawia obecny wygląd Nova Persei 1901; niejednorodną strukturę potwierdzają takie obrazy. Wiele pocisków nowych (np. Nova Herculis 1934) ma bardziej regularne kontury, często eliptyczne, co pokazuje, że średnie prędkości wyrzutów zmieniają się systematycznie w zależności od kierunku. Jest to zgodne z niektórymi analizami spektroskopowymi,
które wykrywają pasma "równikowe" i pióropusze "polarne" wyrzucane z różną szybkością. Szybkość kątową rozszerzania mierzoną bezpośrednio za pomocą VLBI lub na podstawie obserwowanego promienia powłoki zmierzonego na zdjęciach wykonanych w znanym czasie (dziesiątki lat) po erupcji nowej można połączyć z spektroskopową prędkością rozszerzania, aby określić odległość nowej. Z prostej geometrii, paralaksy rozszerzania lub jej odwrotności, odległość d w parsekach jest dana wzorem d = 0,20v/(dθ/dt) pc, gdzie v to prędkość rozszerzania w km s-1, a dθ/dt to prędkość szybkość wzrostu promienia kątowego, mierzona w sekundach łukowych na rok. Z tej zależności widzimy, że nowa w odległości 1 kpc i prędkości ekspansji 1000 km s-1 powinna ukazać powłokę o promieniu ∿ 20 lat po erupcji. Jednakże wraz z ochłodzeniem gwiazdy centralnej, ekspansją od tego centralnego ekscytującego źródła i spadkiem jasności powierzchni w miarę zwiększania się obszaru powłoki, większości powłok nowych w
rzeczywistości nie można sfotografować na niebie. Analiza widm powłok nowych może dostarczyć szacunków gęstości elektronów i jonów w obszarach, w których powstają linie emisyjne. Jeśli znana jest całkowita objętość skorupy, może to dać całkowitą masę skorupy. Jednakże niejednorodność powłoki prowadzi do znacznej niepewności co do tego, jaka część pozornej objętości jest faktycznie wypełniona gorącym gazem. Masy otrzymane spektroskopowo mieszczą się w przedziale (1-30) × 10-5M⊙ . Prawdopodobnie bardziej wiarygodne określenie uzyskuje się na podstawie emisji radiowej w czasie, gdy powłoka stała się optycznie cienka na falach radiowych. Następnie cały materiał powłoki uczestniczy w emisji radiowej, która powstaje w wyniku emisji termicznej (wolnej) w zjonizowanej powłoce. Wyznaczone w ten sposób masy pocisków mieszczą się w przedziale (5-40) × 10-5M⊙ . Te wyrzucone masy są zgodne z wcześniejszym stwierdzeniem, że erupcje nowej mogą wystąpić wiele razy w życiu kataklizmicznej gwiazdy z
miennej: jeśli eksplodująca gwiazda ma masę ∿1M, może przejść setki lub tysiące erupcji, zanim znacząco uszczupli swoją masę. Zanim opuścimy powłoki nowe, należy wspomnieć o jeszcze jednym efekcie, który można bezpośrednio sfotografować. Przez osiem miesięcy po erupcji Nowej Persei 1901 obserwowano mgliste plamy, najwyraźniej oddalające się od nowej z szybkością około 20 minut łuku rocznie. W odległości tej nowej prędkość kątowa odpowiada prędkości liniowej porównywalnej z prędkością światła. Stwierdzono zatem, że rozbłysk światła spowodowany eksplozją nowej oświetlał międzygwiazdową warstwę pyłu w pobliżu nowej. Takie zjawisko znane jest jako echo świetlne, ale zaobserwowano je tylko w przypadku dwóch gwiazd nowych.
Fizyka erupcji nowych
Podobnie jak w przypadku wszystkich zmiennych kataklizmicznych, nowe są ZBLIŻONYMI GWIAZDAMI PODWÓJNYMI, w których masa jest przenoszona z gwiazdy o normalnych wymiarach (tj. gwiazdy ciągu głównego lub rzadziej olbrzyma), zwanej gwiazdą wtórną, na gwiazdę pierwotną WHITEDWARF. W chwili powstania biały karzeł nie miał w swoim wnętrzu wodoru, który w zależności od masy zawierał hel lub węgiel, tlen lub neon i magnez. To ciągła akumulacja gazu bogatego w wodór na powierzchni białego karła prowadzi do eksplozji, którą rozpoznajemy jako erupcję nowej. Oprócz zewnętrznej warstwy o grubości około 10-4M⊙, wnętrze białego karła jest zdegenerowane. Zasadnicza fizyka wybuchu nowej zawarta jest w porównaniu równania stanu materii zdegenerowanej, P αρ?, z tym dla gazu doskonałego, P αρ?T, gdzie P, &rh i T to odpowiednio ciśnienie, gęstość i temperatura gazu, a γ jest stałą. Załóżmy, że obszar gazu zostaje lekko podgrzany, następnie ciśnienie w gazie doskonałym wzrasta i gaz może
się rozszerzać, pochłaniając w ten sposób ciepło. Jednak ciśnienie w zdegenerowanym gazie jest niezależne od temperatury, więc nie zachodzą żadne zmiany mechaniczne. Jeśli jednak temperatura wystarczająco wzrośnie, zostanie osiągnięta temperatura Fermiego, powyżej której gaz przestaje ulegać degeneracji - staje się gazem doskonałym, a jego ciśnienie gwałtownie wzrasta, aby dopasować się do gęstości i temperatury wymaganej przez zmianę równania stanu. Nagromadzenie wodoru na powierzchni białego karła tworzy warstwę, której podstawa staje się gorętsza i gęstsza w miarę ściskania i wypychania głębiej w kierunku gorącego wnętrza. Rozpoczynają się reakcje jądrowe (najpierw łańcuch proton-proton, później cykl CNO), które podgrzewają gaz. Masa Menv warstwy wierzchniej, wystarczająca do wywołania reakcji jądrowych u jej podstawy, zależy dość wrażliwie od masy białego karła: maleje od -1 × 10-4M⊙ przy 0,6M⊙ do ∿8 × 10-7M⊙ przy 1,4M⊙
. Ta warstwa podstawna leży w obszarze częściowej degeneracji, więc ogrzewanie spowodowane reakcjami jądrowymi zwiększa temperaturę bez rozszerzania warstwy. Podwyższona temperatura zwiększa tempo wytwarzania energii i następuje ucieczka termojądrowa (jak w bombie wodorowej), aż do osiągnięcia temperatury Fermiego, a następnie cała zewnętrzna warstwa zostanie wyrzucona w przestrzeń kosmiczną. W Mwielu przypadkach niewielka część zewnętrznego obszaru zdegenerowanego rdzenia może zostać porwana podczas eksplozji, tworząc nadmiary C, O, Mg i Ne, które są widoczne w niektórych nowych. Inną przyczyną wyjątkowych obfitości C, N lub O jest to, że eksplozja jest tak szybka, że cykl CNO nie osiąga równowagi, która wytworzyła obfitość tych pierwiastków obecnych w normalnych gwiazdach. Jeśli prędkość przenoszenia masy z gwiazdy towarzyszącej na białego karła wynosi dM/dt, wówczas czas pomiędzy erupcjami będzie równy Menv podzielony przez dM/dt. Szacuje się, że średnie szybkości przenoszenia masy w zmiennych
kataklizmicznych wynoszą ∿5 × 10-9M⊙ rok-1, zatem wartości Menv podane powyżej implikują przedziały ∿2x1046 K; biały karzeł o wielkości 1,25 M⊙ ostygnie następnie do 50 000 K w ciągu około 300 lat. Pochodzenie quasi-okresowych oscylacji występujących w niektórych nowych podczas obszaru przejściowego nie jest pewne; mogą to być promieniowe pulsacje otoczki otaczającej centralną gwiazdę podwójną.
Nowe nawracające
Obecnie wiadomo, że tylko osiem nowych jest rekurencyjnych (kilka innych gwiazd uważano kiedyś za należące do tej klasy, ale okazały się albo nowymi karłowatymi o dużej amplitudzie i długim odstępie czasu, albo nowymi, które później miały wybuchy nowych karłowatych). Jedna z nich znajduje się w Wielkim Obłoku Magellana. Istnieją trzy podklasy nowych nawracających. Pierwsza, obejmująca T CrB, RS Oph, V3890 Sgr i V745 Sco, wszystkie mają gigantyczne cząstki wtórne typu widmowego M, a zatem okresy orbitalne dłuższe niż 100 dni (gigant M nie zmieściłby się w układzie podwójnym o krótszym okresie). Biorąc pod uwagę krótkotrwałość erupcji, możliwe jest, że niektóre z ich erupcji w tym stuleciu zostały przeoczone. Gwiazdy T CrB podlegają zależności Mv(max)-t2. Ich krótkie czasy powtarzania są częściowo spowodowane dużą szybkością, z jaką olbrzymi towarzysze przekazują masę swoim towarzyszom - białym karłom, szybko gromadząc w ten sposób masę krytyczną Menv, która prowadzi do eksplozji. Druga klasa nowych powracających to ta typowana przez U Sco i obejmująca V394 CrA i LMC-RN. Należą do najszybszych znanych nowych; podlegają one także zależności Mv(max)-t2. Ponownie, niektóre z ich erupcji mogły zostać przeoczone ze względu na ich krótkotrwałość. Opadające części ich krzywych blasku różnią się w zależności od erupcji. Wszystkie mają okresy orbitalne około 1 dnia. W ich widmach dominują linie helu w fazie ponowej. Ostatnia gwiazda, T Pyx, jest wyjątkowa. Wzrasta powoli do maksimum, początkowy wzrost zajmuje około 7 dni i kolejne 20 do 30 dni do maksimum, po czym następuje powolny spadek. Jego odległość jest bardzo niepewna, dlatego nie wiadomo, czy spełnia zależność Mv(max)-t2. Zdjęcia przedstawiają podwójną powłokę, być może wyrzut z erupcji z 1944 i 1966 roku. Podejrzewa się, że w stanie spoczynku T Pyx może stale spalać część wodoru w wyniku reakcji jądrowych zachodzących w jego powłoce.
Symbiotyczne gwiazdy
Wśród GWIAZD SYMBIOTYCZNYCH jest kilkanaście takich, które są klasyfikowane jako nowe symbiotyczne. Są one powiązane z nowymi powracającymi typu T CrB: prawdopodobnie wszystkie mają długie okresy orbitalne (znane trwają od 200 do 1000 dni), a niektóre miały więcej niż jedną erupcję. Jednakże wzrost do maksimum jest bardzo powolny, w przedziale od 2 miesięcy do 16 lat, a czas trwania erupcji jest bardzo długi - od lat do ponad stu lat. Obecnie uważa się, że erupcje nowych symbiotycznych są wynikiem ucieczek termojądrowych na głównych białych karłach o mniejszej masie niż w typie T CrB.
Novae przy minimalnym oświetleniu
Podczas długich przerw między erupcjami oraz po całkowitym odzyskaniu sił po ostatnich erupcjach, nowe spędzają przynajmniej część swojego czasu jako niewybuchające, stosunkowo niepozorne obiekty gwiezdne. Dobrym przykładem jest DQ Herculis, który nie zwrócił na siebie uwagi przed erupcją w 1934 r. i który pozostawał stosunkowo niezbadany w swoim stanie po wybuchu nowej przez 20 lat, zanim M.F. Walker odkrył, że jest to układ podwójny zaćmieniowy z okresem orbitalnym wynoszącym 4 godziny 39 minut Była to pierwsza kataklizmiczna gwiazda zmienna, którą uznano za krótkookresowy układ podwójny, chociaż UX UMa i AE Aqr były wcześniej znane jako spektroskopowe układy podwójne, ale dopiero retrospektywnie sklasyfikowano je jako zmienne podobne do nowych. Większość nowych ostatecznie powraca do stanu sprzed nowych ,jasność (jak stwierdzono na archiwalnych kliszach fotograficznych) i stają się nie do odróżnienia od zmiennych podobnych do nowej. W przypadku najjaśniejszych nowych jasność w stanie spoczynku jest dość
jasna. Oznacza to, że obecnie znane nowe podobne prawdopodobnie obejmują nowe, które wybuchły niezauważone w ubiegłych stuleciach - a także, że niektóre z nowych podobnych są "pre-nowymi" w tym sensie, że staną się nowymi w przyszłości. Jak wspomniano wcześniej, niektóre nowe przechodzą przez fazę nowych karłowatych podczas upadku po nowej. Kilka nowych (Nova Her 1960, Nova Sgr 1919 i powtarzająca się Nova Sgr 1962) wykazały wybuchy nowych karłowatych przed erupcją; pierwsze dwa z nich ponownie rozpoczęły wybuchy w fazach postnowych. Istnieją dowody na to, że przynajmniej niektóre nowe blakną do bardzo słabych jasności (co oznacza duże zmniejszenie przenoszenia masy z ich gwiazd wtórnych) setki lat po ich erupcji. Przykładem jest Nova Vul 1670 , ale bardziej znaczące jest to, że żadna z nowych zarejestrowanych gołym okiem w zapisach wschodnich (a które, jak się spodziewano, miałaby pozorną jasność po nowej w zakresie 10-14) nie została odkryta w nowoczesne ankiety dotyczące obiektów typu nova. Przyczyną
niskiego stanu może być to, że nagrzewanie gwiazdy wtórnej przez promieniowanie gorącego białego karła po wybuchu nowej powoduje nadmierny transfer masy, a gwiazda wtórna później dostosowuje się do nieco mniejszego promienia, ograniczając przenoszenie masy przez wiele stuleci, co utrzymuje długoterminowa średnia szybkość transferu określona przez ewolucję orbity. Z istnienia opisanej powyżej zależności Mv(max)-t2 i gdyby wszystkie pozostałości nowych miały co najmniej tę samą jasność absolutną Mv(min), można by oczekiwać, że zakres Mv = Mv(min)-Mv(max ) byłoby dobrze skorelowane z tempem spadku, t2. (Zauważ, że zakres wielkości pozornej mv = mv(min) - mv(max) = Mv i jest niezależny od ekstynkcji międzygwiazdowej, ponieważ ekstynkcja ma zastosowanie zarówno do mv(min), jak i mv(max).) Rzeczywiście tak jest, ale istnieje duży rozrzut zależności, który wynika z dominacji dysku
akrecyjnego przy minimalnym świetle. W momencie maksimum erupcji nowa miałaby mniej więcej taką samą jasność, niezależnie od kierunku, z którego jest obserwowana. Minimalna jasność zależy jednak bardzo silnie od nachylenia orbity podwójnej: jeśli system jest widziany przy niskim nachyleniu, tj. Dysk widziany jest prawie twarzą w twarz, jest stosunkowo jasny. Jednakże, widziany pod dużym nachyleniem, krążek jest skierowany krawędzią i dość słaby. Rezultatem jest niezwykle duża wartość mv jak na układy zaćmieniowe takie jak DQ Herculis. Średnia Mv(min) dla nowych w stanie spoczynku wynosi około +4, ale zakres wynosi 2 Mv(min) 9, co jest skorelowane z nachyleniem orbity. Rzadkie wyjątki od tego zakresu minimalnej wielkości mogą wystąpić, jeśli główny biały karzeł ma silne pole magnetyczne, zapobiegające tworzeniu się dysku akrecyjnego. Przykładem jest V1500 Cyg, która wybuchła od minimalnej wielkości słabszej niż 21 magnitudo.
Zmienne kataklizmiczne: układy magnetyczne
Zmienne kataklizmiczne (CV) to ZAMKNIĘTE GWIAZDY PODWÓJNE, których najbardziej masywnym składnikiem jest BIAŁY KARZEŁ (WD), a towarzyszem jest zwykle bardziej normalna gwiazda - zwykle gwiazda ciągu głównego, ale czasami olbrzym. Większość CV stale przenosi masę z towarzysza na WD poprzez DYSK AKRECJI otaczający WD, ale podobnie jak około 5% izolowanych WD ma wykrywalne polal magnetyczne, podobnie jak około 25% WD występujących w CV. Jeśli pole magnetyczne jest silne (większe niż około 10 MG = 10×106 G), zapobiega to tworzeniu się dysku akrecyjnego, w wyniku czego gaz opuszczający towarzysza jest kierowany magnetycznie bezpośrednio na powierzchnię WD. Sam WD obraca się wokół własnej osi z taką samą szybkością, jak obrót układu podwójnego - jest połączony z układem wtórnym poprzez interakcję ich pól magnetycznych. Prototypem tego rodzaju obiektu jest AM HERCULIS, co prowadzi do określenia tej klasy jako gwiazd AM Her, lub (ponieważ opadający gaz wypromieniowuje swoją energię w silnym polu
magnetycznym WD i promieniowanie to jest zatem emisją cyklotronową, która jest silnie spolaryzowane), jako polarne. Najsilniejsze pole, jakie dotychczas zmierzono na biegunie polarnym, wynosi 230 MG w AR UMa; Sama AM Her ma jedno z najniższych pól polarnych, 14 MG. Jeśli WD ma słabsze pole magnetyczne (poniżej kilku milionów gausów), jego interakcja z (wewnętrznym lub indukowanym) polem towarzysza jest niewystarczająca, aby wymusić współrotację, w wyniku czego WD ma inny, zwykle znacznie krótszy , okres rotacji niż okres binarny. Co więcej, pole może jedynie zapobiegać tworzeniu się dysku całkiem blisko WD, w wyniku czego dysk akrecyjny rzeczywiście się tworzy, ale brakuje jego środkowej części - gdzie gęstość energii w polu jest większa niż gęstość energii kinetycznego napływu gazu i dlatego może określić przepływ akrecji. Prototypem tego typu obiektu jest DQ HERCULIS. Grupa jako całość jest zwykle nazywana biegunami pośrednimi (IP) (będącymi pośrednimi między silnie magnetycznymi i niemagnetycznymi), przy
czym gwiazdy DQ Her najlepiej trzymać jako opis podzbioru najszybciej rotujących cząstek podstawowych WD (np. sama DQ Her z okres rotacji 71 s) - chociaż niektórzy autorzy używają gwiazd DQ Her jako ogólnego typu. Większość adresów IP ma prawybory zmieniające się z okresami kilkudziesięciu minut. Promieniowanie spolaryzowane, modulowane w okresie wirowania WD, wykryto tylko w trzech IP, prawdopodobnie tych o najsilniejszych polach. Ze względu na dużą ilość niespolaryzowanego promieniowania z (skróconego) dysku akrecyjnego, promieniowanie spolaryzowane w IP jest bardzo osłabione; co więcej, słabsze pola powodują, że emisja cyklotronu osiąga szczyt w podczerwieni, gdzie jest trudniejsza do wykrycia. Proces akrecji materii na WD przenosi również moment pędu. Wynik nie jest jednak jednoznaczny - na WD działa nie tylko moment materialny, powstały w wyniku bezpośredniego (ale nie promieniowego) oddziaływania gazu, ale istnieją również momenty wynikające z oddziaływania linii pola magnetycznego łączących WD z dysk
akrecyjny, którego część obraca się szybciej niż WD, a część wolniej. Momenty te mogą się równoważyć, w wyniku czego okres obrotu WD osiąga stan równowagi. Jednak ogólnie rzecz biorąc, stwierdza się, że w niektórych przypadkach szybkości rotacji rosną, a w innych maleją - zazwyczaj tylko kilka sekund na stulecie - w miarę poszukiwania równowagi. Natężenie pola magnetycznego w izolowanych WD sięga do aktualnej granicy wykrywalności - około 50 000 G, więc można się spodziewać, że to samo będzie dotyczyć WD w CV. Takie pola są zbyt słabe, aby wykryć je bezpośrednio w CV (tj. za pomocą EFEKTU ZEEMANA lub poprzez obecność polaryzacji), ale istnieją pośrednie dowody na obecność takich słabych pól w niektórych CV poprzez pojawienie się oscylacji nowych karłowatych (DNO) podczas wybuch niektórych nowych karłowatych (znanych również jako U GEM STARS) i sporadycznie w niektórych zmiennych podobnych do nowych (które raczej przypominają nowe karłowate utknięte na stałe w wybuchu). DNO to okresowe zmiany jasności z
okresami zwykle w zakresie 5-40 s i obecnie są interpretowane jako magnetyczne kanałowanie akrecyjnego gazu w samym wewnętrznym obszarze dysku akrecyjnego, tuż nad powierzchnią WD. Jedna różnica w stosunku do adresów IP polega na tym, że podczas gdy adresy IP mają bardzo stabilne modulacje jasności, okresy DNO zmieniają się szybko - czasami zmienia się 2-krotnie w ciągu jednego dnia. Wyjaśnieniem tego jest to, że wewnętrzne pola WD są zbyt małe, aby zapobiec ślizganiu się akreującego gazu wokół równika. Podczas gdy w biegunach i IP akreujący gaz jest sprzężony z całym korpusem WD, w DNO widzimy efekt wirowania pasa równikowego w odpowiedzi na narosły moment pędu, niosąc jego (prawdopodobnie samogenerujący się) wokół niego pole magnetyczne. Istnienie długowiecznych, szybko wirujących pasów równikowych po wybuchach nowych karłowatych zostało niedawno ustalone na podstawie widm uzyskanych za pomocą Kosmicznego Teleskopu Hubble′a. Nie wszystkie nowe karłowate lub zmienne podobne do nowych wykazują DNO, prawdopodobnie dlatego, że istnieją pewne CV, które mają pole magnetyczne zbyt małe, aby wpłynąć na jakiekolwiek kanałowanie magnetyczne w całym przepływie akrecyjnym - w takich przypadkach dysk akrecyjny sięgałby aż do powierzchni WD. Może się to zdarzyć również w tych nowych karłowatych, gdzie Obserwuje się, że DNO zanikają w pobliżu maksymalnego wybuchu; w takich momentach przepływ akrecyjny prawdopodobnie miażdży magnetosferę WD aż do powierzchni WD. We wszystkich klasach magnetycznego CV obserwuje się modulowaną emisję promieniowania rentgenowskiego i EUV - w okresie orbitalnym na biegunach, w okresie rotacji WD w IP i w okresie DNO w wybuchach nowych karłowatych. Takie energetyczne promieniowanie jest emitowane z obszaru silnie nagrzanego szokowo, gdy kanałowy przepływ akrecyjny uderza w powierzchnię WD, wytwarzając bardzo wysoką jasność promieniowania rentgenowskiego (w istocie wiele biegunów i IP odkryto po raz pierwszy podczas badań rentgenowskich niebo). Część promieniowania opuszczającego takie rozgrzane plamy na powierzchni WD może przechwycić powierzchnię ściętych dysków akrecyjnych w IP i słabo magnetycznych CV. W efekcie obracająca się wiązka omiata powierzchnię dysku - a także stronę gwiazdy towarzyszącej skierowaną w stronę WD. Promieniowanie to jest częściowo przetwarzane (degradowane) do obszaru optycznego widma, co umożliwia nam pośrednią detekcję obracającej się wiązki. Można wytworzyć dwie modulacje optyczne o różnych okresach - jedną poprzez ponowne przetwarzanie z dysku i jedną z ponownego przetwarzania na gwieździe towarzyszącej. Podczas kolejnych ominięć towarzysz poruszał się trochę po swojej orbicie, więc sygnał od towarzysza ma dłuższy okres (jest to jak różnica między OKRESEM SIDEREALNYM a OKRESEM SYNODYCZNYM dla planet) i czasami jest to jedyny wykrywalny okres optyczny. W obszarze rentgenowskim widzimy bezpośrednią wiązkę z WD. W rezultacie w niektórych IP okres (gwiazdowy) promieni rentgenowskich i okres (synodyczny) w świetle optycznym różnią się (ich różnica w częstotliwości jest dokładnie równa częstotliwości orbitalnej - tak powstał ten model dla IP w pierwsza instancja). W przypadku DQ Her i niektórych wybuchających nowych karłowatych i zmiennych podobnych do nowych, obserwacje zmian szybkich modulacji jasności podczas zaćmienia przez gwiazdę towarzyszącą pokazują zmiany fazowe, które ponownie wskazują na wiązke obrotową emitowaną z WD. Nagromadzenie materiału bogatego w wodór z towarzysza na powierzchnię WD prowadzi ostatecznie do eksplozji nowej (patrz NOVAE). Systemy magnetyczne nie są wyjątkiem: Nova Cygni 1975 (znana również jako V1500 Cyg), jedna z najszybszych i najjaśniejszych nowych XX wieku, została odkryta po tym, jak powróciła do stanu spoczynkowego i była prawie polarna. Jego okres orbitalny (wyznaczony spektroskopowo i fotometrycznie) wynosi 0,139 612 9 d, a okres rotacji WD (wyznaczony z okresu modulacji polaryzacji) wynosi 0,137 154 d. Niewielka różnica była spowodowana skutkami eksplozji nowej w 1975 roku, podczas której zewnętrzne warstwy wyrzucone z WD wymieniły z towarzyszem część masy i momentu pędu. Obserwuje się, że okres rotacji WD w V1500 Cyg zmienia się w takim tempie, że synchronizacja z okresem orbitalnym zostanie odzyskana po około 180 latach. Znane są trzy inne zdesynchronizowane bieguny, które musiały być niewykrytymi nowymi w ostatnich stuleciach. Wśród znanych nowych znajdują się dwa IP (Nova Persei 1901 i Nova Puppis 1963)
Niebiańskie współrzędne
Współrzędne nieba służą do określenia położenia obiektu niebieskiego w pewnym układzie odniesienia. W astronomii konieczne i wygodne jest przedstawienie położenia obiektu, takiego jak gwiazda czy planeta, w kilku różnych układach współrzędnych, w zależności od kontekstu, w którym pozycja ma zostać wykorzystana. Współrzędne obiektu odpowiadają szczególnemu sposobowi wyrażania położenia punktu względem układu współrzędnych, takiego jak zbiór osi prostokątnych. Ogólnie rzecz biorąc, każda pozycja jest reprezentowana przez zestaw trzech współrzędnych. W wielu przypadkach odległość obiektu nie jest znana, dlatego do przedstawienia kierunku do obiektu wystarczą dwie współrzędne, chociaż można zastosować trzy cosinusy kierunkowe. Wraz z dostępnością większej liczby szacunków odległości w astronomii, coraz powszechniejsze staje się stosowanie trzech współrzędnych przestrzennych. Do określenia pozycji ciał niebieskich wykorzystuje się wiele różnych układów współrzędnych. Każdy układ zależy od wyboru układu współrzędnych i sposobu podawania współrzędnych względem układu. Termin "niebiański układ współrzędnych" jest tutaj używany do określenia układu współrzędnych, który nie obraca się wraz z Ziemią (lub inną planetą), tak że na przykład współrzędne gwiazd zmieniają się powoli w czasie (patrz NIEBIESKIE UKŁADY WSPÓŁRZĘDNYCH). Ogólnie rzecz biorąc, obiekt porusza się względem układu współrzędnych, a układ współrzędnych porusza się i obraca w "przestrzeni". Konieczne jest zatem określenie czasu, do którego odnoszą się trzy współrzędne przestrzenne oraz czasu, dla którego definiowany jest układ współrzędnych. Te dwa czasy mogą być takie same, ale często są różne. Ponadto pozycje mogą być różnego rodzaju, w zależności od tego, czy uwzględniono aberrację, rotację dobową, załamanie i inne czynniki wpływające na kierunek obserwacji obiektu. Nazywa się je miejscami średnimi, prawdziwymi i pozornymi. EFEMERYDOM i katalogom przedstawiającym z dużą precyzją pozycje i właściwości obiektów astronomicznych w danym czasie musi zawsze towarzyszyć precyzyjne zestawienie, które określa wszystkie te różne czynniki, jeśli liczby mają być użyte właściwie i z pełną precyzją. Wektor r od początku do obiektu można przedstawić za pomocą współrzędnych prostokątnych (x, y, z); to jest, poprzez rzuty odległości r na trzy osie. Można go również przedstawić za pomocą współrzędnych sferycznych, których kierunek jest zwykle określany przez kąt podłużny (λ) w płaszczyźnie odniesienia x-y i kąt równoleżnikowy (β) od płaszczyzny odniesienia. Rzadziej stosuje się kąt biegunowy (90° - β) lub uzupełnienie kąta równoleżnikowego. Kąty podłużne i równoleżnikowe mają różne nazwy i symbole w różnych układach współrzędnych. Transformacje geometryczne położeń pomiędzy różnymi układami współrzędnych, z uwzględnieniem efektów fizycznych, można przeprowadzić stosując techniki trygonometrii sferycznej lub algebry wektorów i macierzy. Do wyjaśnienia można zastosować koncepcję sfery niebieskiej, przy czym łuki na kuli reprezentują kąty między kierunkami. Środek kuli może znajdować się w wielu różnych miejscach, ale w większości przypadków kula będzie używana do zilustrowania konkretnego układu odniesienia o określonym pochodzeniu. Należy pamiętać, że gdy obiekt przedstawiony na kuli zmienia odległości promieniowe od środka wraz z ruchem poprzecznym, zmiany te należy uwzględnić w matematyce obliczeń. Oznaczenia używane do wskazania głównych początków niebieskich układów współrzędnych są następujące
1) Topocentryczny: oglądany lub mierzony z miejsca obserwacji na powierzchni Ziemi.
(2) Geocentryczny: oglądany lub mierzony od środka Ziemi.
(3) Selenocentryczny: oglądany lub mierzony od środka Księżyca.
(4) Planetocentryczny: oglądany lub mierzony od środka planety (z odpowiednimi oznaczeniami dla poszczególnych planet).
(5) Heliocentryczny: oglądany lub mierzony od środka Słońca.
(6) Barycentryczny: oglądany lub mierzony od środka masy Układu Słonecznego.
Główne niebiańskie płaszczyzny odniesienia przechodzące przez odpowiednie początki są następujące.
(1) Horyzont: płaszczyzna prostopadła do lokalnego pionu (lub pozornego kierunku siły ciężkości) i przechodząca przez obserwatora.
(2) Południk lokalny: płaszczyzna zawierająca lokalny pion i kierunek osi obrotu Ziemi.
(3) Równik niebieski: płaszczyzna prostopadła do osi obrotu Ziemi i przechodząca przez środek Ziemi.
(4) Ekliptyka: średnia płaszczyzna (tj. pomijając okresowe perturbacje) orbity Ziemi wokół Słońca.
(5) Południk planety: płaszczyzna zawierająca oś obrotu planety i przechodząca przez element powierzchni.
(6) Równik planety: płaszczyzna prostopadła do osi obrotu planety i przechodząca przez jej środek.
(7) Płaszczyzna orbity: płaszczyzna orbity ciała wokół innego ciała (np. planety wokół Słońca lub środka ciężkości).
(8) Płaszczyzna niezmienna lub płaszczyzna Laplaciana: płaszczyzna prostopadła do osi momentu pędu układu i przechodząca przez jego środek.
(9) Równik galaktyczny: płaszczyzna przechodząca przez linię centralną lokalnej Galaktyki (Droga Mleczna).
Linia przecięcia średniej płaszczyzny równika niebieskiego i ekliptyki wyznacza kierunek równonocy (Υ). Wykorzystując rzut tego kierunku jako początek, rektascensja (α) jest mierzona w płaszczyźnie równika, a długość geograficzna niebieska (lub ekliptyka) (?) jest mierzona w płaszczyźnie ekliptyki. Rektascensję zwykle wyraża się w czasie od 0 do 24 godzin, a zarówno rektascensję, jak i długość geograficzną mierzy się w sensie dodatnim (lub prawoskrętnym). Dopełnienie rektascencji w odniesieniu do 24 godzin jest znane jako gwiazdowy kąt godzinny (SHA); w publikacjach nawigacyjnych jest ona zwykle wyrażana w stopniach. Deklinację mierzy się od płaszczyzny równikowej, dodatniej w kierunku północnym, od 0° do 90°. Szerokość geograficzną nieba mierzy się od płaszczyzny ekliptyki, dodatniej w kierunku północnym, od 0° do 90°. Równonoc występuje we wznoszącym się węźle ekliptyki na równiku; jest to kierunek, w którym Słońce w swojej rocznej pozornej drodze wokół Ziemi przecina równik z południa na północ. Nazywa się go także "pierwszym punktem Barana" i jest to równonoc wiosenna (wiosenna) na półkuli północnej. Nachylenie płaszczyzny ekliptyki do płaszczyzny równika znane jest jako NACHYLENIE EKLIPTYKI (ε). Równik i ekliptyka poruszają się z powodu działania sił zakłócających na obrót i ruch Ziemi. Stąd równonoc i nachylenie zmieniają się w funkcji czasu, więc te niebieskie układy współrzędnych muszą być dokładnie zdefiniowane w taki sposób, aby można je było powiązać ze standardowym układem, który można uznać za ustalony w przestrzeni. Linie przecięcia płaszczyzny południka z płaszczyznami horyzontu i równika wyznaczają kierunki, od których mierzony jest AZYMUT (A) i lokalny KĄT GODZINNY (h). Azymut mierzony jest w płaszczyźnie horyzontu od północy, zwiększając się w kierunku wschodnim o wartość dodatnią. Lokalny kąt godzinny mierzony jest w jednostkach czasu: 1 h na każde 15°, dodatnio na zachód w stosunku do lokalnego południka. Kąty równoleżnikowe względem horyzontu i równika są znane jako WYSOKOŚĆ (a) i DECLINACJA (σ). Wysokość mierzy się dodatnio w kierunku zenitu; w astronomii częściej stosuje się odległość zenitu, kąt od lokalnego pionu (z = 90°-a). Deklinacja (σ) jest mierzona od równika, dodatnia w kierunku północnego bieguna obrotu. ODLEGŁOŚĆ ZENITU bieguna północnego, która jest równa współdeklinacji lokalnego pionu (lub zenitu), jest równa współrzędności geograficznej punktu obserwacji. Istnieją dwa główne topocentryczne układy współrzędnych. Jeden opiera się na kierunku lokalnego pionu, który wyznacza płaszczyznę horyzontu; druga opiera się na kierunku osi obrotu Ziemi, która wyznacza płaszczyznę równika niebieskiego. Południk lokalny, który zawiera kierunek lokalnego pionu i kierunek osi obrotu, jest wspólny dla obu ram. Współrzędne kątowe w topocentrycznym układzie współrzędnych horyzontu i południka lokalnego nazywane są azymutem i wysokością. Azymut (A) mierzony jest od 0° do 360° od północy w kierunku wschodnim; to znaczy w sensie negatywnym w odniesieniu do kierunku zenitu. (W niektórych okolicznościach azymut można mierzyć od południa, dlatego należy określić zastosowaną konwencję, aby uniknąć dwuznaczności.) Wysokość (a) mierzy się dodatnio od horyzontu w kierunku zenitu. Zarówno wysokość, jak i azymut dowolnego ciała niebieskiego zmieniają się szybko wraz z obrotem Ziemi, dlatego do wielu celów wygodniej jest używać układu topocentrycznego równika niebieskiego i południka lokalnego. Kierunek północnego bieguna niebieskiego jest równoległy do osi obrotu Ziemi, a wysokość bieguna jest równa szerokości geograficznej punktu obserwacji. Wtopocentrycznym układzie równikowym współrzędne kątowe °nane są jako lokalny kąt godzinny (LHA lub h) i deklinacja (σ). LHA mierzy się od 0° do 360?, czyli od 0 do 24 godzin, od południa w kierunku zachodnim (tj. zwrot negatywny w odniesieniu do kierunku północnego bieguna niebieskiego), a LHA obiektu niebieskiego wzrasta o około 15°, czyli 1 godzinę, na każdą godzinę. Deklinację mierzy się od równika do bieguna niebieskiego, dodatnio w kierunku północy. Deklinacja ciała niebieskiego nie ulega zmianie w wyniku dobowego obrotu Ziemi.
Niebiańska mechanika
Mechanika nieba to nauka o obiektach we wszechświecie poruszających się pod wpływem różnych sił. Obecnie termin ten powszechnie przyjmuje się jako teorię ruchu obiektów w Układzie Słonecznym, chociaż nadal można go zastosować do dynamiki gwiazd wchodzących w skład wielu układów; dynamikę grawitacyjną gromad gwiazd i galaktyk zwykle traktuje się jako odrębne obszary badań, ponieważ wykorzystuje się w nich różne techniki. Mechanika nieba zajmuje się przede wszystkim dynamicznymi konsekwencjami siły grawitacji między obiektami, ale mogą działać dodatkowe siły. Obejmują one od interakcji pływowych planet i satelitów po wpływ promieniowania elektromagnetycznego na małe cząstki. Kiedyś uważana za nieco archaiczną dziedzinę astronomii, w ostatnich latach wzrosło zainteresowanie mechaniką nieba, gdy zdano sobie sprawę, że jej deterministyczne równania ruchu mogą prowadzić do chaotycznych rozwiązań. Doprowadziło to do licznych zastosowań w Układzie Słonecznym i lepszego zrozumienia długoterminowej ewolucji dynamicznej.
Teoria orbity
W XVII wieku KEPLER wyprowadził swoje trzy prawa ruchu planet empirycznie na podstawie obserwacji . Później, w tym samym stuleciu, NEWTON wykazał, że prawa Keplera są konsekwencją prostego prawa siły inverse kwadrat, zgodnie z którym wielkość siły przyciągania grawitacyjnego pomiędzy dwiema masami, m1 i m2, oddzielonymi odległością d, jest dana wzorem F = G⋅m1m2/ d2 gdzie G = 6,672 × 10-11 m3 kg-1 s-2 jest uniwersalną stałą grawitacyjną. Newton wykazał, że orbita jednej masy względem drugiej opisuje PRZEKRÓJ STOŻKOWY (tj. okrąg, elipsę, parabolę lub hiperbolę), w którym wartości wektorów położenia i prędkości (odpowiednio r i v) w określonej chwili określają typ podążanej ścieżki. Ponieważ moment pędu układu jest stały, względna orbita dwóch mas definiuje płaszczyznę - płaszczyznę orbity - i dlatego współrzędne biegunowe płaszczyzny w pełni opisują względny ruch. W przypadku orbit eliptycznych równanie
biegunowe określające odległość promieniową r w funkcji prawdziwej długości geograficznej θ wynosi r = a(1 - e2) /1 + e cos(θ - ω) gdzie a jest półoś wielką elipsa, a e to jej mimośród .Kąt ω określa orientację elipsy względem ustalonej linii odniesienia przy θ = 0. W przypadku grawitacyjnego oddziaływania dwóch mas wielkości a, e i są stałe, podczas gdy θ rośnie nieliniowo w czasie. Orbity eliptyczne są ograniczone oscylacją pomiędzy skończonymi granicami; w związku z tym mają one charakter okresowy. Równanie biegunowe elipsy nie umożliwia obliczenia położenia obiektu w danym momencie. Można to jednak zrobić za pomocą równania Keplera, które wiąże anomalię mimośrodową E z anomalią średnią M. Składowe wektora położenia względem układu
można zapisać jako r cos f = a(cos E - e) i r sin f = a(1 - e2)1/2 sin E.
Równanie Keplera można zapisać jako M = E ? e sin E gdzie E i M mierzy się w radianach. Anomalia średnia ma tę przydatną właściwość, że rośnie w czasie ze stałą szybkością określoną przez średni ruch, n = [G(m1 + m2)/a3]1/2 z czasem potrzebnym na wykonanie jednego orbity (jeden okres orbitalny) dane przez T = 2π[a3/[G(m1 + m2)]1/2. Znając moment, w którym masa m2 znajduje się na określonej długości geograficznej (zwykle przyjmuje się, że jest to czas przejścia przez perycentrum, τ ), można obliczyć położenie masy m2 w dowolnym późniejszym momencie w kontekście problemu dwóch ciał. Ponieważ jednak równanie Keplera jest przestępne w E, zwykle konieczne jest podjęcie rozwiązania numerycznego. W przypadku ruchu w trzech wymiarach konieczne jest zdefiniowanie dwóch dodatkowych kątów: nachylenia orbity I oraz długości geograficznej węzła wstępującego. Co więcej, argument perycentrum, ω, jest używany do określenia kąta między węzłem wstępującym a perycentrum, a długość perycentrum wynosi teraz ω= ω + Ω, gdzie &oemga; i Ω znajdują się w różnych płaszczyznach. Należy zauważyć, że chociaż ruch ten jest rozpatrywany w układzie współrzędnych nachylonym względem płaszczyzny orbity, podstawowe właściwości orbity Keplera pozostają niezmienione. Ruch dwóch ciał pod wpływem ich wzajemnego przyciągania grawitacyjnego Newtona (problem dwóch ciał) jest jednym z niewielu problemów całkowalnych w mechanice niebieskiej. Ma tę właściwość, że masa na orbicie powraca do tej samej wartości r po tym, jak f wykonał cykl azymutalny wynoszący dokładnie 2π. Dodanie jeszcze tylko jednego ciała niszczy tę symetrię. Problem staje się niecałkowalny w tym sensie, że nie jest możliwe żadne praktyczne rozwiązanie matematyczne, chociaż nadal można uzyskać pewne wyniki analityczne. Teoria Księżyca jest gałęzią mechaniki niebieskiej poświęconą badaniu ruchu Księżyca. Problem ten jest stosunkowo prosty, jeśli ogranicza się do przewidywania drogi Księżyca wokół kulistej Ziemi. Jednak rzeczywistość jest taka, że zaburzenia słoneczne są również znaczące i należy wziąć pod uwagę bardziej subtelne, długoterminowe skutki, takie jak modyfikacje kulistego kształtu Ziemi spowodowane pływami i rotacją. Układ Słoneczny ma hierarchiczną strukturę składającą się z kilku podsystemów, z których każdy składa się z masy centralnej z jedną lub większą liczbą mniejszych mas krążących na każdym poziomie. Na przykład planety krążą wokół Słońca, ale większość z nich ma również własnemałe naturalne satelity. Dlatego też, rozważając ruch satelity krążącego blisko planety, zazwyczaj można zignorować zakłócenia pochodzące od Słońca. Nie oznacza to, że orbita jest prostą, stałą elipsą; niesferyczność planety powoduje krótko- i długoterminowe zmiany w niektórych elementach orbity. Same orbity planet nie są stałe, ponieważ wszystkie planety zakłócają się nawzajem. Dlatego chociaż w dowolnym momencie planeta porusza się po eliptycznej ścieżce określonej przez jej chwilowe położenie i prędkość (nazywa się to jej orbitą oscylacyjną), kształt i orientacja tej elipsy nieustannie się zmieniają z powodu zaburzeń ze strony innych planet. Zmiany takie są niewielkie, ale zauważalne z biegiem czasu. Ogólnie rzecz biorąc, najmniejsze obiekty, takie jak cząstki PIERŚCIENIA PLANETARNEGO i METEOROIDY, poddawane są najszerszej gamie dodatkowych zaburzeń w postaci sił niegrawitacyjnych. Ich rozmiar oznacza, że wpływ padającego promieniowania elektromagnetycznego może wpływać na ich orbity. Na przykład efekt POYNTING-ROBERTSONEFECT jest spowodowany nieizotropową reemisją promieniowania i jest ważny dla cząstek, których wielkość jest porównywalna z długością fali promieniowania. Powoduje to tłumienie mimośrodu i nachylenia oraz zmniejszenie półosi wielkiej niezależnie od tego, czy cząstka znajduje się na orbicie heliocentrycznej, czy planetocentrycznej. Uważa się, że efekt ten jest odpowiedzialny za transport pyłu kolizyjnego na dużą skalę z pasa asteroid do wnętrza Układu Słonecznego. W latach następujących po pionierskiej pracy Newtona znaczny wysiłek poświęcono ilościowemu określeniu, a następnie przewidywaniu ruchów obiektów tworzących Układ Słoneczny. Jednym z wybitnych sukcesów mechaniki niebieskiej były niezależne wyjaśnienia Johna Coucha ADAMSA i LEVERRIERA dotyczące zaobserwowanych anomalii w ruchu planet zewnętrznych. Doprowadziło to bezpośrednio do odkrycia planety Neptun przez GALLE w 1847 r. Poprawa precyzji, z jaką można było zrozumieć orbity planet, doprowadziła do jeszcze bardziej doniosłego odkrycia w XX wieku. EINSTEIN wykazał, że niewielka rozbieżność wynosząca 0,43 roku-1 w ruchu długości peryhelium Merkurego wynika z faktu , że teoria grawitacji Newtona była błędna i że jego własna ogólna teoria względności może wyjaśnić te obserwacje. Mechanika nieba zyskała na znaczeniu jako nauka praktyczna wraz z nadejściem ery kosmicznej w latach sześćdziesiątych XX wieku. Zwiększona liczba sztucznych satelitów na orbicie okołoziemskiej umożliwiła bardzo szczegółowe badanie pola grawitacyjnego Ziemi poprzez monitorowanie orbit satelitów i ich zmian w czasie. Konieczność wysyłania statków kosmicznych na inne planety doprowadziła do wykorzystania mechaniki niebieskiej w projektowaniu skomplikowanych podróży orbitalnych. Technika wspomagania grawitacyjnego, w ramach której statek kosmiczny zmienia swoją energię orbitalną w wyniku bliskiego przelotu planety lub satelity, stała się podstawą zautomatyzowanej eksploracji zewnętrznego Układu Słonecznego. Chociaż obserwacje naziemne można wykorzystać do oszacowania mas planet i satelitów, dokładne monitorowanie trajektorii statków kosmicznych pod kątem małych odchyleń zaowocowało bezpośrednimi pomiarami pola grawitacyjnego wielu obiektów Układu Słonecznego.
Zaburzenia grawitacyjne
Historycznie rzecz biorąc, teoria zaburzeń w mechanice nieba została podzielona na tak zwane perturbacje ogólne i specjalne. Ogólna teoria zaburzeń polega na badaniu ewolucji zaburzonej orbity poprzez rozważenie analitycznego rozwiązania równań różniczkowych opisujących zmienność elementów orbity obiektu lub jego współrzędnych. W przeciwieństwie do specjalnych zaburzeń , teoria polega na analizie orbity za pomocą numerycznego lub półnumerycznego rozwiązania równań. Chociaż rozwiązanie analityczne pozwala uzyskać lepszy wgląd, jest to często niemożliwe w mechanice niebieskiej dla wszystkich układów z wyjątkiem najprostszych. Rozwiązanie numeryczne może zapewnić wgląd w problem, a dostępność szybkich komputerów cyfrowych pozwala na rozważenie dużej liczby warunków początkowych, co umożliwi osiągnięcie zrozumienia. Rozważmy masę centralną mc i dwie orbitujące masy m i m′ z wektorami położenia r i r′ względem mc. Ruch m można opisać rozwiązaniem równania wektorowego r = ∇?(U + R) gdzie
U = G⋅mc + m/r R = Gm′/ |r - r′| ? Gm r ⋅ r′/ r′ 3 .
Tutaj U reprezentuje potencjał, który powoduje ruch keplerowski dwóch ciał m i mc, a R reprezentuje zakłócający potencjał lub zakłócającą funkcję doświadczaną przez m ze względu na m′ . Istnieją podobne wyrażenia określające wpływ m na m′. Należy zauważyć, że tradycyjnie w mechanice niebieskiej potencjał przyjmuje się jako wielkość dodatnią. Chociaż wyrażenie R w kategoriach współrzędnych kartezjańskich jest stosunkowo trywialne, trudniej jest wyrazić je w kategoriach elementów orbitalnych m i m′. Obecnie można to łatwo osiągnąć za pomocą algebry komputerowej w celu przeprowadzenia niezbędnej manipulacji szeregami. Rozwinięcie R ma ogólną postać
gdzie j jest liczbą całkowitą, a ? jest kombinacją długości geograficznych (tj. kątów odniesionych do ustalonego kierunku), którą można zapisać jako
gdzie ji są liczbami całkowitymi, a λ = M + ω= n(t - τ) + ω to średnia długość geograficzna. Każdy argument cosinus φ spełnia relację d′Alemberta, według której
Inną ważną właściwością jest to, że wartość bezwzględna współczynnika ω′, ω, Ω&primel i Ω,i (tj. |j3|, |j4| , |j5| i |j6|) jest równe najniższej potędze e′ , e, s′ = sin 1/2I′ s = sin 1/2I, które występuje w towarzyszącym terminie. Wszystkie argumenty można sklasyfikować według wartości bezwzględnej sumy współczynników średnich długości geograficznych λ′ i λ w argumencie cosinus. Dlatego rozwinięcie obejmujące argumenty rzędu N-tego będzie uwzględniać potęgi mimośrodów i nachyleń N-tego rzędu. Funkcja zakłócania jest używana w połączeniu z równaniema LAGRANGE′a dające równania zmian elementów orbity. W najniższym rzędzie w e i I można je zapisać jako
gdzie R zawiera wymagane terminy w rozwinięciu funkcji zakłócającej dla zewnętrznego zakłócenia. Używanie równań Lagrange′a w niektórych zastosowaniach w mechanice nieba wiąże się z identyfikacją tych wyrazów w rozwinięciu R, które prawdopodobnie będą ważne dla konkretnego problemu będącego przedmiotem zainteresowania, przy założeniu, że wszystkie nieistotne, krótkookresowe wyrazy będą miały zero efekt uśredniony w czasie. Kluczowymi elementami orbitalnymi w tym procesie są półosie wielkie a i a′ . W problemie niezakłóconym średnie długości geograficzne λ′ i λ rosną liniowo odpowiednio z szybkościami n′ i n, podczas gdy wszystkie pozostałe kąty w ogólnym argumencie φ są stałe. W układzie zaburzonym λ′ iλ nadal szybko się zmieniają, ale pozostałe kąty zmieniają się powoli. Dlatego wszelkie argumenty, które nie dotyczą średnich długości geograficznych, powoli się zmieniają. Dają one początek terminom długoterminowym lub świeckim. Przy pewnych założeniach możliwe jest wyprowadzenie świeckiej teorii orbit planet. Powstałe sprzężone równania ruchu można rozwiązać analitycznie, uzyskując przybliżone elementy orbity (z wyjątkiem średnich długości geograficznych) w funkcji czasu. Rozważmy ogólny argument, φ = j1λ + j2λ gdzie a i a′ są takie, że j1n′ + j2n ≈ 0 i φ zmienia się w okresie dłuższym niż którykolwiek z dwóch okresów orbitalnych. Dzieje się tak, gdy istnieje prosta zależność liczbowa pomiędzy dwoma średnimi ruchami lub okresami orbitalnymi. Argumenty te powodują powstanie terminów rezonansowych w rozwinięciu (patrz REZONANCJA). Jeśli chodzi o półosie główne, równoważnym warunkiem jest a ≈ (|j1|/|j2|)2/3a′ . Układ Słoneczny zawiera więcej par obiektów znajdujących się w rezonansie, niż można by się spodziewać przypadkowo. Dzieje się tak prawdopodobnie na skutek momentów pływowych, powodujących rozszerzanie się orbit satelitów w różnym tempie w miarę upływu lat Układu Słonecznego. Człony rezonansowe są zlokalizowane na półosiach wielkich. Podczas gdy szczególna kombinacja kątów może zmieniać się powoli na jednej półosi ciała zaburzonego, ta sama kombinacja może zmieniać się szybko na innej. Natomiast terminy świeckie można uznać za globalne. Uważa się, że każdy argument, który nie jest ani świecki, ani rezonujący, stanowi podstawę do krótkotrwałego stosowania. Naturalne satelity, takie jak Księżyc, podnoszą pływy na swoich planetach macierzystych; sama planeta może również być zniekształcona obrotowo. W każdym przypadku możliwe jest wyprowadzenie równoważnej funkcji zakłócającej reprezentującej potencjał doświadczany przez orbitującą masę i zastosowanie równań Lagrange′a. Można na przykład wykazać, że eliptyczna orbita półosi wielkiej a wokół spłaszczonej planety o promieniu Rp przebiegałaby z szybkością ˙ ω ≈ 3/2⋅nJ2(Rp/a)2, gdzie n jest ruchem średnim, a J2 jest współczynnikiem drugiej harmonicznej strefy planety. Jednym z głównych postępów teoretycznych w mechanice nieba w ostatnich latach było wyprowadzenie mapowań algebraicznych umożliwiających numeryczne śledzenie zaburzonych orbit przez dłuższe okresy. Te mapowania (lub mapy) można podzielić na trzy szerokie typy:
• mapy rezonansowe, z których wyprowadzana jest funkcja zakłócająca w konkretnym miejscu rezonansowym - część świecka jest całkowalna, a część rezonansowa może być zastąpiona ciągiem funkcji σ Diraca zastosowanych w postaci impulsów;
• mapy spotkań, gdzie orbitę uważa się za prosty ruch keplerowski, aż do momentu koniunkcji lub bliskiego zbliżenia się do ciała zakłócającego - zaburzenie jest stosowane jako impuls.
• Mapy N-ciał, w których kartezjańskie równania ruchu są przeformułowane w specjalnym układzie współrzędnych, który izoluje część keplerowską składającą się z dwóch ciał od części interakcji - wykorzystuje się funkcje σ Diraca do traktowania części interakcji jako impulsów.
Obecnie powszechne stało się wykorzystywanie map N-ciał do przeprowadzania numerycznych badań długoterminowej stabilności Układu Słonecznego.
Chaotyczny ruch
Fakt, że ruch w Układzie Słonecznym wynika z prostego prawa matematycznego, doprowadził do przekonania, że odkrycie praw rządzących wszechświatem jest równoznaczne z możliwością przewidzenia jego stanu przeszłego i przyszłego. Przykładem tej opinii był pogląd LAPLACE′a na wszechświat jako na system całkowicie deterministyczny. Jednakże pod koniec XIX wieku badania POINCA′E nad problemem trzech ciał dostarczyły pierwszej wskazówki, że systemy deterministyczne mogą dopuszczać nieprzewidywalne rozwiązania. W Układzie Słonecznym przywoływano chaos, aby wyjaśnić tak różnorodne zjawiska, jak LUKI KIRKWOODA w pasie asteroid i niezwykły obrót satelity Saturna HYPERION. Obecnie uznaje się, że chaos odegrał ważną rolę w kształtowaniu dynamicznej struktury Układu Słonecznego. Jednym z kluczowych problemów mechaniki niebieskiej jest stabilność Układu Słonecznego. Współczesne symulacje numeryczne pokazują, że orbity planet, zwłaszcza planet wewnętrznych, są technicznie chaotyczne w tym sensie, że błąd tak mały jak 0,01 minuty dzisiejszej pozycji planety rozprzestrzenia się wykładniczo i niemożliwe staje się przewidzenie jej położenia za około 107-108 lat . Niemniej jednak orbity pozostają zbliżone do swoich obecnych konfiguracji w skalach czasowych porównywalnych z wiekiem Układu Słonecznego. Jedynym yjątkiem jest Merkury, gdzie niektóre badania wykazały prawdziwą niestabilność orbity (e →? 1) w ciągu ∿1010 lat. Dokładny mechanizm powodujący takie chaotyczne zachowanie jest nadal nieznany, chociaż uważa się, że odpowiedzialne są za to świeckie interakcje między planetami. Wraz z odkryciem innych układów planetarnych stało się jasne, że naszą wiedzę na temat tych procesów można sprawdzić w celu odkrycia, które rozkłady mas i orbit planet prowadzą do konfiguracji stabilnych przez cały czas życia gwiazdy.
Mechanika niebiańska w XVIII i XIX wieku
MECHANIKA NIEBIESKA (tak nazwana przez Laplace′a w 1798 r.) przed XX wiekiem polegała na zastosowaniu do Układu Słonecznego prawa powszechnego ciążenia Izaaka Newtona. Zgodnie z tym prawem pojedyncze ciało krążące wokół większego ciała porusza się po przekroju stożkowym; obecność trzeciego ciała zakłóca ruch. Mechanika nieba zajmuje się powstałymi w ten sposób zakłóceniami. Podejście Newtona do tego problemu miało zasadniczo charakter jakościowy. W przybliżonym sformułowaniu pokazał, że wszystkie znane nierówności Księżyca wynikają jakościowo z prawa grawitacji. W swojej Teorii ruchu Księżyca (1702) oraz w drugim wydaniu Principia (Scholium do Twierdzenia III.25) określił ilościowo swoją teorię, dopasowując ją do obserwacji i dodając kilka terminów ilościowych bez wyjaśniania ich pochodzenia. PROBLEM TRZECH CIAŁ został ponownie sformułowany w latach czterdziestych XVIII wieku jako zbiór równań różniczkowych. To sformułowanie mogłoby być rygorystyczne i zawierać w sposób dorozumiany wszystkie
nierówności wynikające z powszechnej grawitacji. (Okazało się, że do rozwiązania można dojść jedynie poprzez kolejne przybliżenia.) To, że takiego sformułowania nie udało się uzyskać wcześniej, wynika z braku wśród matematyków w tradycji Leibniza opracowanego rachunku funkcji trygonometrycznych. To LEONARD EULER (1707-83) w 1739 r. jako pierwszy podał systematyczne reguły algorytmiczne różniczkowania i całkowania funkcji trygonometrycznych. Do 1744 roku Euler wyprowadził nierówności Księżyca, rozwiązując równania różniczkowe, ale opublikowano tylko jego wyniki. W 1746 roku Akademia Nauk w Paryżu ogłosiła, że głównym zadaniem na rok 1748 będzie sformułowanie "teorii Jowisza i Saturna wyjaśniającej nierówności, jakie te planety wydają się powodować we wzajemnych ruchach". Nagrodzony esej był autorstwa Eulera; opublikowana w 1749 r. dostarczyła pierwszego powszechnie dostępnego opisu analitycznego rozwiązania problemu trzech ciał. Tymczasem od 1746 r. dwóch członków komisji ds. nagród Akademii Paryskiej,
ALEXIS-CLAUDE CLAIRAUT (1713-65) i JEAN LE ROND D′ALEMBERT (1717-83), osobno przystąpiło do rozwiązania problemu i wyprowadzenia w ten sposób nierówności Księżyc. Teoria księżyca Clairauta została opublikowana w 1752 r., d′Alemberta w 1754 r.
Euler i Clairaut o równaniach ruchu
Euler zapisał równania we współrzędnych biegunowych ruchu Saturna, przy czym płaszczyzną orbity Jowisza była płaszczyzna r, φ
Tutaj P, Q i R są siłami przyspieszającymi mającymi tendencję do zmniejszania r, φ i z; współczynnik 1/2 wynika z wyboru przez Eulera jednostki przyspieszenia. Clairaut napisał równania podobne dla r i Φ, zakładając początkowo, że ruch ciała zaburzonego jest ograniczony do płaszczyzny
Tutaj M jest sumą mas ciała centralnego i zaburzonego, P jest dodatkowym przyspieszeniem promieniowym wynikającym z zaburzeń, a Q jest przyspieszeniem poprzecznym. Aby rozwiązać równania, Euler zastąpił dt2/2 przez a′3(dM′)2, gdzie a&perime; jest średnią odległością Jowisza od Słońca, a M jego średnim ruchem i zastąpiło P i Q siłami przyspieszenia występującymi, gdy ruch Saturna odniesiono do nieruchomego Słońca. Następnie przyjął kolejno trzy różne przybliżone założenia, w których orbitę Jowisza i niezakłóconą orbitę Saturna przyjmowano albo jako okręgi, albo jedno jako okrąg, a drugie jako elipsę. W ramach każdej hipotezy dokonał transformacji w równania różniczkowe dla małych odchyleń r i Φ od ich wartości niezaburzonych. (Tutaj konieczne były szeregi trygonometryczne; patrz następny rozdział.) Równania rozwiązano metodą współczynników nieokreślonych. Clairaut otrzymał wyrażenie dt w kategoriach r i Φ poprzez dwukrotne całkowanie i w ten sposób wyeliminowanie. Całkowanie podwójne przekształconego równania dało mu wówczas
gdzie f , g, c są stałymi całkowania i
ρ będzie
Aby obliczyć całki , konieczne było zastąpienie r w przybliżoną funkcją Φ Clairaut użył
k/r = 1- e cos m Φ
równanie elipsy precesyjnej, w której k, e, m są nieokreślonymi stałymi.
Wprowadzenie szeregów trygonometrycznych
Księżycowa i planetarna wersja problemu trzech ciał różnią się, ponieważ v, odległość pomiędzy ciałami zakłócającymi i zaburzonymi, w przypadku księżycowym podlega jedynie niewielkim zmianom, które można wyrazić kilkoma wyrazami szeregu Taylora, podczas gdy w przypadku planetarnym jest bardzo zróżnicowane. W równaniach różniczkowych v występuje jako v-3, które waha się jeszcze bardziej gwałtownie. Potrzebne jest wyrażenie dla v-3 umożliwiające formalną integrację. Euler rozwiązał ten problem, wymyślając szeregi trygonometryczne. W pierwszym przybliżeniu pokazał v-3 = (a2 + a′2)-3/2(A + B cos θ + C cos 2θ + D cos 3θ + …ˇ ˇ ˇ) gdzie a, a&pime; są średnimi odległościami Słońca od Saturna i Jowisza, a θ jest kątem heliocentrycznym pomiędzy dwoma wektorami promieni; współczynniki C, D, E itd. są funkcjami A i B, podczas gdy A i B można obliczyć poprzez całkowanie numeryczne. Ulepszone przybliżenie wymagało uwzględnienia mimośrodów orbit i obliczenia współczynników w szeregu dla v-5, v-7 itd. Euler przeprowadził przybliżenie rzędu pierwszej potęgi mimośrodów. W 1767 roku JOSEPH LOUIS LAGRANGE (1736-1813) wprowadził nową, wydajną metodę wyznaczania współczynników szeregu na podstawie twierdzenia DeMoivre′a. Późniejsi teoretycy przenieśli przybliżenia do wyższych potęg mimośrodów. Metoda zmienności elementów orbity Eulera w traktowaniu ruchu planety zaburzonej w kierunku z zastąpiona dwoma równaniami pierwszego rzędu, jednym dla nachylenia orbity, a drugim dla długości geograficznej węzła wstępującego. W ruchu niezakłóconym wielkości te są stałe; zakłócenia czynią je zmiennymi. Przybliżone wyrażenia Eulera na ich zmiany pod wpływem zakłóceń wykazały, że nachylenie podlega jedynie niewielkim oscylacjom, podczas gdy węzeł cofał się w płaszczyźnie orbity zakłócającej planety. Było to pierwsze analityczne określenie zmienności ELEMENTU ORBITALNEGO. Euler wyprowadził zmiany innych parametrów orbitalnych w późniejszych wspomnieniach, ale to Lagrange opracował głównie tę metodę. W eseju z 1766 roku Lagrange wykazał, że zwykły sposób obliczania zaburzeń poprzez kolejne przybliżenia nieuchronnie daje wyrazy proporcjonalne do czasu, a także wyrazy n-tego rzędu w przybliżeniu (n+1)-tego rzędu. Metoda zmiany parametrów orbity pozwala uniknąć tej trudności. W swoich dalszych pracach nad perturbacjami planetarnymi Lagrange stosował wyłącznie tę metodę.
Ruch absydy Księżyca
Newton nie opublikował żadnego wyprowadzenia ruchu apsydalnego Księżyca. W pierwszym wydaniu Principiów przytoczył wyniki próby wyprowadzenia; jak wiemy, jego metoda była błędna. W późniejszych wydaniach usunął wszelkie odniesienia do niego. Pierwsze wyprowadzenia analityczne Eulera, Clairauta i d′Alembert w latach czterdziestych XVIII wieku przyniosły tylko około połowy obserwowanego ruchu apsydalnego. Clairaut w listopadzie 1747 zaproponował uzupełnienie prawa odwrotności kwadratów o człon odwrotnej czwartej potęgi, skąd można było uzyskać pozostały ruch apsydalny. Następnie w maju 1749 roku wycofał tę propozycję. Odkrył, że jeśli przejdzie do przybliżenia drugiego rzędu w odniesieniu do sił zakłócających (to znaczy zastępując wyrazy znalezione w pierwszym przybliżeniu nieokreślonymi współczynnikami z powrotem do równań różniczkowych i ponownie rozwiązując), otrzyma prawie cały obserwowany ruch apsydalny. Bez wątpienia spodziewał się, że przybliżenie drugiego rzędu przyniesie jedynie niewielką
modyfikację wyniku pierwszego rzędu i był zaskoczony, że dwa małe składniki proporcjonalne do poprzecznej siły zakłócającej mogą dać tak dużą różnicę. Euler swoją zupełnie inną drogą potwierdził wynik Clairauta. "Dopiero od tego odkrycia" - pisał do Clairauta - "można uważać prawo przyciągania odwrotnych kwadratów za solidnie ugruntowane"….
Odmiany świeckie, rzeczywiste i domniemane, do roku 1785
Odmiany świeckie są zwykle rozumiane jako zmiany monotoniczne, które kończą się jednokierunkową zmianą elementu orbity. EDMOND HALLEY w latach dziewięćdziesiątych XVII wieku wykrył ciągłe przyspieszenie średniego ruchu Księżyca już od czasów starożytnych; później śledczy to potwierdzili. Halley przypisał także świeckie przyspieszenie Jowiszowi i świeckie spowolnienie Saturnowi, aby uwzględnić starożytne i współczesne obserwacje (Tabulae astronomicae, 1749). Takie świeckie zmiany, kontynuowane w nieskończoność, doprowadziłoby do rozpadu układów Ziemia-Księżyc i planetarnych. Pierwsze ważne wspomnienia PIERRE-SIMONA LAPLACEA (1749-1827), ukończone w 1773 r., wykazały, że średnie ruchy planet, zgodnie z porządkiem kwadratów mimośrodów, są odporne na świeckie zmiany spowodowane perturbacjami planetarnymi. W podanym porządku współczynnik członu proporcjonalny do t2 w wyrażeniu długości geograficznej wynosił identycznie zero. Pozorne świeckie zmiany w średnim tempie ruchu Jowisza i Saturna, przypuszczał Laplace, mogą wynikać z zaburzeń kometarnych. We wspomnieniach przesłanych do Akademii Paryskiej w październiku 1774 r. Lagrange wyprowadził równania różniczkowe dla zaburzeń w nachyleniu orbit i węzłach planet, które zależą od orientacji i rozmiarów orbit, ale nie od tego, gdzie na nich znajdują się planety. Aby to zrobić, zastąpił tangens nachylenia orbity (θ) i długości geograficznej węzła wstępującego (ω) nowymi zmiennymi, u = θ sin ω, s = θ cos ω. Powstałe równania różniczkowe były liniowe i pierwszego rzędu i miały rozwiązanie w postaci
Tutaj stałe a, b, c, . . . są pierwiastkami równania n-tego stopnia, a pozostałe stałe można wyznaczyć z empirycznych wartości s1, u1, s2 itd. w danej epoce. Lagrange nie rozwiązał całego układu dla wszystkich sześciu znanych planet - co było ogromnym zadaniem - ale traktując dwie duże, Jowisza i Saturna, jako odrębny system, otrzymaliśmy cztery prostsze równania. Ich rozwiązanie wykazało, że węzły i nachylenie orbit tych planet oscylowały w ustalonych granicach z okresem 51 150 lat. Lagrange nazwał te zmiany świeckimi: były one oczywiście okresowe, ale ich okresy były o rząd wielkości dłuższe niż okresy zwykłych zmian okresowych, które zależą od położenia planet na ich orbitach. Laplace przeczytał wspomnienia Lagrange′a z października 1774 r., kiedy dotarły one do Paryża, i od razu zauważył (podobnie jak Lagrange), że podobna procedura będzie miała zastosowanie do dziwactw i afelii. Zatem wprowadzając nowe zmienne h = e sin L, k = e cos L, gdzie e jest mimośrodem, a L długością aphelium, wyprowadził liniowe równania różniczkowe pierwszego rzędu dla dh/dt i dk/dt. . Analiza ta została opublikowana w 1775 roku. Laplace porzucił teraz na dekadę problem zaburzeń planetarnych. Masy Merkurego, Wenus i Marsa były nieznane i nie był pewien, jaki jest zakres wpływu komet na planety. Lagrange ruszył do przodu. W 1776 przedstawił nowy dowód odporności ruchów średnich na zmiany świeckie; zawierał klasyczne sformułowanie zmienności elementów orbity i wprowadził "funkcję zaburzającą", czyli funkcję potencjalną, z której poprzez częściowe różniczkowanie można wyprowadzić siły perturbacyjne w różnych kierunkach. W 1777 roku użył funkcji zaburzającej przy pierwszym systematycznym wyprowadzeniu wszystkich znanych całek ruchu dla n ciał przyciągających się zgodnie z prawem odwrotności kwadratów. W latach 1781 i 1782 ukończył dwie części dużego traktatu wyprowadzającego świeckie nierówności wszystkich planet metodą zmienności parametrów orbit. W 1783 r. zastosował tę samą metodę do wyprowadzenia nierówności okresowych zerowego rzędu (nierówności niezależne od mimośrodów i nachylenia). W tym momencie Lagrange zdał sobie sprawę, że jego wcześniejszy dowód odporności ruchów średnich na zmiany świeckie wymaga kwalifikacji: ruchy średnie mogą wydawać się zmieniać świeckie z powodu świeckiej zmienności innych elementów orbity. Niech część pozornej zmiany średniego ruchu, która jest skorelowana ze zmianą średniej odległości Słońca, a zatem jest odporna na zmiany świeckie, będzie wynosić dp; ta część jest okresowa i zależy od położenia planet. Druga część dΣ zależy od zmian w innych elementach orbity i jest "świecka" (niezależna od pozycji planet), gdy występują inne zmiany. Odmianę d), zaproponowaną przez Lagrange′a, należy uważać za odmianę szóstego elementu orbity, czyli epoki. dΣ okazało się, że zawiera terminy świeckie dopiero wtedy, gdy przeprowadzono przybliżenie do drugiej i wyższej potęgi mimośrodów i nachyleń. Aby złagodzić pracochłonność takich obliczeń, Lagrange zaproponował uwzględnienie tylko tych terminów, które zostałyby znacznie zwiększone przez integrację. Były to terminy zawierające cosinus lub sinus kąta π takiego, że dπ = λ dp, gdzie λ jest bardzo małe; gdyż w przypadku podwójnej integracji taki człon jest mnożony przez duży współczynnikλ-2. Ale π jest liniową kombinacją średnich ruchów kilku planet, a szczegółowe badanie tych liniowych kombinacji pokaże, które z nich prowadzą do małego &;lambda;. Lagrange nie znalazł żadnej świeckiej zmiany w dΣ, która wyjaśniałaby świeckie przyspieszenia Halleya. Laplace wkrótce zastosował propozycję obliczeniową Lagrange′a nie do dΣ, ale do dp.
Rozwiązanie Laplace′a w sprawie głównych anomalii, 1785-177
23 listopada 1785 Laplace ogłosił rozwiązanie anomalii w średnich ruchach Jowisza i Saturna. J.H. Lambert odkrył, że od połowy XVII wieku tempo przyspieszania Jowisza i tempo zwalniania Saturna maleje: nierówność może mieć charakter okresowy. Wychodząc od zasady zachowania sił żywych, Laplace odkrył teraz, że świeckie zmiany, które Halley zaproponował dla tych planet, mają taki stosunek, jaki sugerowałaby ich interakcja grawitacyjna. Jak powszechnie wiadomo, dwa okresy Saturna były prawie równe pięciu okresom Jowisza; zatem średnie ruchy nJ i nS dały kombinację liniową 2nJ - 5nS, która była bardzo mała. Wynika z tego, że okresowa nierówność proporcjonalna do sin[(2nJ ? 5nS)t ] może być spora. Z drugiej strony jego współczynnik (który składałby się z kilku członów) miałby trzeci wymiar w siłach i iloczynach mimośrodów i pochyleń, a zatem mógłby być zaniedbywalny. Tylko pełne obliczenia mogłyby rozstrzygnąć pytanie. To, co odkrył Laplace, było największym zaburzeniem w Układzie Słonecznym, ze współczynnikiem dla Saturna wynoszącym -49 i dla Jowisza wynoszącym 20'; okres ten wynosił około 900 lat. Jego nowe, rozszerzone teorie dotyczące obu planet były zgodne zarówno ze starożytnymi, jak i współczesnymi obserwacjami. Wspomnienia Laplace'a z listopada 1785 roku zawierały wyjaśnienie rezonansu, który Lagrange odkrył w ruchach pierwszych trzech galileuszowych satelitów Jowisza, a także próbę udowodnienia, że mimośrody orbit a nachylenie planet musi pozostać małe. Ten ostatni dowód, jak później zauważył Le Verrier, milcząco zakładał, że wszystkie masy planet były tego samego rzędu wielkości; było zatem niejednoznaczne. W grudniu 1787 Laplace miał wyjaśnienie pozornego świeckiego przyspieszenia Księżyca. Średni składnik promieniowy zakłócającej siły Słońca jest ujemny i odejmuje się od przyciągania Ziemi. Ekscentryczność orbity Ziemi, z powodu świeckich, ale cyklicznych zmian, obecnie maleje, powodując nieznaczny spadek średniej siły zakłócającej Słońca. Stąd Księżyc wpada na niższą orbitę i zwiększa swoją prędkość kątową. Wartość Laplace'a dla przyrostu, około 10 cali na stulecie, była zgodna z przyjętą wartością empiryczną. (Ta analiza była nieodpowiednia; patrz poniżej).
Méecanique Céeleste Laplace'a
Pierwsze cztery tomy Mécanique Céleste Laplace′a, które ukazały się w latach 1798-1805, zawierały nie tylko rozszerzony wykład teorii zaburzeń, ale także jej szczegółowe zastosowanie do planet i Księżyca. Przez dziesięciolecia tomy te służyły jako podręcznik par Excellence dla astronomów matematycznych. Dokładne wyjaśnienie wszystkich wykrywalnych nierówności w Układzie Słonecznym stało się w zasięgu ręki. Masy Merkurego, Wenus i Marsa można określić na podstawie zaburzeń. Najwyraźniej komety nie zakłócały planet w zauważalny sposób. Laplace osiągał swoje sukcesy, stosując mieszankę metod, wybierając jedną lub drugą, ponieważ zapewniała ona szybsze podejście do określonego celu. Jego procedura dotycząca nierówności planetarnych proporcjonalnych do zerowej i pierwszej potęgi mimośrodów i mas gwarantowała pełny przebieg. Aby otrzymać nierówności okresowe wyższego rzędu, postępował według swego rodzaju ostrego strzelania, co pozostawiało niepewność, czy wszystkie wyrazy danego rzędu małości zostało rozliczone. Do ruchów średnich dodał bardzo długoterminowe nierówności okresowe i wykorzystał w ten sposób zmodyfikowane ruchy średnie do wyznaczania nierówności krótkoterminowych. Świeckie różnice zostały określone przez jeszcze inną procedurę. Ta różnorodność metod zrodziła pytanie: czy nie można przyjąć jednej, wyraźnie spójnej procedury w celu ustalenia wszystkich nierówności? Tymczasem robotnicy tradycji laplacowskiej mieli dość jasne zadanie. Rozwój funkcji zaburzającej musi zostać przeniesiony na wyższe rzędy przybliżenia, a dedukcja nierówności wyższego rzędu powinna stać się bardziej systematyczna. Baron de Damoiseau i Giovanni Plana realizowali te imperatywy w swoich teoriach księżycowych. Teorie planetarne sformułowane przez URBAIN JJ LEVERRIERA (1811-77), a po nim SIMONA NEWCOMBA (1835-1909), wywodziły się z tej samej tradycji, a ich różnica polegała na szerszej podstawie obserwacyjnej i większej precyzji.
Odkrycie Neptuna
Siódma planeta, Uran, została odkryta przez Williama Herschela w 1781 r. W 1821 r. Alexis Bouvard, konstruując teorię Urana, stwierdził, że nie jest w stanie przedstawić obserwacji z oczekiwaną dokładnością kilku sekund łukowych. Po 1821 r. rozbieżności wzrosły, osiągając na początku lat czterdziestych XIX wieku prawie dwie minuty łukowe. Czy odpowiedzialna była za to nieznana, niepokojąca planeta? W połowie lat czterdziestych XIX wieku JOHN COUCH ADAMS (1819-92) w Anglii i Le Verrier we Francji niezależnie podjęli się odpowiedzi na to pytanie. Przyjęli, że orbita zakłócającej planety leży na ekliptyce, a szerokości geograficzne Urana są niewielkie. Zaakceptowali prawo Titiusa-Bodego, regułę liczbową podającą w przybliżeniu odległości znanych planet od Słońca i sugerującą, że następna planeta będzie miała średnią odległość od Słońca wynoszącą 38 jednostek astronomicznych. Następnie należało przypisać wartości ekscentryczności orbity i peryhelium, epoki i masy nieznanej planety, aby wytworzyć zaburzenia, które pogodzą przewidywane ruchy Urana z obserwacjami. Obaj badacze odnieśli sukces. Przedstawiając swoje wyniki GEORGE BIDDEL AIRY, astronomowi królewskiemu, pod koniec 1845 roku, Adams spotkał się z odmową: Airy nie ufał prawu Titiusa-Bodego. LeVerrier wysłał swoje przewidywania do Johana Gottfrieda Galle z Obserwatorium Berlińskiego i 23 września 1846 roku Galle skierował swój teleskop na wskazany obszar nieba, ale nie udało mu się znaleźć szukanego dysku planetarnego. Jego asystent, Heinrich Louis d′Arrest, zasugerował skonsultowanie się z nowym Atlasem Gwiazd Akademii Berlińskiej. Porównując niebo i mapę, Galle zlokalizował gwiazdę ósmej mag, której nie ma na mapie, 52 minuty od pozycji podanej przez LeVerriera. 24-go przeniosła się: była to poszukiwana planeta. To odkrycie Neptuna na drodze czystej kalkulacji okrzyknięto triumfem. Orbitę planety można teraz obliczyć na podstawie obserwacji. Średnia odległość Słońca wyniosła 30,1 jednostek astronomicznych: prawo Titiusa - Bodego było błędne. Ekscentryczność orbity była jedną dziesiątą wielkości, jak przypuszczali Adams i LeVerrier, a peryhelium było oddalone o ponad 100? od miejsca, w którym je umieścili. Wraz z odkryciem satelity Neptuna, Trytona, pod koniec 1846 roku, możliwe było dokładne określenie masy Neptuna; Wartości Adamsa i LeVerriera były za duże odpowiednio o współczynniki 2,65 i 1,88. Jednak w okresie od około 1800 do 1850 roku, obejmującym koniunkcję Urana i Neptuna w 1821 roku, kiedy perturbacje były największe, hipotetyczne orbity Adamsa i LeVerriera były bliskie orbitom rzeczywistym, dawały prawie prawidłowe zakłócenia w tym przedziale czasowym i pozwoliło na prawidłowe określenie położenia Neptuna.
Dziedzictwo Lagrange′a - Poissona: Hansen, Hamilton, Jacobi, Delaunay
W latach 1808 i 1809 Simeon-Denis Poisson (1781-1840) przedstawił Akademii Paryskiej dwa wspomnienia wykorzystujące i rozwijające metodę Lagrangianu wariancji dowolnych stałych. Pobudzili Lagrange′a do dalszych innowacji. Teoria Lagrange&prine;a-Poissona została objaśniona w Mécanique Analytique Lagrange′a, wydanie drugie (tom I, 1811; tom II, 1815). Poisson wprowadził koncepcję "pędu sprzężonego" pi dla każdej współrzędnej qi. Jeśli q′i = dqi/dt , a T jest energią kinetyczną, to pi = ∂T /∂?q′i . Pokazał, że jeśli a, b są dwiema całkami układu, to "nawias Poissona"
jest niezależna od czasu. Następnie pokazał, że jeśli ai są stałymi całkowania, które stają się zmienne pod wpływem zaburzeń, to
gdzie Ω jest funkcją zaburzającą. Poisson zaproponował, a Lagrange udowodnił, że
gdzie ai może być wartością qi, a bi wartością pi, w t = 0. Równania w postaci zostaną później nazwane "kanonicznymi". P. A Hansen (1795-1874), od 1825 r. aż do śmierci dyrektor Seeberg Observatory, był samoukiem w dziedzinie mechaniki niebieskiej. Ponieważ wzory Laplace′a na współrzędne zaburzone uwzględniały tylko pierwszą potęgę sił zakłócających, wkrótce zwrócił się ku metodzie zmiany parametrów orbitalnych. Miało to jednak swoje wady: aby znaleźć zaburzenia trzech współrzędnych, trzeba było określić zaburzenia sześciu elementów, a te ostatnie były często znacznie mniejsze niż pierwsze, w związku z czym bardzo małe ilości musiały być obliczane z różnic dużych wielkie ilości. Hansen starał się uzyskać bezpośrednie obliczenie współrzędnych poprzez rygorystyczne wyprowadzenie ze wzorów Lagrange′a - Poissona. Współrzędne były funkcjami elementów orbity i czasu; elementy orbitalne były funkcjami czasu. Korzystając z reguły łańcuchowej dla pochodnych cząstkowych, Hansen opracował dwuczęściową procedurę. Najpierw uzyskał zaburzone wartości wektora długości i promienia w płaszczyźnie chwilowej, zastępując "czas zaburzony" - czas zmieniony w celu uwzględnienia efektów perturbacyjnych - do standardowych wzorów eliptycznych. Następnie wyznaczył położenie płaszczyzny chwilowej względem płaszczyzny odniesienia za pomocą zmian dwóch zmiennych sprzężonych p i q. Hansen po raz pierwszy zastosował tę procedurę we wspomnieniach na temat wzajemnych zaburzeń Jowisza i Saturna; zdobył nagrodę Akademii Berlińskiej w 1831 r. (G.W. Hill w swoich dokładniejszych obliczeniach zaburzeń Jowisza i Saturna w latach osiemdziesiątych XIX wieku postępował zgodnie z procedurą Hansena). Następnie Hansen zajął się problemem Księżyca; jego tablice księżycowe, opublikowane w 1857 r., zostały przyjęte jako podstawa dla brytyjskich i francuskich efemeryd narodowych od 1862 do 1922 r. Matematyk Arthur Cayley w latach pięćdziesiątych XIX wieku wychwalał procedurę Hansena jako jedyną dostępną wówczas rygorystyczną metodę leczenia. Procesy Hansena były jednak skomplikowane; niewielu astronomów je rozumiało. W dwóch artykułach opublikowanych w latach 1834 i 1835 w Philosophical Transactions of the Royal Society of London irlandzki matematyk William Rowan Hamilton położył nowe podwaliny pod dynamikę. Wprowadził "funkcję główną" S, zdefiniowaną jako
gdzie L = T - V to "Lagrangian", V to energia potencjalna. S, oceniane wzdłuż krzywej rozwiązania różniczkowych równań ruchu, musi mieć wartość ekstremalną, tak że δS = 0. Wynika z tego, że cząstkowe równanie różniczkowe problemu miało postać
gdzie H jest "Hamiltonianem", czyli energią całkowitą T + V. Równaniom ruchu Hamilton nadał postać kanoniczną
Niemiecki matematyk C. G. Jacobi (1804-1851) uogólnił teorię Hamiltona, pokazując, że ma ona zastosowanie do układów niekonserwatywnych i że rozwiązanie dynamicznych równań ruchu można uzyskać z całkowitego rozwiązania. Sformułował także warunek przekształcenia jednego zbioru zmiennych kanonicznych w inny. Niezależnie od prac Hamiltona i Jacobiego, CHARLES DELAUNAY (1816-72) w 1846 r. zaproponował wyznaczenie perturbacji Księżyca na podstawie równań początkowych
Tutaj (L, l), (G, g), (H, h) to sześć specjalnie wybranych elementów orbitalnych, sprzężonych parami w sposób (LP.3), a R jest funkcją zaburzającą. Delaunay rozwinął R jako serię cosinusów wielokrotności odpowiednich kątów, do siódmego rzędu małych wielkości. Jego strategia rozwiązania polegała na podzieleniu R na dwie części, R1 i R?R1, gdzie R1 jest największym wyrazem w R. Następnie rozwiązał z R1 podstawionym za R, uzyskując nowe wartości L, l, G, g, H, h, które następnie podstawił do R - R1. Następnie należało rozdzielić R-R1 na dwie części i cały proces powtórzyć. Na każdym etapie wszystkie wykrywalne efekty wynikające z rozważanej części R zostały określone raz na zawsze, co stanowi główną przewagę nad innymi metodami, w których składniki perturbacyjne łączą się, tworząc nowe składniki perturbacyjne. Kompletna teoria Księżyca Delaunaya ukazała się w dwóch dużych tomach w latach 1860 i 1867. Podobnie jak wcześniejsze teorie Plany i PGD De Pontécoulant (1795-1874), była to teoria dosłowna, podająca współczynniki terminów perturbacyjnych w formie algebraicznej, a nie tylko liczebnie. Jego główną wadą była powolna zbieżność szeregów.
Ponowny przegląd świeckiego przyspieszenia Księżyca
Księżycowa teoria GW Hilla
Podstawy najbardziej innowacyjnej teorii księżycowej stulecia położył amerykański mechanik niebieski GEORGE WILLIAM HILL (1838-1914) w dwóch artykułach: "Researches in the Lunar Theory" (1878) i "On the Part of of the Lunar Theory" (1878) Ruch perygeum Księżyca będący funkcją średnich ruchów Słońca i Księżyca" (1877). Dokładność wcześniejszych teorii Księżyca była ograniczona głównie przez powolną zbieżność szeregów dających współczynniki składników perturbacyjnych; winowajcą był parametr m, stosunek miesiąca gwiazdowego do roku gwiazdowego. Pomysł Hilla polegał na wyodrębnieniu roli m i pełnym uwzględnieniu jej na początku, poprzez przyjęcie nowego pierwszego przybliżenia, a nie standardowego eliptycznego rozwiązania problemu dwóch ciał, ale specjalnego rozwiązania "ograniczonego" problemu trzech ciał , w którym Księżyc jest przyciągany, ale nie przyciąga. W ten sposób ustalił ekscentryczność i paralaksę Słońca, ekscentryczność i nachylenie Księżyca, wszystkie równe zeru i użył obrotowego układu współrzędnych, którego początek znajduje się w środku Ziemi, płaszczyzna x - y w ekliptyce, a oś x jest stale skierowana w stronę Słońca . Powstałe równania różniczkowe dopuszczone do konkretnego rozwiązania okresowego
gdzie τ = ?(t - t0), t0 to czas, w którym Księżyc przecina dodatnią oś x, a ? to częstotliwość jego okresowego ruchu wokół Ziemi; sumowania rozciągają się na wszystkie wartości całkowite i . Hill w drodze kolejnych przybliżeń określił wartości ai w szeregu szybko zbieżne w parametrzem = m/(1?m); błąd tych wartości, gdy podano m wartość, jaką ma dla ziemskiego Księżyca, nie przekroczył dwóch jednostek piętnastego miejsca po przecinku. Równanie podaje to, co Hill nazywa "orbitą wariacyjną", ponieważ zawiera główną część nierówności Księżyca, znanej jako wariacja. Aby uzyskać ekscentryczną orbitę, podobną do orbity prawdziwego Księżyca, Hill w drugiej wspomnianej powyżej pracy wprowadził swobodne oscylacje wokół wektora promienia orbity wariacyjnej i pod kątem prostym do niego. Oscylacja ?p wzdłuż wektora promienia jest dana wzorem
przykład tak zwanego równania Hilla. Aby otrzymać szczególne rozwiązanie, w którym ? nie występuje poza argumentami cosinusów, do pierwszego przybliżenia należy wstawić stałą c:
gdzie c jest rozwiązaniem nieskończonego, ale zbieżnego wyznacznika. Hill uzyskał wartość c dobrą z dokładnością do prawie piętnastej po przecinku; daje to ruch perygeum Księżyca jako 0,008 572 573 004 864×360°. Natomiast szereg Delaunaya dla tej stałej, choć doprowadzony do wyrazu w m9, daje wartość z dokładnością tylko do trzech cyfr znaczących. Widząc oczywistą wyższość metody Hilla, E.W. Brown rozpoczął w 1888 r. proces opracowywania za jej pomocą kompletnej teorii Księżyca . Powstałe w ten sposób tablice opublikowano w 1919 r., a w 1923 r. stały się podstawą brytyjskich i amerykańskich efemeryd.
Dzieło Poincarego
Kulminacyjnym osiągnięciem teoretycznym dziewiętnastowiecznej mechaniki nieba był Les Méthodes Nouvelles de la Mécanique Céleste autorstwa HENRI POINCAR′E (1854-1912), opublikowany w trzech tomach od 1892 do 1899. Używając teorii Hamiltona-Jacobi, Poincare badał topologicznie zakres rozwiązań problemu trzech ciał, zaczynając (podobnie jak Hill) od rozwiązań okresowych. Podejście topologiczne było nowe. Zagadnienia poruszone w tej pracy, w szczególności zbieżność szeregów stosowanych w mechanice nieba i dziwne zachowanie podwójnie asymptotycznych rozwiązań Poincarego, powróciły w drugiej połowie XX wieku w teorii Kołmogorowa-Arnolda-Mosera i teorii chaosu .
Związek okres cefeidy-jasność
Empiryczna korelacja między jasnością zmiennej cefeidy a jej okresem była znana astronomom i wykorzystywana przez nich jako skuteczna metoda określania odległości przez większą część XX wieku. Pojedynczo cefeidy mają charakterystyczne światło krzywe, szybko zwiększając jasność do maksimum, a następnie stopniowo spadając do minimalnego światła. Cykl ten stale się powtarza, a poszczególne okresy trwają od kilku do wielu setek dni, w zależności od wewnętrznej jasności gwiazdy. Łącznie skale czasowe, w których zachodzi ta okresowa cykliczność cefeid, wynoszą ściśle powiązane ze średnią jasnością gwiazd. Powód tej empirycznej korelacji jest niezwykle dobrze poznany, a zastosowania relacji okres-jasność są liczne. Konsekwencje, szczególnie dla skali odległości pozagalaktycznych, mają znaczenie w kosmologii. Zależność okres-jasność cefeid po raz pierwszy odkryła astronomka z Harvardu, Henrietta LEAVITT. Analizowała okresy i pozorne jasności wybranych cefeid, wszystkie w tej samej odległości w dwóch (obecnie znanych) pobliskich galaktykach satelitarnych Drogi Mlecznej, DUŻYCH i MAŁYCH CHMURACH MAGELLANIC. Odkryła, że pani Leavitt zapoczątkowała jedno z najważniejszych i najtrwalszych działań astronomicznych XX wieku - kalibrację skali rozmiarów Wszechświata. Tuż po tym nastąpiło odkrycie ekspansji Wszechświata przez astronoma z Carnegie Edwina HUBBLE′A , co w połączeniu dało podstawę do określenia skali czasu powstania wszechświata, opisanego przez "gorący duży bangowy model współczesnej KOSMOLOGII. Cefeidy to nadolbrzymy i jako takie należą do najjaśniejszych obiektów w galaktykach, które obecnie tworzą nowe populacje gwiazd. Według teorii ewolucji gwiazd, bezpośrednimi prekursorami cefeid są masywne, młode gwiazdy typu O i B. Te gorące (niebieskie) gwiazdy ciągu głównego powstały niedawno, ale ze względu na ich dużą masę i ogromną energię wyjściową wkrótce ewoluują od obszaru spalającego rdzeń wodorowy do niższych temperatur powierzchniowych i bardziej czerwonych kolorów. Robiąc to, te ogromne gwiazdy na krótko przechodzą przez strefę, w której ich atmosfery zewnętrzne są niestabilne na okresowe oscylacje promieniowe. Ten wąski zakres temperatur wywołujący niestabilność atmosfery definiuje tzw. "pasek niestabilności", w którym można zaobserwować pulsację cefeidy. Gwiazdy o dużej masie przechodzą przez pas przy wyższej jasności (i nieco niższych temperaturach) niż gwiazdy o mniejszej masie, które przechodzą przez pas nieco wcześniej w wyższych temperaturach i przy wyraźnie niższych jasnościach. Na wykresie barwa-jasność pasek niestabilności cefeidy jest pochylony w górę i w poprzek, w stronę czerwieni. Ujmując to inaczej, te proste rozważania z STELLAR EVOLUTION przewidują, że w przypadku cefeid istnieje zależność masa-jasność. Rzeczywiście, zapewnia to również istnienie zależności promienia od jasności tych gwiazd, ponieważ najbardziej podstawowe prawa fizyki wymagają, aby dwie gwiazdy o tej samej temperaturze (kolorze) miały różną jasność tylko w przypadku całkowitego pola powierzchni (sterowane bezpośrednio przez promienie) za różne. Ponieważ temperatura pośrednio kontroluje jasność powierzchni (poprzez funkcję Stefana prawo emisyjności, σT4), a promień wyraźnie kontroluje pole powierzchni (poprzez geometrię, 4?R2), kombinacja tych dwóch czynników daje całkowitą jasność. Wzajemną zależność pomiędzy jasnością L, efektywną temperaturą Teff i promieniem R można łatwo określić ilościowo za pomocą następującego równania opartego na argumentach fizycznych podanych powyżej:
L = 4πR2&sigmaT4eff .
Biorąc pod uwagę, że temperatura, w której gwiazdy te są niestabilne na oscylacje, obejmuje stosunkowo niewielki zakres (~300 K), jasność jest wówczas przede wszystkim funkcją średniego promienia gwiazdy w pasie niestabilności. Niestety, ani masa, ani promień żadnej gwiazdy nie są właściwościami łatwymi do zaobserwowania, zatem zależności zapisanej powyżej nie można zastosować w żadnym praktycznym zastosowaniu do wyznaczania odległości (tj. przewidywania wewnętrznej jasności). Gdyby jednak jakaś inna (bardziej bezpośrednio obserwowalna) wielkość była funkcją masy i/lub promienia, w zasadzie można by przewidzieć jasność, używając tej wielkości jako wskaźnika zastępczego promienia. Z empirycznej perspektywy wiemy już, że istnieje rozwiązanie - to, które znalazła pani Leavitt - relacja okres-jasność. Teoria łatwo wyjaśnia tę empiryczną zależność. Okresy oscylacji na powierzchni cefeidy są nieodłączną cechą gwiazdy i są oczywiście niezależne od odległości obserwatora, ale znajomość empirycznego związku
okres-jasność natychmiast sugeruje, że obserwowany okres można wykorzystać do przewidywania jasności. Z powyższych argumentów fizycznych wynika, że okres drgań może zastępować masę, promień lub jakąś ich kombinację. Rzeczywiście tak jest. Jednak natura zapewnia nam jeszcze więcej; istnieje również nieodłączny związek okresu i koloru dla cefeid. Ponieważ zarówno okres (P), jak i kolor (C) są niezależne od odległości, relacja P - C (po skalibrowaniu) pozwala wykryć zaczerwienienie międzygwiazdowe w próbce cefeid w zewnętrznej galaktyce. Pojedynczo cefeidy mogą stać się bardziej czerwone i słabsze z powodu wewnętrznych różnic temperatur lub bardziej czerwone i słabsze z powodu wygaśnięcia linii wzroku. W przypadku kolekcji cefeid wewnętrzne różnice w kolorach będą się uśredniać. Ponieważ jednak wymieranie jest efektem systematycznym, będzie miało tendencję do przenoszenia całej populacji do bardziej czerwonych i słabszych poziomów. W porównaniu z wewnętrzną relacją P - C, średnie odchylenie zespołu można dość
zinterpretować jako spowodowane ekstynkcją międzygwiazdową, a wywnioskowaną odległość skorygowaną o tę absorpcję. Wyraźną korekcję efektów systematycznych, takich jak pociemnienie przez pył międzygwiazdowy, najlepiej osiągnąć obserwując cefeidy na dwóch lub więcej długościach fal i wykorzystując relacje okres-kolor do przewidywania poprawek statystycznych dla średnich zespołowych. Alternatywnym podejściem jest obserwacja cefeid na długich falach, gdzie skutki wymierania międzygwiazdowego stopniowo zanikają. Na przykład obserwując cefeidę w odległości 2 ?m w bliskiej podczerwieni, w przeciwieństwie do obszaru widma 4500 A (niebieskiego), efekt ekstynkcji zmniejsza się prawie 10-krotnie. W przypadku wszystkich układów swobodnie oscylujących, czy to dzwonów, dzwonienie, wahania zegarów wahadłowych, krążące wokół planet, pulsowanie cefeid, obracanie się galaktyk, a nawet rozszerzanie się (lub kurczenie się) całego Wszechświata, głównym fizycznym wyznacznikiem skali czasu
(lub okresu oscylacji, P) jest średnia gęstość układu . Gęstość jest z samej definicji wyłącznie funkcją masy i promienia. Matematyczny wyraz tego prawa natury jest zawarty w równaniu
Pρ1/2 = Q.
Na najbardziej podstawowym poziomie równanie to jest formalnie równoważne zasadzie zachowania energii. Trzecie prawo Keplera dotyczące ruchu planet, łączące okresy obrotu planet wokół Słońca z ich zmierzonymi półgłównymi osiami orbit, jest innym wyrażeniem tego samego wzoru (patrz SLAWS KEPLERA). Również scharakteryzowana zależność pomiędzy tempem ekspansji Wszechświata przez STAŁĄ HUBBLELA, a średnia gęstość Wszechświata w porównaniu z jego gęstością krytyczną to ten sam wzór w ujęciu kosmologicznym. Historię stojącą za ustaleniem wiarygodnego punktu zerowego relacji cefeidy P-L czyta się jak mikrokosmos równoległych poszukiwań ustalenia skali rozmiarów całego wszechświata. Rzeczywiście te dwa zadania, odmienne pod względem skali, są często jednym i tym samym problemem, wielokrotnie przeplatającym się. W wielu kontekstach skala odległości cefeidy jest skalą odległości pozagalaktycznej. Na przykład Kosmiczny Teleskop Hubble′a (HST) został w dużej mierze zaprojektowany w oparciu o oczekiwane
wykorzystanie cefeid do docierania do galaktyk i pomiaru ich odległości aż do gromady w Pannie, około 10 lub 20 razy dalej niż najbardziej odległe galaktyki mierzone przez cefeidy z ziemi. Kiedyś oczekiwano, że pomiar odległości cefeidy od Panny będzie Świętym Graalem skali odległości, ale tak się nie stało. W latach, które upłynęły między zaprojektowaniem HST a jego ostatecznym uruchomieniem i późniejszą renowacją, nasz pogląd na Wszechświat zmienił się w zasadniczy sposób: obecnie wiadomo, że wielkoskalowe przepływy towarzyszą wielkoskalowym strukturom wypełniającym pobliski wszechświat. Innymi słowy, prędkości mierzone jako przesunięcia ku czerwieni dla galaktyk nie składają się po prostu z pojedynczego składnika ekspansji Hubble'a, ale nakładają się na siebie prędkości przepływu wynikające z zaburzeń grawitacyjnych pobliskiej materii w postaci pobliskich galaktyk, grup i gromad. Kluczowy projekt dotyczący pozagalaktycznej skali odległości opierał się na wykorzystaniu cefeid jako wskaźników odległości.
Wykorzystując tradycyjne metody odkrywania pozagalaktycznych cefeid poprzez obrazowanie w świetle optycznym (gdzie amplitudy cefeid są duże w porównaniu z bardziej czerwonymi falami), Kosmiczny Teleskop Hubble'a był używany przez kilka grup, w tym Key Project, do określania odległości do ponad dwudziestu galaktyk na zewnątrz poza gromadami Panny i Pieca, prawie o rząd wielkości dalej, niż było to wcześniej możliwe przy użyciu teleskopów naziemnych. Odległości cefeid do galaktyk są następnie wykorzystywane do kalibracji szeregu wtórnych wskaźników odległości dla galaktyk rozciągających się znacznie dalej w przepływie Hubble'a. Dzięki obserwacjom w kolorze czerwonym (pasmo I) uzyskano również drugi kolor potrzebny do korekcji ekstynkcji i wyprowadzono rzeczywiste odległości. Przeprowadzono także dalsze badania wybranych obiektów przy 1,6 ?m za pomocą HST i kamery bliskiej podczerwieni (NICMOS), aby potwierdzić zaczerwienienia i wzmocnić ustalenia odległości w oparciu o długość fali, która
jest niewrażliwa zarówno na ekstynkcję, jak i metaliczność. Skład chemiczny, czyli metaliczność, stwarza kolejną prawdopodobną komplikację, którą należy uwzględnić przy ocenie niepewności związanej z odległościami cefeid. Nie wykryto żadnych znaczących różnic między optycznie skorygowanymi modułami odległości rzeczywistej a modułami wzmocnionymi danymi z bliskiej podczerwieni. Na zakończenie projektu kluczowego skalibrowano wiele wtórnych wskaźników odległości przy użyciu zmiennych cefeid. Każda z tych metod dała zwrócone wartości tempa rozszerzania się Wszechświata, stałą Hubble'a, mieszczącą się w przedziale od 68 do 78 km s-1 Mpc-1. Jednakże określono również odległości (i prędkości) do galaktyk w głównych gromadach i wokół nich. Po skorygowaniu o zakłócający wpływ gromad, te galaktyki polowe wykazują również zależność prędkość-odległość, którą można utożsamić z ekspansją Wszechświata. Na podstawie samych odległości cefeid można wyprowadzić siłę związku między prędkością a odległością, więc lokalnie
wynosi ona 73 km s-1 Mpc-1. Ta wartość H0, niezależnie od tego, czy pochodzi wyłącznie z cefeid w pobliskich galaktykach, czy z galaktyk powiązanych ze skalą odległości cefeid, ale uczestniczących w przepływie z prędkością 10 000 kmˇs-1, konsekwentnie sugeruje wiek 12 miliardów lat dla małej gęstości wszechświat
CH Cygni
CH Cygni (CH Cyg) to jedna z najbardziej zagadkowych GWIAZD SYMBIOTYCZNYCH. Znany niegdyś jako krótkookresowa zmienna półregularna i standard dla typu widmowego M6III, układ zapoczątkował niezwykłą serię erupcji w 1964 r. Pojawienie się niebieskiego kontinuum i skromnych linii emisyjnych H I doprowadziło do jego przeklasyfikowania na gwiazdę symbiotyczną, pomimo braku silne wyższe linie jonizacji charakterystyczne dla większości symbiotyków. Niektóre z tych linii odkryto później dzięki widmom wyższej jakości uzyskanym w latach 70. i 80. XX wieku. Mimo to nieregularne zachowanie układu podczas spoczynku i erupcji wyraźnie odróżnia CH Cyg od większości gwiazd symbiotycznych. CH Cyg ma wspólne właściwości z Ceti (MIRA) i symbiotyczną gwiazdą RAqr, dwoma gigantami typu M6-M7 z towarzyszem - białym karłem. Wszystkie znajdują się stosunkowo blisko, w odległości 100-300 pc w porównaniu z odległością 1 kpc w typowym symbiotycznym układzie podwójnym. Systemy zawierają pulsujące CZERWONE GIGANTY z okresami ∿100 dni w CH Cyg i ∿1 roku w Mira i R Aqr; wszystkie mają okresy orbitalne trwające od dziesięcioleci do stuleci. Połączenie olbrzyma późnego typu i długiego okresu orbitalnego w pobliskim układzie podwójnym powoduje interesujące zachowanie, którego nie obserwuje się w innych gwiazdach symbiotycznych, takich jak Z ANDROMEDAE. Badanie tej ewolucji jest bardzo popularne; zrozumienie tego okazało się nieuchwytne.
Podstawowe właściwości
CH Cyg wykazuje oszałamiającą gamę zmian fotometrycznych. Fluktuacje w krótkiej skali czasowej obserwuje się przy długościach fal optycznych i rentgenowskich. Zmiany optyczne są spójne, obejmują okres 2500-3000 s i amplitudę rosnącą od ∿0,02 mag przy 7000 Å do ∿0,3 mag przy 3600 Å. Obserwacje rentgenowskie wskazują na niezmienną, miękką składową o kT ∿ 0,4 keV i zmienną składową o kT ∿7 keV. Zmienność promieniowania rentgenowskiego występuje w skalach czasowych tak krótkich jak 300 s, ale nie jest spójna. Występują również dłuższe różnice w skali czasowej. Na krzywych blasku w świetle optycznym i bliskiej podczerwieni pojawiają się półkoherentne zmiany z okresami ∿100 dni, ∿770 dni, ∿1300 dni i ∿32 lata. Typowa amplituda tych zmian wynosi ∿0,5 mag w świetle optycznym i ∿0,25 mag w bliskiej podczerwieni. Amplitudy i fazy tych zmian zmieniają się z dekady na dekadę. W kilku badaniach zaproponowano dodatkowy okres 5700 dni, powstały w wyniku zaćmień źródła linii emisyjnej przez czerwonego olbrzyma. Kolory optyczne układu są zwykle bardziej czerwone podczas zaćmienia. Istnieją dobre dowody na zmiany PRĘDKOŚCI RADIALNEJ w kilku okresach fotometrycznych. Prędkości obliczone na podstawie cech absorpcji czerwonego olbrzyma wskazują okresy od ∿760 do ∿5500 dni. Krótszy okres jest podobny do okresów orbitalnych innych gwiazd symbiotycznych. Wyprowadzona funkcja masy jest również porównywalna z funkcją masy innych symbiotyków, jeśli zmiany prędkości wynikają z ruchu orbitalnego. Jednak w przeciwieństwie do większości symbiotyków, okres ten nie zawsze jest obecny na krzywej blasku. W pojedynczych olbrzymach późnego typu często obserwuje się nieregularne zmiany światła i prędkości, zatem okres ten może być okresem pulsacji lub (co jest znacznie mniej prawdopodobne) okresem rotacji. Dłuższy okres ma większe wsparcie jako prawdziwy okres orbitalny układu. Koniuncje orbitalne pokrywają się z minimami intensywności linii emisyjnych. Opisane poniżej zdarzenia związane z wyrzucaniem strumieni również wydają się przypadać na ten okres. Amplituda prędkości prowadzi do rozsądnych mas czerwonego olbrzyma 1-3 M⊙ i gorącego składnika 0,5-1,0 M⊙ . Spektroskopowe zmiany CH Cyg są na szczęście bardziej łagodne niż zmiany fotometryczne. Widmo zawsze wskazuje na istnienie giganta typu M, z silnym czerwonym kontinuum i głębokimi pasmami absorpcji TiO. Typ widmowy tego składnika waha się od M5 do M7. Składnik gorący ma trzy stany: (i) stan nieaktywny, w którym niebieskie kontinuum i linie emisyjne są nieobecne lub ledwo wykrywalne; (ii) stan niski, w którym niebieskie kontinuum i linie emisyjne HI są stosunkowo słabe; (iii) stan wysoki, w którym niebieskie kontinuum jest mocne i przypomina widmo nadolbrzyma typu F . Skromne linie emisyjne H I i Fe II towarzyszą kontinuum typu F w stanie wysokim. Niektóre linie wysokiej jonizacji, takie jak [O III] w świetle optycznym i C IV w ultrafiolecie, są obecne w stanach wysokich i niskich. Linie te są zwykle silniejsze w stanie niskim niż w stanie wysokim, jak w przypadku innych gwiazd symbiotycznych. Jednakże linie emisyjne zawsze wydają się słabsze w stosunku do kontinuum UV lub optycznego niż w przypadku innych gwiazd symbiotycznych. Pochodzenie tej różnicy jest nieznane. Profile linii emisyjnych CH Cyg są skomplikowane i bardzo zmienne. Większość linii oznacza ruchy mas z prędkościami 100-200 km/s. Linie te są zwykle symetryczne względem prędkości systemowej, ale czasami wykazują dodatkową emisję z prędkością dodatnią lub ujemną. Kiedy linie HI są mocne, często mają szerokie profile z głębokimi centralnymi odwróceniami absorpcji. Profile te przypominają linie emisyjne obserwowane w karłowatej NOVAE i innych zmiennych kataklizmicznych. Jednakże linie często stają się jednoszczytowe, co nie jest typowe dla nowych karłowatych. Zmienność linii HI może być powiązana ze złożonymi zmianami fotometrycznymi, ale dostępne dane nie są na tyle obszerne, aby można było jednoznacznie powiązać je z którymkolwiek okresem fotometrycznym. Co zaskakujące, niektóre z najciekawszych aktywności CH Cyg występują w stanach niskich. W 1984 r. gorący element zaczął wyrzucać materiał z dużą prędkością, wkrótce po spadku jasności optycznej o 2-3 mag. Gdy podczas tego spadku kontinuum typu F i kilka linii emisyjnych zanikło, gwiazda wytworzyła silne linie emisyjne [O III] wskazujące, że materia porusza się z prędkościami około 500 km na s-1. Intensywność emisji kontinuum radiowego o średnicy 1-10 cm wzrosła 3-krotnie w ciągu około 1 miesiąca. Prawie cała ta emisja radiowa ograniczała się do dwóch węzłów gazu oddalającego się od gwiazdy centralnej z przewidywaną prędkością ∿1000 (d/200 szt.) km s-1. Wyrzut ten jest podobny do bipolarnych dżetów obserwowanych w AKTYWNYCH JĄDRACH GALAKTYCZNYCH i GWIAZDACH PRZED GŁÓWNĄ SEKWENCJĄ. Przestrzennie rozdzielone widma optyczne wyraźnie powiązały emisję [O III] z węzłami radiowymi. Emisja radiowa malała, gdy węzły oddalały się od centralnego źródła, a następnie nieznacznie wzrosła, gdy źródło wyrzuciło drugi, mniejszy zestaw węzłów poruszających się z tą samą prędkością. Zdarzenie to rozpoczęło się około 200 dni po pierwszym wyrzucie i towarzyszyło mu dwukrotny spadek jasności optycznej. Trzeci mały wyrzut rozpoczął się około 200 dni później, ale nie był powiązany ze spadkiem jasności. Wszystkie te węzły zanikły w ciągu kilku lat, kiedy system wznowił swoje "normalne" widmo stanu niskiego. Tworzenie się dżetów związane ze znacznym spadkiem jasności optycznej rozpoczęło się ponownie w latach 1997-1998. Kilka optycznych linii emisyjnych jednocześnie rozwinęło szerokie cechy wskazujące na ruchy mas z prędkościami 500-1000 kmˇs-1. Układ szybko się zregenerował, wzrastając o 1,5 mag w ultrafiolecie w okresie od maja do lipca 1998 r. 14-letni odstęp między dwoma wybuchami radiowymi jest o 1-2 lata krótszy niż jeden z proponowanych okresów orbitalnych.
Interpretacja
Pochodzenie dziwnego zachowania CH Cyg jest niejasne. Trzy stany emisji - nieaktywny, niski i wysoki - są niezwykłe: większość symbiotyków ma stany niski i wysoki. Wiele silnych okresowości na krzywej blasku jest również rzadkie. Widmo słabej linii emisyjnej jest nietypowe, chociaż Mira i kilka innych symbiotyków ma podobne widma linii emisyjnych. Obecny obraz układu CH Cyg zaczyna się od oddziałującego układu podwójnego złożonego z olbrzyma typu M i gorącego BIAŁEGO KARŁA. Biały karzeł akreuje materię utraconą przez giganta. Energia wytwarzana przez ACCRETION napędza obserwowaną aktywność. Nieregularne pulsacje olbrzyma modulują tempo akrecji na białego karła, co zmienia poziom aktywności. Jest mało prawdopodobne, aby biały karzeł wytwarzał dużo energii w wyniku termojądrowego spalania nagromadzonej masy: maksymalna jasność, ∿100 l, jest mała jak na białego karła z powłoką spalającą jądro. Dodanie drobniejszych szczegółów do tego zdjęcia było trudne. Zaproponowano dwa warianty. Pierwsza zakłada szeroki układ podwójny z okresem orbitalnym około 5500 dni. Pulsujący czerwony olbrzym odpowiada za okresy ∿100 i ∿700 dni. Magnetyczny biały karzeł - podobny do białego karła w Z And - obraca się z okresem 2500-3000 s. Akrecja na biegunach magnetycznych tego białego karła powoduje zmiany w krótkiej skali czasowej. Stany nieaktywne występują w pobliżu apastronu, gdy biały karzeł jest daleko od redolbrzyma, a tempo akrecji jest niskie. Stany te są długowieczne, ponieważ binarny większość czasu spędza w apastron. Stany aktywne występują w pobliżu PERIASTRONU, gdy tempo akrecji jest wysokie. W tym modelu przełączanie pomiędzy stanami niskimi i wysokimi wynika z braku równowagi pomiędzy ciśnieniem magnetycznym obracającego się białego karła a ciśnieniem materii w wietrze czerwonego olbrzyma. Stany wysokie występują, gdy ciśnienie tłoka przekracza ciśnienie magnetyczne. Akrecja na białym karle tworzy następnie kontinuum typu F, chociaż mechanizm fizyczny tworzący to kontinuum jest niejasny. Stany niskie występują, gdy ciśnienie magnetyczne przekracza ciśnienie barana i zapobiega akrecji na białym karle. Ten mechanizm "śmigła" napędza również strumienie dwubiegunowe w procesie, który w najlepszym razie jest słabo poznany. Druga koncepcja uważa CHCyg za system potrójny. W tym modelu czerwony olbrzym i biały karzeł zamieszkują: zamknij plik binarny z okresem 760 dni. Zwykły karzeł G krąży wokół tego układu podwójnego w okresie 5500 dni. Warianty tego zdjęcia zastępują karła G innym olbrzymem M, ale spektroskopowe dowody na istnienie dwóch czerwonych olbrzymów w układzie nie są przekonujące. System potrójny zapewnia naturalne wyjaśnienie dwóch trwałych modulacji systemu, 760 dni i 5500 dni. Pulsacje czerwonego olbrzyma są nadal potrzebne przez inne długie okresy; Magnetyczny biały karzeł jest nadal odpowiedzialny za pulsację optyczną trwającą 2500-3000 s. Zaletą tego modelu jest to, że bliski wewnętrzny układ podwójny ma strukturę podobną do typowej gwiazdy symbiotycznej. Zwiększony transfer masy możliwy w bliższym układzie podwójnym może napędzać niezwykłą aktywność gorącego komponentu. Model śmigła może w dalszym ciągu powodować przełączanie między stanami wysokim i niskim, ale pochodzenie stanu nieaktywnego jest niejasne. Inne gwiazdy symbiotyczne z okresami orbitalnymi ~700 dni nigdy nie są nieaktywne. Krótkie okresy pozornej bezczynności w niektórych symbiotykach występują, gdy czerwony olbrzym zakrywa gorący składnik. Najpopularniejsza wersja modelu potrójnej gwiazdy zakłada, że oba czerwone olbrzymy przyćmiewają gorący składnik, tworząc okresy nieaktywne. Ta geometria jest a priori mało prawdopodobna i może nie dawać wystarczająco długich okresów nieaktywności. Wyjaśnienie aktywności odrzutowca w stanie niskim jest również wyzwaniem, ponieważ prawie wszystkie inne symbiotyki wyrzucają więcej materiału w stanach wysokich niż w stanach niskich. Większość analiz CH Cyg koncentrowała się na danych fotometrycznych. Aby zrozumieć energetykę gorącego składnika i dynamikę Mgławicy, potrzebne będą szczegółowe modele danych spektroskopowych. Żaden z proponowanych modeli CH Cyg nie pozwala na wiele przewidywań dotyczących przyszłego zachowania systemu; dalsze prace mogą zaowocować lepszymi testami modeli i pozwolić na dokonanie ostatecznego wyboru pomiędzy nimi.
Gwiazdy CH i gwiazdy barowe
Klasyczne gwiazdy barowe (lub "Ba II") to CZERWONE GWIAZDY OGROMNE, których widma wykazują silne linie absorpcyjne baru, strontu i niektórych innych ciężkich pierwiastków, a także silne cechy spowodowane cząsteczkami węgla. Wraz z pokrewną klasą gwiazd CH, gwiazdy Ba II odegrały kluczową rolę w ustaleniu istnienia reakcji wychwytu neutronów we wnętrzach gwiazd, które są odpowiedzialne za syntezę ciężkich pierwiastków. Niedawno gwiazdy Ba II i CH dostarczyły mocnych dowodów na transfer masy w układach podwójnych, który drastycznie zmienia skład powierzchni gwiazdy towarzyszącej.
Gwiazdy barowe
Gwiazdy Ba II zostały po raz pierwszy rozpoznane przez W.P. Bidelmana i P.C. Keenana w 1951 roku. Są to olbrzymy G-K, których widma wykazują niezwykle silną linię absorpcyjną Ba II przy 4554 Å, wraz z wzmocnionymi liniami Sr II i pasmami molekularnymi CH, C2 i CN cząsteczki. Prototypem jest gwiazda trzeciej wielkości ζ Capricorni. W ciągu następnej dekady badania widm przy wysokim rozproszeniu wykazały, że zwiększa się liczebność wielu ciężkich pierwiastków, zwłaszcza pierwiastków Sr, Y i Zr; pierwiastki ziem rzadkich, takie jak La, Ce, Nd i Sm; i oczywiście Ba. Wkrótce zdano sobie sprawę, że są to dokładnie te pierwiastki, które mają zostać zsyntetyzowane, gdy jądra "zarodkowe" grupy żelaza zostaną wystawione na strumień neutronów i w ten sposób zostaną zbudowane do wyższych atomów wagowych, w skali czasowej, która jest powolna w porównaniu ze skalą czasową rozpadu beta. Ten tak zwany "proces s" prowadzi do dużej liczebności pierwiastków chemicznych o małych przekrojach wychwytu neutronów (stanowiących "wąskie gardła" w łańcuchu wychwytu neutronów), które są dokładnie pierwiastkami w szczytach mas atomowych wokół Sr i Ba.
Gwiazdy CH
Gwiazdy CH są blisko spokrewnioną klasą, właściwie odkrytą po raz pierwszy jeszcze wcześniej niż gwiazdy Ba II przez P.C. Keenana w 1942 roku. Są to w zasadzie odpowiedniki gwiazd baru w Populacji II, posiadające podobne wzmocnienia pierwiastków procesu s i bardzo silne pasma gwiazd Cząsteczka CH . Jednakże gwiazdy CH mają słabe cechy zwykłych metali, takich jak żelazo, ponieważ gwiazdy te należą do starej, ubogiej w metale populacji naszej Galaktyki. Gwiazdy CH znajdują się zarówno w halo galaktycznym, jak i w kilku gromadach kulistych. Gromada ? Centauri zawiera najbogatszą populację gwiazd CH, około pół tuzina.
Problem jasności
Na początku lat siedemdziesiątych XX wieku nukleosyntetyczne pochodzenie wzmocnionych pierwiastków chemicznych w gwiazdach Ba II i CH było dość dobrze poznane: powstają one we wnętrzach gwiazd, gdy strumień neutronów napromieniowuje jądra zarodkowe grup żelaza. Może się to zdarzyć na przykład podczas mieszania związanego z impulsami termicznymi helu, które łączą jądra 13C i cząstki alfa; każda reakcja uwalnia 16O jądro i wolny neutron. Węgiel jest syntetyzowany podczas spalania helu w jądrach czerwonych olbrzymów. Następnie proces mieszania powoduje, że produkty tych reakcji zostają odsłonięte na powierzchni gwiazdy. Jednakże w połowie lat siedemdziesiątych szczegółowe obliczenia ewolucji gwiazd ujawniły poważny problem ewolucyjny: wymagany rodzaj mieszania (zwany "trzecim pogłębianiem") występuje tylko w wysoko rozwiniętych, jasnych gwiazdach z asymptotycznej gałęzi olbrzyma (AGB) . Jednak wiadomo było, że gwiazdy Ba II i CH mają jasność jedynie zwykłych czerwonych olbrzymów, o wiele za słabą, aby mogło nastąpić jakiekolwiek pogłębianie. Problem zaostrzył się po odkryciu w 1974 r. przez H.E. Bonda tak zwanego "podolbrzyma gwiazdy CH", które są gwiazdami typu F i G o jeszcze niższych jasnościach, rozciągającymi się w niektórych przypadkach aż do ciągu głównego i wykazującymi podobne wzorce. wzmocnionych pierwiastków ciężkich i węgla. Późniejsze prace sugerują, że "karłowate gwiazdy barowe" byłyby lepszą nazwą dla większości gwiazd tej klasy, ponieważ większość z nich nie cierpi na skrajny niedobór żelaza. Jeszcze dalej w ciągu głównym, w typie widmowym K, pod koniec lat siedemdziesiątych XX wieku odkryto klasę "karłowatych gwiazd węglowych". Wszystkie te obiekty są zdecydowanie zbyt słabe, aby we własnych wnętrzach zsyntetyzować pierwiastki procesu S i węgiel, nie mówiąc już o wymieszaniu ich z powierzchnią gwiazdy. Co więcej, żaden z tych obiektów nie wydaje się być szczególnie rzadkimi gwiazdami; na przykład badania spektroskopowe na dużą skalę pokazują, że około 1% czerwonych olbrzymów należy do klasy Ba II, a podobny ułamek karłów F-G to karły baru lub podolbrzymy CH.
Rozwiązanie
Rozwiązanie problemu jasności pojawiło się na początku lat 80. XX wieku, kiedy R.D. McClure i jego współpracownicy ustalili, że praktycznie wszystkie gwiazdy Ba II i CH to spektroskopowe układy podwójne, z dość długimi okresami i typowymi odległościami orbitalnymi rzędu 2 AU. Doprowadziło to do uświadomienia sobie, że układ podwójny zawierał kiedyś gwiazdę AGB, wymieszał węgiel i pierwiastki procesu s na swoją powierzchnię, a następnie przeniósł tę "zanieczyszczoną" materię do gwiazdy towarzyszącej. W wielu przypadkach towarzysz znajdowałby się na ciągu głównym lub w jego pobliżu, a obecnie jest postrzegany jako karłowata gwiazda barowa, karłowata gwiazda węglowa lub podolbrzym CH. Kiedy zanieczyszczona gwiazda ciągu głównego ewoluuje, stając się czerwonym olbrzymem (lub jeśli transfer masy nastąpi bezpośrednio z gwiazdy AGB do towarzysza czerwonego olbrzyma), będzie postrzegana jako klasyczny czerwony olbrzym Ba II (lub jako gwiazda gwiazda CH, jeśli układ podwójny jest ubogim w metal członkiem populacji II).
Rozwiązanie potwierdzone
Bezpośrednim testem scenariusza podwójnego byłoby znalezienie towarzysza gwiazdy barowej - białego karła. Powyższy scenariusz w rzeczywistości wymaga, aby wszyscy towarzysze byli białymi karłami, czyli pozostałością po byłej gwieździe AGB. W oszałamiającym potwierdzeniu scenariusza E Böhm-Vitense wykazał w 1980 roku, że ζ Cap ma towarzysza gorącego białego karła, odkrytego w ultrafiolecie przez satelitę INTERNATIONAL ULTRAVIOLET EXPLORER. Późniejsze obserwacje UV za pomocą IUE, a ostatnio przeprowadzone przez Böhm-Vitense i jej współpracowników za pomocą Kosmicznego Teleskopu Hubble′a, ujawniły kilka kolejnych przykładów gwiazd Ba II z towarzyszami - białymi karłami. Jednak w wielu przypadkach biały karzeł osłabł poniżej wykrywalności, a jego obecność ujawnia się jedynie w zmiennej prędkości radialnej tej osobliwej gwiazdy optycznej.
Mechanizm zanieczyszczeń
Niedawne prace nad Ba II i pokrewnymi gwiazdami skupiły się na precyzyjnym mechanizmie, dzięki któremu gwiazda AGB zanieczyszcza swojego niewinnego towarzysza. Dwie główne możliwości to: (a) gwiazda AGB ewoluuje, aby wypełnić swój płat Roch′a, a następnie rozlewa znaczne ilości materiału otoczki na towarzysza; oraz (b) że gwiazda AGB zanieczyszcza towarzysza jedynie poprzez wiatr gwiazdowy. W scenariuszu (a) wynikiem byłoby zwykle oddziaływanie wspólnej otoczki, ze spiralnym opadaniem orbity do znacznie mniejszej odległości, tak że układ podwójny wyłonił się jako zmienna kataklizmiczna, a nie gwiazda barowa. Jednak niektórzy autorzy argumentowali, że możliwy jest stabilny przelew płatka Roche′a, co pozwala uniknąć spiralnego opadania. Scenariusz (b) jest prawdopodobnie bardziej prawdopodobny przynajmniej w przypadku większości gwiazd barowych, zarówno ze względu na ich wciąż duże odległości między orbitami, jak i dlatego, że wiele z nich ma nieco ekscentryczne orbity, co nie miałoby miejsca w przypadku przepełnienia płata Roch′a.
Obserwatorium rentgenowskie Chandra
Wystrzelone 23 lipca 1999 roku na pokładzie wahadłowca kosmicznego Columbia z przylądka Canaveral Obserwatorium Rentgenowskie Chandra jest pierwszym teleskopem astronomicznym w promieniach rentgenowskich, który dorównuje mocy obrazowania wynoszącej 1/2 sekundy łukowej i zdolności rozdzielczej widma wynoszącej 0,1% teleskopów optycznych. Nazwa Chandra pochodzi od Subramaniana Chandrasekhara, znanego jako Chandra i autora granicy Chandrasekhara. Chandra odniosła jak dotąd ogromny sukces i produktywność. (Wiele przykładów można znaleźć na stronie http://chandra.harvard.edu.) Każdy eksperyment, który jest 10 lub 100 razy lepszy od swoich poprzedników, jest praktycznie pewny, że dokona rewolucyjnych odkryć, a CHANDRA w dramatyczny sposób demonstruje ten truizm. Przykładami mogą być rozstrzyganie trwających od dziesięciu lat debat za pomocą jednej obserwacji: tak, promienie rentgenowskie komet powstają w wyniku wymiany ładunków; nie, większość galaktyk eliptycznych nie ma zbyt wiele gorącego gazu w swoim ośrodku międzygwiazdowym, ale mają odpowiednią ilość zwartych układów podwójnych; nie, przepływy chłodzące w gromadach galaktyk jak dotąd tylko chłodzą (do 2×107 K); i tak, KOSMICZNE TŁO PROMIENIOWANIA X składa się ze światła wielu kwazarów - około 1000 w każdym obszarze nieba wielkości Księżyca. Inne przykłady to zupełnie nowe odkrycia, które wymagają dalszych badań: typ kwazara, który, przewrotnie, jest zasłonięty w promieniach rentgenowskich, ale wyraźnie świeci w świetle optycznym; widmowe linie absorpcyjne, które wydają się pochodzić z kąpieli gorącego gazu, w której znajduje się nasza galaktyka Drogi Mlecznej i cała nasza Lokalna Grupa galaktyk. (Wydaje się, że jest tam bardzo dużo tego "ciepłego, gorącego ośrodka międzygalaktycznego" lub " CHWILA", że może to być nawet "brakująca masa", która spaja galaktyki Grupy Lokalnej); relatywistycznie poruszające się dżety z kwazarów świecą jasno na obrazach Chandry, o ile gromady galaktyk znajdują się naprzeciwko, i jaśniej, gdy są dalej, dzięki wyższej temperaturze i intensywności kosmicznego mikrofalowego tła, więc jest więcej tych fotonów zostać rozproszone przez szybko poruszające się elektrony dżetu, uzyskując w ten sposób wystarczającą energię, aby stać się promieniami rentgenowskimi, które widzimy. Potem są gniazda super jasnych układów podwójnych rentgenowskich w galaktykach wybuchowych, które wydają się przekraczać LIMIT EDDINGTONA, jeśli zawierają normalną czarną dziurę o masie 10 mas Słońca. Czy mogą sugerować nową i nieistniejącą populację czarnych dziur o masach pośrednich (100-10(4) mas Słońca)? Widmo gwiazdy neutronowej (tj. nie będącej w układzie podwójnym lub pozostałości po supernowej) przedstawia widmo ciała doskonale czarnego o dobrze określonej temperaturze, wraz z odległością daje jasność i łącząc je w ten sposób obszar GWIAZDY NEUTRONOWEJ. Może to być pierwszy przykład nowego typu gwiazdy i nowego typu materii - GWIAZDY KWARKOWEJ. Rozdzielczość Chandry zapewnia 100 razy większą czułość w porównaniu z wcześniejszymi misjami rentgenowskimi, ponieważ światło tła jest odbijane, umożliwiając dostrzeżenie znacznie słabszych źródeł, a także zapewnia dobrą rozdzielczość widmową. Rozdzielczość Chandry wynika z jej niespotykanego lustra rentgenowskiego. Promieniowanie rentgenowskie rejestrowane przez Chandrę ma zakres 0,1-10 keV (12-0,12 nm). Optyka rentgenowska odbija promienie rentgenowskie tylko wtedy, gdy uderzają przelotnie, pod kątem około 1°. Zatem zwierciadła rentgenowskie tylko nieznacznie zaginają światło, dając teleskopom rentgenowskim duże współczynniki f, 8,3 dla Chandry. Zatem lustro Chandry o średnicy 1,2 m musi mieć ogniskową 10,070 m. Aby zwiększyć powierzchnię Chandry, cztery zestawy niemal cylindrycznych muszli lusterek są zagnieżdżone jedna w drugiej, co daje w sumie 800 cm2. Aby poprawić współczynnik odbicia, są one pokryte irydem, pierwiastkiem o wysokim Z i dużej gęstości. Ponieważ do utworzenia obrazu potrzebne są dwa odbicia, stosuje się parabole/hiperbole Woltera typu 1. Przy długości fali fotonów wynoszącej zaledwie kilka nm powierzchnie zwierciadeł muszą być gładsze (<0,04 nm dla Chandry), w przeciwnym razie fotony zostałyby rozproszone pod dużymi kątami, zamazując obraz. Aby rozproszyć widmo promieniowania rentgenowskiego, Chandra posiada trzy zestawy transmisyjnych siatek dyfrakcyjnych, zoptymalizowanych pod kątem niskich (LETG), średnich (MEG) i wysokich (HEG) energii. Wszystkie mają gęstość linii około 1000 mm-1 i są zbudowane przy użyciu technologii półprzewodnikowej. Siatki zachowują się jak obiektywne pryzmaty, tworząc obraz źródła dla każdej długości fali. Ponieważ gwiazda tworzy mały obraz w Chandrze, różne długości fal są dobrze oddzielone. Chandra oferuje dwa typy detektorów: "ACIS" składa się z urządzeń ze sprzężeniem ładunkowym (CCD), kuzynów CCD kamer wideo; "HRC" wykonany jest z płytek mikrokanałowych stosowanych w goglach noktowizyjnych. HRC może określić czas przybycia fotonów promieniowania rentgenowskiego do 16 ms, ma najmniejsze piksele (0,4 sekundy łuku) i duże pole widzenia (30 minut łuku × 30 minut łuku). HRC ma czułość na fotony o niskiej energii (do E ∿0,05 keV), dlatego jest używany do obrazowania widm z LETG. ACIS ma lepszą wydajność i rozdzielczość energetyczną. ACIS wykorzystuje dwa typy chipów CCD: "oświetlone z przodu" (FI), które wykrywają promienie rentgenowskie o wyższej energii (E >1 keV), promienie rentgenowskie mają niskie tło, natomiast "oświetlone z tyłu" (BI) działają dobrze (QE > 0,5) do 0,5 keV. Przetworniki CCD rentgenowskie określają energię każdego promieniowania rentgenowskiego na podstawie liczby wytwarzanych przez nie elektronów. Przypadkowe wystawienie głównego układu 16 arcmin × 16 arcmin, składającego się z czterech przetworników CCD FI, na energetyczne (100 keV) protony w wietrze słonecznym tuż po wystrzeleniu obniżyło ich rozdzielczość energetyczną. Duża część tej rozdzielczości została odzyskana poprzez chłodzenie chipów i specjalne oprogramowanie. Mniejszy układ BI 8 arcmin × 8 arcmin BI pozostał nienaruszony. Ponieważ każdy foton jest rejestrowany indywidualnie, zdjęcia rentgenowskie mają cztery wymiary: położenie (x, y), energię i czas. Zatem w przeciwieństwie do Kosmicznego Teleskopu Hubble'a Chandra nie musi być trzymana nieruchomo podczas naświetlania obrazu. Wszelkie rozmycia usuwa się poprzez zmianę położenia każdego fotonu w oprogramowaniu (wykorzystując pozycje gwiazd z teleskopu optycznego o średnicy 11,2 cm) w Centrum Rentgenowskim Chandra, które obsługuje Chandrę dla NASA z Cambridge, Massachusetts (USA). Możliwość dowolnego wycinania zdjęć rentgenowskich jest nieoceniona przy analizach m.in. wyodrębnić widmo tego, co wygląda interesująco, bez konieczności wcześniejszego podejmowania decyzji. Chandra znajduje się na wysokiej orbicie (10 000 km × 140 000 km). Dzięki temu dowolną część nieba można obserwować bez ciągłego blokowania przez Ziemię, co zwiększa dostępność czasu obserwacji i umożliwia długie, nieprzerwane obserwacje w celu badania zmiennych źródeł. Do Chandry nie można dotrzeć promem kosmicznym, więc jej przetrwanie zależy od tego, czy żaden krytyczny system nie ulegnie uszkodzeniu ani nie zabraknie zapasów. Wszystko na pokładzie ma wytrzymać 15 lat lub dłużej. Żadnych planów istnieje możliwość zbudowania kolejnego teleskopu rentgenowskiego o porównywalnej rozdzielczości. Na szczęście NASA planuje eksploatować Chandrę przez co najmniej 10 lat.
Urządzenie ze sprzężeniem ładunkowym
Urządzenia ze sprzężeniem ładunkowym (CCD) to krzemowe detektory optyczne stosowane w większości obrazowań bliskiego UV, widzialnego i bliskiej podczerwieni oraz w spektroskopowych instrumentach astronomicznych. Mają format od rozdzielczości telewizyjnej (340 × 512 pikseli) do 10 000 × 10 000 pikseli. Nowoczesne przetworniki CCD charakteryzują się szumem wewnętrznym wynoszącym zaledwie kilka elektronów, zakresem dynamicznym wynoszącym 100 000 i wydajnością kwantową przekraczającą 90% w większości użytecznych długości fal roboczych. Te cechy sprawiają, że detektory CCD są wybieranym detektorem w przypadku większości wymagań dotyczących detekcji astronomicznej w zakresie widzialnym.
Historia i podstawy
Boyle i Smith wynaleźli matrycę CCD w Bell Labs w 1969 r. Przetworniki CCD, choć pierwotnie miały służyć jako urządzenie pamięci, są najczęściej stosowane jako detektory obrazu. Po raz pierwszy zastosowano je w astronomii pod koniec lat 70. XX wieku i szybko zastąpiły kliszę fotograficzną, układy fotodiod i detektory oparte na fotokatodach. Przetwornik CCD zasadniczo składa się z jedno- lub dwuwymiarowego układu kondensatorów typu metal-tlenek-półprzewodnik (MOS), w którym bramka ("metal") każdego kondensatora jest połączona z szynami, do których zewnętrzne stosowane są napięcia. Bramki te są w rzeczywistości wykonane z polikrzemu, a nie z metalu, aby umożliwić lepszą transmisję światła przez przednią konstrukcję. Minima studni potencjału powstają w krzemie pod bramkami CCD przy przyłożonym napięciu najbardziej dodatnim. Elektrony powstają z padających fotonów w wyniku efektu fotoelektrycznego, a te fotogenerowane elektrony są gromadzone w najbliższej studni potencjału. CCD są wrażliwe na wszystkie długości fal krótsze niż długość fali odcięcia ?cutoff, przy której energia E padającego fotonu jest taka sama jak energia pasma wzbronionego materiału detekcyjnego. Wszystkie fotony o krótszej długości fali mogą wzbudzić elektron z pasma walencyjnego detektora do pasma przewodnictwa. W przypadku krzemu, najczęściej używanego materiału do produkcji CCD, Ebandgap = 1,12 eV, więc λcutoff = 1,1 μm. Wszystkie bramki połączone ze sobą elektrycznie nazywane są fazą. Większość przetworników CCD stosowanych w astronomii to urządzenia trójfazowe, co oznacza, że do przesunięcia ładunku przez przetwornik CCD należy zastosować trzy napięcia elektryczne. Odległość od jednej fazy do następnej na tej samej szynie określa rozdzielczość detektora i nazywa się ją pikselem. Typowe rozmiary pikseli CCD to 5-30 μm. Najczęściej używany w astronomii przetwornik CCD składa się z dwuwymiarowego układu pikseli. Sekcję obrazu takiego urządzenia można postrzegać jako tablicę kolumn i rzędów pikseli z pojedynczym szeregowym rejestrem przesuwnym na końcu kolumn. Ładunek jest przesuwany (lub łączony z ładunkiem) o jeden wiersz na raz we wszystkich kolumnach jednocześnie, przesuwając ostatni wiersz do rejestru szeregowego. Kolumny są wyznaczone przez ograniczniki kanałów z silnie domieszkowanego materiału, które zapobiegają rozprzestrzenianiu się ładunku pomiędzy sąsiednimi kolumnami. W ten sposób nie są wymagane żadne bramki definiujące piksele w kierunku poziomym w obszarze obrazowania. Rejestr szeregowy sam jest taktowany tak, aby sekwencyjnie przenosić ładunek do wzmacniacza wyjściowego znajdującego się na jego końcu. Zewnętrzna elektronika i komputer służą do przekształcania tej analogowej sekwencji wyjściowej napięć na obraz.
Architektura i działanie
Działanie przetwornika CCD można podzielić na trzy tryby: zerowanie, całkowanie i odczyt. Wyczyszczenie jest wymagane, aby usunąć niechciany ładunek pobrany przez urządzenie przed dokonaniem integracji. Jedną z metod czyszczenia urządzenia jest przeniesienie ładunku z każdego piksela na urządzenie bez rejestrowania wynikowych danych. Podczas integracji na niektórych fazach ustawiane są napięcia dodatnie, aby określić potencjalne minima, w których gromadzą się fotoelektrony. Napięcie dodatnie jest przykładane do jednej lub dwóch z trzech faz. Co najmniej jedna faza każdego piksela musi być bardziej ujemna, aby stworzyć barierę dla rozprzestrzeniania się ładunku, bez której obraz byłby rozmazany. Możliwe jest, że bariera ta zostanie utworzona przez stały implant, a nie przyłożone napięcie. Podczas integracji fotoelektrony są zbierane, ale nie następuje żadne przesunięcie. ACCD musi zostać schłodzony, jeśli czas integracji jest dłuższy niż kilka sekund, aby zapobiec wypełnianiu studni potencjału przez samogenerujący się ciemny sygnał krzemu. Większość astronomicznych przetworników CCD schładza się do około -100°C w dewarze z ciekłym azotem. Wiele mniejszych przetworników CCD używanych do prowadzenia teleskopów (gdzie czas naświetlania wynosi zaledwie kilka sekund) opiera się na termoelektrycznych chłodnicach działających w temperaturze około -40°C w celu redukcji ciemnego sygnału. Po upływie czasu całkowania CCD wchodzi w fazę odczytu. Położenie każdego pakietu ładunku utworzonego podczas integracji jest przesuwane w kierunku wyjścia po przyłożeniu do szyn określonej sekwencji napięcia. W zależności od architektury można zastosować rozdzielone zegary równoległe, aby przesunąć połowę pikseli w kierunku jednego rejestru szeregowego a druga połowa w kierunku innego rejestru szeregowego, umożliwiając odczyt w o połowę krótszym czasie. Rejestr szeregowy można również podzielić, aby ładunek mógł zostać przesunięty w stronę wzmacniaczy na każdym końcu, co również skraca czas odczytu. Istnieje kilka typowych architektur naukowych dysków CCD. Do zbierania obrazów wykorzystywana jest cała powierzchnia urządzenia pełnoklatkowego i jest ona najpowszechniej wykorzystywana w astronomii. Pełnoklatkowa matryca CCD wymaga otwarcia migawki podczas integracji (lub naświetlania) i zamknięcia podczas odczytu, aby uniknąć smug ze źródła światła podczas przenoszenia ładunku. W matrycy CCD z transferem klatek połowa obszaru obrazowania jest pokryta nieprzezroczystą maską przechowującą ramki. Odsłonięta sekcja zbiera ładunek podczas integracji. Po zakończeniu ekspozycji ładunek jest bardzo szybko (10-6 do 10-4 s) przenoszony do obszaru magazynu klatek, gdzie może mieć miejsce wolniejszy odczyt, podczas gdy następna integracja zachodzi w części obrazu. Eliminuje to potrzebę stosowania mechanicznej przesłony kosztem utraty połowy obszaru detektora na potrzeby obrazowania. CCD z transferem międzyliniowym jest podobny do urządzenia do przesyłania ramek, ponieważ ma nieprzezroczystą szynę wzdłuż każdej kolumny, do której ładunek może być szybko przenoszony po każdym całkowaniu. Urządzenia transferu międzyliniowego są najczęściej używanymi przetwornikami CCD w zastosowaniach o dużym oświetleniu (takich jak wideo telewizyjne), ale rzadko są używane w zastosowaniach astronomicznych.
Wzmacniacze
Kiedy elektrony zostaną przesunięte na koniec rejestru szeregowego, są następnie wykrywane przez wzmacniacz wyjściowy. Bramka tranzystora (zwykle tranzystora polowego, w skrócie FET) jest połączona z węzłem sensorowym, na który przenoszony jest ładunek z ostatniego piksela szeregowego. Ładunek pojawia się jako napięcie na bramce tranzystora FET ze względu na pojemność węzła. Współczynnik konwersji wynosi zazwyczaj od 1 do 10 μV na elektron w przypadku nowoczesnych wzmacniaczy. Napięcie wyjściowe jest buforowane przez tranzystor FET w celu wytworzenia mierzalnego napięcia na rezystorze obciążenia umieszczonym poza chipem. To napięcie wyjściowe można łatwo wzmocnić w elektronice sterownika i przekształcić na sygnał cyfrowy za pomocą przetwornika analogowo-cyfrowego. Węzeł musi zostać zresetowany przed wykryciem każdego piksela, aby ładunek nie kumulował się od piksela do piksela. Szum odczytu jest miarą niepewności sygnału wyjściowego przetwornika CCD i często stanowi dominujące źródło szumu w zastosowaniach do obrazowania przy słabym oświetleniu. Podwójne lub powiązane próbkowanie (DCS) zmniejsza niepewność co do bezwzględnego poziomu naładowania węzła przy każdym resetowaniu. Przed przesunięciem każdego piksela węzeł jest resetowany za pomocą wbudowanego w układ resetowania FET. Napięcie wyjściowe jest próbkowane i rejestrowane, następnie mierzony piksel jest przesuwany do węzła, węzeł jest próbkowany ponownie, a różnica między dwiema próbkami jest obliczana i rejestrowana jako rzeczywista wartość piksela. Stosując DCS i niskoszumowe tranzystory wyjściowe FET, można uzyskać szum odczytu mniejszy niż dwa elektrony.
Sprawność kwantowa
Sprawność kwantowa (QEλ) matrycy CCD jest wyrażona wzorem QEλ = (1 - Rλ) exp(-αλ/t) gdzie Rλ to współczynnik odbicia padającej powierzchni detektora, αλ to długość absorpcji fotonów przy określonej długości fali oraz t jest efektywną grubością urządzenia. Przednie podświetlane matryce CCD mają fotony padające na strukturę bramki, która pochłania prawie całe światło niebieskie i UV. Urządzenia te nie są zatem przydatne dla λ < 400 nm. W podświetlanych (lub rozcieńczonych) matrycach CCD fotony padają na tylną stronę urządzenia, naprzeciwko konstrukcji bramki. Urządzenia te muszą być bardzo cienkie (<20 μm), aby fotoelektrony mogły zostać zebrane poniżej minimów potencjału w pobliżu bramek frontowych. Proces rozcieńczania jest trudny i kosztowny, ale QE jest ograniczony jedynie przez odbicie od tylnej powierzchni i zdolność krzemu do pochłaniania fotonów. Urządzenia podświetlane od tyłu mogą być pokryte powłoką przeciwodblaskową, aby uzyskać szczytową wartość QE większą niż 95% przy określonych długościach fal. QE matryc CCD znacznie spada w kierunku bliskiej podczerwieni, ponieważ długość absorpcji krzemu dramatycznie wzrasta od 100 Å w promieniu UV do 100 μm w bliskiej podczerwieni.
Skład chemiczny gwiazd
W 1835 roku w słynnej niedokładnej prognozie francuski filozof Auguste Comte napisał o gwiazdach, że: "Rozumiemy możliwość określenia ich kształtów, odległości, rozmiarów i ruchów; mając na uwadze, że nigdy nie dowiemy się, jak w jakikolwiek sposób zbadać ich skład chemiczny…" . Pod koniec XX wieku dokładny pomiar obfitości pierwiastków chemicznych w widzialnych warstwach powierzchniowych gwiazd wszystkich klas stał się stosunkowo prostą procedurą astrofizyczną. Jest to wynik kilku ważnych osiągnięć: (1) fizycznie realistycznej teorii budowy atmosfer gwiazdowych; (2) stacje komputerowe o dużej mocy, które mogą skutecznie integrować równania przenoszenia promieniowania przez modelową atmosferę gwiazdową; (3) zaawansowane kody teoretyczne dotyczące sytuacji złożonych fizycznie, takich jak odstępstwa od lokalnej równowagi termodynamicznej (LTE); (4) ulepszenia podstawowych danych atomowych potrzebnych do obliczenia nieprzezroczystości, które tworzą spektralne linie absorpcji; (5) spektrografy wysokiej rozdzielczości wyposażone w czułe i liniowe detektory elektroniczne; (6) dostęp do pełnego zakresu długości fal, w jakich gwiazdy emitują swoje światło, w tym ultrafioletu obserwowanego znad atmosfery ziemskiej. Obfitość pierwiastków chemicznych to nić łącząca większość naszej wiedzy o ewolucji gwiazd, galaktyk i wszechświata jako całości. Wszechświat powstał podczas Wielkiego Wybuchu, w wyniku którego powstało najwięcej pierwiastków, wodór (1H) i hel (4He), a także niewielkie ilości izotopów 2H (deuter), 3He i 7Li. Wszystkie pozostałe pierwiastki i izotopy występujące w przyrodzie powstały w wyniku reakcji jądrowych zasilających gwiazdy podczas normalnego przebiegu ich ewolucji lub w wyniku szybkiej NUKLEOSYNTEZY podczas końcowych kataklizmicznych eksplozji niektórych gwiazd jako SUPERNOWE lub, w przypadku kilku pierwiastków, w wyniku spalenia cięższych jąder przez cząstki PROMIENIA KOSMICZNEGO w ośrodku międzygwiazdowym. Niektóre produkty reakcji jądrowych zachodzących w gwieździe są wstrzykiwane z powrotem do ośrodka międzygwiazdowego, gdy gwiazda traci większość swojej masy podczas krótkich, końcowych etapów swojej ewolucji. Tam dostarczają surowca do powstania późniejszych pokoleń gwiazd, planet i ostatecznie samego życia. Ten scenariusz pochodzenia pierwiastków prowadzi do głębokich konsekwencji. Względna liczebność pierwiastków niekoniecznie jest stała w czasie i przestrzeni. Początkowy skład chemiczny gwiazdy to międzygwiazdowy obłok gazu i pyłu, z którego gwiazda powstała. Jest to funkcja miejsca narodzin gwiazdy w galaktyce oraz wieku i stanu ewolucji galaktyki w momencie powstania gwiazdy. Skład obserwowalnych warstw powierzchniowych gwiazdy może z biegiem czasu ulegać modyfikacjom w wyniku procesów zachodzących we WNĘTRZU GWIAZDY. Na przykład nuklidy powstałe w wyniku reakcji w centralnym jądrze gwiazdy lub w powłokach otaczających jądro mogą zostać wydobyte i zmieszane z nieprzetworzonym materiałem na powierzchni gwiazdy w trakcie jej ewolucji. Alternatywnie, zewnętrzne warstwy ewoluującej gwiazdy mogą zostać usunięte w wyniku utraty masy, pozostawiając odsłonięte wnętrze poddane obróbce jądrowej. Nawet w młodej, nierozwiniętej gwieździe atomy lub jony poszczególnych pierwiastków mogą osiadać pod obserwowalną powierzchnią pod wpływem grawitacji lub mogą być wypychane w górę pod wpływem ciśnienia promieniowania i osiągać wysokie stężenia w warstwach powierzchniowych, jeśli atmosfera i otoczka gwiazdy są silnie stabilny. Wreszcie gwiazda może akreować przetworzony materiał z podwójnego towarzysza podlegającego utracie masy. Ogólnie rzecz biorąc, jest to wspaniała złożoność. Pozwala nam wykorzystać zaobserwowany skład chemiczny gwiazd jako ślady ewolucji naszej własnej i być może innych galaktyk. Pozwala nam obserwować przebieg procesów zachodzących we wnętrzach gwiazd, które na co dzień są przed nami ukryte. Co więcej, aby wywnioskować nieprzezroczystość i średnią masę cząsteczkową, potrzebna jest przynajmniej przybliżona znajomość składu chemicznego gwiazdy ,jego materiału, które są istotnymi parametrami wejściowymi do obliczeń teoretycznych modeli jego atmosfery i struktury wewnętrznej. Takie modele są z kolei wykorzystywane do przeprowadzania szczegółowych analiz składu i przewidywania innych obserwowanych właściwości gwiazd. Spójność tych modeli teoretycznych z obiektami obserwacyjnymi, do przewidywania których służą - jasnością i barwą gwiazd, szczegółowym rozkładem strumienia gwiazdowego w zależności od długości fali, siłą i kształtem linii widmowych - daje pewność lub czasami rodzi pytania dotyczące naszego zrozumienia fizyki.
Jak mierzy się skład chemiczny gwiazdy
Za pomocą spektrografu astronomicznego zamontowanego na teleskopie można bezpośrednio obserwować tylko warstwy powierzchniowe gwiazdy. Dlatego obfitość pierwiastków chemicznych pochodzących ze spektroskopowo rozproszonego światła gwiazd ujawnia jedynie skład atmosfery gwiazdy. Naszą zdolność pomiaru składu powierzchni gwiazdy umożliwia kwantowa struktura atomów i jonów. Przejścia elektronów związanych elektrostatycznie między stanami energii kwantowej i związana z tym absorpcja lub emisja fotonów odciskają się na widmie gwiazdowym wzór dyskretnych linii o długościach fal i względnych siłach, które są unikalne dla każdego stanu jonizacji każdego pierwiastka układu okresowego. Dokładne pomiary długości fal i względnego natężenia linii widmowych pozwalają na identyfikację występujących w nich związków chemicznych. Zmierzone siły bezwzględne linii - ilość strumienia, który usunęły lub dodały do kontinuum światła emitowanego przez gwiazdę - wskazują na liczebność tych gatunków. Atmosfery chłodnych gwiazd również zawierają cząsteczki. Struktura kwantowa ich stanów energii elektronicznej i wibracyjnej wytwarza pasma blisko rozmieszczonych, dyskretnych linii absorpcji lub emisji, na podstawie których można zmierzyć obfitość. Chociaż możliwe jest zmierzenie obfitości na podstawie linii emisyjnych (linii jaśniejszych od kontinuum) wytworzonych w gorącej, cienkiej chromosferze lub koronie chłodnej gwiazdy, takiej jak Słońce, najprostsze i najdokładniejsze oznaczenia uzyskuje się na podstawie linii absorpcyjnych powstających w gęstsza fotosfera gwiazdowa (widmo Fraunhofera). Powodem jest zestaw upraszczających założeń, które dość dobrze charakteryzują warunki fizyczne panujące w fotosferach wielu gwiazd, umożliwiając dokładne obliczenia ich struktur i emitowanych widm. Należą do nich: (1) LTE (lokalne pole promieniowania jest sprzężone z lokalną temperaturą kinetyczną gazu), (2) płaska geometria równoległa (fotosfera jest bardzo cienka w porównaniu z promieniem gwiazdy), (3) równowaga radiacyjna (energia jest transportowany głównie przez promieniowanie) i (4) równowaga hydrostatyczna (fotosfera jest w zasadzie nieruchoma). W zasadzie naruszenia któregokolwiek z tych założeń można leczyć za pomocą fizycznie bardziej złożonych obliczeń teoretycznych. Jednak niekoniecznie będą one miały większą niezawodność, jeśli wejściowe parametry fizyczne będą niedokładne. Obserwowana głębokość linii absorpcyjnej wyśrodkowanej na długości fali λ w miejscu w profilu linii λ + Δλ , jest bezpośrednią miarą nieprzezroczystości atmosfery gwiazdowej wytwarzanej przez dyskretne przejścia elektronowe w atomach lub jonach danego pierwiastka, ponieważ absorbują fotony o długości fali λ + Δλ . Chemiczną liczebność pierwiastka wyznacza się poprzez porównanie zaobserwowanych mocy i kształtów jego linii widmowych z teoretycznym modelem strumienia wyłaniającego się z gwiazdy, obliczonym poprzez rozwiązanie równania PRZENOSZENIA PROMIENIOWANIA przez modelową atmosferę gwiazdową w obecności tej linii nieprzezroczystość. Teoretyczny model atmosfery gwiazdowej odpowiedni dla konkretnej gwiazdy umożliwia zestawienie temperatury kinetycznej gazu, ciśnienia i gęstości elektronów na dowolnej głębokości x poniżej nominalnej "powierzchni" gwiazdy. Oblicza się go przy założeniu zawartości wodoru i helu oraz co najmniej przybliżonej szacunkowej zawartości cięższych pierwiastków. Z tych informacji można wyprowadzić całkowitą ciągłą nieprzezroczystość κλ przy dowolnej długości fali, wytworzoną na głębokości x w wyniku jonizacji atomów lub jonów (przejścia elektronowe bez wiązań), dysocjacji molekularnej i rozpraszania elektronów. Promieniowanie wychodzące z gwiazdy na wszystkich długościach fal jest tłumione przez te ciągłe źródła nieprzezroczystości, dlatego przy obliczaniu strumienia wyłaniającego się należy uwzględnić zarówno liniowe, jak i ciągłe nieprzezroczystość na dowolnej długości fali. W przypadku braku linii widmowych strumień ten jest ustalany całkowicie przez ciągłe nieprzezroczystość, dlatego spektroskopiści czasami nazywają "kontinuum wolne od linii" jako referencyjny poziom strumienia, względem którego mierzy się siłę linii widmowej. Nieprzezroczystość linii wyraża się jako współczynnik pochłaniania linii (jednostki cm2 g-1)
lλ(x, Δ&lambdal) = const × [nel,r,s(x)/Nel](Nel/NH)NHfΦλ(x, Δ&lamdba;) × (1 - e-hc/?kT )
Współczynnik Nel/NH, stosunek całkowitej liczby atomów i jonów pierwiastka na gram materiału gwiazdowego do liczby atomów i jonów wodoru na gram, jest kluczowym parametrem liczebności, który staramy się mierzyć. Dozwolone są dowolne zmiany w obliczeniach, dopóki nie uzyskają dobrego dopasowania do obserwacji. Wszystkie pozostałe czynniki w równaniu (1) należy oceniać ostrożnie, aby nie zakłóciły dokładności pomiaru liczebności. Współczynnik nel,r,s(x)/Ne jest ułamkiem populacji pierwiastka znajdującego się w stanie wzbudzenia s stanu jonizacji r, z którego wychodzi linia. W LTE ułamek ten jest określony przez połączone równania Boltzmanna i Saha. Założeniem LTE jest rozsądne przybliżenie warunków fizycznych panujących w głębszych, gęstszych warstwach atmosfery gwiazdowej, gdzie powstaje wiele słabych i średnio silnych linii widmowych. Czasami jednak wymagane jest bardziej rygorystyczne traktowanie odchyleń poziomu energii populacji i równowagi jonizacji od ich wartości LTE. Liczba atomów wodoru i jonów na gram materiału gwiazdowego, NH w równaniu (1), wynika bezpośrednio z mieszaniny obfitości wodoru, helu i metali przyjętej w pierwotnych obliczeniach atmosfery modelowej. Współczynnik f to prawdopodobieństwo przejścia, czyli prawdopodobieństwo, że atom zaabsorbuje lub wyemituje foton pomiędzy dwoma określonymi stanami energetycznymi. Można to wyznaczyć w laboratorium, na przykład mierząc czas życia górnego poziomu przejścia, selektywnie wypełnionego wzbudzeniem indukowanym laserem. Wartość tę łączy się następnie ze zmierzonym ułamkiem przejść w dół z górnego poziomu, które kończą się w dolnym stanie wzbudzenia danej linii (ułamek rozgałęzienia), aby otrzymać prawdopodobieństwo przejścia. Wartość f można również obliczyć za pomocą kodów półempirycznych, które wykorzystują zmierzone poziomy energii atomu lub na podstawie teoretycznych obliczeń struktury atomu od początku, przy użyciu złożonych programów mechaniki kwantowej. Błędy systematyczne w wartościach f są powszechnie znane jako główna przyczyna błędów w pomiarach liczebności. Co więcej, brak kompleksowej i dokładnej bazy danych wartości f może udaremnić nawet najbardziej wyrafinowane obliczenia populacji poziomów bez LTE. Współczynnik 1 - ehc/λkT w równaniu (1) koryguje stymulowaną radiacyjnie emisję fotonów w linii. Tutaj h to stała Plancka, k to stała Boltzmanna, c to prędkość światła, a T to lokalna temperatura kinetyczna gazu. Funkcja Φλ(x, Δλ) w równaniu (1) opisuje mechanizmy mikroskopowe, które nadają linii widmowej skończoną szerokość i kształt w warunkach temperatury i gęstości na głębokości x. Mogą one wpływać na obserwowaną siłę linii (ze względu na nasycenie promieniowania dostępnego do zaabsorbowania przy długości fali λ + Δλ). Poszerzenie linii wynika z szeregu procesów: (1) przesunięć Dopplera wynikających z ruchu termicznego i turbulencji gazu na małą skalę; (2) skończony rozkład energii górnego i dolnego stanu przejścia (wynik zasady nieoznaczoności Heisenberga); (3) zaburzenia stanów energetycznych pod wpływem pól elektrostatycznych cząstek w otaczającym gazie (rozszerzenie Starka i van der Waalsa); (4) przesuwanie lub dzielenie poziomów energii przez pola magnetyczne (efekt Zeemana) lub efekty jądrowe (rozszczepianie nadsubtelne i przesunięcia izotopowe). Mechanizmy makroskopowe, które również zmieniają szerokość i kształt linii, ale bez zmiany jej całkowitej siły, obejmują ruchy mas na dużą skalę (turbulencje, konwekcja i utrata masy) oraz rotację gwiazd. Kiedy linie widmowe stają się bardzo mocne (silnie nasycone lub czarne w środkach), stają się mniej wrażliwe na zmiany liczebności (efekt krzywej wzrostu), a bardziej wrażliwe pod względem siły na funkcję Φ(x,Δλ). Zatem mocne linie stanowią poważne wyzwanie dla określenia dokładnych liczebności. Światło emitowane na głębokości x pod kątem θ do normalnej powierzchni atmosfery gwiazdowej jest tłumione na swojej drodze do powierzchni przez współczynnik exp(-τλ/ cos θ), gdzie bezwymiarowa głębokość optyczna τλ jest dana wzorem
oraz ρ(x) to gęstość materiału gwiazdowego na głębokości x. Promieniowanie wychodzi z jednostkowego obszaru powierzchni gwiazdy z dużą intensywnością
Funkcja Sλ nazywana jest "funkcją źródła" i jest definiowana jako stosunek energii emitowanej na jednostkę masy, czasu, długości fali i kąta bryłowego (współczynnik emisji) na głębokości optycznej τλ do całkowitego współczynnika absorpcji lλ + κλ. Jakościowo równanie (3) stwierdza po prostu, że promieniowanie emitowane z większych głębokości w atmosferze ulega większemu osłabieniu, zanim pojawi się na powierzchni gwiazdy. W LTE funkcją źródła jest po prostu funkcja Plancka opisująca emisję ciała doskonale czarnego w temperaturze T ,
Słońce jest jedyną gwiazdą, której powierzchnię postrzega się jako wydłużony dysk, który można obserwować spektroskopowo w zakresie kątów θ od jego środka (θ = 0°) do ramienia (θ = 90°). Zatem równanie (3) ma bezpośrednie zastosowanie w modelowaniu obserwowanego natężenia światła słonecznego w określonym punkcie dysku słonecznego. W przypadku wszystkich innych gwiazd odpowiednią wielkością jest zintegrowane natężenie na półkuli gwiazdy zwróconej w stronę Ziemi. To, co obserwuje się przy długości fali λ, w widmie gwiazdy o promieniu R w odległości d od Ziemi, to strumień
Wielkość 2πR2/d2 można traktować jako współczynnik skalowania, będący produktem ubocznym dopasowania obserwowanego strumienia do zintegrowanej emitowanej intensywności obliczonej z modelowej atmosfery gwiazdowej. Rysunek przedstawia przykład procesu opisanego powyżej.
Tutaj dopasowaliśmy obserwowane widmo linii absorpcyjnej chemicznie osobliwej gwiazdy ciągu głównego typu B do teoretycznie modelowanego widma syntetycznego, aby wyznaczyć liczebność bardzo ciężkiego pierwiastka, talu (liczba atomowa 81). W tym przypadku najlepsze dopasowanie widma uzyskuje się przy założeniu, że tal występuje w postaci izotopowo czystego 205Tl, z obfitością 4,66. Zgodnie z konwencją liczebność substancji chemicznych wyrażana jest w odniesieniu do wodoru w skali logarytmicznej, log(Nel/NH) + 12. W atmosferze tej gwiazdy liczebność talu przewyższa tę w Słońcu o 3,76 w tych jednostkach logarytmicznych, tj. o współczynnik 103,76 ≈ 5700.
Słońce jako wzorzec odniesienia dla obfitości substancji chemicznych
Obfitość pierwiastków w Słońcu i otaczającym Układzie Słonecznym jest znana szerzej i bardziej wiarygodnie niż w przypadku jakiejkolwiek innej gwiazdy. Widma FOTOSFERY SŁONECZNEJ obserwuje się z bardzo wysoką rozdzielczością widmową i stosunkiem sygnału do szumu ze względu na dużą jasność źródła, co pozwala na dokładny pomiar profili wielu słabych lub mieszanych linii absorpcyjnych. Co więcej, strukturę i procesy fizyczne fotosfery słonecznej dobrze poznano nie tylko na podstawie modeli teoretycznych, ale także obserwacji empirycznych (np. zaobserwowanych zmian w natężeniu światła słonecznego od środka do krawędzi dysku słonecznego). OBECNOŚĆ fotosferycznego SŁONECZNEGO została zmierzona dla około 60 pierwiastków chemicznych, a z nich 43 z dokładnością do 25% lub lepszą - mały słupek błędu, biorąc pod uwagę, że zakres obfitości obejmuje 12 rzędów wielkości. Aby Słońce mogło służyć jako użyteczny punkt odniesienia, z którym można porównać obfitość fotosfery innych gwiazd, ważne jest ustalenie (1), że skład powierzchni Słońca jest zasadniczo taki sam jak skład gazu i pyłu międzygwiazdowego, z których się ono składa uformowało się (tj. nie zostało zmienione przez procesy endemiczne dla samego Słońca) oraz (2) że obfitość fotosfery Słońca jest, przynajmniej średnio, reprezentatywna dla innych gwiazd powstałych mniej więcej w tym samym czasie w tym samym regionie Galaktyki . Skład fotosfery słonecznej jest ściśle zgodny ze składem rzadkiej klasy meteorytów, węglowych CHONDRYTÓW typu CI, w przypadku tych pierwiastków, których w obu przypadkach zmierzono dokładne ilości. Głównymi wyjątkami są Li, Be i B, które są transportowane przez konwekcję do wnętrza Słońca i wyczerpywane w wyniku spalania jądrowego w stosunkowo niskich temperaturach. Obfitość meteorytów można dokładnie zmierzyć w laboratorium, co stanowi ważną kalibrację dokładności pomiarów liczebności astrofizycznej. W przypadku niewielkiej liczby ciężkich pierwiastków, w przypadku których istnieją znaczne rozbieżności między pomiarami meteorytowymi i fotosferycznymi, wysoce niepewne są obfitości fotosfery. Datowanie radiometryczne meteorytów chondrytycznych wskazuje, że są one tak stare jak sam Układ Słoneczny (4,55 Gyr). Chondryty węglowe zawierają stosunkowo dużą ilość pierwiastków lotnych i uważa się, że powstały w dużej odległości od Słońca. Ścisła zgodność między składem meteorytów CI a fotosferą słoneczną jest mocnym dowodem na to, że skład chemiczny Słońca jest (z kilkoma wyjątkami) taki sam jak skład mgławicy przedsłonecznej. Dokładne pomiary składu chemicznego gwiazd ciągu głównego obejmujących Słońce w typie widmowym (Słońce jest typu G2 V) wskazują, że skład Słońca jest typowy dla gwiazd podobnych wiekiem do Słońca, "metalicznością" (na co wskazują ich obfitość żelaza) i odległość powstania od centrum Galaktyki. Dotyczy to przynajmniej kilkunastu pierwiastków, których liczebność została zmierzona na podstawie widm optycznych w dużych badaniach statystycznych. Obfitość pierwiastków w Układzie Słonecznym często określa się jako "obfitość kosmiczną" lub "obfitość normalną". Terminy te są nadmiernie uproszczone. Jednakże Układ Słoneczny zapewnia reprezentatywną próbkę liczebności w określonym czasie i miejscu w historii Galaktyki, która z nielicznymi wyjątkami pozostaje niezmieniona przez procesy zachodzące w samym Słońcu.
Zmiany obfitości w czasie i przestrzeni
Galaktyka jest gęsto zaludniona gwiazdami o małej masie, takimi jak Słońce. Teoretyczne czasy życia takich gwiazd, od ciągu głównego wieku zerowego do wierzchołka gałęzi czerwonego olbrzyma, wahają się od około 4,5 Gyr dla karła F5 o składzie słonecznym (1,3 masy Słońca) do około 29 Gyr dla karła K0 ( 0,8 masy Słońca). Życie Słońca wynosi około 12 Gyr. W rezultacie wiek gwiazd w tej dużej i szeroko rozpowszechnionej populacji obejmuje całą historię Galaktyki. Łącznie skład chemiczny ich powierzchni stanowi encyklopedię ewolucji Galaktyki. W przeciwieństwie do masywniejszych gwiazd typu O, B i A ( ≥ 3 masy Słońca), które są gorętsze i świecą jaśniej, mają krótki czas życia w ciągu głównym &asd;106-108 lat. Te młode gwiazdy przedstawiają dzisiejszy skład i stan ewolucji materii galaktycznej. Skład pojedynczej gwiazdy jest podyktowany przez środowisko, w którym powstała gwiazda. To z kolei wynika z dotychczasowej historii nukleosyntezy gwiazd, procesów prowadzących do wyrzucenia nuklidów do ośrodka międzygwiazdowego, względnej ilości czasu potrzebnego do zajścia tych procesów oraz dynamiki Galaktyki , który miesza i homogenizuje materię międzygwiazdową. Chociaż we wnętrzach gwiazd występuje wiele różnych łańcuchów reakcji jądrowych, tylko kilka z nich ostatecznie prowadzi do znacznego wzbogacenia chemicznego ośrodka międzygwiazdowego. Istnieją obecnie wiarygodne scenariusze wyjaśniające astrofizyczne wytwarzanie zasadniczo wszystkich pierwiastków chemicznych, dzięki dużym postępom w teorii ewolucji gwiazd w połączeniu z szeroką gamą współczesnej obserwacyjnej spektroskopii gwiazd. Zostały one opisane w poniższym podsumowaniu. Jest to jednak duży krok od wiarygodnego scenariusza do rozstrzygającego dowodu obserwacyjnego, a w niektórych przypadkach pozostaje jeszcze wiele do zrobienia. Uważa się, że najliczniejsze IZOTOPY pierwiastków cięższych od boru powstają głównie w jednym lub większej liczbie z następujących miejsc: (1) supernowe typu II (SNII), (2) supernowe typu Ia (SNIa) oraz (3) wysoko rozwinięte niziny i gwiazdy o masach pośrednich (1-7 mas Słońca). Supernowe typu II to masywne gwiazdy (>7-8 mas Słońca), które kończą swoje życie w gigantycznych eksplozjach. Supernowe typu Ia to białe karły węgiel-tlen (CO) znajdujące się w bliskich układach podwójnych, które eksplodują w wyniku deflagracji jądrowej węgla w wyniku przeniesienia masy z towarzysza podwójnego lub połączenia z nim. Otoczki gwiazd o małych i średnich masach są chemicznie wzbogacane w wyniku uporządkowanej sekwencji wewnętrznych procesów jądrowych podczas ich życia. Otoczki te są rozrzucane w postaci wiatrów gwiazdowych i mgławic planetarnych, gdy gwiazdy ewoluują z asymptotycznej gałęzi olbrzyma (AGB). Uważa się, że masywniejsze gwiazdy AGB wytwarzają większość węgla i azotu w Galaktyce. Tlen i "pierwiastki ?", których najliczniejsze izotopy są całkowitymi wielokrotnościami jądra helu (Mg, Si, S, Ar, Ca i Ti), są produkowane głównie przez SNII. Lekkie pierwiastki "dziwne Z", Na i Al, najwyraźniej pochodzą z bardziej masywnego i bogatego w metale SNII. Elementy "żelaznego piku" (V, Cr, Mn, Fe, Co, Ni) pochodzą z obu typów supernowych, ale SNIa daje znacznie wyższy uzysk tych pierwiastków. Pierwiastki cięższe od piku żelaza powstają w wyniku kolejnego wychwytu neutronów. W PROCESIE JĄDROWYM podczas impulsów termicznych powłoki helu we wnętrzach gwiazd AGB o małej masie (1-3 masy Słońca) wychwytywanie neutronów następuje stale, ale rzadko, co pozwala na wystąpienie rozpadu beta neutronu przed kolejnymi wychwytami neutronów. Jest to proces "s- (powolny)". Elementy procesu S, których najliczniejsze izotopy tworzone są przez proces ten obejmuje Sr, Y, Zr, Nb, Ba, La, Ce i Nd. Zdarzenia wybuchowe, takie jak supernowe, charakteryzują się dużymi strumieniami neutronów. Elementy "procesu R (szybkiego)" powstają w takich środowiskach, gdy wychwyt neutronów następuje tak szybko, że rozpad beta nie może nastąpić przed kolejnymi wychwytami neutronów. Nagłe zakończenie wychwytu neutronów po zakończeniu zdarzenia wybuchowego daje w wyniku wzór obfitości wyrzuconego materiału bogatego w niestabilne beta izotopy o dużej liczbie neutronów, które następnie rozpadają się na bardziej stabilne nuklidy. Jak zmierzono w Układzie Słonecznym, około 2/3 z 49 stabilnych pierwiastków cięższych od Ge składa się wyłącznie lub głównie z izotopów procesu r. Są to jednak bardzo niskie obfitości, śladowe składniki materiału słonecznego. Wzorzec względnej liczebności elementów słonecznego procesu r wydaje się prawie identyczny z obserwowanym w bardzo starych, ubogich w metale gwiazdach w halo Galaktyki. Sugeruje to, że wszystkie nuklidy procesu r pochodzą z jednego miejsca, najprawdopodobniej z SNII. Rysunek przedstawia przykład wykorzystania obfitości substancji chemicznych w gwiazdach do badania ewolucji Galaktyki.

Zgodnie z konwencją, współczynnik liczebności podany w nawiasach kwadratowych to logarytmiczna wartość liczebności w stosunku do liczebności w Układzie Słonecznym, [A/B] = log (NA/NB)STAR - log (NA/NB)SUN. Pomiędzy metalicznością [Fe/H] = -1 a -4, co odpowiada starym gwiazdom w halo galaktycznym, zmierzona liczebność pierwiastków α w stosunku do żelaza przekracza wartość słoneczną średnio o około +0,4 dex. Występuje duży rozrzut między gwiazdami, który jest częściowo rzeczywistym, a częściowo błędem pomiaru. Jednakże w przypadku ogólnie młodszych gwiazd z populacji dysków o metaliczności [Fe/H] = -1 do 0 lub wyższej, wartość [α/Fe] stale spada w kierunku wartości słonecznej wraz ze wzrostem metaliczności. Ten wzór interpretuje się jako wynikający z opóźnienia czasowego między szybką ewolucją (<0,02 Gyr) masywnych gwiazd w SNII a znacznie wolniejszą ewolucją (0,1-10 Gyr) przodków białych karłów CO w SNIa. SNII wytwarzają wysoką wydajność pierwiastków ? i małe ilości żelaza. Wybuch powstawania masywnych gwiazd na początku życia Galaktyki wkrótce potem spowodowałby wyrzucenie przez SNII materiału stosunkowo bogatego w pierwiastki ? do ośrodka międzygwiazdowego, dostarczając surowca do formowania gwiazd o wzmocnionej alfa o niskiej metaliczności. Za około kilkaset milionów lat pierwsza SNIa wyewoluowałaby ze swoich przodków o masie 7-8 mas Słońca, dając materiał protogwiazdowy znacznie wzbogacony w pierwiastki szczytowe żelaza, ale z niewielką dodatkową produkcją pierwiastków ?. W tym momencie stosunek [?/Fe] zacząłby się zmniejszać i tendencja ta będzie się utrzymywać, w miarę jak progenitory SNIa o coraz mniejszej masie osiągały punkt końcowy swojej ewolucji. Scenariusz ten potwierdzają pomiary liczebności gwiazd, takie jak te przedstawione na ryc. 2. Elementy procesu r wykazują trend, w którym [Fe/H] jest nieco podobny do pierwiastków α. To właśnie ten dowód sugeruje, że SNII może być również odpowiedzialny za ich produkcję. W najbardziej wewnętrznych 7 kpc dysku galaktycznego najstarsze gwiazdy ubogie w metale ([Fe/H] = od -1 do -0,5) mają większe wzmocnienia [α/H] niż ich odpowiedniki w większych odległościach od centrum Galaktyki . Ponadto zwiększenie liczebności pierwiastków α utrzymuje się przy wyższych wartościach metaliczności w gwiazdach położonych bliżej centrum Galaktyki. Sugeruje to, że FORMOWANIE GWIAZD, szczególnie masywnych gwiazd, które stały się SNII, prawdopodobnie rozpoczęło się wcześniej i przebiegało w większym tempie w wewnętrznej części dysku galaktycznego. Istnieją poważne dowody na to, że skład chemiczny dysku galaktycznego nie ewoluował jednorodnie. Na przykład bardzo trudno jest dostrzec wyraźny związek pomiędzy [Fe/H] a wiekiem gwiazdy w sąsiedztwie Słońca, chociaż takiego związku można by się spodziewać na podstawie prostych modeli ewolucji Galaktyki. Najmłodsze gwiazdy mają [Fe/H] ∿0, a najstarsze [Fe/H] ∿ -1. Jednakże istnieje duży i rzeczywisty rozrzut metaliczności we wszystkich przedziałach wiekowych pomiędzy. Szacuje się, że naturalne zróżnicowanie w zawartości żelaza wśród gwiazd w tym samym wieku wynosi około ± 25-50% (1?). Przyczyny tego rozproszenia nie są w pełni poznane. Jest oczywiste, że wzbogacenie w metal ośrodka międzygwiazdowego, z którego powstają gwiazdy, jest funkcją nie tylko czasu, ale także lokalizacji. Do ważnych czynników mogą należeć (1) lokalne zmiany w początkowej funkcji masy i szybkości powstawania gwiazd, (2) epizodyczny opad materiału o niskiej metaliczności (który może rozrzedzić gaz międzygwiazdowy) na zlokalizowane obszary dysku oraz (3) szybkość, z jaką Galaktyka dysk zostaje dobrze wymieszany z gazem zawracanym do obiegu w wyniku nukleosyntezy gwiazdowej. Gwiazdy halo galaktycznego charakteryzują się niedoborem metali, średnio około -1,6 in [Fe/H]. Aktualny rekord obserwowanej gwiazdy ubogiej w metal należy do giganta z halo CD -38 245 z [Fe/H] = -4,01. Intensywne poszukiwania gwiazd o zerowej metaliczności w Galaktyce zakończyły się niepowodzeniem. Sugeruje to, że najwcześniejsza epoka nukleosyntezy mogła mieć miejsce przed powstaniem samej Galaktyki, w podstrukturach protogalaktycznych. Gwiazdy w halo zawierają znacznie większą proporcję pierwiastków procesu r niż Słońce. W przypadku bardzo starych gwiazd o niskiej metaliczności, [Fe/H] < -2,5, rozproszenie między gwiazdami w obfitości pierwiastków procesu r jest znacznie większe niż w przypadku przypuszczalnie młodszych gwiazd o wyższej metaliczności. Jest prawdopodobne, że wczesna ewolucja chemiczna halo była zdominowana przez stosunkowo niewielką liczbę SNII o szerokim zakresie wydajności ciężkich pierwiastków. Skład materiału międzygwiazdowego halo był bardzo niejednorodny na początku życia Galaktyki, ale w miarę upływu czasu stawał się mniej jednorodny, a wyrzucane dyskretne zdarzenia SNII stawały się coraz dokładniej wymieszane.
Obfitość powierzchni jako okno do wnętrza gwiazd
Gwiazdy spędzają większość swojego życia na ciągu głównym spalającym wodór. W tej fazie skład chemiczny ich powierzchni, z nielicznymi wyjątkami, nie daje żadnych wskazówek na temat transmutacji jądrowych zachodzących głęboko w ich wnętrzach. Kiedy jednak gwiazda wyczerpie zapasy wodoru w swoim centralnym jądrze, ulega stosunkowo szybkim i dynamicznym zmianom w swojej strukturze, związanym z różnymi fazami ewolucji po ciągu głównym. Produkty spalania nuklearnego można następnie wydobyć do powierzchni w wyniku konwekcji (prawdopodobnie wspomaganej przez cyrkulację indukowaną obrotowo) lub wystawionej na widok w wyniku dużej utraty masy, lub obu. Zatem zaobserwowany skład powierzchni wyewoluowanych gwiazd dostarcza ważnych podstaw empirycznych dla teorii EWOLUCJI GWIAZD. Modyfikacje składu powierzchni w ten sposób mogą przybierać kilka form: (1) zmiany względnej obfitości węgla, azotu i tlenu oraz izotopów węgla, które charakteryzują spalanie H do He w cyklu CNO; (2) zwiększenie bezwzględnej obfitości węgla wytwarzanego jako produkt reakcji "triplealfa", która przekształca He w C; (3) ulepszenia elementów procesu s powstałych w wyniku wychwytu neutronów uwolnionych np. podczas konwersji w "procesie alfa" 14N na 25Mg i 13C na 16O; (4) wyczerpywanie się wodoru i wzbogacanie w węgiel, azot, tlen i pierwiastki procesu s w miarę utraty masy zdzierania bogatej w wodór otoczki gwiazdowej. W układzie podwójnym transfer masy z wysoko rozwiniętej gwiazdy do towarzysza o mniejszej masie może skutkować podobnymi modyfikacjami obfitości atmosfery tego ostatniego, która następnie wykazuje anomalie obfitości najwyraźniej sprzeczne ze stanem mniej rozwiniętym. Terminologia klasyfikacji widmowej gwiazd ewolucyjnych o "anomalnej" obfitości powierzchni (np. gwiazdy typu C, R, S, N, Ba, CH, HdC, RCrB, OBN, OBC, WN, WC, WO) ma swoje korzenie w ponad stuletniej historii obserwacyjnej spektroskopii gwiazd. Nie przekazuje żadnych informacji na temat postępu ewolucji gwiazd w dzisiejszym rozumieniu, którego logicznym produktem ubocznym jest rozwój "anomalii" obfitości. Te nowoczesne ramy dobrze ilustruje przewidywany przyszły przebieg ewolucji Słońca. W ogólnym zarysie scenariusz ewolucji Słońca jest podobny do scenariusza wszystkich gwiazd o masach do około 7-8 mas Słońca. Główna różnica między gwiazdami w tym zakresie mas wiąże się ze sposobem, w jaki zaczynają one spalać hel w węgiel w swoich centralnych jądrach na późnym etapie życia - wybuchowo w przypadku gwiazd o masach mniejszych niż około 2,5 masy Słońca, spokojnie w przypadku gwiazd bardziej masywnych. Po wyczerpaniu się centralnego źródła paliwa wodorowego Słońca, jego rdzeń helowy skurczy się, rozpocznie się spalanie powłoki wodorowej, nastąpi rozszerzenie otoczki, a Słońce ewoluuje od ciągu głównego w górę gałęzi czerwonego olbrzyma (RGB). Na początkowych etapach ewolucji w górę RGB otoczka konwekcyjna Słońca będzie sięgać głęboko do wnętrza i w tej "pierwszej fazie pogłębiania" wydobędzie na powierzchnię produkty obróbki jądrowej CN, które miały miejsce, gdy Słońce znajdowało się na ciąg główny. Fotosfera słoneczna zostanie wzbogacona w azot i zmniejszona w węgiel, wraz ze spadkiem stosunku 12C/13C. Takie zmiany obserwuje się na powierzchniach gwiazd pola bogatych w metale, takich jak Słońce, gdy rozpoczynają one wspinanie się w górę RGB, co jest zgodne z przewidywaniami standardowej teorii ewolucji gwiazd. Jednakże wyżej w RGB Słońce może wykazywać dodatkowe modyfikacje liczebności tego samego typu, wskazujące na wydobywanie materiału przetworzonego za pomocą CN z głębokich warstw w pobliżu powłoki spalającej wodór. Jasne, ubogie w metale gwiazdy RGB w Gromadach Kulistych mogą również wykazywać produkty przetwarzania ON i reakcji wychwytywania protonów na powierzchni gwiazdy. Obserwuje się zwiększoną zawartość azotu, zubożoną ilość tlenu, bardzo niskie wartości 12C/13C (3-4) i nienormalną obfitość sodu, glinu i magnezu. Zarówno w przypadku gwiazd RGB pola bogatego w metal, jak i gwiazd RGB z gromady kulistej ubogich w metale, tego dodatkowego mieszania się z głębokimi obszarami wewnętrznymi nie przewiduje się w podstawowych modelach teoretycznych wnętrza gwiazd. Standardowe modele tych bardziej rozwiniętych gwiazd RGB zawierają rozszerzony obszar promieniowania pomiędzy powłoką spalającą wodór a otoczką konwekcyjną, która zapobiega ich kontaktowi. Uważa się, że rozwiązanie tego dylematu leży w wpływie rotacji gwiazd, która wytwarza prądy cyrkulacyjne zdolne do transportu materiału przetworzonego przez CN i ON w górę do podstawy strefy konwekcji (patrz także OBRÓT GWIAZDY NA SEKWENCJI GŁÓWNEJ). Jest to dobry przykład tego, jak obfitość powierzchni może zapewnić wgląd w niewykrywalne w inny sposób procesy ukryte we wnętrzu gwiazdy. Ogólnie rzecz biorąc, obserwowana liczebność gwiazd RGB na powierzchni wydaje się zależeć w złożony (i często zagadkowy) sposób od tego, czy gwiazdy są bogate w metal, czy ubogie w metal oraz od tego, czy znajdują się w gromadach kulistych, czy w polu widzenia. "Zanieczyszczenie środowiska" przez wyrzuty wysoko rozwiniętych gwiazd w bliskim sąsiedztwie, szczególnie w zatłoczonym sąsiedztwie gwiazd w gromadach kulistych, to kolejny proces, który czasami przywołuje się w celu wyjaśnienia takich złożoności. Na końcu RGB Słońce osiągnie wysoką temperaturę w swoim zdegenerowanym jądrze centralnym, wywołując zapłon "błysku helowego" reakcji potrójnej alfa, która przekształca hel w węgiel. Rdzeń spalający hel dołączy do poruszającej się na zewnątrz powłoki spalającej wodór jako źródła jasności Słońca na poziomej gałęzi "wieku zerowego". Następnie, gdy wyczerpią się zapasy paliwa w rdzeniu helowym, Słońce wejdzie w fazę charakteryzującą się spalaniem jądrowym na przemian w powłoce helowej i wodorowej. W tym okresie "dwupowłokowym" jego koperta ponownie się powiększy w miarę ewolucji w górę AGB. Okresowe błyski termiczne związane z zapłonem powłoki helowej spowodują obfite dostawy węgla, a także pierwiastków procesu S, które zostaną przesunięte w górę przez powłokę konwekcyjną na powierzchnię. Słońce może najpierw stać się gwiazdą S, a zmiany atmosferyczne wynikają głównie z procesu elementów. Na tym etapie jego widmo może nawet ujawnić technet (99Tc), radioaktywny pierwiastek procesu S o tak krótkim okresie półtrwania (2 × 105 lat), że jego obecność zasadniczo dowodzi, że materiał poddany obróbce jądrowej został wydobyty z głębokiego wnętrza bardzo niedawno. Z biegiem czasu, wyżej w AGB, Słońce stanie się klasyczną gwiazdą węglową lub typu N, której widmo charakteryzuje się silnymi pasmami CH, CN, C2 i C3. Ostatecznie znaczna część bogatej w wodór otoczki Słońca zostanie wyrzucona jako Mgławica Planetarna, pozostawiając po sobie rdzeń BIAŁEGO KARŁA, składający się z węgla i tlenu, prawdopodobnie pokryty cienkimi warstwami powierzchniowymi wodoru na wierzchu helu, segregowanego przez osadzanie grawitacyjne. Gdyby Słońce miało mniej masywnego towarzysza w układzie podwójnym, jego atmosfera mogłaby zostać zanieczyszczona przez wyrzuconą przez Słońce otoczkę i nabrać anomalnych ilości związanych na przykład z gwiazdami baru (Ba). W przypadku gwiazd o masie większej niż około 7-8 mas Słońca ewolucja powoduje zmiany w liczebności powierzchni, głównie w wyniku utraty masy na dużą skalę w wyniku silnych wiatrów gwiazdowych. Dobrym przykładem są gwiazdy WOLFA-RAYETA (WR). Klasyfikuje się je jako sekwencję spektroskopową: gwiazdy WN ze wzmocnionym azotem i helem, gwiazdy WC wzmocnione w węglu i gwiazdy WO wzbogacone w tlen. Ta kolejność odzwierciedla coraz głębsze odsłonięcie jądra gwiazdowego w wyniku utraty masy, odsłaniając produkty najpierw spalania wodoru, potem helu, a na koniec spalania węgla.
Anomalie obfitości atmosfery w gwiazdach ciągu głównego
Od stulecia spektroskopiści gwiazd są zaintrygowani i zdumieni gwiazdami ciągu głównego klasyfikowanymi jako Ap ("p" oznacza "osobliwy"), Bp, Am ("m" oznacza "linię metaliczną"), Si, SrEuCr, HgMn lub bardziej ogólnie CP (od "charakterystycznego chemicznie"). Atmosfery tych gwiazd wykazują zdumiewające odchylenia od obfitości Słońca w wielu pierwiastkach, w tym wzmocnienie ciężkich pierwiastków, takich jak Hg, o współczynniki sięgające 105-106. Sporadycznie obserwuje się także duże anomalie w mieszaninie izotopowej niektórych pierwiastków . Nie są znane żadne procesy jądrowe, które mogłyby wyjaśnić te anomalie. Najważniejszą wskazówką do ich interpretacji jest położenie tych gwiazd na diagramie HERTZSPRUNG-RUSSELLIAGRAM. Łącznie stanowią one 10-20% wszystkich gwiazd ciągu głównego o efektywnych temperaturach od około 9000 K do 16 000 K. Gwiazdy w tym zakresie temperatur są zbyt gorące, aby posiadać rozległe otoczki konwekcyjne (cienka strefa konwekcji wodoru zanika całkowicie około 10 000 K) i zbyt chłodno, aby występowały znaczące wiatry gwiazdowe. Wiele z nich posiada silne dipolarne lub kwadrupolarne pola magnetyczne. Zarówno magnetyczne, jak i niemagnetyczne gwiazdy CP są zwykle z natury powolnymi rotatorami. Ta kombinacja czynników oznacza, że gwiazdy CP muszą posiadać bardzo stabilne hydrodynamicznie atmosfery i otoczki. W takim spokojnym środowisku atomy i jony są podatne na osadzanie grawitacyjne i dyfuzję napędzaną promieniowaniem. Konkurencja między grawitacją a promieniowaniem powoduje, że niektóre jony dryfują w dół poza zasięgiem fotosfery, podczas gdy inne są wypychane w górę do fotosfery pod wpływem ciśnienia promieniowania transmitowanego przez silne linie widmowe lub kontinua na długości fal, przy których gwiazda silnie emituje strumień. Obserwacje potwierdzają jakościowo ten scenariusz. Na przykład największe zwiększenie liczebności często występuje w pierwiastkach, których pierwotnie było bardzo mało w materiale, z którego uformowała się gwiazda (tj. praktycznie we wszystkich pierwiastkach cięższych od szczytu żelaza), podczas gdy pierwiastki początkowo występujące w dużych ilościach (np. He, C, N ) wydają się być nieco wyczerpane. Obfite pierwiastki nasycają pole promieniowania w ich najsilniejszych liniach widmowych, tak że pochłaniają stosunkowo małe ciśnienie promieniowania i (w przypadku braku jakiejkolwiek innej cyrkulacji lub mieszania materiału) mają tendencję do opadania. Odwrotnie jest w przypadku początkowo pierwiastków śladowych. Niektóre jony (np. B II, Zn II) mogą absorbować tak duże ciśnienie promieniowania, że zostają całkowicie wywiewane z gwiazdy, co zapowiada pojawienie się silniejszych wiatrów gwiazdowych w wyższych efektywnych temperaturach. Linie pola magnetycznego służą również do kierowania migracją jonów pod wpływem grawitacji i ciśnienia promieniowania, powodując niejednorodności obfitości powierzchni lub "plamy gwiazdowe" na magnetycznych gwiazdach CP. Dyfuzja napędzana radiacyjnie oraz grawitacyjne osiadanie atomów i jonów mają znaczenie wykraczające poza dziwaczne wzorce liczebności gwiazd CP. Teoretyczne modele dyfuzji sugerują, że hel, pod względem liczebności ustępujący jedynie wodorowi, został zredukowany w fotosferze Słońca o około 10% w wyniku osiadania grawitacyjnego. Procesy te mogą zachodzić głębiej we wnętrzach gwiazd, w obszarach równowagi radiacyjnej, modyfikując nieprzezroczystość i średnią masę cząsteczkową materiału gwiazdowego. Jedynym innym przykładem gwiazd ciągu głównego, które wykazują anomalie obfitości w swoich atmosferach (z wyjątkiem układów podwójnych, w których akreowała materia z wyewoluowanego towarzysza) to bardzo masywne gwiazdy sklasyfikowane jako OBN. Istnieją dowody na przetwarzanie przez CNO materiału widocznego na powierzchni tych gwiazd, tj. zwiększoną zawartość azotu i zmniejszoną zawartość węgla. Ponieważ gwiazdy te posiadają otoczki radiacyjne, najbardziej prawdopodobnym mechanizmem transportu materiału przetworzonego przez CNO z głębokiego wnętrza jest cyrkulacja południkowa, będąca naturalną konsekwencją ich normalnej, szybkiej rotacji.
Chińska astronomia
Astronomia jest przedmiotem zainteresowania Chińczyków od czasów starożytnych. Już w XVI wieku p.n.e. na kości zwierzęcej używanej do wróżenia zarejestrowano supernową. W starożytnych Chinach główną misją astronomów było wyznaczanie pór roku w rolnictwie i przewidywanie ważnych wydarzeń na przyszłość na podstawie zjawisk pojawiających się na niebie. W świadomości władców starożytności astronomia miała szczególny status wśród dyscyplin nauk przyrodniczych ze względu na przekonanie, że pomaga przewidywać przyszłość i losy. W rezultacie astronomowie byli mianowani urzędnikami królewskimi od dwudziestego czwartego wieku p.n.e. Obserwatorium Aroyal powstało w czasach zachodniej dynastii Zhou (XI w. p.n.e. - 771 p.n.e.) i istniało do początków XX wieku. Ponieważ w starożytności astronomia służyła potrzebom władców, traktowano ją w pewnym stopniu jako ASTROLOGIĘ. do celów wróżbiarskich szczególną uwagę zwracano na obserwację i przewidywanie zaćmień słońca i księżyca. Uważano, że koniunkcje jasnych planet, a także pojawienie się komet, meteorów i nowych gwiazd mają wartość wróżbową. Dlatego też uważnie i systematycznie obserwowano ruchy Słońca, Księżyca i planet oraz rzadkie zjawiska astronomiczne. W ten sposób zarejestrowano ogromną liczbę zjawisk astronomicznych. Wyjątkowy status astronomii w starożytnych Chinach gwarantował jej odrębność i astronomiczny rozdział w kronice historycznej oraz ponad 10 000 indywidualnych zapisów zaćmień Słońca i Księżyca, plam słonecznych, zórz polarnych, meteorów i meteorytów, komet, nowych i supernowych, zakryć planet przez Księżyc i innych zjawisk. Doniesienia o kometach z XI w. p.n.e. i zapisy plam słonecznych z 28 r. p.n.e. uważane są za najwcześniejsze odnotowane obserwacje tych zjawisk w historii astronomii. Chińskie zapisy dotyczące historycznych supernowych są najpełniejsze na świecie. Wśród nich zapis supernowej 1054 został wykorzystany do określenia wieku pulsara Kraba. Zapisy zaćmień zostały wykorzystane do obliczenia świeckiego przyspieszenia obrotu Ziemi. Astronomia cieszyła się dużym rozwojem jako bardzo ważne narzędzie do tworzenia kalendarzy i odmierzania czasu. Od dwudziestego czwartego wieku p.n.e. ustanowiono system kalendarza księżycowo-słonecznego, łączący kalendarz księżycowy i słoneczny, i system ten istnieje do dziś w Chinach. Długość roku zależy od okresu pozornego ruchu Słońca. Długość miesiąca zależy od okresu synodycznego Księżyca. Obydwa systemy kalendarzowe są koordynowane przez siedem miesięcy przestępnych w ciągu 19 lat. Od VII wieku p.n.e. zaczęto używać gnomonów do określania czasu przesilenia letniego i przesilenia zimowego, a co za tym idzie - długości roku. W kalendarzu używanym w V wieku p.n.e. za długość roku przyjęto 365,25 dni. W 1277 roku Guo Shoujing, dobrze znany astronom z dynastii Yuan, użył poziomego pręta, aby zastąpić tabliczkę w gnomonie i dodał urządzenie do obrazowania otworkowego, aby zwiększyć ostrość cienia. Precyzja uzyskana dzięki zastosowaniu ulepszonego urządzenia spowodowała błąd wynoszący zaledwie kilka sekund łukowych szerokości geograficznej Słońca. Dokładne obliczenie długości roku zostało zapisane w księdze kalendarza w 1199 roku. Według tego kalendarza rok ma dokładnie 365,2425 dni. Obliczenia te potwierdziły obserwacje Guo Shoujinga z 1281 roku. Jest to wartość bardzo zbliżona do dzisiejszej wartości roku tropikalnego. Aby odmierzać czas, od VIII wieku p.n.e. powszechnie używano klepsydry (zegara wodnego). Globus napędzany wodą został zbudowany w III wieku, aby pokazać obrót sfery niebieskiej przez ZHANG HENGA, słynnego astronoma z dynastii Han. Wodną kulę ulepszyli Yi Xing i Liang Lingzhan w roku 723, kiedy to wynaleziono koło ratunkowe. Yi Xing wywnioskował również ze swoich obserwacji, że różnica wysokości gwiazdy polarnej jest stała w stałej odległości wzdłuż południka ziemskiego. Wiedzę tę wykorzystał do zmierzenia wielkości terytorium kraju. Od II wieku p.n.e. do XIII wieku n.e. instrumenty obserwacyjne i obserwacje uległy radykalnej poprawie. Aby określić położenie gwiazd i planet, w I wieku p.n.e. zbudowano KULIĘ ARMILLARNĄ (instrument montowany na równiku). Ten instrument składał się z osi biegunowej, tubusu celowniczego oraz okręgów równikowych i poziomych o skali 365,25 stopnia. W IV wieku p.n.e. w katalogu gwiazd Shi Shena umieszczono współrzędne 121 gwiazd. Bardziej szczegółowy katalog, obejmujący 283 konstelacje i 1464 gwiazdy, został opracowany w III wieku naszej ery przez Chen Zuo, stosując własne specjalne konstelacje i system nazewnictwa w Chinach. Jednak jeszcze bardziej niezwykły był atlas gwiazd przechowywany w grotach Dunhuang, w którym na początku VIII wieku odnotowano 1350 gwiazd i 283 konstelacje. Poza tym w wyniku szczegółowych obserwacji odkryto pewne prawa. Jednym z nich było odkrycie precesji przez Yu Xi w roku 330. Dokładne obserwacje w IV wieku doprowadziły także do odkrycia, że ogony komet zawsze są skierowane w stronę przeciwną do Słońca i że komety zawsze odbijają jego promienie. Od VIII wieku p.n.e. do III wieku naszej ery aktywnie dyskutowano i rejestrowano różne hipotezy dotyczące definicji i koncepcji wszechświata. Jedna z nich sugerowała, że Ziemia i gwiazdy unoszą się w nieograniczonej przestrzeni. Myśl teoretyczna - na przykład dyskusje na temat struktury wszechświata - była uważana za bezużyteczną dla życia i zaniedbywana w czasach dynastii Tang (618-906). Co więcej, począwszy od dynastii Tang, osobom spoza obserwatorium królewskiego zakazano studiowania astronomii. Niestety zatem cesarskie kierownictwo astronomii utrudniało swobodny rozwój studiów astronomicznych w starożytnych Chinach. Nie kładziono wystarczającego nacisku na precyzyjne pomiary położenia i ruchów planet, z wyjątkiem ich okresów synodycznych, a ten brak precyzji i dominacja astrologii w starożytnych Chinach spowodowały znacznie wolniejszy rozwój teorii ruchu planet niż w Europie. Pomimo obfitości wielu wielkich odkryć astronomicznych, badania tych obserwacji nie były systematyczne i nie doprowadziły do wielu przełomów w teoriach astronomicznych. Od XIV do XV wieku rozwój astronomii w Chinach uległ spowolnieniu. Na początku XVII wieku Mathoeus Ricci wraz z innymi misjonarzami przybył do Chin z Europy i współpracował z chińskimi astronomami. Wprowadzili do Chin współczesną astronomię zachodnią, w tym teorię Kopernika, teleskopy i astronomię sferyczną.
Współczesna astronomia w Chinach
W 1911 r., wraz z końcem ostatniej dynastii Chin, dynastii Qing, królewskie obserwatorium zostało zamknięte. Republika Chińska utworzyła później Centralne Obserwatorium w Pekinie. W 1958 roku odbudowano OBSERWATORIUM Astronomiczne w Pekinie. Obserwatorium Zo-Se zbudowano w pobliżu Szanghaju w 1900 roku, gdzie zainstalowano 40 cm refraktor, pierwszy duży teleskop używany w badaniach astronomicznych w Chinach. Obserwatorium Zi-Ka-Wei, zbudowane w 1872 r., zaczęło nadawać sygnał czasu w 1914 r. Te dwa obserwatoria połączono, tworząc obecne OBSERWATORIUM Astronomiczne w Szanghaju. W 1935 roku jako instytut Akademii powołano PURPLE MOUNTAIN OBSERVATORY (PMO). Teleskopy instalowano jeden po drugim. W 1975 roku Obserwatorium Astronomiczne Yunnan zostało oddzielone od PMO i stało się niezależnym obserwatorium. Shaanxi Obserwatorium zostało zbudowane jako centrum usług czasu w Chinach w 1966 roku. Większość astronomów i instrumentów pracuje w pięciu obserwatoriach zarządzanych przez Chińską Akademię Nauk. Pekińskie Obserwatorium Astronomiczne (BAO) zajmuje się badaniami astrofizycznymi, w tym obfitością pierwiastków, krótkookresowymi ceifidami, badaniami supernowych i AGN, galaktykami wybuchowymi, optyczną identyfikacją źródeł promieniowania rentgenowskiego, wielkoskalową strukturą galaktyk, badaniami wąskopasmowymi, badaniami radiowymi astronomia i fizyka słońca. Miejsca obserwacji optycznych, radiowych i słonecznych znajdują się oddzielnie w Xinglong, Miyun i Huairou, wzdłuż Wielkiego Muru. BAO zarządza Pekińskim Regionalnym Centrum Ostrzegania Międzynarodowej Służby Środowiska Kosmicznego. Monitorowane jest słoneczne pole magnetyczne aktywnych regionów i słoneczne erupcje radiowe. Przedstawione są prognozy zdarzeń związanych z aktywnością słoneczną. W BAO zainstalowano teleskop o średnicy 2,16 m, teleskop słonecznego pola magnetycznego, teleskop na podczerwień o promieniu 1,26 min i teleskop do syntezy fal metrowych. Światowe Centrum Danych-D dla Astronomii również znajduje się w BAO. Obserwatorium Astronomiczne w Szanghaju (SAO) koncentruje się bardziej na badaniach astrogeodynamiki i astrometrii. Do określenia parametrów rotacji Ziemi wykorzystuje się pomiary VLBI, satelitarny i księżycowy pomiar odległości laserem. Zmienność linii podstawowej jest mierzona interferometrycznie we współpracy z obserwatoriami japońskimi, niemieckimi i amerykańskimi. Zaczynają także rozwijać pewne badania astrofizyczne w SAO. Zmienne klastrów otwartych w gromadach kulistych i symulacje ciał N to główne obszary zainteresowań badań astrofizycznych. Dwie anteny radiowe o średnicy 25 m zostały zainstalowane na stacjach w Szanghaju i Urumqi i pracują jako jednostki VLBI EVN. W SAO pracuje reflektor o długości 1,56 m. Sieć Geodynamiki Kosmicznej Azji Wschodniej i Pacyfiku powstała w SAO w 1994 roku, w której uczestniczy ponad 20 stacji VLBI, GPS i SLR z około 10 krajów. Naukowcy z Obserwatorium Purple Mountain (PMO) prowadzą badania z zakresu Układu Słonecznego, astronomii molekularnej i dynamiki satelitów. Mniejsze planety, fizyka planet, dynamika sztucznych satelitów i almanachy astronomiczne to tradycyjne dziedziny badań. Badania i techniki w astronomii fal milimetrowych poczyniły w ostatnich latach ogromny postęp. Na płaskowyżu Qinghai zainstalowano teleskop wykorzystujący fale mm o średnicy 13,6 m. Drobna struktura Słońca, rotacja gwiazd, bliskie układy podwójne, struktura gwiazd i obiekty BL Lac to główne obszary badań Obserwatorium Astronomicznego w Yunnan. Naukowcy prowadzą tu badania nad dynamiką sztucznych satelitów, astrometrią i erupcjami radiowymi na Słońcu. W Kunming, stolicy prowincji Yunnan, używany jest teleskop o średnicy 1 m i kilka małych teleskopów. Instytucje prowadzące edukację astronomiczną podlegają Ministerstwu Edukacji. Instytucje te obejmują: Wydział Astronomii Uniwersytetu w Nanjing, Wydział Astronomii Uniwersytetu Normalnego w Pekinie i Wydział Astrofizyki Uniwersytetu w Pekinie. Chociaż na tych uniwersytetach nie są dostępne żadne urządzenia obserwacyjne, naukowcy i wydziały z tych uniwersytetów mogą korzystać z teleskopów i obserwacji z różnych obserwatoriów w zależności od jakości zastosowań. Centrum Astrofizyki Wysokich Energii Instytutu Fizyki Wysokich Energii, Centrum Astrofizyki Chińskiego Uniwersytetu Naukowo-Technologicznego, grupy astrofizyczne na Uniwersytecie Normalnym w Nanjing, Uniwersytecie Jiaotong i Uniwersytecie Normalnym w Huazhong prowadzą badania nad astrofizyką wysokich energii i astrofizyką plazmy. W Teipei w 1990 roku zbudowano Instytut Astrofizyki Academia Sinica. Instytut ten dodaje dwie anteny do tablicy Sub-Milimeter Array (SMA) oraz wspiera i udostępnia 10% BIMA w celu współpracy z astronomami w USA. Instytut Astronomii powstał na Uniwersytecie Centralnym w Zhongli, mieście na południe od Teipei; jego 70-centymetrowy teleskop został zainstalowany na górze Yu. Od 1991 roku na Uniwersytecie Tsinghua działa sieć oscylacji Słońca z pięcioma detektorami zainstalowanymi w BigBear, Wyspach Kanaryjskich, Taszkencie, Pekinie i Teipei. W Hongkongu grupy badawcze zajmujące się astrofizyką aktywnie działają na Uniwersytecie w Hongkongu, Uniwersytecie Chińskim w Hongkongu oraz Uniwersytecie Nauki i Technologii w Hongkongu. Planetarium w Pekinie powstało jako centrum popularnej astronomii w 1957 roku. Muzeum Astronomiczne w Tajpej zostało zbudowane w 1996 roku, a jego powierzchnia wystawiennicza zajmowała 50 000m2. Planetarium w Hongkongu zostało zbudowane w 1980 roku. W całym kraju znajduje się ponad 50 małych planetariów. CHINESE ASTRONOMICAL SOCIETY (CAS) jest organizacją pozarządową zrzeszającą astronomów i naukowców. CAS jest filią MIĘDZYNARODOWEJ UNII Astronomicznej (IAU). Stowarzyszenie Astronomiczne z siedzibą w Teipei jest filią IAU. Towarzystwo Astrofizyczne w Hongkongu powstało w 1997 roku. Większość teleskopów używanych w obserwatoriach na kontynencie jest produkowana przez Centrum Badań i Produkcji Instrumentów Astronomicznych w Nanjing we współpracy z obserwatoriami. Zaplanowano nowe inicjatywy dotyczące przyszłych instrumentów astronomicznych w Chinach. Duży wieloobiektowy teleskop spektroskopowy (LAMOST) został zatwierdzony jako projekt krajowy w latach 90. XX wieku. LAMOST to teleskop zwierciadlany Schmidta montowany azymutalnie. Układ optyczny składa się z zwierciadła sferycznego o wymiarach 6×6,7 m, zamocowanego na fundamencie i zwróconego w kierunku północnym. Asferyczne lustro odbijające znajduje się w środku kuli w odległości 40 m. Aberrację sferyczną eliminujemy w czasie rzeczywistym za pomocą aktywnej optyki. Efektywna apertura wynosi 4 m. Ogniskowa wynosi 20 m. Pole widzenia wynosi około 5°, co daje średnicę liniową 1,75 m. Dzięki dużemu polu widzenia do powierzchni ogniskowej można przyczepić około 4000 włókien, dzięki czemu można jednocześnie obserwować widma 4000 obiektów. Projekt LAMOST zostanie ukończony w 2004 roku. Wsparcie finansowe dla astronomii w Chinach pochodzi głównie od CAS, Ministerstwa Edukacji, Ministerstwa Nauki i Technologii, Narodowej Fundacji Nauk Przyrodniczych (NNSF) i Krajowego Komitetu Planowania. CAS i Ministerstwo Edukacji pokrywają koszty operacyjne swoich stowarzyszonych obserwatoriów i departamentów, które wynoszą około 10 milionów dolarów rocznie. NNSF wspiera osoby i grupy, a także umiarkowane i małe programy o wartości około 1 miliona dolarów rocznie. Krajowa Komisja Planowania wspiera duże projekty polegające na budowie dużych instrumentów naukowych. Budżet LAMOST wynosi 30 mln dolarów. Ministerstwo Nauki i Technologii finansuje większe projekty badawcze, których budżet wynosi około 1 miliona dolarów rocznie.
Chińska astronomia w historii
W artykule przedstawiono wiedzę o niebie i ruchach niebieskich, która ma swoje korzenie w kulturze chińskiej od najdawniejszych czasów aż do roku 1912, kiedy to wraz z imperium chińskim skończyło się stosowanie tradycyjnych technik. Chińskie doświadczenie astronomii ostatnich dwóch tysięcy lat procentuje studiowaniem, ponieważ w odróżnieniu od Europy poziom wiedzy i praktyki utrzymywał się na wysokim poziomie nieprzerwanie przez ponad dwa tysiące lat oraz ponieważ opierał się na stylach pracy zupełnie odmiennych od tych panujących w Zachód.
Ustawienie
Od czasów nowej epoki kamienia wszystkie wielkie cywilizacje historyczne wymieniały się pomysłami i artefaktami. Chiny były tak odizolowane od Europy, Bliskiego Wschodu i Indii, że zewnętrzne wpływy naukowe można było kontrolować aż do połowy XIX wieku. Przez ponad 2000 lat pozostawało centralnie rządzonym imperium, większym niż cała Europa. Nawet w krótkich okresach podziałów ciągłość kultury wysokiej, w odróżnieniu od tej w Europie przez większą część średniowiecza, nigdy nie została przerwana. Pomimo ogromnego zasięgu i lokalnego zróżnicowania Chin, ich wykształcona elita, ze względu na klasyczne wykształcenie, łączyła nie tylko wspólny język, ale także wartości i wzorce myślenia. Wśród tych wartości był ogromny prestiż dla służby cywilnej. Jedno pokolenie utalentowanych astronomów poszukiwało jedynego pracodawcy gotowego zapewnić duże, długoterminowe inwestycje w badania naukowe i rozwój. Rząd wspierał projekty astronomiczne na dużą skalę od II wieku p.n.e. ze względu na ideologię uzasadniającą jego władzę. Twierdziła, że dom cesarski został wybrany przez Niebo (czyli boski porządek natury), aby kształtować społeczeństwo na jego obraz. Osobiste cnoty i charyzma monarchy, a nie jego zdolności menadżerskie, utrzymywały go w kontakcie z kosmicznym porządkiem i umożliwiały utrzymanie państwa w harmonii z nim. Doktryna ta obejmowała pojęcie Mandatu Niebios. Niebo wybrało do rządzenia wyjątkowo cnotliwą rodzinę. Kiedy w końcu jego potomkowie nie utrzymywali już tej cnoty, Niebo przekazało to zadanie godniejszej rodzinie. Podbój kończący dynastię i rozpoczynający nową nie był zatem zbrodnią - jeśli się powiódł. Istniał system wczesnego ostrzegania. Pewne anomalne zjawiska na niebie (lub rzadziej na Ziemi) sygnalizowały, że władca musi się zreformować, bo inaczej zostanie zdetronizowany. Pomyślne znaki potwierdzały panowanie mędrca lub, w innych okolicznościach, zachęcały mędrca do buntu. Niezbędne było szybkie powiadomienie. W rezultacie na dworze cesarskim znajdowało się obficie obsadzone Biuro Astronomiczne. Jej obowiązki w zakresie ASTROLOGII i astronomii matematycznej były ze sobą ściśle powiązane. Jego urzędnicy badali niebo pod kątem znaków, rejestrowali je, ustalali ich znaczenie na podstawie archiwów Biura i zgłaszali je, aby cesarz i jego urzędnicy mogli ustalić, jak zareagować. Relacje z tego procesu sugerują, że astrologia była ważna nie jako źródło obiektywnych przepowiedni, dobrych czy złych, ale jako rytualna forma otwartej dyskusji na temat polityki. Równie ważne było przeniesienie jak największej liczby zjawisk ze sfery złowieszczej do przewidywalnej, co poprawiło obliczenia. Na przykład pod koniec III wieku n.e. nów księżyca w ostatnim dniu miesiąca przestał być wróżbą. Ponieważ nie można było konsekwentnie prognozować zaćmień słońca widocznych z danego obserwatorium, głównym zmartwieniem władców pozostawały nieprzewidziane zaćmienia. Cesarz symbolicznie wyraził swoją kontrolę nad czasem i przestrzenią, wydając coroczny KALENDARZ (właściwie efemerydy lub almanach obejmujący zaćmienia i zjawiska planetarne). Oczekiwał, że Biuro uwzględni w nim możliwie najdokładniejsze przewidywania, zwłaszcza dotyczące zaćmień. W wyniku stałego sponsorowania przez państwo opublikowane zapisy historyczne zawierają nieprzerwane, datowane zapisy najważniejszych zjawisk niebieskich oraz szczegółowe opisy ewolucji metod stosowanych do tworzenia EFEMERYDÓW przez ponad dwa tysiąclecia.
Początki
Zapisy spisane na kościach w XV wieku p.n.e. obejmują obserwacje zjawisk na niebie. Ponieważ dokumenty te pochodzą z archiwów królewskich, obserwacje zaćmień są widoczne i stanowią zwiastun. Datowane są przy użyciu cyklu 60-dniowego, nieprzerwanego aż do czasów współczesnych. W IV i III wieku walczące państwa posługiwały się różnymi, rozbieżnymi kalendarzami. Wszystkie opierały się na roku tropikalnym i lunacji. Zostały one wygenerowane poprzez odliczenie od epoki wybranej jako początek roku, miesiąca, 60-dniowego cyklu i dnia. Rok astronomiczny rozpoczynał się w momencie przesilenia zimowego, miesiąc w czasie nowiu Księżyca - wydarzenie, którego nie można zaobserwować - i dzień o północy. Zatem epoka systemu Potrójnej Zgodności z roku 7 p.n.e. została dokładnie wyznaczona na północ pierwszego sześcioletniego dnia 143 127 lat przed przesileniem zimowym 24 grudnia 105 r. p.n.e. Ponieważ rok cywilny wymagał całkowitej liczby dni w miesiącu i miesięcy w roku, miesiące 29 lub 30 dni z grubsza naprzemiennie, tak że rok cywilny składający się z 12 miesięcy miałby 354 lub 355 dni. Chińczycy przyjęli interkalację, początkowo stosując tak zwane na Zachodzie CYKL METONICZNY. Dodawali 7 dodatkowych miesięcy co 19 lat. W schemacie tym lata przestępne obejmowały jednakowo 383 lub 384 dni, co dało długoterminową średnią wynoszącą 365 14 dni w roku. Na przestrzeni wieków bardziej wyszukane schematy interkalacji, a następnie obliczania prawdziwych lunacji, dały średni rok tropikalny, który w XIII wieku naszej ery wynosił 365,2425 dni.
Obserwacje
Pierwsze wyraźnie instrumentalne obserwacje dotyczyły pomiaru cienia rzucanego przez stojący gnomon wyższy od człowieka. Z pewnością nie można ich datować wcześniej niż na IV wiek p.n.e. Najdłuższy cień dnia wyznaczał moment południa i kierunek północ-południe. Kiedy astronomowie zauważyli, że cień południa zmieniał się z dnia na dzień, możliwe stało się określenie początku roku jako dzień najdłuższego cienia południa, przesilenia zimowego. W nocy obserwacja gwiazd przechodzących przez gnomon na linii północ-południe umożliwiła uzyskanie tranzytów południków, które były ważne przed wynalezieniem instrumentów stopniowanych. Rozwój wyskalowanych instrumentów armilarnych z tubusem to drażliwy temat. Najwcześniejszym znanym dokumentem wymagającym użycia prostej dioptry jest Gan Shi xing jing (kanony gwiezdne Gan De i Shi Shen), którego dane datowano na podstawie analizy błędów na około 70 rok p.n.e. Geng Shouchang używał prostej armilary równikowej w 52 r. p.n.e.; pierścień ekliptyki został dodany w roku 84 n.e., a pierścienie horyzontu i południka w roku 125. Chińskie pomiary stopni nie wywodziły się z babilońskiego systemu sześćdziesiątkowego. Opierało się ono na du, pierwotnie mierzeniu odstępów czasu między tranzytami południków, ale po około 180 r. n.e. na nowo zdefiniowano je jako odległość średniej jednodniowej podróży Słońca. Początkowo w okręgu było 365 1/4 du, a liczba ta zmieniała się wraz ze wzrostem długości roku. Dokładność pierwszego katalogu gwiazd wynosiła 1/8 du; liczba ta wzrosła do 0,05 du w przypadku AD 1279. Współrzędne obserwacji, podobnie jak we współczesnej astronomii, ale w przeciwieństwie do tych w Europie przed renesansem, były równikowe i mierzone od punktu przesilenia zimowego, a nie od pozycji Słońca podczas równonocy wiosennej. Nie ma wielkiego wyboru między tymi dwoma układami, ponieważ Słońce, Księżyc i planety krążą blisko ekliptyki, a gwiazdy obracają się równolegle do równika. W obu przypadkach konieczne było przekształcenie pozycji wzdłuż jednej pozycji na pozycje wzdłuż drugiej. Wcześni Chińczycy osiągnęli to za pomocą prostych metod numerycznych; dzięki reformie z 1279 r. stopniowe ruchy w kierunku trygonometrii sferycznej znacznie zwiększyły dokładność. Czas obserwacji mierzono na ogół za pomocą zegarów wodnych, których kilka egzemplarzy zachowało się z ostatnich dwóch stuleci przed naszą erą. Dokładność zapisów wynosiła początkowo około 1/2 godziny. Pomimo wielkich opracowań na przestrzeni wieków, typowa dokładność do 1300 roku wynosiła około 0,4 godziny i była znacznie lepsza w przypadku danych o zaćmieniach Słońca. Współrzędne ciał niebieskich mierzono, podobnie jak w Europie, z punktów rozmieszczonych na tyle blisko siebie, że obserwatorzy bez instrumentów mogli z dość dużą dokładnością oszacować odległość obiektów od nich w du. W przeciwieństwie do 12 domów zodiaku, chińskie xiu (loże księżycowe) były zbiorem 28 nierównomiernie rozmieszczonych gwiazd w widocznych konstelacjach. Było to podobne do współrzędnych używanych w Indiach i nazywanych nakshatra oraz współrzędnych świata islamskiego zwanych al-manāzil . Loże księżycowe były w zasadzie równie zadowalające jak zodiak, ale sporadyczne niezamierzone zmiany w ich gwiazdach determinujących wpływały na dokładność, gdy nowe metody predykcyjne testowano w oparciu o starożytne zapisy obserwacyjne. Niekończące się polemiki nie rozstrzygnęły, gdzie i kiedy powstały loże. Ich 28 imion po raz pierwszy pojawia się razem na lakowym pudełku zakopanym w 433 roku p.n.e. Dopiero w źródłach z IV lub III wieku podają współrzędne obserwacji.
Reformy kalendarza
Pierwsze zjednoczenie Chin w 221 r. p.n.e. doprowadziło do powstania jednego kalendarza, ale po ,stuleciu system regularnie przewidywał dzień wolny w przewidywaniu nowiu. Po reformie kalendarza w 104 r. p.n.e., w 7 r. .p.n.e. astronomowie rozszerzyli techniki tworzenia kalendarzy na system astronomiczny (li), który obejmował wszystkie przewidywalne zjawiska, w tym zaćmienia i ruchy planet. Motywacją tej ekspansji było w równym stopniu pragnienie dwóch cesarzy odnowienia swojego porządku politycznego zgodnie z zasadami określonymi przez religię kosmiczną, jak i dążenie do innowacji technicznych. System Potrójnej Zgodności z 7 roku p.n.e. nie został poprawiony fragmentarycznie, lecz zastąpiony zupełnie nowym systemem obliczeniowym w roku 85 n.e. Ponieważ zastąpienie integralne stało się normą, a prestiż imperialny zależał od dokładnych przewidywań, przed 1912 rokiem zaproponowano 101 systemów, z czego 41 weszło do oficjalnego użytku. Podobnie jak Almagest Ptolemeusza, ten system Potrójnej Zgodności określa procedury krok po kroku generowania kompletnych efemeryd wspomnianych powyżej. Urzędnik posiadający jedynie podstawowe umiejętności arytmetyczne może przeprowadzić cały proces, korzystając z wbudowanej tabeli, która pozwala uniknąć skomplikowanych obliczeń. Chińskie metody obliczeniowe różniły się od greckich podejściem numerycznym lub algorytmicznym, a nie geometrycznym. Przewidywanie zaćmień Słońca, co sprowadza się do znalezienia przecięcia stożka cienia z kulistym Słońcem, jest trudne bez geometrii. Dlatego pozostawało to głównym problemem. Chińczycy zaczęli od odliczenia średnich cykli słonecznych i księżycowych, aby ustalić, kiedy oba ciała się przecięły. Wyniki były tak słabe, że astronomowie najwyraźniej odliczyli 135 miesięcy od zaobserwowanego zaćmienia, aby przewidzieć kolejne, bardziej skuteczną technikę. Jednakże celem astronomii matematycznej było przewidywanie bez konieczności patrzenia w niebo. Yang Wei w roku 237 zrezygnował z polegania na wcześniejszych obserwacjach, wprowadzając koncepcję granicy zaćmień (w języku współczesnym odległość koniunkcji od przecięcia orbit). Niezwykle ważne były techniki obliczania pozornych, a nie średnich ruchów Księżyca (223 r.) i Słońca (ok. 604 r.) oraz ich połączenie w przewidywaniu lunacji (619). Opracowane algorytmy interpolacji liniowej (piąty rząd do 1064 r.) i metody prototrygonometryczne (zaczynające się mniej więcej w tym samym czasie) w coraz większym stopniu przybliżały wyniki analizy geometrycznej.
Rozwój
Biurokratyczny charakter astronomii nie zmienił się znacząco na przestrzeni wieków. Ponieważ nominacje były zwykle synekurami, często dziedzicznymi, innowacje często pochodziły od osób z zewnątrz - astronomów-amatorów, którzy mieli dostęp do informacji o poprzednich systemach publikowanych w kronikach dynastycznych. Do Biura często powoływano pomysłodawcę nowego systemu, po jego dokładnym przetestowaniu. Niektóre dynastie dbające o bezpieczeństwo zabroniły prywatnego studiowania astronomii, odcinając to źródło nowych metod. Jednak inne administracje testowały urzędników, aby podnieść poziom praktyki, lub włączały kwestie techniczne do ogólnego egzaminu do służby cywilnej, aby motywować do powszechnych studiów astronomicznych. Ponieważ rząd cenił wiedzę astronomiczną i pozostawał jedynym źródłem masowego wsparcia badań, jego duże projekty skierowały naukę w kilku nowych kierunkach. Należą do nich:
• Zbudowano obserwatoria wyposażone w szeroką gamę instrumentów. Przetrwała ogromna obserwacyjna KULA ARMILLARNA z 1442 r., odtwarzająca projekt z 1074 r., oraz "skrócona armilarna" (równikowy moment obrotowy, jianyi), której projekt sięga co najmniej około 1270 r.
• Skonstruowano skomplikowane instrumenty demonstracyjne, takie jak seria zegarów astronomicznych napędzanych wodą i sterowanych wychwytem. Ich punktem kulminacyjnym był ogromny zegar, który Su Song zbudował około 1090 r.
• Przeprowadzono badania długości i szerokości geograficznej na dużą skalę, aby zwiększyć dokładność rejestrowania danych i zbadać takie kwestie, jak różna widoczność zaćmień. Ta z 1279 r. obejmowała 6000 mil z północy na południe i 2000 mil ze wschodu na zachód.
• Wielokrotnie katalogowano gwiazdy stałe, zwłaszcza w celu ustalenia gwiazd wyznaczających loże księżycowe. Dziesięć takich badań stało się podstawą oficjalnej astronomii w latach 964-1106
.
Pomimo konserwatyzmu nieodłącznie związanego z oficjalnym kierunkiem i stereotypową formą astronomii, rząd ułatwił ulepszenia każdego aspektu efemeryd. Kilka ważnych, które nie zostały jeszcze odnotowane, to (w kolejności daty rozpoczęcia oficjalnego używania lub w inny sposób pisma):
• Precesja (dosłownie "różnica roczna", sui cha, 330), zdefiniowana jako różnica czasu między rokiem tropikalnym a rokiem gwiazdowym. Stała ta odpowiadała ryc. 2. Wielki zegar astronomiczny z 1089 r., pochodzący ze współczesnego Xin yixiang fa yao. przesunięcie punktu przesilenia zimowego o 1 du na 50 lat. Chińczycy nie postrzegali tego jako obrotu równika wokół bieguna ekliptyki.
• Dokładne czasy nowiu księżyców ustalono na podstawie obserwacji zaćmień Księżyca (384).
• Przeprowadzono ciągłe badania pozornych ruchów planet (około 729 r.). Pierwotnie nacisk na przewidywanie zaćmień doprowadził do zaniedbania tego problemu.
• Przybliżenie trygonometrii sferycznej zastosowanej do sfery niebieskiej (1279) połączono z grupą innych zmian, takich jak podstawienie części dziesiętnych ułamków mieszanych i odrzucenie tradycyjnrej zależności od odliczania cykli z wczesnej epoki.
Po rewolucji 1911 r. odrzucono tradycyjne podejście nie ze względu na jego szczególne wady, ale z powodu powszechnego ruchu w stronę modernizacji. Po ponad stuleciu imperializmu i nieustannej wojny Chiny były zbyt biedne, aby aż do roku 1975 masowo inwestować we współczesną astronomię na poziomie zbliżonym do światowego .
Wpływ międzynarodowy
Ponieważ Chiny były dominującą kulturą w Azji Wschodniej, instytucje i metody oficjalnej astronomii stworzyły podstawę dla odpowiedników (zawsze o charakterze lokalnym) w Korei, Japonii i Wietnamie. Chęć dokładnego przewidywania zaćmień słońca zmotywowała Chińczyków do zatrudnienia ekspertów w dziedzinie metod geometrycznych tradycji greckiej. Zatrudniali Hindusów od 665 r., muzułmanów podczas okupacji mongolskiej (1279-1367) oraz misjonarzy jezuickich w XVII i XVIII wieku. Ten ostatni faktycznie, oferując najeźdźcom mandżurskim swoje umiejętności rzucania armat i obliczania obowiązkowych efemeryd imperialnych, przejął kontrolę nad Biurem Astronomicznym. Nawet gdy jezuici wprowadzili techniki europejskie, zmienili je do tradycyjnej formy li. Chociaż w swoich chińskich pismach wspominali o Koperniku i innych ważnych postaciach europejskich, ograniczenia kontrreformacji uniemożliwiły im opisanie rewolucyjnych zmian w kosmologii.
Zastosowania we współczesnej astronomii
Chociaż ograniczeni pozytywiści ignorują historię astrologii, w Chinach główne dziedzictwo nauki tradycyjnej i współczesnej nie wywodzi się z technik obliczeniowych, ale ze szczegółowych astrologicznych zapisów obserwacji, niespotykanych gdzie indziej. Najpełniejsze dane dotyczące starożytnych supernowych, które zostały skorelowane ze zjawiskami pulsarowymi, pochodzą głównie z Chin. Informacje na temat czasu, wielkości i czasu trwania dużej liczby zaćmień Słońca i Księżyca rzuciły światło na świeckie przyspieszenie Księżyca i Ziemi. Daty każdego zwrotu Komety Halleya przez ponad 2000 lat wyjaśniała swój ruch. Zapisy, niektóre wielokrotne, dotyczące 147 odrębnych pojawień się plam słonecznych i około dwukrotnie większej liczby zórz polarnych, okazały się cenne do badania powiązań między tymi dwoma zjawiskami i testowania hipotez dotyczących minimów plam słonecznych.
Chiron
Chiron należy do współczesnej populacji mniejszych planet zwanych CENTAURAMI, których orbity przecinają się z orbitami gigantycznych planet zewnętrznych: Saturna, Urana i Neptuna. Chiron był pierwszym odkrytym centaurem i być może najbardziej niezwykłym ze względu na swoją aktywność kometową i inne cechy. Centaury są prawdopodobnie byłymi mieszkańcami PASA KUIPERA, dlatego też Chirona można uznać za naszego pierwszego i najbardziej dostępnego wysłannika z odległych zakątków Układu Słonecznego. Badania Chirona i innych obiektów Centaurów oraz Pasa Kuipera pozwalają nam zbadać historię powstawania i ewolucji Układu Słonecznego. Chiron okrąża Słońce pomiędzy Saturnem a Uranem po 50-letniej orbicie, w odległości heliocentrycznej od 8,5 AU do nieco poniżej 19 AU (jednostka astronomiczna to odległość między Ziemią a Słońcem, w przybliżeniu równa 1,5×1013 cm). Chiron przeszedł przez peryhelium 14 lutego 1996 r. i był wówczas przedmiotem międzynarodowej kampanii obserwacyjnej. Średnica Chirona wynosi około 180 km; zakres ostatnich pomiarów przeprowadzonych na różnych długościach fal wynosi około 150 do 370 km, chociaż obserwacje zakrycia i IR potwierdzają wartość w pobliżu 180 km. Chiron ma wielkość bezwzględną H = 6,5 mag; w całym zakresie orbity jej pozorna wielkość waha się od 16 do 20 mag. Krzywa blasku w świetle widzialnym jest porównywalna z krzywą blasku w ultrafiolecie, z okresem 5,9 h i zmianą między szczytami wynoszącą około 0,1 mag. Pomiary w zakresie widzialnym wykazały, że Chiron ma zazwyczaj stosunkowo neutralną lub szarą barwę (co oznacza, że nie odbija ani nie absorbuje preferencyjnie określonych długości fal światła, które go oświetlają). Ten szary kolor jest niezależny od fazy rotacyjnej, choć istnieją obserwacje wskazujące na pewne zmiany koloru, prawdopodobnie związane z aktywnością komety. Na przykład obserwacje w ultrafiolecie pokazują podobny neutralny kolor w okresach spoczynku, chociaż podczas wybuchu Chiron wykazywał możliwe nachylenie koloru niebieskiego, a ALBEDO (odbicie) wzrósł. Odkrycie Chirona jest następstwem historycznego postępu odkrywania nowych klas mniejszych planet w regionach Układu Słonecznego, które wcześniej uważano za puste. Pierwszą asteroidę, CERES, odkrył Piazzi w 1801 roku, a wkrótce po niej w ciągu następnych sześciu lat odkryto PALLAS, JUNO i VESTA. W miarę udoskonalania teleskopów, detektorów i technik granice obserwacji ciał asteroidowych przesuwały się z czasem od głównego pasa, przesuwając się zarówno na zewnątrz (poprzez grupy Cybele, Hilda i TROJANASTEROID), jak i do wewnątrz (poprzez Amor, Apollo i grupy Atona). W 1977 roku horyzont małych ciał naszego Słońca , system został rozszerzony na orbity tak odległe jak Uran wraz z odkryciem przez Charlesa Kowala obiektu 1977 UB, później oznaczonego jako asteroida numer 2060 i nazwanego Chiron. Chiron zasugerował nową klasę małych ciał zwanych centaurami - przemierzającymi planety zewnętrzne. Do końca 1999 r. odkryto w sumie 17 centaurów. Piętnaście lat po odkryciu Chirona nasze spojrzenie na Układ Słoneczny zostało jeszcze bardziej poszerzone dzięki pierwszemu odkryciu obiektu Pasa Kuipera, 1992 QB1, przez Davida Jewitta i Jane Luu. Był to pierwszy z setek takich obiektów, które obecnie odkryto, których orbity znajdują się poza Neptunem. Te odkrycia obserwacyjne w przekonujący sposób wykazały, że rozległa planeta zewnętrzna i obszary transneptunowe rzeczywiście roją się od małych ciał.
Połączenie Chirona z resztą Układu Słonecznego
Uważa się, że Chiron jest uciekinierem z Pasa Kuipera, rezerwuaru KOMET i większych PLANETOZYMALI, postulowanego przez Edgewortha i Kuipera w latach czterdziestych i pięćdziesiątych XX wieku. Jeden z głównych dowodów potwierdzających pochodzenie Chirona ma charakter dynamiczny. Badania przeprowadzone przez Shio Oikawę i Edgara Everharta, a ostatnio przez Luke′a Donesa, Harolda Levisona i Martina Duncana wykazały, że orbita Chirona jest niestabilna z powodu zaburzeń ze strony gigantycznych planet w skali czasu < 106 lat. To oraz podobna do komety aktywność Chirona dostarczają mocnego, choć poszlakowego dowodu na to, że Chiron niedawno przybył do regionu planetarnego. Mniej więcej w tym samym czasie, gdy odkryto dynamiczną niestabilność orbity Chirona, symulacje ewolucji orbity po raz pierwszy zaczęły przekonująco potwierdzać pogląd, że orbit większości komet krótkookresowych nie można wyznaczyć na podstawie odległej, sferycznej CHMURY OORTA. Jak omawiali Martin Duncan, Thomas Quinn i Scott Tremaine w artykułach z 1988 i 1990 r., postulowane źródło dyskowe w zewnętrznym Układzie Słonecznym (nieodkryty jeszcze Pas Kuipera) musi być źródłem takich obiektów. Symulacje dynamiczne wykazały, że obiekty w Pasie Kuipera pomiędzy 30 a 50 AU wykazują dynamicznie chaotyczne orbity z powodu zaburzeń grawitacyjnych ze strony planet-olbrzymów. W przypadku wystąpienia takich zaburzeń odległości peryhelium obiektu w tym obszarze mogą gwałtownie się zmniejszyć, aż w końcu orbita obiektu przetnie orbitę Neptuna. Gdy to nastąpi, obiekt prawie na pewno doświadczy bliskiego spotkania z Neptunem, który następnie może wyrzucić obiekt na znacznie większą lub znacznie mniejszą orbitę. Obiekty wyrzucane na mniejsze orbity mogą następnie podlegać silnym zakłóceniom ze strony innych planet-olbrzymów. W ten sposób obiekty w Pasie Kuipera mogą sukcesywnie ewoluować w orbity podobne do orbit komet krótkookresowych i Centaurów, takich jak Chiron. Dodatkowy dowód na to, że Chiron przybył z Pasa Kuipera, jest fizyczny. Średnica Chirona wynosząca około 180 km, jego kolor i oznaki substancji lotnych na powierzchni są zgodne z szacunkami wielkości, zaobserwowanymi kolorami i oczekiwanym składem chemicznym powierzchni dla niektórych typów obiektów Pasa Kuipera. Biorąc pod uwagę dynamiczną niestabilność orbit Centaurów, wiarygodną metodę przenoszenia obiektów z Pasa Kuipera do Układu Słonecznego oraz fizyczne podobieństwa między Centaurami i obiektami z Pasa Kuipera, jest zatem prawdopodobne, że Chiron i inne Centaury są unikalnymi obiektami przejściowymi, łączącymi zewnętrzne Pas Kuipera w Układzie Słonecznym i obiekty znajdujące się w wewnętrznym Układzie Słonecznym, takie jak komety z rodziny Jowisza.
Obserwacje: kometa czy mniejsza planeta?
Jak wspomniano powyżej, jedną z unikalnych cech Chirona wśród obecnie znanych centaurów jest to, że wykazywał on przejściową COMA, która wykazała poziom aktywności, który może być zarówno wysoki w aphelium, jak i w peryhelium. Wskazując na jego niezwykłą naturę, Chiron ma dwa akceptowane oznaczenia: "(2060) Chiron" i "95P/Chiron", w zależności od tego, czy uważa się go za mniejszą planetę, czy za kometę. Jednak Chiron jest około 50 razy większy od typowej komety. Niezwykłą aktywność po raz pierwszy odkryli Dave Tholen, William Hartmann i Dale Cruikshank w 1988 roku, kiedy jasność Chirona podwoiła się, gdy znajdował się on jeszcze w odległości 12 jednostek astronomicznych od Słońca. Wkrótce potem Karen Meech i Michael Belton zaobserwowali śpiączkę o wielkości około 105 km wokół Chirona. Jednym z wyjaśnień tej śpiączki jest to, że składa się ona z submikronowych cząstek pyłu, które uciekają (porywane w wyniku lotnego odgazowania) z niskiej atmosfery. Marc Buie, James Elliot, Schelte Bus i kilkunastu
współpracowników obserwowało Chirona podczas zakrycia gwiazd w 1993 roku, a ich dane wskazują na istnienie cech przypominających dżety, typową właściwość komet i wywnioskowaną z modeli i innych obserwacji Chirona. Dżety te sugerują, że koma powstaje z kilku aktywnych obszarów, a nie z bardziej wszechobecnej sublimacji na powierzchni. Pierwsze widmo Chirona w ultrafiolecie uzyskał w 1995 roku Noah Brosch za pomocą spektrometru długich fal atelitu INTERNATIONAL ULTRAVIOLET EXPLORER w trybie niskiej rozdzielczości (6 Å). Rok później spektrograf słabych obiektów na Kosmicznym Teleskopie Hubble'a dokonał obserwacji Chirona w ultrafiolecie z rozdzielczością 2 Å podczas jednego z jego wybuchów. Ten "wybuch" polegał na dużym (około 60%) wzroście strumienia Chirona, ale co ciekawe, nie było dowodów na przedłużoną śpiączkę, jak można by się spodziewać w takim przypadku. Źródło tego znaczącego wzrostu jest nieznane, a analiza przeprowadzona przez Joela Parkera, Alana Sterna, Michela Festou i Michaela
A′Hearna sugeruje, że może to być kuszący dowód na bardzo niezwykłą funkcję fazową, ponowne pokrycie powierzchni w wyniku niezaobserwowanego wybuchu lub zimnego, trwałego , przypowierzchniowa "mgła" (atmosfera o małej wysokości), która doświadczyła osobliwego, nierozwiązanego wybuchu. Istnieją również dowody na to, że podczas tego wybuchu kolor Chirona zmienił się z szarego na lekko niebieski. Zbieżność tej pozornej zmiany koloru ze wzrostem strumienia może być oznaką małych ziaren rozpraszających Rayleigha w śpiączce Chirona lub na jej powierzchni, związanych z wyższym albedo. Chiron wykazywał aktywność we wszystkich punktach swojej orbity, a zakres wybuchów jest szeroki zarówno pod względem amplitudy (od kilku procent do ponad dwukrotności), jak i czasu trwania (od tygodni do miesięcy). W rzeczywistości Chiron był bardziej aktywny w swoim aphelium w 1970 roku niż w kolejnych dziesięcioleciach, kiedy był bliżej Słońca. Taka analiza (przeprowadzona przez Schelte Busa, Edwarda Bowella, Alana Sterna i
Michaela A′Hearna) działalności Chirona była możliwa dzięki zapoznaniu się z historycznymi kliszami fotograficznymi z archiwów obserwatoriów. Źródło działalności Chirona pozostaje nadal kwestią otwartą. Ponieważ Chiron jest aktywny na tak dużych odległościach - m.in. poza Saturnem - jego aktywność nie może być napędzana przez sublimację lodu wodnego, który nie jest lotny na tej odległości (lód wodny został po raz pierwszy odkryty na Chironie przez Michaela Fostera, Simona Greena, Neila McBride′a i Johna Daviesa w 1998 r. i był obserwowany o innych centaurach autorstwa Roberta Browna, Dale′a Cruikshanka i ich współpracowników). Jednak obliczenia modelowe przeprowadzone przez Dianę Prialnik, Noah Brosch i Drorę Ianovici pokazują, że obserwowany wzór aktywności Chirona może wynikać z CO, który początkowo jest uwięziony w amorficznym lodzie wodnym, ale następnie uwalniany podczas krystalizacji lodu. Aktywność Chirona musi być napędzana przez lody, które są lotne w tych odległościach, a możliwe
gatunki kandydujące obejmują CO, który jest częstym źródłem aktywności w kometach, N2, który jest powszechny na Plutonie i księżycu Neptuna, Trytonie, czyli CH4. Zmienność wybuchów Chirona, widoczny brak korelacji między aktywnością a odległością od Słońca oraz obserwacje cech przypominających dżety sugerują, że powierzchnia Chirona może być nierównomiernie pokryta obojętnym materiałem. Znajomość gatunku napędzającego aktywność Chirona jest kluczem do zrozumienia jego powiązań z innymi obiektami i regionami Układu Słonecznego. W 1995 roku Maria Womack i Alan Stern dokonali milimetrowych obserwacji Chirona, gdy znajdował się on w odległości heliocentrycznej 8,5 jednostki astronomicznej. Wykryli tlenek węgla o gęstości kolumnowej N(CO) = 9 × 1012 cm-2, co sugeruje szybkość produkcji Q(CO) = 2 × 1028 s-1, jeśli CO pochodzi bezpośrednio z jądra. Jest to porównywalne z tempem produkcji CO przez kometę Hale′a - Boppa w odległości
heliocentrycznej 3,8 jednostki astronomicznej. Widma ultrafioletowe Kosmicznego Teleskopu Hubble'a zapewniają najlepsze jak dotąd górne granice dla wielu innych gatunków. Dane nie wykazały żadnych dowodów na emisję komy u CS λ2576, OH λ3085 ani żadnego innego gatunku śpiączki i ustaliły górne granice liczebności kolumny N(CS)<4,3×1013cm-2 i N(OH) <1,5×1014 cm-2, odpowiadające szybkości wytwarzania cząsteczek macierzystych odpowiednio Q(H2O) < 4 × 1030 s-1 i Q(CS2) < 4 × 1028 s-1.
Przyszłość Chirona
Regularne i szczegółowe obserwacje obiektów należących do Pasa Kuipera wciąż wykraczają poza możliwości współczesnych instrumentów, dlatego Chiron, ze względu na swoją względną bliskość, zapewnia astronomom najlepszą okazję do zbadania właściwości obiektu, który niedawno znajdował się w Pas Kuipera. Należy w dalszym ciągu prowadzić obserwacje jego sporadycznych wybuchów, aby rozpoznać mechanizmy leżące u podstaw jego działania i źródło śpiączki. Istotnym krokiem byłoby jednoznaczne wykrycie i pomiary liczebności gatunków tworzących gazy śpiączkowe. Miejmy nadzieję, że do czasu, gdy Chiron powróci na kolejne przejście przez peryhelium 3 sierpnia 2046 r., nasze instrumentarium astronomiczne i nasza wiedza na temat centaurów osiągną taki poziom, w którym będziemy mogli przeprowadzić szczegółowe obserwacje i analizy jego właściwości fizycznych w odniesieniu do Pasa Kuipera. Być może nawet wykorzystamy półstulecie Chirona do wystrzelenia misji kosmicznej mającej na celu spotkanie z tym wyjątkowym emisariuszem z
zewnętrznych granic naszego Układu Słonecznego
Chondryty
Chondryty są najczęstszym rodzajem METEORYTÓW spadających na Ziemię z kosmosu. Swoją nazwę zawdzięczają temu, że większość z nich zawiera "chondry" (od greckiego "chondros", ziarno), które są koralikami krzemianowymi, czasami spotykanymi w dużych ilościach. Chondrule zawsze fascynowały naukowców. Wynalazca mikroskopu petrograficznego, H. C. Sorby, opisał je jako kropelki ognistego deszczu. Są to zasadniczo szkliste koraliki powstałe w wyniku gwałtownego, ale krótkiego ogrzewania, w wyniku którego ziarna pyłu utworzyły kropelki stopu wielkości milimetrów. Jednak przyczyna ogrzewania pozostaje tajemnicą. Najważniejszą cechą chondrytów jest to, że z wyjątkiem kilku wysoce lotnych pierwiastków mają taki sam skład jak Słońce. Są to także skały niezwykle starożytne, których wiek powstania jest porównywalny z wiekiem Układu Słonecznego (4600 milionów lat). Wreszcie mają unikalne tekstury sugerujące akumulację różnorodnych składników z niewielkimi lub żadnymi późniejszymi zmianami. Natomiast ACHONDRYTY to meteoryty o wyraźnie niesłonecznym składzie i skały magmowe powstałe w wyniku różnego rodzaju wulkanizmu. Największym chondrytem widzianym spadającym z kosmosu jest Jilin o masie 4000 kg, natomiast największym, którego upadku nie zaobserwowano, ale dla którego meteorytem znalezionym na powierzchni Ziemi jest chondryt Carewa, znaleziony w Rosji w 1968 roku. Najsłynniejszy chondryt to prawdopodobnie METEORYT ALLENDE, który spadł w Meksyku w 1969 r. Znaleziono około 2 ton porozrzucanych na polach uprawnych w prowincji Chihuahua. Chondryt Allende słynie z dużej ilości białych kruszyw krzemianowych o niezwykłych właściwościach chemicznych i izotopowych. Chondryt Semarkona o masie 691 g, który spadł w Indiach w 1940 r., jest dobrze znany naukowo, ponieważ należy do największej klasy chondrytów, która najbardziej przypomina pierwotną materię Układu Słonecznego. Meteoryty zwykle dają spektakularne efekty, gdy spadają przez atmosferę, powstają kule ognia, wiele huków dźwiękowych, a nawet zapachy, a powierzchnie pozostałych kamieni czernieją w miejscach, gdzie cienka warstwa materiału stopiła się podczas przejścia przez atmosferę. Meteoryty zwykle rozpadają się na wiele kawałków, które są rozrzucone po elipsie na Ziemi, przy czym najcięższe kawałki przemieszczają się najdalej. Meteoryt Pułtusk wyprodukował 100 000 fragmentów. Zaobserwowano, że około 850 chondrytów spadło i umieszczono w muzeach na całym świecie, a na Ziemi odnaleziono prawie 20 000 ich fragmentów, głównie w Ameryce Północnej, Afryce Północnej, środkowej i zachodniej Australii, a zwłaszcza na Antarktydzie. W artykule opisano klasyfikację i podstawowe właściwości chondrytów, ich historię fizyczną określoną na podstawie badań izotopowych, datowania radiometrycznego i petrologii, a także niektóre aktualne pomysły na ich pochodzenie.
Klasyfikacja i podstawowe właściwości chondrytów
Klasy chondrytów podano w tabeli 1 wraz z informacjami o ich głównych właściwościach.

Uwzględniono także dwie klasy "prymitywnych achondrytów". Tradycyjnie uważano je za achondryty ze względu na ich magmową teksturę, ale ich skład jest słoneczny i obecnie przyjmuje się, że są to chondryty, które stopiły się bez zmiany składu. Chociaż chondryty mają takie same proporcje większości pierwiastków jak Słońce, dwoma lotnymi pierwiastkami, które nie występują w proporcjach słonecznych, są siarka i tlen. Ilość tych pierwiastków, w szczególności tlenu, jest bardzo zróżnicowana pomiędzy chondrytami. Ma to istotne implikacje dla występujących minerałów. W chondrytach EL i EH (zwanych łącznie "chondrytami enstatytowymi") żelazo występuje w postaci metalu i siarczku, ale niewiele lub nie występuje w postaci krzemianowej. Dominującym minerałem krzemianowym jest enstatyt, MgSiO3, od którego pochodzi nazwa tej klasy. Chondryty H, L i LL (zwane łącznie "zwykłymi chondrytami") zawierają więcej tlenu niż chondryty enstatytowe. Tak więc, chociaż część żelaza występuje w postaci metalu i siarczków, większość występuje w postaci krzemianów w postaci minerałów kamiennych (krzemianowych), oliwinu i piroksenu. (Oliwin to stały roztwór Mg2SiO4 i Fe2SiO4, termin Fa w tabeli odnosi się do procentowej zawartości Fe2SiO4, natomiast piroksen to stały roztwór MgSiO3 i FeSiO3, termin Fs w tabeli odnosi się do procentowej zawartości FeSiO3 .) Chondryty CI, CM, CV i CO (zwane łącznie "chondrytami węglowymi") zawierają więcej tlenu niż inne chondryty, a w niektórych przypadkach żelazo nie występuje już w postaci metalu, ale jest całkowicie zastąpione magnetytem i podobnymi minerałami. CHONDRYTY WĘGLOWE zawierają również większe ilości składników lotnych niż inne chondryty, przy czym chondryty CI składają się w 20% z wody i dlatego najlepiej uważać je za raczej twarde kulki błota. Właściwości te można dogodnie przedstawić za pomocą wykresu żelaza w postaci metalicznej względem żelaza w postaci siarczkowej i krzemianowej .Na takim wykresie, wykorzystanym po raz pierwszy przez laureata Nagrody Nobla Harolda Ureya i jego kolegę Harmona Craiga, chondryty będą leżeć po przekątnej z meteorytami ubogimi w tlen w lewym górnym rogu i meteorytami bogatymi w tlen na dole. Przekątna będzie "słonecznym żelazem całkowitym" linii, jeśli stosunek żelaza do krzemu jest równy wartości słonecznej. Jednakże chondryty oddalają się od przekątnej Słońca, co wskazuje, że oprócz różnic w ilości zawartego w nich tlenu, niektóre chondryty zawierają różne ilości całkowitego żelaza. Inne właściwości wydają się różnić w zależności od tych klas chondrytów, takie jak obfitość wysoce ogniotrwałych (nielotnych) pierwiastków, które wykazują niewielki, ale znaczący spadek w porównaniu z chondrytami słonecznymi w miarę przechodzenia od chondrytów węglowych przez zwykłe do enstatytu. Podobnie względna obfitość trzech izotopów tlenu w różnych klasach chondrytów jest wysoce charakterystyczna. Chondryty węglowe (z wyjątkiem chondrytów CI) zawierają większą część głównego izotopu tlenu (16O) niż skały z Ziemi i Księżyca, podczas gdy chondryty enstatytowe i chondryty CI mają podobne proporcje do Ziemi i Księżyca, a zwykłe chondryty mają mniejszą zawartość 16O . Największy wpływ na izotopy tlenu wykazują chondryty CV i wydają się one być powiązane z charakterystycznymi dla tej klasy białymi agregatami krzemianowymi. Główne pytania stawiane przez klasy chondrytów brzmią: biorąc pod uwagę, że chondryty są starożytne i mają zasadniczo skład słoneczny, jak doszło do tych różnic w składzie chemicznym żelaza, ilości żelaza i innych właściwościach? Co mówią nam o warunkach panujących we wczesnym Układzie Słonecznym? Jedną ze wskazówek co do natury procesu, który powoduje te właściwości, jest natura i liczebność chondr oraz względne rozmiary chondr i ziaren metalu. Liczebność chondrul spada z około 75% obj. w zwykłych chondrytach do 35% obj. w enstatytach oraz chondrytach CV i CO, do mniej niż 10% obj. w CM i zasadniczo do zera w chondrytach CI. Chondrule są bardzo zróżnicowane, niektóre zawierają krzemiany bogate w żelazo i są stosunkowo bogate w pierwiastki lotne, a inne zawierające krzemiany ubogie w żelazo, są zubożone w pierwiastki lotne. Zatem można przynajmniej argumentować, że niektóre trendy dotyczące tlenu i pierwiastków ogniotrwałych odzwierciedlają liczebność i proporcje różnych typów chondr. Wielkość ziaren metali również znacznie się różni w zależności od klasy. Chondryty enstatytowe mają najmniejsze, a zwykłe chondryty największe ziarna metalu, podczas gdy chondryty węglowe na ogół zawierają niewiele metalu lub nie zawierają go wcale.
Historia chondrytów
Jeśli spojrzeć pod mikroskopem na serię z tej samej klasy, często można dostrzec szeroką gamę tekstur, przy czym chondry są wyraźne w niektórych chondrytach i rozmyte w innych. Chondruły to zasadniczo ziarna oliwinu i piroksenu otoczone materiałem, który w niektórych chondrach jest szklisty, w innych półprzezroczysty, a w jeszcze innych krystaliczny. Podobnie matryca pomiędzy chondrami i ziarnami metalu jest drobnoziarnista w niektórych chondrytach, a gruboziarnista w innych. Oprócz tych trendów fizycznych, skład ziaren i faz mineralnych staje się bardziej jednolity w miarę rozmycia tekstur. Wszystkie te efekty przypisuje się nagrzewaniu skały po jej złożeniu. Efekt ten nazywany jest metamorfizmem i jest opisywany systemem numeracji od 3 do 6, przy czym meteoryty niezmienione to typ 3, a meteoryty silnie przemienione to typ 6. Ze szczegółowych badań chemii faz w równowadze chemicznej możemy oszacować, że typy 3, 4 , 5 i 6 odpowiadają w przybliżeniu temperaturom odpowiednio 400-600°C, 600-700°C, 700-750°C i 750-950°C. Typy 1 i 2 odnoszą się do chondrytów metamorfizowanych w obecności znacznych ilości wody (∿50% obj.), typ 1 w temperaturze 100-150°C i typ 2 w temperaturze <20°C. Na podstawie profili składu metalu zwykłych chondrytów, spowodowanych niepełną równowagą, możemy oszacować, że szybkości chłodzenia po metamorfizmie wynosiły zazwyczaj 10-100 K Myr-1. Inny proces, któremu uległa większość, jeśli nie wszystkie chondryty, znajduje odzwierciedlenie w wyglądzie chondrytów gołym okiem. Często wydają się być zbudowane z fragmentów wcześniej istniejących skał. Meteoryt z Fayetteville jest doskonałym przykładem takiej tekstury. Technicznie rzecz biorąc, proces ten nazywa się "brekcjacją", a skały - "BRECCIAS". Fragmenty zupełnie normalnego chondrytu są czasami otoczone ciemniejszą "glebą" złożoną z pokruszonych chondrytów i bogatą w gazy obojętne, węgiel i kryształy uszkodzone przez promieniowanie. Meteoryty te nazywane są "brekcjami regolitowymi bogatymi w gaz". Były to szczątki powierzchniowe jakiegoś pozbawionego powietrza ciała wystawionego na działanie wiatru słonecznego i energetycznego promieniowania słonecznego. Astronauci programu Apollo znaleźli podobne skały na Księżycu. Oprócz metamorfozy i brekcji wiele meteorytów wykazuje oznaki nagłych wzrostów temperatur, po których następuje bardzo szybkie ochłodzenie. Kryształy są pękane i deformowane, a minerały metaliczne i siarczkowe topione i wciskane w pęknięcia, a czasami minerały uzyskują niezwykłą teksturę. Efekty te można odtworzyć w laboratorium, wystawiając chondryty na działanie fal uderzeniowych wytwarzanych przez plastikowe materiały wybuchowe lub duże działa. Skutki są klasyfikowane jako seria poziomów S1, S2, S3, S4, S5 i S6, które odnoszą się do ciśnień uderzeniowych <5 GPa, 5-10 GPa, 10-20 GPa, 20-30 GPa, 30-50 Odpowiednio GPa i >50 GPa (1 GPa, czyli gigapaskal, równa się około 10 000 atm). Źródłem fali uderzeniowej doświadczanej przez chondryty jest prawie na pewno zderzenie dwóch ASTEROID w przestrzeni kosmicznej. Jedne z najlepszych informacji na temat historii chondrytów, jakie posiadamy, dostarczają różne metody datowania. Gdy tylko meteoryt zostanie usunięty ze swojego pierwotnego ciała macierzystego i osiągnie rozmiary metra, PROMIENIE KOSMICZNE bombardują kamień i tworzą izotopy, które inaczej nie byłyby obecne. Na podstawie tych izotopów można obliczyć czas ekspozycji na promieniowanie kosmiczne. Często stwierdza się, że w tym samym czasie odsłonięto dużą liczbę chondrytów danej klasy, co stanowi mocny dowód na to, że wszystkie lub większość chondrytów została uwolniona w tym czasie z tego samego obiektu macierzystego. Najlepszym przykładem jest klasa chondrytów H, której większość została wystawiona na działanie promieni kosmicznych 8 milionów lat temu. Kilka innych klas chondrytów wykazuje podobne wartości szczytowe w rozkładach wieku ekspozycji. Inna metoda datowania prowadzi do tego samego wniosku w przypadku innej głównej klasy chondrytów, chondrytów L. "Wiek Ar - Ar" opiera się na rozpadzie radioaktywnym 40K do 40Ar; potas mierzy się w laboratorium na podstawie obfitości innego wytworzonego eksperymentalnie izotopu, 38Ar. Większość chondrytów L ma wiek Ar-Ar około 500 milionów lat, a wiele z nich jest intensywnie nagrzewanych szokowo. Wydaje się zatem, że 500 milionów lat temu wszystkie te oddzielne chondryty L doświadczyły powszechnego zdarzenia grzewczego, które spowodowało utratę gazu 40Ar i zresetowanie zegara Ar - Ar. Musiały także być w tym czasie częścią tego samego obiektu nadrzędnego. Ekspozycja i wiek Ar - Ar świadczą o tym, że członkowie dużych klas chondrytów pochodzili z jednego lub dwóch obiektów w kosmosie.
Pochodzenie chondrytów
Jakie więc były obiekty, z których pochodzą chondryty? Podczas upadku zaobserwowano kilka meteorytów, głównie chondrytów, na tyle dobrze, że można było określić ich orbity. Orbity przypominają orbity ASTEROID BLISKOZIEMI, zbliżających się na odległość około 0,9 jednostki astronomicznej od Słońca i wychodzących do głównego PASA ASTEROID na około 2,5 jednostki astronomicznej (1 AU, "jednostka astronomiczna", to odległość Ziemi od Słońca, wynosząca 150 milionów kilometrów). Związek między kometami i asteroidami jest niejasny, a aż połowa asteroid znajdujących się w pobliżu Ziemi może to wymarłe jądra komet, ale wiele z nich mogło pochodzić z głównego pasa asteroid. Widmo światła słonecznego odbitego od powierzchni asteroid dostarcza wskazówek co do ich powierzchni . W ten sposób podzielono obecnie na klasy ponad 2000 planetoid, a wiele z nich przypomina meteoryty . Jednakże asteroidy o widmach przypominających zwykłe chondryty - klasę chondrytów dominującą w strumieniu meteorytów na Ziemi - są wśród asteroid bardzo rzadkie. Idealne dopasowania można znaleźć w przypadku mniej niż 1% asteroid i nawet jeśli założyć, że na powierzchnie asteroid wpływa jakaś forma wietrzenia kosmicznego, wówczas mniej niż 11% asteroid może być źródłem głównych klas chondrytów na Ziemi. Istnieją zasadniczo dwa czynniki decydujące o tym, które meteoryty dotrą do Ziemi, poza liczebnością ich macierzystych asteroid w pasie asteroid. Są to mechanizmy orbitalne służące do przenoszenia obiektów z pasa asteroid na Ziemię i do atmosfery ziemskiej. Przejście przez atmosferę ziemską niszczy większość delikatnych meteorytów CI i CM, ale pozostawia nietknięte twarde, zwykłe chondryty. Prawie połowa sklasyfikowanych asteroid w pasie głównym ma widma przypominające widma chondrytów CI lub CM, podczas gdy tylko kilka procent meteorytów docierających do powierzchni Ziemi należy do tych klas. Uważamy, że większość zwykłych klas chondrytów pochodzi z ciał pojedynczych, a dane widmowe pokazują, że obiekty te są rzadkie w pasie asteroid. Ostatnio zasugerowano, że chondryty H pochodzą z asteroidy 6 Hebe, przy czym "6" wskazuje, że była to planetoida 6 Hebe, odkryto szóstą asteroidę. Ten 200-kilometrowy obiekt nie tylko ma widmo powierzchni podobne do chondrytów H, zmieszanych z niektórymi pokrewnymi METEORYTAMI ŻELAZNYMI, ale także znajduje się w przestrzeni, gdzie zarówno Saturn, jak i Jowisz wywierają silny okresowy wpływ grawitacyjny, który może wysyłać meteoryty z Hebe na Ziemię. Jeśli założymy, co wydaje się prawdopodobne, że różne klasy chondrytów pochodzą z różnych asteroid, to w jaki sposób powstały te różne klasy? Jak ich asteroidy macierzyste mają różne powierzchnie? Jest to równoznaczne z pytaniem, jak powstały chondry w meteorytach i jak zmieniły się proporcje metali i krzemianów w zależności od klasy. Większość naukowców twierdzi, że w Mgławicy doszło do powstawania chondrytów i oddzielania metali od krzemianów, że błyskawice lub inne impulsy energii przelatywały przez pył mgławicy, tworząc chondry, oraz że wirujące w mgławicy ziarna metalu i krzemianu uległy rozdzieleniu, być może w wyniku sortowania aerodynamicznego za pomocą gazu lub być może w innym procesie. Jednakże autor niniejszego artykułu zasugerował, że na powierzchniach asteroid zachodziło zarówno tworzenie chondr, jak i oddzielanie metali od krzemianów. Zasugerowałem, że chondry powstają w wyniku uderzenia oraz że ziarna metalu i krzemianu oddzielają się, gdy gazy z wnętrza asteroidy, głównie woda, przedostają się przez suche warstwy powierzchniowe, sortują chondry i metal pod względem wielkości i grawitacji oraz dostosowują ich względne proporcje, gdy uciekł w kosmos. Zatem pochodzenie meteorytów jest zasadniczo takie samo, jak pochodzenie asteroid. Mgławica, z której powstało Słońce, oddzieliła się od większego obłoku międzygwiazdowego i uległa zapadnięciu grawitacyjnemu, tworząc proto-Słońce i szereg pierścieni materii, które szybko połączyły się w planety. W miejscu pasa asteroid, 2-3 jednostki astronomiczne od Słońca, siły grawitacyjne głównych planet (Jowisza i Saturna) były tak silne, że uniemożliwiono koalescencję i utworzyła się duża liczba maleńkich PLANETOZYMALI. Niektóre z nich urosły w wyniku AKRECJI, ale większość uległa fragmentacji w wyniku uderzenia, tworząc pas asteroid podobny do tego, jaki obserwujemy dzisiaj. Wiele asteroid zawierało wystarczającą ilość radioaktywnego izotopu glinu, 26Al, że wytworzyły się duże ilości ciepła, które uległy stopieniu, tworząc wiele magmowych klas meteorytów. Produkt pochodny rozpadu 26Al, 26Mg, znaleziono w fazach bogatych w glin niektórych meteorytów. Jednak niektóre chondryty ogrzewano bez topienia, a wiele w ogóle nie było podgrzewanych. Chondryty są wyraźnie prymitywnymi materiałami z wczesnego Układu Słonecznego. Aby podkreślić tę kwestię, w chondrytach odkryto ziarna diamentu, grafitu, węglika krzemu i tlenku glinu, które mają właściwości izotopowe, co wskazuje, że nie powstały one w naszym Układzie Słonecznym, ale zostały wyrzucone z zewnętrznych atmosfer różnych gwiazd. Są to ziarna przedsłoneczne, MIĘDZYGWIAZDOWE. Tak więc, choć chondryty są powszechnie uważane za zwiastunów przynoszących nam informacje na temat wczesnego Układu Słonecznego, w bardzo realnym sensie stanowią łącznik pomiędzy naszymi laboratoriami a procesami zachodzącymi w przestrzeni międzygwiazdowej i odległych gwiazdach
Chromosfera
Chromosfera (gr. χρωμα, kolor) to gazowa powłoka atmosferyczna otaczająca Słońce, a ogólniej gwiazdy, o typowej grubości 2000 km, leżąca nad FOTOSFERĄ SŁONECZNĄ i zawierająca głównie wodór i hel.
Wprowadzenie historyczne
Całkowite zaćmienie z 1860 r. można uznać za pierwsze poważne badanie chromosfery. Podczas zaćmień księżyc wydaje się otoczony kolorowym okręgiem z kilkoma wystającymi strukturami, zwanymi PROMINENCES, które rozciągają się przez zewnętrzną koronę i drobniejsze struktury, takie jak "poils" po francusku, które byłyby spikulami. Podczas zaćmienia w 1970 r. C. A. Young użył spektrografu i szczeliny stycznej. Kiedy nadszedł moment całkowitego zaćmienia, został nagrodzony nagłym pojawieniem się licznych linii emisyjnych zwanych widmem błyskowym. Zjawisko to trwało zaledwie kilka sekund, ponieważ Księżyc szybko pokrył najniższe warstwy chromosfery. W 1901 r. J. Evershed opublikował widmo chromosfery i omówił podobieństwa i różnice w stosunku do widma fotosferycznego. W drugiej połowie XIX wieku nowy rodzaj instrumentu, spektroheliograf, został opracowany w Mt Wilson przez G. E. Hale′a, a w Meudon przez H. Deslandresa. Obserwując linie H i K zjonizowanego wapnia (Ca II), odnieśli sukces i odkryli regularny wzór chromosfery zwany siecią chromosferyczną. Interpretacja tych linii w emisji powyżej krawędzi była zagadkowa i nikt w tamtym czasie nie myślał, że temperatura chromosfery może być wyższa niż fotosfery. Musieliśmy czekać do 1942 roku na odkrycie gorącej KORONY otaczającej Słońce. Nowe opracowanie instrumentalne pomogło lepiej zrozumieć chromosferę. W 1933 roku B. Lyot opublikował raport na temat filtrów dwójłomnych o wąskim paśmie, które umożliwiały zobaczenie spikuli na krawędzi. Filtry te stały się dość szeroko rozpowszechnione i używane w latach 50. XX wieku, a drobna struktura chromosfery była systematycznie badana, wykorzystując linię H?, jako krzaki drobnych jasnych i ciemnych struktur powiązanych w sieć. Struktury te nazywane są plamkami. Poza zaćmieniem chromosferę można obserwować za pomocą KORONAGRAFÓW. Ten rodzaj instrumentu został po raz pierwszy opracowany przez B. Lyota. Zasada działania opiera się na wprowadzeniu sztucznego księżyca zasłaniającego dysk fotosferyczny. Główne cechy chromosfery to jej grubość 2000 km oraz podstawowa temperatura i ciśnienie. Poza krawędzią Słońca widmo chromosferyczne charakteryzuje się liniami emisyjnymi. Na dysku linie te pojawiają się jako ciemne linie w widmie słonecznym. Odpowiadają one pochłanianemu promieniowaniu o dyskretnych długościach fal przez elementy chromosfery. Główne linie w widmie widzialnym zostały zidentyfikowane i nazywane są liniami Fraunhofera (tabela 1). Intensywność linii odzwierciedla warunki fizyczne plazmy, która pochłania lub emituje promieniowanie i jest dobrą diagnostyką temperatury plazmy. Powyżej fotosfery temperatura najpierw nadal spada do minimum 4200 K, a następnie ponownie wzrasta.
Morfologia i dynamika spokojnej chromosfery
Wygląd chromosfery zależy w dużym stopniu od linii użytej do obserwacji, a dokładniej od długości fali, w której uzyskano obraz, np. CaIIHand K, Hα, He II 304 Å. Dysk słoneczny obserwowany w liniach Fraunhofera ma średnicę nieznacznie większą niż dysk fotosferyczny i jest pokryty wzorem bardzo różniącym się od ziarnistego wzoru fotosfery. W liniach H i K Ca II obrazy chromosfery pokazują jasną sieć otaczającą mniej lub bardziej duże komórki o średnicy rzędu 30 000 km. Ten wzór komórek pokrywa fotosferyczną supergranulację, która jest przejawem wielkoskalowej konwekcji słonecznej, ważnego mechanizmu transportu strumienia magnetycznego. Linie H i K mają specjalny profil z niezwykle szerokimi skrzydłami absorpcyjnymi i centralną emisją. Centralna emisja linii K nazywana jest K3, dwa sąsiadujące maksima nazywane są K2 (K2v fioletowe skrzydło i K2r czerwone skrzydło), a daleko w skrzydłach nazywane są K1. Podobne definicje obowiązują dla linii H. Spektroheliogramy w K1 pokazują wzór fotosferyczny z granulacją i plamami słonecznymi. W K3 występuje siatkowaty wzór jasności na całej powierzchni Słońca, który reprezentuje sieć i supergranule lub sieć wewnętrzną, zwaną również siecią internetową. Sieć jest bardziej widoczna w dwóch symetrycznych strefach na północ i południe od równika, położonych na szerokościach geograficznych tropikalnych. W K2 bardzo małe jasne punkty są widoczne na całej powierzchni Słońca.
Sieć
Sieć chromosferyczna jest bezpośrednio związana z polem magnetycznym. Wydaje się jaśniejsza niż średnia chromosfera ze względu na zmiany ciśnienia i temperatury oraz prawdopodobnie ogrzewanie w namagnesowanej atmosferze. Siła centralnej części linii K mierzona w paśmie 1Å jest używana jako wskaźnik (indeks K) do definiowania lokalnej gęstości strumienia magnetycznego w leżącej pod nią fotosferze i jest używana dla gwiazd do definiowania stopnia magnetyzmu gwiazdy. W spokojnym Słońcu indeks K wzrasta liniowo wraz z gęstością strumienia magnetycznego. Jednak prawo to nie jest prawdziwe w obszarach namagnesowanych (przekraczających 400 G), gdzie prawo potęgowe maleje z wykładnikiem mniejszym od jedności. Ta forma jest nazywana efektem baldachimu. Najbardziej widoczne przykłady zjawisk baldachimu są związane z plamami słonecznymi. Pole tworzy baldachim nad niemagnetycznym obszarem między 600 a 1000 km w chromosferze. Sieć jest miejscem zakotwiczenia pętli koronalnych rozciągających się na wysokości koronalne. Spektroheliogram Hα? ma pewne podobieństwa do spektroheliogramu K3 z dwiema jasnymi strefami równoległymi do równika. Kontrast sieci jest jednak słabszy niż w K3. W linii Lymana (Lα) sieć jest znacznie bardziej wzmocniona niż w Hα i ma wygląd włóknisty.
Jasne ziarna
W K2 linii Ca II, a lepiej w liniach UV, sieć i sieć internetowa są bardziej ziarniste. Ziarna mają wysoki kontrast przy długościach fal reprezentatywnych dla minimum temperatury, np. w kontinuum przy λ ∿ 1600 Å. Kosmiczny obraz satelity TRACE pokazuje takie wzory ziaren w wysokiej rozdzielczości. Jasne ziarna kontinuum UV są obserwowane wszędzie jako jasne punkty. Mają one charakterystyczną wielkość 1000 km i nadwyżkę temperatury jasności 30-360 K. W sieci jasne punkty są na ogół związane z elementami magnetycznymi, które się zderzają. Przeważnie mają przeciwne bieguny, a jasne punkty są wynikiem nagrzewania się plazmy po ponownym połączeniu. Strumień magnetyczny jest przekształcany w ciepło. W sieci wewnętrznej, na spektroheliogramach o wysokiej rozdzielczości uzyskanych w skrzydłach K2 lub H2 linii Ca II, jasne ziarna (jasne ziarno Ca II) są ponownie dobrze obserwowane. Przez wiele lat uważano, że są one spowodowane obecnością małych rurek magnetycznych, takich jak jasne punkty sieci. Związek tych jasnych ziaren z małymi elementami magnetycznymi był przedmiotem długiej debaty, ponieważ koliniowość nie była rozstrzygająca. Obecnie udowodniono, że jasne ziarna są wynikiem zachowania oscylacji chromosferycznych, które wytwarzają fale uderzeniowe.
Struktury drobne
Spektroheliogramy Hα pokazują sieć chromosferyczną, ale bardziej wyraźnie istnienie bardzo małych wydłużonych struktur. Wokół plam słonecznych gromadzą się struktury zwane fibrylami. Grubsze i dłuższe struktury w obszarach aktywnych lub między obszarami aktywnymi nazywane są włóknami. Małe struktury widoczne w emisji powyżej krawędzi to kolce. Małe zarośla drobnych struktur zakotwiczone w sieci to plamki. Te drobne struktury są kontrolowane przez pole magnetyczne, które ogranicza plazmę. Pole magnetyczne odgrywa ważną rolę w chromosferze.
Plamy
Plamki to nieregularne nici o dużym kontraście jasności, które łączą się ze sobą, tworząc quasi-regularny wzór wokół i nad supergranulami w fotosferze. Plamy wyglądają inaczej przy różnych długościach fal w linii Hα. W centrum linii jasne plamy leżą nisko (700-3000 km nad fotosferą), podczas gdy ciemne plamy tworzą grubą fragmentację, ale domieszka jasnych i ciemnych cech sprawia, że wzór na dużą skalę jest mniej wyraźny niż w liniach Ca II H i K w spokojnym Słońcu. Czasami drobne struktury przyjmują specyficzne układy, takie jak rozety, które mają naprzemiennie jasne i ciemne drobne plamy promieniujące na zewnątrz ze wspólnego jasnego środka. Jasne jądro odpowiada magnetycznemu elementowi sieci. Widoczność jasnych plam H? szybko zanika, gdy obserwowana długość fali jest przesuwana od środka linii. Przy 0,6 Å w kierunku niebieskich skrzydeł linii K można znaleźć tylko ciemne wydłużone plamy. Ich przerywane skupiska wyznaczają granice komórek supergranul. Ciemne plamki widoczne w pobliżu kończyny w tej pozycji długości fali na niebieskich lub czerwonych skrzydłach zachowują swoje wąskie kształty i często tworzą się w skupiskach lub krzakach. W długościach fal radiowych (przy 6 cm) sieć drobnoskalowa jest rozdzielona. Wszystkie jasne cechy 6 cm pokrywają jasne plamki Ca II K. Typowy czas życia plamek wynosi 12-20 min. Są one miejscami ruchów w górę i w dół o krótszych okresach życia. Obserwuje się quasi-periodyczność 5-10 min. Ruchy w dół są dobrze obserwowane u podstawy plamek. Są one najwyraźniej odpowiedzialne za niektóre jasne ziarna ze względu na kompresję plazmy lub wzrost natężenia pola magnetycznego. Te przepływy w dół wyjaśniają powszechne przesunięcie ku czerwieni obserwowane w sieci. Plamy można uważać za cylindry o grubości D = 500-1000 km i temperaturze T = 8000-15 000 K. Ciśnienie wynosi około 0,5 dyn cm-2, a prędkości wynoszą od 5 do 10 km s-1. Różnicę między ciemnymi i jasnymi plamami można wyjaśnić wzrostem ciśnienia gazu.
Spikule
Na krawędzi obserwuje się struktury przypominające strumienie, zwane spikulami, rozciągające się do gorącej korony. Spikule mają temperaturę 10 000 K i gęstość 10-13 g cm-3. Wznoszą się na maksymalną wysokość około 10 000 km z prędkością około 20 km s-1. Na dysku w dowolnym momencie występuje od 5000 do 30 000 spikuli. Duża liczba spikuli w połączeniu z ich zmierzonymi prędkościami oznacza strumień masy skierowany w górę o dwa rzędy wielkości większy niż strumień wiatru słonecznego. Ten strumień masy jest wystarczająco duży, aby całkowicie wypełnić koronę w ciągu 3 godzin. W jaki sposób przepływ masy powraca do chromosfery? Kuszące jest znalezienie odpowiedzi w przepływie w dół mierzonym w sieci i silnie widocznym u podstawy plamek. Czy plamki mają tę samą naturę co spikule? To również było przedmiotem długiej debaty i nadal jest przedmiotem kontrowersji. Niemniej jednak spikule były polem magnetycznym odgrywającym ważną rolę i nie można ich zaniedbać.
Modele rozwidlone
Inny widok chromosfery uzyskano z obserwacji w pasmach CO (pasmo tlenku węgla). Pasma te są optycznie grube u podstawy inwersji temperatury. Rdzeń najsilniejszych linii CO nie jest centralnie odwrócony, wbrew przewidywaniom modeli półempirycznych. Zamiast tego cechy CO wykazują chłodne jądro, co wskazuje na obecność niskiej temperatury (T < 4000 K) powyżej minimalnej wysokości temperatury. Skonstruowano modele rozwidlone, aby wyjaśnić powstawanie CO. Przyznano, że część chromosfery może być wystarczająco zimna. Taki chłodny model (T ∿ 4000 K do wysokości 1500 km) został również zaproponowany na nowo w symulacji jasnych ziaren wewnątrz sieci (oscylacje chromosferyczne). Modele półempiryczne niekoniecznie muszą odzwierciedlać średnią chromosferę. Jest to otwarte pytanie.
Formowanie się linii
Modele półempiryczne pozwalają jednak wyjaśnić centralne odwrócenie linii H i K Ca II. Kształt profili linii zależy w dużym stopniu od profilu temperatury w chromosferze i ich reżimu formowania (przez zderzenia lub promieniowanie). Jeśli linia jest kontrolowana przez zderzenia, jak na przykład linia K Ca II, stosunek absorpcji do emisji (funkcja źródła) wzrasta w chromosferze, a rdzeń linii ulega samoodwróceniu. Jeśli linia jest kontrolowana przez promieniowanie, jak na przykład linia Hα, funkcja źródła maleje wszędzie, a rdzeń linii jest w absorpcji bez odwrócenia. Linie UV są w emisji, ponieważ ich funkcje źródła są wyższe niż intensywność kontinuum chromosferycznego. W przypadku linii Lymana skrzydła powstają w chromosferze, a rdzeń znajduje się w strefie przejściowej w jeszcze wyższych temperaturach. Jednak przy długościach fal radiowych (milimetr i centymetr) promieniowanie jest zbliżone do promieniowania ciała doskonale czarnego w temperaturach chromosferycznych.
Namagnesowana atmosfera i drobne struktury
Podczas gdy fotosfera jest zdominowana przez konwekcję ze względu na wysokie ciśnienie gazu, chromosfera jest dobrze ustrukturyzowana przez pole magnetyczne. Plazma jest zamrożona w liniach pola magnetycznego i w ten sposób zarysowuje struktury pola magnetycznego. Ta właściwość jest przydatna do wizualizacji struktur. Rury strumienia magnetycznego, gdy pojawiają się z powodu wyporności magnetycznej, są wypychane i koncentrowane w elementy strumienia o średnicy kilkuset kilometrów, w wyniku ruchów konwekcyjnych widocznych jako granulki i supergranule oraz tak zwanego zapadania się konwekcyjnego. Ta koncentracja strumienia prowadzi do powstania sieci chromosferycznej, np. porów, faculi i plam słonecznych. Ruchy fotosferyczne i wyporność magnetyczna mogą być źródłem ciągłych modyfikacji koronalnego pola magnetycznego i obserwowanych zdarzeń dynamicznych, tj. ponownego połączenia na małą skalę i ekspansji na dużą skalę. W chromosferze stosunek ciśnienia gazu do ciśnienia magnetycznego β (β = 8πp/B2) jest już mniejszy od jedności w większości miejsc, co oznacza, że dominuje ciśnienie magnetyczne. Rury strumieniowe odgrywają ważną rolę w transporcie energii i masy w górę do korony. Amplitudy prędkości chromosferycznych są większe niż fotosferycznych i mogą osiągnąć średnią wartość 1-1,5 km s-1. Potwierdza to ważność równania ciągłości (ρVA = stała) w rurach strumieniowych, gdzie ? to gęstość, A to przekrój poprzeczny rury, a V to prędkość plazmy. Drobne struktury pokrywają średnią chromosferę. Istnieje nieciągłość w gradiencie parametrów fizycznych atmosfery, a modele półnieskończone nie są już ważne; bardziej odpowiednie są techniki modelowania chmur. W klasycznym przypadku struktura ma być stosunkowo cienką chmurą nad jednolitą atmosferą, a obie z nich przyczyniają się do obserwowanych profili. Od czasu pierwszej propozycji takiej techniki w 1964 roku przez J. Beckersa, przeprowadzono wiele badań z wykorzystaniem takich modeli dla plamek, fal i włókien. Wykorzystując metodę modelu chmury do analizy danych spektroskopowych, wykryto prędkości tak duże jak prędkości spikuli w plamkach. Spikule powinny być plamkami obserwowanymi w określonych warunkach fizycznych, takich jak duże prędkości. Dynamika w drobnych strukturach jest różnorodna i duża. Wiele modeli jest proponowanych w celu wyjaśnienia przepływów w takich strukturach: opierają się one albo na impulsach gradientu ciśnienia u podstawy struktur, albo na przepływach syfonowych, albo są przejawem ruchów falowych w rurach strumieniowych.
Fale i ogrzewanie
Oscylacje w chromosferze zostały wykryte całkiem niedawno, ze znacznymi różnicami zarówno w widmach mocy, jak i fazy między siecią wewnętrzną a siecią. Oscylacje trwające około 3 minut występują głównie w sieci wewnętrznej.
Oscylacje trwające trzy minuty
Wzór oscylacji sieci wewnętrznej jest dobrze skorelowany ze wzorem oscylacji trybu p w fotosferze. Jednak powolne oscylacje sieciowe nie są. Odpowiadają one interferencjom z falami uderzeniowymi z 5-minutowych oscylacji fotosferycznych i 180-sekundowych okresowych oscylacji stojących. Te ostatnie oscylacje mają długość fali poziomej 80 Mm. Nie są one związane z rurami strumienia magnetycznego. Identyfikacja wnętrz komórek sieciowych z chromosferą bazalną ożywiła zainteresowanie pochodzeniem ziaren obserwowanych w Ca II H2v i K2v oraz okresowo występujących w C I. 3-minutowe oscylacje mogą być związane z przestrzennie nierozdzielonymi "skupiskami" ziaren. Ostatnie symulacje generowania jasnych ziaren Ca II K2v przez wstrząsy fal zostały przeprowadzone całkiem pomyślnie przez M. Carlssona. Mechanizm wyzwalający te fale nie jest jeszcze w pełni poznany.
Oscylacje niskiej częstotliwości
Moc sieci jest zdominowana przez oscylacje niskiej częstotliwości o okresach większych niż 5 min (8-20 min). W jasnych obszarach sieciowych, na granicach komórek, wykryto przypadkowe ruchy w skali 2-10 sekund łuku. Niedawno, wolne oscylacje 6-7 min zostały zidentyfikowane przy użyciu linii Lymana obserwowanych za pomocą spektrometru SUMER na pokładzie misji kosmicznej SOHO. Fale te wydają się rozprzestrzeniać w górę i nie są spójne przestrzennie. Jedną z możliwości jest to, że te oscylacje są związane z pseudookresowym zachowaniem plamek lub spikuli, ponieważ mogą one wytwarzać takie ciągi fal. Jasne cechy silne w dalekim skrzydle H? lub w Ca II odpowiadałyby podstawie plamek i miałyby zatem charakter magnetyczny.
Ogrzewanie
Wiele oscylacji obserwuje się w chromosferze. Czy te fale ogrzewają chromosferę? Gdy fale akustyczne przemieszczają się w górę przez atmosferę słoneczną, gradient gęstości powoduje wzrost amplitudy fali (V ), tak że iloczyn ρV2 pozostaje mniej więcej stały. Biorąc pod uwagę obserwowane prędkości na niskich poziomach, można wywnioskować wysokość, na której amplituda osiąga prędkość dźwięku, co prowadzi do powstania fali uderzeniowej. Fale uderzeniowe mogą rozpraszać energię mechaniczną w ciepło za pomocą procesów nieliniowych. Przeprowadzono obszerne obliczenia w celu zbadania wydajności takich procesów. Wykazano, że ogrzewanie falami uderzeniowymi może być wydajne w niskiej chromosferze, ale na wyższych poziomach fale akustyczne powinny stać się zanikające, a dostępna energia staje się zbyt mała, aby skompensować straty radiacyjne wywnioskowane z obserwowanego widma. Ostatnie odkrycie jasnych ziaren zostało wyjaśnione w kategoriach symulacji fal przemieszczających się w chromosferze.
Aktywna chromosfera
Aktywna chromosfera obejmuje wszystkie przejawy aktywności słonecznej obserwowane w liniach chromosferycznych . Aktywność słoneczna jest bezpośrednio związana z aktywnością magnetyczną i objawia się istnieniem aktywnych centrów i nowo pojawiającym się strumieniem magnetycznym.
Aktywne centrum
Obraz uzyskany w linii Hα na Pic du Midi pokazuje wzór włókien otaczających plamę słoneczną. Struktury te są powiązane z półcieniem plamy. Mogą być zorientowane promieniowo lub obracać się zgodnie z ruchem wskazówek zegara lub przeciwnie do ruchu wskazówek zegara. Niedawno odkryto, że wzór włókien podąża za orientacją zgodną z ruchem wskazówek zegara na półkuli południowej i przeciwnie do ruchu wskazówek zegara na półkuli północnej. To prawo helisy wydaje się być ważne w globalnym spojrzeniu na aktywność Słońca. Niektóre ciemne struktury wyłaniają się z plamy słonecznej z dużymi prędkościami. Zostały odkryte przez Ellermana i są nazywane bombami Ellermana. Charakteryzują się bardzo szerokimi profilami emisji w linii Hα. W aktywnym centrum obserwuje się jasne obszary, tzw. plagi lub faculae. W starych grupach plamy słoneczne znikają jako pierwsze, a pozostają tylko faculae, które następnie rozpraszają się i zanikają.
Związek z cyklem słonecznym
Znormalizowany rozkład obszarów obszarów aktywnych, przy użyciu plag Ca IIK lub strumienia magnetycznego, zmienia się w zależności od fazy cyklu słonecznego. Proporcja przypisywana plagom i silnej sieci w całkowitej zmianie strumienia magnetycznego zmienia się w różnych ilościach w całym cyklu, np. o czynnik 8 dla plag, czynnik 40 dla regionów silnej sieci i czynnik 10 dla kompleksu aktywności. Całkowita wzmocniona sieć i sygnał plagi są większe w okresach aktywności. Aktywna sieć odpowiada za dużą część całkowitej zmiany natężenia promieniowania słonecznego. Ta pozorna zmiana cyklu słonecznego o wzmocnionym kontraście intensywności wynosi jednak tylko 2% dla sieci i 9% dla plag.
Nowo powstający strumień magnetyczny
Nowy strumień magnetyczny pojawia się nieustannie, a pełny wzór magnetyczny Słońca odnawia się w ciągu 40 godzin. Pojawienie się strumienia ma różne konsekwencje w górnych warstwach atmosfery i różne sygnatury w zależności od miejsca, w którym się pojawia. Kiedy nowy strumień pojawia się w centrum supergranulek, przemieszcza się w kierunku krawędzi i oddziałuje z siecią strumienia magnetycznego. W chromosferze sygnaturą powstającego dipola jest układ łukowych włókien. Te łukowate rury wznoszą się, osiągają wysokość około 5000 km, unosząc gęstszy materiał niż w otaczającej atmosferze. Na obu końcach łuków materiał opada z powodu grawitacji z prędkością około 20 km s?1, czego nie można jednak uznać za ruchy swobodnego spadku. W H? gęsty materiał pojawia się jako cechy absorpcyjne, ale w ultrafiolecie (SOHO) lub w miękkim promieniowaniu rentgenowskim (YOHKOH, japoński satelita) pojawia się w emisji i jest jaśniejszy niż otaczający materiał. W przeciwnym razie zjawiska dynamiczne omówione powyżej są związane z aktywnością słoneczną. Skręcanie i ścinanie rur strumieniowych może powodować powstawanie prądów wzdłuż linii pola. Na dużą skalę różnicowy obrót wywoła rozciągnięty układ prądowy, który będzie stale wzrastał, co doprowadzi do zewnętrznej ekspansji linii pola magnetycznego, co jest widoczne w przypadku Yohkoh. Efektywna przewodność elektryczna korony słonecznej jest tak wysoka, że struktury pola powstałe w wyniku pojawienia się strumienia nie mogą natychmiast się zrelaksować do stanu bezprądowego. Obecność prądów może prowadzić do powstawania różnych struktur, takich jak protuberancje, a wszelkie zakłócenia prowadzą do erupcji, takich jak WYRZUTY MASY KORONALNEJ SŁONECZNEJ lub ROZBŁYSKI
Chromosfera: Powstające obszary strumienia
Opisano powstawanie dużych skupisk pól magnetycznych (obszarów aktywnych) na powierzchni Słońca. Ciemne struktury znane jako PLAMY SŁOŃCOWE są konsekwencją tego procesu. Pojawienie się obszaru aktywnego na powierzchni Słońca jest jednym z najbardziej widocznych procesów, które można śledzić, patrząc na Słońce codziennie. Obszary, które przed pojawieniem się miały normalny wygląd konwekcyjny pęcherzyków (GRANULACJA), w ciągu kilku dni rozwiną ciemne plamy słoneczne i PORY PLAMY SŁOŃCOWE oraz jasne FAKULKI. Przy widocznych długościach fal (bardzo często w jądrze i skrzydłach czerwonej linii H?) możemy zaobserwować powstawanie obszaru aktywnego w najgłębszych obserwowalnych warstwach, FOTOSFERA SŁONECZNA i CHROMOSFERA. Obecnie możemy również śledzić ten proces w zakresie widma UV i rentgenowskiego z kosmosu, gdzie śledzimy powstawanie obszaru aktywnego w najbardziej zewnętrznej warstwie Słońca, KORONACH. To w chromosferze i koronie wszystkie procesy energetyczne związane z pojawieniem się strumienia można łatwiej śledzić. Interakcja nowo pojawiającego się strumienia i istniejących wcześniej linii pola zwykle wyzwala dużą liczbę ROZBŁYSKÓW (nagłe, przejściowe uwolnienie energii prawdopodobnie związane z ponownym połączeniem magnetycznym). Dynamika obserwowana we wszystkich tych zakresach długości fal wyraźnie pokazuje, że pojawienie się obszaru aktywnego należy rozumieć jako wynik wzrostu wyporności struktury magnetycznej z głębszych warstw Słońca. Uważa się, że linie pola magnetycznego, które tworzą obszar aktywny, są generowane przez pewnego rodzaju mechanizm DYNAMO (jak prawie wszystkie kosmiczne zjawiska magnetyczne). Dokładna lokalizacja tego dynama w Słońcu nie jest jasno ustalona, ale badania heliosejsmiczne sugerują, że generowanie i magazynowanie pól dynama odbywa się blisko podstawy strefy konwekcyjnej (patrz WNĘTRZE SŁONECZNE: STREFA KONWEKCYJNA). Na powierzchni Słońca, pojawienie się zlokalizowanych, ogromnych ilości pól magnetycznych sugeruje, że na dnie strefy konwekcyjnej pole jest zorganizowane w izolowane rury strumienia magnetycznego lub liny. Uważa się, że te rury strumienia magnetycznego są formowane jako toroidalne pętle we wnętrzu Słońca (patrz SŁONECZNE FOTOSFERYCZNE RURY STRUMIENIA MAGNETYCZNEGO). Ich stabilność tam pozostaje kontrowersyjna, ale jest jasne, że rozwijają one silną tendencję do unoszenia się (przynajmniej częściowo) w kierunku powierzchni. Ta wyporność pochodzi z dodatkowego ciśnienia wywieranego przez pole magnetyczne, które zmniejsza ciśnienie gazu wewnątrz pętli (równowaga ciśnieniowa jest bardzo wydajnym mechanizmem, który można założyć dla tych rur). Niższe ciśnienie gazu można osiągnąć tylko poprzez niższe temperatury i/lub gęstości gazu wewnątrz nich. Dlatego jesteśmy zmuszeni rozważyć rury magnetyczne, które mając niższe gęstości, rozwiną pewną nieskompensowaną wyporność i uniosą się (podobnie jak bąbelki w wodzie, ale z innymi czynnikami fizycznymi odgrywającymi ważną rolę). Wtargnięcie tych magnetycznych baniek do atmosfery słonecznej oznacza pojawienie się regionu aktywnego. Region aktywny zwykle ma wyraźną linię podziału między dwiema biegunowościami (przez bieguny rozumiemy tutaj pola magnetyczne z wektorami skierowanymi na zewnątrz Słońca i polami skierowanymi do Słońca). Po pojawieniu się, dwie biegunowości są widoczne na powierzchni rozdzielone długością geograficzną. Linie pola magnetycznego zaczynają się od jednej biegunowości (rysunek 1, po prawej), wyginają się nad powierzchnią Słońca wypełniając koronę słoneczną (widziane z sond kosmicznych, takich jak Yohkoh i SOHO) i kończą się na drugiej biegunowości (rysunek 1, po lewej). W głębokich (nieobserwowalnych) warstwach, linie pola obu biegunowości nurkują w dół i łączą się z systemem toroidalnych rur strumieniowych. Ta konfiguracja linii pola po pojawieniu się jest nazywana przez astronomów słonecznych konfiguracją pętli w kształcie -kształtu.
Opis obserwacyjny powstających obszarów strumienia
Pojawianie się aktywnych obszarów w atmosferze słonecznej jest zjawiskiem stosunkowo łatwym do zauważenia w dowolnym paśmie widmowym używanym do monitorowania Słońca. Jest to szczególnie prawdziwe, jeśli porównamy je z bardziej nieuchwytnym odwrotnym procesem zaniku aktywnych obszarów. Już pod koniec lat 60-tych Bruzek (1967) przedstawił klasyczny opis procesu pojawiania się, jaki można zaobserwować w jądrze H? (tj. w chromosferze). Ukuł termin łukowy układ włókien (AFS), aby opisać układ równoległych pętli, które łączą punkty podeszwy powstającego obszaru strumienia (EFR). Te łukowate pętle są od tego czasu uznawane za sygnaturę narodzin aktywnego obszaru. Jak widać w chromosferze, centralna część AFS wykazuje prędkości wznoszące do 10 km s-1, odzwierciedlając ruch układu magnetycznego w górę napędzany wypornością. Bliżej punktów podnóża EFR pętle wykazują prędkości cofania rzędu kilkudziesięciu km s-1, wytworzone przez materię opadającą wzdłuż linii pola magnetycznego. Podczas procesu wyłaniania się punkty podnóża rozdzielają się z szybkością kilku km s-1, podczas gdy pomiędzy nimi pojawia się nowy strumień. Pętle tworzące AFS podlegają ciągłym zmianom (czas życia pojedynczych włókien ≈30 min), podczas gdy oddziałują z nowymi liniami pola wznoszącymi się od dołu. Po kilku godzinach układ strumienia w punktach podnóża jest zorganizowany w kilka porów, ciemnych struktur widocznych w białym świetle, gdzie nie występuje normalny ziarnisty wygląd fotosfery. Pole magnetyczne w tych strukturach może utrudniać normalny transport ciepła przez konwekcję (tj. granulację), a obniżona temperatura gazu sprawia, że wydają się one ciemne w porównaniu z otaczającą atmosferą. W ciągu dni następujących po pierwszym zauważeniu AFS może nastąpić kilka wybuchów pojawiania się strumienia magnetycznego i dość często to właśnie w tych późniejszych wybuchach większość strumienia magnetycznego przedostaje się przez fotosferę. Pory utworzone ze wszystkich różnych epizodów pojawiania się mogą ostatecznie połączyć się, tworząc plamę słoneczną. Proces ten jest napędzany przez podpowierzchniową topologię pętli strumienia bardziej niż przez jakikolwiek przepływ, który może tam panować. Zwykle ma to miejsce w wiodącym (względem obrotu Słońca) punkcie EFR i obserwuje się stabilną okrągłą plamę słoneczną. W następnym punkcie, jeśli w ogóle powstanie plama słoneczna, zwykle odpowiada ona mniej stabilnej (krócej istniejącej) strukturze o nieregularnym kształcie. Ta różnica między wiodącymi i następującymi punktami jest bardzo dobrze udokumentowana, ale jej pochodzenie jest dalekie od pełnego zrozumienia. AFS jest widoczne, gdy nowy strumień wyłania się z dołu. Zwykle nie trwa to dłużej niż 4-5 dni. Wyłanianie się strumienia opisane powyżej jest zgodne z ideą pętli magnetycznej w kształcie -, która wznosi się przez strefę konwekcji słonecznej. Podczas tego wznoszenia się pętla przechodzi przez silnie rozwarstwioną atmosferę zewnętrzną i oddziałuje z ruchami konwekcyjnymi. Wszystko to prawdopodobnie prowadzi do rozpadu pojedynczej początkowej pętli na kilka pętli. Na powierzchni każda z nich powoduje epizod wyłaniania się. Fakt, że różne epizody mogą później powodować powstawanie porów, które łączą się w jedną plamę słoneczną, wskazuje, że głębiej w dół system strumienia zachował swoją tożsamość. Obserwacje EFR zostały po raz pierwszy przeprowadzone w chromosferze ze względu na dostępność procesu, jak widać w H?. Obecnie EFR-y śledzono również w warstwach fotosferycznych, gdzie znajdujemy ciemne wyrównania między punktami podnóża z wydłużonymi granulkami pokazującymi, jak pole magnetyczne zakłóca normalną granulację widoczną gdzie indziej. Obserwacje spektropolarymetryczne linii fotosferycznych ujawniły przepływy w dół do 2 km s?1 w pobliżu punktów podnóża. Te przepływy w dół są fotosferycznymi odpowiednikami znacznie silniejszych chromosferycznych prądów zstępujących (z powodu niższych gęstości) wspomnianych powyżej. W fotosferze wykryto prędkości przepływu w górę centralnych części EFR, które osiągają wartości 1 km s?1. Oczywiste jest, że linie pola przyspieszają, gdy wznoszą się przez te warstwy, aby osiągnąć jeszcze wyższe prędkości w górę w chromosferze. Ostatnie obserwacje fotosfery wykonane za pomocą zaawansowanego polarymetru Stokesa wyjaśniły kilka kwestii, które pozostawały bez odpowiedzi przed zastosowaniem pełnej polarymetrii Stokesa o wysokiej czułości. Ten instrument umożliwia wiarygodne oszacowanie średniego wektorowego pola magnetycznego w elemencie rozdzielczości i ułamka powierzchni zajmowanego przez pole. Te obserwacje wyraźnie wykryły poziome (poprzeczne) linie pola, gdy przechodzą przez fotosferę, reprezentując sygnaturę górnej części powstających pętli. Wewnętrzna siła pola mierzona w miejscach poziomych linii pola mieści się w zakresie 200-600 G, tj. przy lub poniżej ekwipartycji z energią kinetyczną ruchów ziarnistych. Tego wyniku oczekiwano z faktu, że pola te są w stanie zaburzyć wzór granulacji. Pola w zakresie 1200 G lub wyższym są widoczne tylko w pionowych punktach podeszwy, w postaci albo faculae, albo porów. Twierdzono, że silniejsze pola występujące w punktach podeszwy są osiągane po procesie konwekcyjnego zapadania się napędzanym przez wszechobecny przepływ w dół tam występujący. Chociaż może tak być, obserwacje ASP wykazały, że przepływ w dół jest widoczny w regionach, które już znajdują się w zakresie kilogaussów; zatem sam przepływ w dół nie może być uznany za sygnaturę zapadania konwekcyjnego. Jedynym sposobem ustalenia, czy ten proces jest odpowiedzialny za wysokie (dwukrotnie ekwipartycyjne) pola występujące w pionowych punktach podeszwy, jest zidentyfikowanie regionu pionowego słabego pola, w którym rozwija się przepływ w dół i po krótkim odstępie czasu (minuty) rozwija siły kilogaussów. Tego jeszcze nie zaobserwowano i stanowi to ważne wyzwanie dla nowoczesnych spektropolarymetrów w obecnym cyklu słonecznym. Złożone wzorce wyłaniania się Opisana dotychczas konfiguracja pętli w kształcie -kształtu aktywnego regionu reprezentuje prosty układ bipolarny, który opisuje większość przypadków wyłaniania się obserwowanych na Słońcu. Ta konfiguracja w naturalny sposób pasuje do prawa biegunowości Hale′a. Prawo to stwierdza, że na danej półkuli słonecznej, podczas jednego cyklu słonecznego, polaryzacja większości aktywnych regionów jest zorientowana tak, że polaryzacja dodatnia (linie pola skierowane na zewnątrz Słońca) poprzedza polaryzację ujemną (linie pola skierowane do Słońca). Odwrotna kolejność byłaby w drugiej półkuli. Dwubiegunowy charakter struktur w kształcie - w każdej półkuli da początek prawu Hale′a. Jednak niewielki odsetek przypadków wyłaniania się (około 1%) nie może być opisany tą dwubiegunową konfiguracją. Niektóre aktywne regiony rozwijają to, co nazywa się konfiguracją δ, w której pojedyncza plama (plama δ) zawiera w swoich półcieniach dwa rdzenie cienia o przeciwnych biegunach. Kolejność dwóch biegunów jest ogólnie odwrotna do tej przewidzianej przez prawo Hale′a (w powyższym przykładzie rdzeń cienia o ujemnej biegunowości będzie poprzedzał rdzeń dodatni). Ta konfiguracja δ-spot, choć rzadka, jest bardzo ważna, ponieważ reprezentuje regiony najbardziej produktywne dla rozbłysków obserwowane na powierzchni. Grupy δ są odpowiedzialne za prawie wszystkie duże rozbłyski. Istnienie złożonych linii neutralnych (gdzie biegunowość zmienia znak) wydaje się sprzyjać występowaniu bardzo energetycznych procesów. Niedawno zaczęliśmy rozumieć , że ta złożona konfiguracja może być wynikiem ewolucji pętli toroidalnych podczas przechodzenia przez słoneczną strefę konwekcyjną. Niektóre konfiguracje pola magnetycznego w tych pętlach są podatne na rozwinięcie skrętu większego niż 90° w górnej części pętli, odwracając w ten sposób kolejność biegunowości. Ta niestabilność zagięcia rozwija się podczas wznoszenia się pętli. Będzie więc miała miejsce tylko wtedy, gdy skala czasowa niestabilności będzie krótsza niż czas wznoszenia się. Odwrócona część pętli może przekształcić się w zwartą plamę słoneczną, wykazującą dwie biegunowości na powierzchni. W niektórych przypadkach ewolucja może być na tyle złożona (przez rekoneksję linii pola), że może wytworzyć zamknięte układy magnetyczne, które przedostają się przez powierzchnię Słońca .
Chromosfera: Fibryle
Fibryle to ciemne, wydłużone, krzywoliniowe wzory w CHROMOSFERZE widziane przez filtr, który izoluje widmową linię absorpcyjną H? wodoru. Dobrze rozwinięte fibryle występują w i wokół SŁONECZNYCH REGIONÓW AKTYWNYCH i KANAŁÓW WŁÓKIEN SŁONECZNYCH. Podobnie jak większość tradycyjnej nomenklatury używanej do opisu atmosfery słonecznej, termin fibryla pochodzi z łaciny ("małe włókno") i wywodzi się z bogatego, ale ograniczonego widoku oferowanego przez obrazy H?. Współczesne badania nad fibrylami mają na celu powiązanie ich wyglądu z właściwościami fizycznymi struktur w atmosferze. Ważnym elementem tego celu jest zrozumienie związku między fibrylami a delikatną strukturą spokojnej chromosfery. Jak widać w H?, spokojna chromosfera jest zdominowana przez jasne i ciemne plamki, struktury, które, chociaż często wydłużone, są charakterystycznie krótsze, krótsze i wykazują mniejszą organizację na dużą skalę niż fibryle. Przeważająca hipoteza głosi, że pole magnetyczne jest najważniejszym wyznacznikiem drobnej struktury chromosfery. Różnica w wyglądzie H? między obszarami spokojnymi i aktywnymi powinna zatem odzwierciedlać różnice w organizacji pola. Istnieje wiele pośrednich dowodów na poparcie tej hipotezy i żadnych, które by jej przeczyły; ale nadal istnieje niewiele bezpośrednich pomiarów pola magnetycznego w chromosferze.
Wygląd
Tradycyjnie fibryle są identyfikowane z ciemnymi cechami; jaśniejsze i ciemniejsze cechy Hα są ściśle powiązane. Nawet gdy orientacja fibryli w danym obszarze jest jasna, często trudno jest śledzić pojedynczą ciemną cechę na odległość większą niż kilka tysięcy kilometrów. Duże fibryle rozciągają się na odległość do 30 000 km; są one czasami nazywane nitkami chromosferycznymi. Widoczna szerokość fibryli waha się od 2000-3000 km aż do granicy rozdzielczości obrazów naziemnych, około 300 km. Fibryle prawdopodobnie mają strukturę lub podstrukturę w jeszcze drobniejszych skalach, jak sugerują najlepsze obrazy. Pozorny współczynnik kształtu (długość do szerokości) fibryli waha się od około 3-4 (mniej wydłużona cecha prawdopodobnie nie byłaby nazywana fibrylą) do 30-40. Kiedy aktywny region rodzi się jako powstający region strumienia, krótkie fibryle, które się pojawiają, nazywane są włóknami łukowymi. Ciemne fibryle są wymieszane z cechami, które są wyraźnie jaśniejsze niż chromosfera tła. Ponieważ powstające regiony strumienia są zawsze magnetycznie dwubiegunowe, a przeciwległe końce włókna łukowego wskazują na przeciwne bieguny, włókna łukowe wspierają w prostej geometrii ogólną hipotezę, że fibryle podążają za liniami sił magnetycznych. W miarę rozwoju aktywnego regionu pojedynczy układ włókien łukowych jest zastępowany rosnącym gąszczem fibryli, co odzwierciedla rosnący rozmiar i złożoność magnetyczną regionu. Znaczne PLAMY SŁOŃCOWE są otoczone fibrylami, które zaczynają się w półcieniu światła białego, ale często rozciągają się w superpółcieniu, daleko poza granicę półcienia. Fibryle superpółcienia w złożonym obszarze aktywnym są często silnie zakrzywione i nieradialne. Można się tego spodziewać, jeśli fibryle podążają za polem magnetycznym. Gdy pole magnetyczne fotosfery jest złożone, nawet pole potencjału nad fotosferą może być zakrzywione i nieradialne wokół koncentracji strumienia; gdy pole fotosfery jest wysoce niepotencjalne, jak często się je mierzy, oczekuje się silnej krzywizny i kształtów "S". Tak więc proste wzory fibryli prowadzące od jednej plamy słonecznej do drugiej są raczej wyjątkiem niż regułą. Co więcej, zazwyczaj występują liczne epizody pojawiania się strumienia w miarę wzrostu regionu. Wzór fibryli ulega fragmentacji, gdy linie pola magnetycznego z nowo powstałego strumienia łączą się ponownie z istniejącym strumieniem. Kanał włókienkowy lub włóknisty może tworzyć się wewnątrz lub na granicy obszaru aktywnego. Włókna są niewyraźne wewnątrz kanału; po obu stronach włókienka są wyrównane z długą osią kanału. Pomiary poziomego pola magnetycznego wewnątrz włókienek wskazują, że pole przebiega głównie wzdłuż osi włókna, chociaż włókno oddziela obszary o przeciwnej polaryzacji magnetycznej na poziomie fotosfery. Długie włókienka mogą tworzyć się wokół granicy obszaru aktywnego, szczególnie w kierunkach sąsiednich obszarów aktywnych, co ponownie sugeruje, że włókienka podążają za połączeniami magnetycznymi. Rozpadający się obszar aktywny jest często zdominowany przez pojedynczą dużą i regularną plamę słoneczną. W pobliżu plamki jej włókienka rozciągają się niemal promieniowo na zewnątrz. Wyraźne włókienka superpenumbry mogą rozciągać się dwa razy dalej niż granica półcienia i czasami wykazują wzór wirowy z powodu interakcji z obrotem Słońca. Duży fibryl często wydaje się przesłaniać jaśniejsze struktury, co sugeruje, że fibryl jest wyżej w atmosferze słonecznej. Pod tym względem fibryle są analogiczne do ciemnych plamek w cichych regionach. Trudno jest podać zakres wysokości fibryli. Wysokość jest trudna do zmierzenia w poszczególnych przypadkach, zmienia się wzdłuż fibryli i waha się między fibrylami superpenumbralnymi, krótkimi fibrylami w obszarach o złożonej strukturze magnetycznej i długimi fibrylami, które można by równie dobrze nazwać pętlami regionu aktywnego. Wygląd systemów fibryli widzianych w perspektywie w pobliżu kończyny sugeruje, że fibryle są uniesione o 3000 km lub więcej ponad chromosferę tła. Widzi się, że systemy włókien łukowych rozciągają się na wysokości 10 000-15 000 km
Dynamika
System włókien łukowych trwa od 1 do 3 dni. Pojedynczy żarnik łukowy ma krótszy czas życia, około 10-30 min. Szczyt systemu włókien łukowych unosi się z pozorną prędkością v 20 km s-1, co jest zgodne z jego identyfikacją z powstającym strumieniem magnetycznym. Materiał wydaje się płynąć w dół wzdłuż łuków z v ≈ 30-50 km s-1. Ogólny wzór włókienek dobrze rozwiniętego regionu ewoluuje stopniowo, w ciągu kilku godzin, i może pozostać rozpoznawalny przez wiele dni. Pod tym względem włókienka są bardziej stabilne niż ciemne plamki w cichych regionach. Naturalna interpretacja jest taka, że ogólna struktura magnetyczna aktywnego regionu jest określana przez duże i stosunkowo długowieczne koncentracje strumienia magnetycznego, podczas gdy ciemne plamki otaczają małe koncentracje strumienia, zwykle związane z SIECIĄ CHROMOSFERY, które zmieniają się w skalach czasowych od minut do godzin. Jednak pojedyncze fibryle mają krótszy czas życia niż ich wzór geometryczny, wahający się od około 1 minuty dla najmniejszych fibryli do 20 minut dla największych. Wzór fibryli superpenumbry izolowanej plamy słonecznej zmienia się jeszcze wolniej niż wzór fibryli dojrzałego obszaru aktywnego. Czas życia pojedynczego fibryli superpenumbry wynosi około 3-40 minut, nieco dłużej niż czas życia fibryli w młodszym obszarze aktywnym, ale nadal znacznie krócej niż czas życia wzoru. Najbardziej charakterystyczną cechą dynamiczną fibryli superpenumbry jest przepływ materiału wzdłuż ich długości, do wewnątrz i w dół, wynoszący 5-20 km s-1. Ten odwrotny efekt Eversheda w chromosferze kontrastuje z wolniejszym przepływem na zewnątrz w półcieniu na poziomie fotosfery. Wypływ chromosferyczny występuje również w mniejszości fibryli superpenumbry. Trudno jest, wykorzystując obserwacje naziemne zaburzone przez turbulencje atmosferyczne, zdecydować, czy istnieje bezpośrednia korespondencja między polem przepływu a jasnością Hα. Niektóre wysokiej jakości obserwacje sugerują, że kanały przepływu zwykle pokrywają się z fibrylami, ale nie precyzyjnie lub nie zawsze. Podobnie jak fibryle, poszczególne przepływy często zmieniają się nie do poznania w ciągu kilku minut, podczas gdy wzór przepływu może utrzymywać się przez wiele godzin. Przepływy chromosferyczne w aktywnym regionie niezwiązane z plamami słonecznymi były badane mniej dokładnie niż przepływy penumbralne i superpenumbralne.
Interpretacja
Dlaczego fibryle są ciemne? Jak wysoko znajdują się w atmosferze słonecznej? Jak gorące i gęste są? Jaki jest kierunek i siła pola magnetycznego w ich wnętrzu? Jak te wielkości fizyczne mają się do ich wartości poza fibrylą na tej samej wysokości? Fibryle były rozpoznawane i badane przez wiele lat, jednak odpowiedzi na te pytania są zaskakująco niepewne z dwóch głównych powodów: ponieważ fibryle są definiowane przez ich wygląd w Hα i łatwiej jest uzyskać wysokiej jakości obrazy w tej linii absorpcyjnej niż je zinterpretować; oraz ponieważ trudno jest zmierzyć pola magnetyczne w chromosferze. Ilościową interpretację obrazów Hα można ująć w kategoriach profilu kontrastu, C(λ) = (I - I0)/I0, gdzie I (λ) jest profilem intensywności Hα w fibryli, a I0(λ) jest profilem odniesienia reprezentującym chromosferę międzyfibrylową. Chociaż profil kontrastu nie jest konieczną konstrukcją w zadaniu odtworzenia I(&llambda;), jest on koncepcyjnie użyteczny z dwóch powodów. Po pierwsze, uchwyca on charakterystyczną cechę fibryli: że jest ona ciemna w stosunku do otoczenia w rdzeniu Hα. Po drugie, jeśli fibryle są rzeczywiście wyżej w atmosferze niż obszary międzyfibrylowe, możliwe jest przybliżenie fibryli jako cechy przypominającej chmurę, która jest oświetlana od dołu przez pole promieniowania tła, które jest zbliżone do pola średniej chromosfery. Większość analiz profili kontrastu H? wykorzystuje (lub krytykuje) pewną odmianę modelu chmury opisanego poniżej. Do profili kontrastu stosuje się kilka rozważań obserwacyjnych. Po pierwsze, rozdzielczość długości fali powinna stanowić niewielką część szerokości linii H?, która wynosi około 1,5 Å (pełna szerokość przy połowie głębokości). Spektrografy i najlepsze filtry wąskopasmowe rutynowo osiągają 100-125 mÅ (pełna szerokość przy połowie maksymalnej transmisji), ale wiele obrazów Hα? jest pozyskiwanych za pomocą filtrów o paśmie przepustowym 0,25-0,5 Å. Teoretyczny profil kontrastu musi zostać spleciony z pasmem przepustowym filtra przed porównaniem z takimi obrazami. Po drugie, filtrogramy powinny być pozyskiwane przy więcej niż jednej długości fali; w przeciwnym razie nie będzie możliwe oddzielenie zmian w kształcie profilu linii od przesunięć długości fali spowodowanych efektem Dopplera. Obrazy przy różnych długościach fali nie powinny być rozdzielone w czasie o więcej niż minutę lub więcej, aby fibryla nie uległa znaczącej ewolucji w trakcie sekwencji. Po trzecie, porównanie teoretycznych i obserwowanych profili kontrastu powinno w idealnym przypadku uwzględniać efekty widzenia atmosferycznego i instrumentalnego światła rozproszonego - ale jest to trudne. Wreszcie, koncepcja profilu tła jest tylko pierwszym przybliżeniem. Atmosfera międzyfibrylowa niekoniecznie jest taka jak "cicha" fotosfera, ani stała w różnych miejscach. Podstawowy model chmur (przypisywany J. Beckersowi) opiera się na przenoszeniu promieniowania linii widmowej przez dyskretną cechę
gdzie I0(λ) i I(λ) to natężenia wchodzące i wychodzące z obiektu, S(λ) to funkcja źródła liniowego, a τ(λ) to głębokość optyczna. Szczegółowa analiza nielokalnej równowagi termodynamicznej (NLTE) formowania się linii słonecznej Hα ustaliła, że w zakresie 2-3 szerokości Dopplera od środka linii: (a) współczynnik absorpcji ma profil Gaussa (Dopplera); i (b) funkcja źródła jest niemal niezależna od długości fali, odzwierciedlając dominację rozpraszania niekoherentnego. Pierwszy wynik, wraz z założeniem, że szerokość Dopplera współczynnika absorpcji jest stała wzdłuż linii wzroku, oznacza, że głębokość optyczna będzie również miała formę Gaussa
τ(λ) = τ0 exp[-(λ - Δλv)2/Δλ2D]
gdzie λ jest mierzone od środka profilu odniesienia I0, ΔλD jest szerokością Dopplera, a Δλv jest prędkością linii widzenia obiektu względem odniesienia. Drugi wynik, wraz z założeniem, że funkcja źródłowa jest stała wzdłuż linii widzenia przez chmurę, pozwala na zintegrowanie równania transferu, aby uzyskać
Model jest stosowany poprzez dostosowanie parametrów S, τ0, ΔλD i Δλv poprzez nieliniowe dopasowanie najmniejszych kwadratów w celu uzyskania najlepszej zgodności między równaniem (1) a obserwowanym profilem kontrastu. Naturalnie pojawia się szereg pytań dotyczących stosowalności modelu chmur. Czy może on wytworzyć profile kontrastu zgodne z obserwacjami? Czy jest fizycznie spójny? Czy jest realistyczny? Czego dowiadujemy się z dopasowanych parametrów? . Kontrast zależy od długości fali w linii i może być ujemny (ciemny) lub dodatni (jasny). Profil jest asymetryczny, jeśli chmura ma różną od zera prędkość w linii wzroku. Model chmur był szerzej stosowany do struktur w spokojnym Słońcu (jasne i ciemne plamki) niż do włókienek i pętli w aktywnych regionach. Większość obserwowanych profili kontrastu plamek może być odpowiednio dopasowana przez model. Postać równania (1) nakłada dwa proste ograniczenia na teoretyczny profil kontrastu. Po pierwsze, jeśli S < I0(0), to S < I0 (λ) dla wszystkich λ, ponieważ profil odniesienia ma minimalną intensywność przy λ = 0. Tak więc, jeśli cecha jest ciemna w nieprzesuniętym środku linii, to musi być ciemna wszędzie w linii. W przypadku fibryli wydaje się to być prawdą w ramach niepewności obserwacyjnych. Po drugie, ponieważ
a prawa strona jest zawsze dodatnia, kontrast przy równych przesunięciach długości fali od środka nieprzesuniętej linii musi mieć ten sam znak. Ten warunek jest automatycznie spełniony dla cech, które są ciemne przy wszystkich długościach fali; czasami obserwuje się, że jest naruszony dla innych typów cech. Krótko mówiąc, model chmury można w rozsądny sposób dopasować do większości ciemnych cech w H?. Jednak nie zapewnia to, że model jest fizycznie sensowny. Podstawowym zarzutem jest to, że dla dowolnej konkretnej geometrii struktury pochłaniającej w odniesieniu do atmosfery bazowej, funkcja źródłowa jest określana przez głębokość optyczną, szerokość absorpcji Dopplera i prędkość objętościową gazu w strukturze. Tak więc nie jest fizycznie spójne dopasowanie parametrów modelu chmury niezależnie. Gdy model chmury jest porównywany z metodami, w których funkcja źródłowa jest wyprowadzana z teorii NLTE, okazuje się, że wyniki zgadzają się dość dobrze dla chmur "wysokich" - tych, które opierają się na kącie znacznie mniejszym niż jeden radian, patrząc od podstawy chromosfery tła. W przypadku "niskich" chmur model chmur jest zawodny: może w ogóle nie pasować, a nawet jeśli tak jest, wartości dopasowanych parametrów nie muszą odpowiadać ich wartościom fizycznym. Wolne chmury naruszają podstawowe założenie modelu, że chmury nie mają reakcji zwrotnej na leżącą u ich podstaw chromosferę. Inne założenia modelu chmur (stałość funkcji źródłowej, szerokość Dopplera i prędkość objętościowa wzdłuż każdej linii widzenia oraz globalna niezmienność profilu linii odniesienia) nie są tak fundamentalne i można je złagodzić w formie modeli chmur wielochmurowych lub różnicowych. Niezależnie od tego, jaki model jest dopasowany do obserwacji, celem jest oszacowanie wartości fizycznie interesujących parametrów. Na podstawie obserwacji H? można dość dobrze oszacować gęstość i ciśnienie gazu, ale temperatura kinetyczna jest słabo ograniczona. Zintegrowany z profilem współczynnik absorpcji w linii Hα (pomijając emisję wymuszoną) jest podany przez
gdzie e i m to ładunek i masa elektronu, fabs to siła oscylatora absorpcji, a N2 to gęstość absorberów (tutaj drugiego poziomu wodoru). Jeśli absorpcja ta jest rozłożona na profilu Dopplera, współczynnik absorpcji w centrum profilu wynosi
W przybliżeniu chmury τ0 = κ0L, gdzie L to grubość struktury wzdłuż linii widzenia, a wstawiając wartości liczbowe
N2 = 7,3 × 107τ0ΔλD/L cm-3
Model chmury daje τ0 i ΔλD. Grubość L jest szacowana na podstawie obserwowanego wymiaru poprzecznego fibryli (oba warunki atmosferyczne i podstruktura wzdłuż linii widzenia mogą przyczyniać się do oszacowania wyższego niż wartość prawdziwa). Równanie prowadzi do typowego zakresu N2 = (1-5) × 104 cm-3 dla różnych ciemnych cech, w tym fibryli. Modele NLTE płyt gazowych napromieniowanych promieniowaniem fotosferycznym i chromosferycznym konsekwentnie dają przybliżoną zależność między N2 i Ne, gęstością elektronów: Ne = 3,2 × 108N1/22 . Zastosowanie tej zależności do podanego zakresu dla N2 daje zakres Ne = (3-7) × 1010 cm-3. Całkowitą gęstość liczbową wodoru (obojętnego i zjonizowanego), NH, można wyprowadzić, jeśli znana jest frakcja jonizacji x ≡ Ne/ NH.
Modele NLTE dają wartości x tak małe jak 0,4 dla cienkich (L ≈ 500 km), chłodnych (T ≈ 7000 K) płyt, aby zasadniczo zakończyć jonizację dla temperatur znacznie powyżej 104 K, co prowadzi do pochodnego zakresu NH = (0,3-2) × 1011 cm-3. Ponieważ gęstość otoczenia na wysokościach większych niż kilka tysięcy kilometrów wynosi NH ≈ 109 cm-3, fibryle są zazwyczaj znacznie gęstsze niż ich otoczenie. Pochodne ciśnienie gazu, pg = NekT (1 + 1,085/x), ma mniejszy zakres ze względu na przeciwstawne efekty temperatury i jonizacji, pg = 0,1-0,3 dyn cm-2. Wszystkie te zakresy należy traktować ostrożnie, ponieważ obejmują większość, ale z pewnością nie wszystkie, struktury, które można nazwać fibrylami. Nie jest zaskakujące, że temperatura wewnątrz fibryli jest słabo ograniczona przez obserwacje Hα, ponieważ funkcja źródłowa jest zdominowana przez fotojonizację z powodu zewnętrznego pola promieniowania, a nie przez wewnętrzne zderzenia. Modele płytowe NLTE ustalają górny limit na około 2 × 104 K; w wyższych temperaturach kontrast jest dodatni w środku linii dla wszystkich rozsądnych wartości pozostałych parametrów. Typowy zakres ΔλD = 0,4-0,6 Å daje spójne, ale również słabe ograniczenie z zależności ΔλD = (λ/c)(ξ2 + 2kT /m)1/2 : T = (7-40) × 103 K dla prędkości mikroturbulentnej w zakresie ξ = 10-20 km s-1. Ponieważ temperatura otoczenia na wysokościach większych niż kilka tysięcy kilometrów wynosi T ≈ 106 K, fibryle są zazwyczaj znacznie chłodniejsze niż ich otoczenie.
Siła pola magnetycznego wewnątrz fibryli nie jest znana z pewnością na podstawie bezpośrednich pomiarów. Ograniczone pomiary kierunku pola przy użyciu linii chromosferycznych są zgodne z hipotezą, że fibryle podążają za liniami sił magnetycznych. Jest to również zgodne z faktem, że pole 10 G odpowiada ciśnieniu magnetycznemu pmag = B2/8π = 4 dyn cm-2, rzędowi wielkości większemu niż ciśnienia gazu oszacowane powyżej. Oczekuje się, że pole przekroczy 10 G w całej wysokiej chromosferze i niskiej koronie aktywnego obszaru i często może przekroczyć 100 G, więc β ≡ pgas/pmag << 1 powinno obowiązywać w obrębie fibryli. Ciśnienie dynamiczne ρv2/2 gazu płynącego z prędkością 30 km s-1 jest porównywalne z pmag dla B = 10 G. Prędkość materiału w linii wzroku w pewnym punkcie wzdłuż fibryli jest czasami szacowana albo na podstawie przesunięcia Dopplera linii (przesunięcie długości fali dwusiecznej cięciwy na wybranej
głębokości w profilu linii), albo przez odnotowanie długości fali, przy której materiał wydaje się najciemniejszy (ma najwyższą wartość bezwzględną kontrastu). Prędkości szacowane metodą kontrastu naiwnego są prawie nieskorelowane z prędkościami wywnioskowanymi z modelu chmury i nie powinny być stosowane. Prędkości szacowane na podstawie przesunięcia Dopplera zazwyczaj zgadzają się co do znaku z prędkościami chmury, ale są kilkakrotnie mniejsze co do wartości bezwzględnej. Prędkości wyprowadzone z modelu chmury powinny być dokładniejsze niż którakolwiek z prostszych metod. Prędkości tak wyprowadzone dla układów włókien łukowych i dużych fibryli są często naddźwiękowe w niektórych punktach wzdłuż struktury dla dowolnej dopuszczalnej wartości temperatury gazu. Przyszłe badania Chociaż fibryle są definiowane przez ich wygląd w Hα, analiza widm H? ujawnia fizyczną substancję stojącą za definicją: fibryle to dynamiczne struktury, które podążają za liniami pola magnetycznego, ale są gęstsze i chłodniejsze
niż ich otoczenie. Są ważnymi elementami aktywnej chromosfery. Przyszłe badania nad fibrylami powinny zatem wykraczać poza wąski cel obserwacji i wyjaśnienia ich wyglądu w H? i obejmować pełen zakres diagnostyki. Szczególnie pomocne byłyby: dwuwymiarowa spektroskopia (obrazowa) w liniach widzialnych wrażliwych na temperaturę, a także H?; widma obrazowania UV/EUV z sond kosmicznych; oraz pomiary magnetyczne w liniach chromosferycznych, takich jak Hβ i He I 1083 nm. Jak najwięcej z tych pomiarów powinno być wykonywanych jednocześnie. Taki zakres obserwacji pomógłby ustalić nie tylko warunki fizyczne wewnątrz fibryli, ale także dynamiczny związek fibryli ze strukturą pola magnetycznego i plazmy koronalnej w aktywnym regionie.
Chromosfera: Mechanizmy ogrzewania
Ogrzewanie mechaniczne
Chromosfery (i korony) istnieją dzięki mechanicznemu ogrzewaniu. Ogrzewanie mechaniczne obejmuje wszystkie procesy, które przekształcają nieradiacyjną energię hydrodynamiczną lub magnetyczną w energię cieplną, czyli w mikroskopijny losowy ruch cieplny. Fizyka chromosfer (i koron) różni się od fizyki ATMOSFER GWIEZDNYCH i warstw wewnętrznych, gdzie energia dopływa wyłącznie z promieniowania, konwekcji i przewodzenia cieplnego. Ponieważ obserwacje pokazują, że emisja chromosfery silnie zależy od pola magnetycznego, dzieli się procesy ogrzewania chromosfery na czyste mechanizmy hydrodynamiczne i mechanizmy magnetyczne. Oba typy mechanizmów można dalej podzielić na procesy szybkie i wolne. W przypadku mechanizmów magnetycznych szybkie lub falowe mechanizmy nazywane są mechanizmami prądu przemiennego (AC), a wolne mechanizmy - mechanizmami prądu stałego (DC). Mechanizm ogrzewania mechanicznego składa się z trzech procesów: generowania nośnika energii, transportu tej energii mechanicznej i jej rozpraszania. Ostatecznie energia mechaniczna pochodzi z procesów jądrowych w jądrze gwiazdy. Energia tam generowana jest transportowana w formie promieniowania i konwekcji na powierzchnię gwiazdy, gdzie w strefie konwekcji powierzchniowej generowana jest energia mechaniczna. Generowanie energii mechanicznej jest spowodowane ruchami gazu w strefie konwekcji, które są największe w obszarach o najmniejszej gęstości w pobliżu górnej granicy tej strefy. W konsekwencji energia mechaniczna jest generowana w wąskiej warstwie powierzchniowej. Ponieważ obecne obserwacje nie mogą z całą pewnością stwierdzić, czy obszar powierzchni Słońca jest pozbawiony pól magnetycznych małej skali, czy nie, a ponieważ nagrzewanie w kanałach prądowych o średnicy metrów nie może być obecnie rozdzielone, trudno jest zidentyfikować konkretny mechanizm nagrzewania z listy proponowanych procesów. Aby uzyskać obszerną listę proponowanych mechanizmów nagrzewania, zobacz Narain i Ulmschneider (1996), a także artykuł na temat MECHANIZMÓW NAGRZEWANIA KORONALNEGO. Zwykle kilka mechanizmów działa jednocześnie. Zaskakująco tylko obserwacje gwiazd (gdzie chromosfery są zredukowane do źródeł punktowych) były w stanie definitywnie zidentyfikować fale akustyczne jako ważny podstawowy mechanizm dla chromosfer gwiazdowych. Powodem tego jest to, że dla gwiazd efektywna temperatura Teff może zostać zmieniona o rząd wielkości, grawitacja g o 4, metaliczność o 3, a prędkość obrotowa o 2 rzędy wielkości. To znacznie rozszerza zakres przewidywań teoretycznych i tym samym umożliwia kluczowe obserwacje. W poniższych podsekcjach konieczność mechanicznego ogrzewania, zoo mechanizmów, obliczenia wytwarzania energii mechanicznej, obserwowane szybkości mechanicznego ogrzewania i możliwy obraz całkowitego ogrzewania chromosfery są omawiane bardziej szczegółowo.
Konieczność mechanicznego ogrzewania
Rozważmy element gazowy w chromosferze, gdzie przepływy wprowadzane przez wiatr słoneczny można pominąć. Całkowita szybkość ogrzewania, czyli ilość ciepła netto na sekundę, ΦT (erg cm-3s-1), wpływającego do elementu przez jego granice, jest podana przez
ΦT = ΦR + ΦJ + ΦC + ΦV + ΦM = 0,
ponieważ w równowadze dynamicznej chromosfera nie wykazuje zależności czasowej. Terminy po prawej stronie oznaczają ogrzewanie radiacyjne, Joule′a, przewodzące ciepło, lepkie i mechaniczne. Typowa empiryczna szybkość chłodzenia chromosfery ze standardowego modelu słonecznego wynosi -ΦR = 10-1 erg cm-3 s-1. Rozważmy typowe zaburzenie akustyczne lub magnetohydrodynamiczne w chromosferze słonecznej o charakterystycznych wartościach: rozmiar L = 200 km, temperatura ΔT = 1000 K, prędkość Δv = 3 km s-1 i zaburzenie pola magnetycznego ΔB = 10 G. Używając odpowiednich wartości przewodnictwa cieplnego κth, lepkości ηvis i przewodnictwa elektrycznego λel otrzymujemy (w erg cm-3 s-1)
gdzie cL jest prędkością światła. Widać, że w chromosferze ΦC, ΦV i ΦJmożna pominąć w stosunku do ΦR, a główny bilans energetyczny zachodzi między chłodzeniem radiacyjnym a ogrzewaniem mechanicznym. Gdyby ogrzewanie mechaniczne zostało wyłączone, uzyskano by równowagę radiacyjną, ΦR = 4πκ(J ? S) = 0. Oznacza to, że w skali czasu relaksacji radiacyjnej wynoszącej około ułamka godziny równowaga radiacyjna zostałaby osiągnięta. Tutaj κ jest nieprzezroczystością, J średnią intensywnością, a S funkcją źródła. Jednak szybkości ogrzewania ΦC, ΦV i ΦJ
Zoo mechanizmów grzewczych
Mechanizmy hydrodynamiczne składają się z fal pulsacyjnych o okresach dłuższych niż okres odcięcia akustycznego, P > PA = 4πcS/γg (gdzie cS jest prędkością dźwięku, a γ = 5/3 stosunku ciepła właściwego) oraz fal akustycznych, gdzie P < PA. Te mechanizmy hydrodynamiczne rozpraszają się poprzez wstrząsy. Mechanizmy magnetyczne to podobne do akustycznych fale MHD o wolnym trybie i podłużne fale rurowe, a także poprzeczne i skrętne fale Alfvéna. Te dwa ostatnie typy fal są trudne do rozproszenia w chromosferze i zbadano liczne mechanizmy rozpraszania, sprzężenie modów, ogrzewanie rezonansowe, ogrzewanie turbulentne. Ponadto występują powierzchniowe fale magnetoakustyczne, które rozpraszają się poprzez sprzężenie modów, absorpcję rezonansową i mieszanie faz. Mechanizmy prądu stałego związane z ponownym połączeniem pola magnetycznego najprawdopodobniej działają na wysokościach powyżej chromosfery. Uważa się, że tak zwane zdarzenia turbulentne i wybuchowe widoczne w linii warstwy przejściowej C IV są spowodowane takimi procesami rekoneksji. Więcej szczegółów można znaleźć w Narain i Ulmschneider (1996).
Generowanie energii mechanicznej
Energia mechaniczna jest generowana przez turbulentne ruchy gazu w strefie konwekcyjnej. Numeryczne badania i obserwacje konwekcji wskazują, że przepływy turbulentne można opisać za pomocą widma energii typu Kołmogorowa. Korzystając z takiego widma, w którym średnia kwadratowa prędkości turbulentnej jest podawana z modeli strefy konwekcyjnej (które zależą od Teff, g i parametru długości mieszania α, gdzie α = 2 dobrze zgadza się z obserwacjami), strumienie energii fal akustycznych dla Słońca i dużej liczby gwiazd zostały obliczone przy użyciu teorii Lighthilla-Steina (Ulmschneider i inni, 1996). Teoria Lighthilla dotycząca kwadrupolowego generowania dźwięku jest w doskonałej zgodności z obserwacjami w zastosowaniach naziemnych. Teoria Lighthilla-Steina dostarcza również widm częstotliwości akustycznych, które rozciągają się od okresu odcięcia PA do około czynnika 100 mniejszego z maksimum w przybliżeniu przy okresie PM = PA/5. Dla Słońca można znaleźć typowe wartości całkowitego strumienia energii fali akustycznej wynoszące 1,7 × 108 erg cm-2 s-1 i okresie PM = 60 s, przy użyciu parametru długości mieszania α = 2,0. Strumienie fal podłużnych i poprzecznych w rurach magnetycznych obliczono dla Słońca poprzez ściskanie i potrząsanie modelem rury przez zewnętrzne, zależne od czasu przepływy turbulentne przy danej wysokości wzbudzenia. Rysunek przedstawia chwilowe i uśrednione wygenerowane strumienie fal podłużnych (góra) i poprzecznych (dół) w rurze jako funkcję czasu.
Rysunek pokazuje bardzo stochastyczną naturę procesu generowania. Generowanie energii falowej następuje w postaci spurtów, co jest zgodne z obserwacjami. Spurty są spowodowane nagłymi wzrostami prędkości przepływu. Na rysunku 2 zastosowano te same zależne od czasu turbulentne fluktuacje prędkości. Dla Słońca typowy średni strumień fal podłużnych wynosi 1,5 × 108 erg cm-2 s-1, a dla strumienia poprzecznego wartość około 30 razy wyższą, przy czym płaskie maksimum rozciąga się od PM = 90 s do dłuższych okresów. Biorąc pod uwagę ten sam strumień fal akustycznych wewnątrz i na zewnątrz rury, należy zdać sobie sprawę, że gęstość gazu wewnątrz rury jest mniej więcej o współczynnik 6 mniejsza od gęstości zewnętrznej. W porównaniu z tą niską gęstością strumień fal wewnątrz rury jest duży, co prowadzi do szybkiego powstawania szoków, ale także do poważnych efektów NLTE (odejścia od równowagi termodynamicznej), które silnie modyfikują straty radiacyjne.
Empiryczne szybkości nagrzewania mechanicznego
Standardowe empiryczne modele chromosfery słonecznej wskazują, że obszary aktywne (gdzie dominują pola magnetyczne) wymagają strumieni mechanicznych FM = 1,3 × 108 erg cm-2 s-1, podczas gdy obszary spokojne 1,4 × 107 erg cm-2s-1. Wartości te pomnożono przez współczynnik 2,3, aby uwzględnić straty linii przez Fe II. Bezpośrednie pomiary fluktuacji prędkości zostały wykorzystane do oszacowania strumienia akustycznego w chromosferze słonecznej. Ponieważ fluktuacje prędkości są obserwowane jako fluktuacje przesunięcia Dopplera rdzeni linii widmowych, należy zachować ostrożność, aby dokonać korekty w celu uwzględnienia widoczności i efektów funkcji wkładu linii. Deubner (1988) ustala FM = 2 × 107, 1,2 × 106, 4,5 × 105 erg cm-2s-1 na wysokościach odpowiednio 300, 800, 1500 km. Rdzenie emisyjne linii Ca IIH i K oraz linii Mg II h i k są wiarygodnymi wskaźnikami chromosfer. Wykreślając dla wielu gwiazd empiryczne strumienie emisji rdzeni w tych liniach w stosunku do Teff, można stwierdzić, że strumienie wykazują dobrze zdefiniowaną dolną granicę, która rozciąga się np. dla Ca II od FCa = 1 × 107 erg cm-2s-1 dla wczesnych gwiazd typu F do 2 × 104 erg cm-2s-1 dla późnych gwiazd typu M. Ta granica jest nazywana linią bazową strumienia. Niedawno wykazano, że tę bazową emisję można odtworzyć za pomocą ogrzewania akustycznego (Buchholz i in. 1998). Jednakże stwierdzono, że gwiazdy o tym samym Teff i grawitacji g wykazują różną emisję chromosferyczną i że emisja ta jest większa, gdy gwiazdy obracają się szybciej. Ponieważ szybko obracające się gwiazdy ze strefą konwekcji powierzchniowej generują więcej pól magnetycznych za pośrednictwem mechanizmu dynama, jasne jest, że nadmierne ogrzewanie jest spowodowane przez mechanizmy ogrzewania magnetycznego. Szybko obracająca się gwiazda ma o rząd wielkości więcej emisji chromosferycznej niż emisja bazowa.
Całkowity obraz ogrzewania chromosfery
Udane odtworzenie linii strumienia bazowego za pomocą modeli ogrzewania falami akustycznymi wyjaśniło, że podstawowym procesem ogrzewania w chromosferach są fale akustyczne. Mechanizm ten działa niezależnie od rotacji. Im szybciej obraca się gwiazda, tym bardziej jest pokryta polami magnetycznymi, które na wysokościach fotosferycznych i subfotosferycznych pojawiają się w postaci rur strumienia magnetycznego. Fluktuujące przepływy gazu w turbulentnej strefie konwekcyjnej poza rurami wzbudzają podłużne, poprzeczne i skrętne fale rur MHD. Poprzez formowanie się szoków podłużne fale w dolnej i środkowej chromosferze ogrzewają rury strumienia, co wyjaśnia nadmierną emisję w obszarach magnetycznych. Przy większej liczbie rur na gwieździe, wytwarzana jest większa energia fal rurowych. Znacznie wydajniej wytwarzane fale poprzeczne mają dwa problemy: poważnie cierpią z powodu wycieku energii falowej z dala od rury i trudno je rozproszyć. Bardzo prawdopodobne, że są odpowiedzialne za ogrzewanie wysokiej chromosfery i warstwy przejściowej. Tutaj obserwacje gwiazd linii C IV wskazują, że oprócz ogrzewania falowego, ogrzewanie prądem stałym przez mikrorozbłyski generowane przez zdarzenia rekoneksji zwiększa ogrzewanie falowe Alfvéna. Te zdarzenia rekoneksji są wynikiem powolnych poziomych ruchów konwekcyjnych (zwanych ruchami stóp), które prowadzą do skręcania i splatania rur strumienia magnetycznego. Strefa konwekcji jest zatem źródłem nie tylko ogrzewania prądem przemiennym, ale także stałym. Prawdopodobnie mniej wydajnie generowane fale torsyjne najprawdopodobniej przechodzą przez chromosferę bez rozproszenia i stają się ważne w koronie i wietrze gwiazdowym. Wydajna trójwymiarowa symulacja magnetohydrodynamiki w strefach konwekcji gwiazdowej powinna w przyszłości być w stanie całkowicie wyjaśnić zjawisko chromosfery, które w przypadku braku jakichkolwiek danych wejściowych z przestrzeni międzygwiazdowej musi być w końcu całkowicie zależne od wnętrza gwiazdy.
Chromosfera: Magnetyczny baldachim
Magnetyczny baldachim to warstwa pola magnetycznego skierowana równolegle do powierzchni Słońca i znajdująca się w niskiej CHROMOSFERZE, pokrywająca obszar bez pola SŁONECZNEJ FOTOSFERA. Ma natężenie pola rzędu 0,01 T i pokrywa znaczną część powierzchni Słońca. Magnetyczny baldachim można porównać z baldachimem lasu deszczowego: pnie drzew odpowiadają MAGNETYCZNYM RUROM STRUMIENIA, które wznoszą się pionowo z poziomu fotosfery, podczas gdy rozprzestrzeniające się rozgałęzione liście porównują się z poziomo rozprzestrzeniającym się polem magnetycznym. Podobnie jak w przypadku baldachimu lasu deszczowego, magnetyczny baldachim ma swoje własne życie i nie jest łatwo dostępny do obserwacji. Magnetyczny baldachim można wywnioskować obserwacyjnie z magnetogramów wykonanych w chromosferycznych liniach widmowych lub teoretycznie z magnetohydrostatycznej ekstrapolacji łatwo obserwowalnego pola magnetycznego fotosfery.
Dowody obserwacyjne na istnienie sklepienia magnetycznego
Na początku lat 80. XX wieku R G Giovanelli i H P Jones prowadzili szeroko zakrojone badania sklepienia magnetycznego, opierając się na wcześniejszych sugestiach i danych obserwacyjnych W C Livingstona. Wykorzystali magnetogramy pola sieciowego w pobliżu krawędzi słonecznej , wykonane w chromosferycznych liniach widmowych w zakresie podczerwieni i widzialnym, np. linia tripletowa 854,2 nm Ca II i linia Mg I b2 przy 517,3 nm. Te magnetogramy zazwyczaj pokazują inwersję biegunowości wzdłuż linii, która pokrywa się z krawędzią unipolarnego pola sieciowego. (Sieć magnetyczna widoczna jest na fotosferycznych magnetogramach, zarysowując granice supergranuli.)
W kierunku środka dysku od linii inwersji polaryzacji pole rozproszone (ciemny obszar na rysunku (a)) rozciąga się dobrze nad obszarem, który nie wykazuje pola magnetycznego na poziomie fotosferycznym i który ma taką samą (normalną) polarność jak sieć magnetyczna. Po stronie krawędzi ta plama normalnej polaryzacji pokazuje obwódkę o przeciwnej polaryzacji. Inwersja polaryzacji i wzór obwódki to bardzo powszechna cecha chromosferycznych magnetogramów pola sieci w pobliżu krawędzi. Występuje również w regionach aktywnych i plamach słonecznych. Rysunek (b) pokazuje strukturę magnetyczną, która najbardziej naturalnie wyjaśnia taki magnetogram. Pokazuje przednią elewację sekcji wskazanej na rysunku (a). Normalna do powierzchni Słońca (poziom wysokości, na którym głębokość optyczna kontinuum przy λ = 500 nm wynosi jedność (τ500 = 1)) jest nachylona pod kątem θ względem linii widzenia, co odpowiada obserwacji w pobliżu krawędzi Słońca. Chociaż pole sieci magnetycznej jest rozdrobnione i składa się z wielu małych rur strumienia magnetycznego, na rysunku (b), dla jasności, jest ono przedstawione przez pojedynczą rurę strumienia zorientowaną pionowo. Na granicy sieci pole może swobodnie rozprzestrzeniać się w kierunku poziomym, tworząc w ten sposób magnetyczny baldachim, który pokrywa obszar wolny od pola ff. Odwrócenie biegunowości magnetycznej chromosferycznego magnetogramu można teraz łatwo zrozumieć jako spowodowane polem baldachimu w następujący sposób. Linie widzenia przechodzące przez pole sieciowe odbierają składową pola magnetycznego w kierunku obserwatora, podobnie jak linie widzenia przechodzące przez pole baldachimu na lewą (środek dysku) stronę sieci (przerywana linia widzenia), wyjaśniając rozszerzone pole rozproszonej sieci. Pole korony po prawej (w kierunku krawędzi) strony sieci powoduje jednak składową linii widzenia o przeciwnym kierunku (ciągła linia widzenia), co powoduje powstanie prążka o przeciwnej polaryzacji. Należy zauważyć, że odpowiadający magnetogram sieci magnetycznej na poziomie fotosferycznym miałby wyłącznie dodatnią biegunowość. W kierunku krawędzi pola sieciowe najwyraźniej zbliżają się do siebie wraz ze wzrostem kąta aspektu linii widzenia θ, powodując powstanie coraz węższego wzoru prążków o zmiennej polaryzacji w magnetogramie. Korzystając ze standardowego modelu atmosfery słonecznej, równanie transferu promieniowania dla światła spolaryzowanego jest integrowane wzdłuż linii widzenia przechodzącej przez pole korony, tak jak to pokazano na rysunku (b). Zakładając, że atmosfera jest wolna od pola do wysokości zc, a korona składa się z jednorodnej warstwy pola magnetycznego o natężeniu Bc, wysokość korony zc można wyprowadzić z porównania obliczonego w ten sposób sygnału magnetogramu obserwowanego. Ponieważ tylko pole magnetyczne blisko podstawy korony przyczynia się znacząco do sygnału magnetogramu (z powodu szybkiego spadku gęstości i natężenia pola wraz z wysokością), założenie jednorodnego, czysto poziomo skierowanego pola korony jest uzasadnionym przybliżeniem. Takie obliczenia doprowadziły do wysokości korony 600-1000 km nad powierzchnią Słońca (odpowiadającej dolnej chromosferze) w regionach spokojnego Słońca i tak niskich, jak 200 km w REGIONACH AKTYWNYCH. W przeciwieństwie do tego, proste modele rurki strumieniowej sieci magnetycznej pokazują, że pole korony tworzy się w górnej chromosferze i KORONIE. Tylko modele, które uwzględniają istotne różnice między atmosferą wewnątrz rury strumieniowej (atmosfera wewnętrzna) i na zewnątrz niej (atmosfera zewnętrzna), są w stanie wytworzyć nisko położone pole korony. PLAMY SŁOŃCOWE również obserwują powstawanie nisko położonego pola korony, które rozciąga się na dużą odległość poza półcieniem (superpenumbra) z wysokością korony od stu do kilkuset kilometrów. W tym przypadku, w przeciwieństwie do korony sieciowej, dominującą rolę w utrzymywaniu korony na niskiej wysokości odgrywają siły napięcia magnetycznego.
Model rurki strumieniowej osłony magnetycznej
Biorąc pod uwagę natężenie pola magnetycznego pola sieciowego na powierzchni Słońca (τ500 = 1), B0 i ułamek powierzchni zajmowany przez to pole, współczynnik wypełnienia magnetycznego f0, najprostszy model, który można skonstruować, składa się z zespołu statycznych, obrotowo symetrycznych, pionowych rur strumieniowych, które są równomiernie rozmieszczone na poziomie τ500 = 1. Zwykle zakłada się, że na tym poziomie natężenie pola składowej pionowej jest stałe w rurce strumieniowej, Bz(r) = B0 = const., a atmosfera wewnętrzna i zewnętrzna są równoległe do płaszczyzny (brak zmian w kierunku bocznym, ale tylko w kierunku pionowym). Biorąc dodatkowo pod uwagę ciśnienie gazu pg jako funkcję wysokości dla atmosfery wewnętrznej i zewnętrznej, konfigurację pola magnetycznego można obliczyć dla wszystkich wysokości, w tym osłony i obszaru chromosferycznego, rozwiązując równanie magnetohydrostatyczne. Powierzchnia rury strumieniowej wyróżnia się
nieciągłością (w przypadku idealnej plazmy) zmiennych fizycznych w taki sposób, że ciśnienie magnetyczne, pmag = B2/2μ, wywierane przez pole powierzchni rury strumieniowej jest równe różnicy ciśnienia gazu między atmosferą zewnętrzną i wewnętrzną, tj. B2/2μ|Surface = pg ext ? pg int gdzie μ = 4π × 10-7 V s A-1 m-1 to przenikalność magnetyczna przyjęta jako przenikalność wolnej przestrzeni. To równanie jest bezpośrednią konsekwencją prawa Ampére′a i jest nadal ważne w obecności sił krzywizny magnetycznej. W skrajnym przypadku całkowicie opróżnionej rury strumienia, pg int = 0, i otrzymujemy Bmax(z) = [2μpg ext(z)]1/2, co wynosi około 0,17 T na poziomie powierzchni Słońca i około 0,02 T na wysokości 500 km. Ze względu na wykładniczy spadek zewnętrznego ciśnienia gazu pg ext wraz z wysokością, rura strumienia magnetycznego rozszerza się, utrzymując jednocześnie całkowity strumień magnetyczny stały. Na rysunku widać, że pole magnetyczne w zewnętrznych częściach rury staje się poziome na pewnej krytycznej wysokości, tworząc w ten sposób pole baldachimu.
To poziomo rozprzestrzeniające się pole łączy się z polem o równej polarności sąsiednich rur strumienia, w którym to przypadku wygina się z powrotem i na zewnątrz w kierunku pionowym, lub łączy się z sąsiednimi rurami o przeciwnej polaryzacji, tworząc strukturę przypominającą pętlę. Pierwszy przypadek pokazano na rysunku , gdzie pole korony łączy się z sąsiednim polem o tej samej biegunowości na wysokości 900 km. Pozioma odległość, na jaką rozciąga się pole korony, zależy od lokalnego współczynnika wypełnienia, który waha się od ≈0,2 (regiony PLAGE) do 5×10-4 (ciche Słońce). Tak więc pole korony może obejmować duży obszar wolnej od pola fotosfery spokojnego Słońca. Na rysunku rozciąga się ono tylko na umiarkowanym poziomym rozpiętości (od 700 do 1400 km w regionie wysokości od 800 do 1100 km) ze względu na współczynnik wypełnienia 5 × 10-3, który jest dziesięć razy większy niż w regionie spokojnego Słońca. Wysokość, na której pojawia się pole korony, wysokość korony zc krytycznie zależy od kombinacji atmosfery zewnętrznej i wewnętrznej. Pole korony o wysokości podstawy zgodnej z obserwacjami powstaje tylko wtedy, gdy atmosfera rurki strumieniowej wykazuje wzrost temperatury chromosferycznej, podczas gdy temperatura w atmosferze zewnętrznej nadal spada poniżej wysokości minimum temperatury atmosfery rurki strumieniowej. W takich okolicznościach ciśnienie gazu wewnątrz rurki strumieniowej szybko zbliża się do ciśnienia otaczającego gazu w punkcie krytycznym powyżej wysokości minimum temperatury. Zgodnie z równaniem zmusza to powierzchnię rurki strumieniowej do rozprzestrzeniania się w kierunku poziomym, ponieważ skończone pole powierzchni nie może sięgnąć poza wysokość krytyczną, gdzie pg ext - pg int = 0, niezależnie od natężenia pola lub współczynnika wypełnienia. Czy możliwe jest, że atmosfera zewnętrzna pozostaje chłodna do podstawy korony? Analiza linii widmowych Słońca cząsteczki tlenku węgla, a także modele równowagi radiacyjnej uwzględniające wpływ cząsteczki CO, pokazują, że na dużej części powierzchni Słońca temperatura musi znacznie spaść poniżej klasycznego minimum temperatury, tak aby atmosfera rozwidlała się na składnik gorący i chłodny w pobliżu wysokości klasycznego minimum temperatury, które występuje około 500 km nad powierzchnią Słońca .Jest bardzo prawdopodobne, że gorący i chłodny składnik reprezentują odpowiednio wewnętrzną i zewnętrzną atmosferę rury strumieniowej. Zatem występowanie pola korony wydaje się być ściśle związane z termicznym rozwidleniem atmosfery słonecznej.
Konsekwencje korony magnetycznej
W wyniku termicznego rozwidlenia atmosfera bezpośrednio pod podstawą korony jest stosunkowo chłodna ( ≤ 4000 K), podczas gdy sama korona może już mieć temperaturę chromosferyczną, w zależności od równowagi ogrzewania i chłodzenia. Stąd podstawa korony reprezentuje termiczną warstwę graniczną, która ma ważne konsekwencje dla tworzenia się linii widmowych w dolnej chromosferze, takich jak centralny rdzeń emisyjny Ca II H i K lub Mg II h i k. Tworzenie się tych rdzeni emisyjnych jest tłumione przez chłodną atmosferę pod podstawą korony. Z drugiej strony, ponieważ atmosfera rury strumieniowej wykazuje wzrost temperatury chromosferycznej, rdzenie emisyjne rozwijają się w pełni wzdłuż osi rury strumieniowej i w jej pobliżu, a ich rozmiar zależy od szybkości rozszerzania się rury strumieniowej. Jest to zgodne z zaobserwowaną zwiększoną emisją chromosferyczną w obszarach sieciowych i jej brakiem (z wyjątkiem sporadycznych jasnych ziaren) w obszarach wewnątrzsieciowych. Model pokazuje zatem, że linie emisyjne w niskiej chromosferze są przestrzennie przerywane w skalach około 1 sekundy łuku i są silnie skorelowane z intensywnym polem magnetycznym na poziomie fotosfery, przy czym obie prognozy są zgodne z obserwacją. Linie rezonansowe MgII tworzą się nieco wyżej w atmosferze niż linie Ca II, prawdopodobnie głównie powyżej podstawy korony. Odpowiednio, linie te pokazują rdzenie emisyjne również w obszarze wewnątrzsieciowym. Pole akanopiczne w połączeniu z przestrzennie oddzielnym ruchem masy pod baldachimem (np. ruch konwekcyjny) może silnie wpływać na kształt wrażliwych na Zeemana linii widmowych, gdy są obserwowane w świetle spolaryzowanym . Profil Stokesa V linii widmowej (różnica między prawoskrętnym i lewoskrętnym kołowo spolaryzowanym światłem jako funkcja długości fali), który jest antysymetryczny w normalnych warunkach, może przyjąć ekstremalnie asymetryczny kształt w zależności od prędkości i wysokości baldachimu. Baldachim magnetyczny prawdopodobnie niesie konsekwencje dla powstawania i siły wstrząsów akustycznych, które są wynikiem fal biegnących w górę generowanych na poziomach fotosfery i strefy konwekcyjnej. Fale te preferencyjnie wywołują wstrząs na wysokości około 1 Mm, a więc blisko podstawy baldachimu, dając początek jasnym ziarnom Ca IIH2V i K2V. Oczekuje się również, że dokładne właściwości emisyjne tych ziaren zostaną zmodyfikowane przez obecność osłony magnetycznej. Jako kolejna konsekwencja osłony magnetycznej, częstotliwości oscylacji akustycznych p-mode słonecznego wysokiego stopnia modalnego są przesunięte do większych wartości. Dla danego trybu to przesunięcie CZĘSTOTLIWOŚCI jest proporcjonalne do kwadratu natężenia pola osłony, które jest w przybliżeniu proporcjonalne do współczynnika wypełnienia fotosfery, f0. Jest to możliwe wyjaśnienie zmienności częstotliwości oscylacji p-mode w CYKLU SŁONECZNYM i ich korelacji z aktywnością magnetyczną.
Chromosfera: Sieć
Sieć chromosferyczna na Słońcu została odkryta przez HALE′A w 1892 r. za pomocą jego nowo wynalezionego spektroheliografu. Jest to plamisty wzór (Hale nazwał go "strukturą siatkową") pokrywający dysk słoneczny poza aktywnymi obszarami, który pojawia się, gdy Słońce jest obrazowane w diagnostyce widmowej utworzonej w CHROMOSFERZE . Wzór sieci ma wygląd plastra miodu przy charakterystycznych rozmiarach komórek 10-40 sekund łuku i składa się z małych plamek magnetycznych, które, choć niekompletnie, wyznaczają granice komórek supergranulacji w leżącej pod nimi fotosferze (SOLAR PHOTOSFHERE: SUPERGRANULATION). Każdy obszar magnetyczny mierzy kilka sekund łuku i prawdopodobnie składa się z klastra rur strumieniowych, które są już fizycznie połączone na wysokościach chromosferycznych (1000-5000 km nad fotosferą) lub wydają się połączone z powodu rozpraszania promieniowania (SOLAR PHOTOSPHERIC MAGNETIC FLUX TUBES: OBSERVATIONS). Sieć chromosferyczna jest bardzo precyzyjnie współprzestrzenna z siecią magnetyczną obserwowaną za pomocą magnetografów w fotosferze. Powodem współprzestrzenności jest kilogaussowa siła pola fotosferycznych rur strumieniowych. Tak wysoka siła pola idzie w parze z niemal ewakuacją, a zatem dużą wypornością, a zatem promieniową (pionową) orientacją (SOLAR PHOTOSPHERE). Plamy sieciowe wydają się jasne w liniach chromosferycznych (linie rezonansowe Ca II H i K przy λ = 396 nm i 393 nm, wewnętrzne skrzydła linii Hα serii Balmera wodoru przy 656,3 nm i wiele linii emisyjnych w średnim ultrafiolecie). Obserwowana jasność wzrasta wraz z widoczną gęstością strumienia magnetycznego w leżącej pod spodem fotosferze, skutecznie mierząc gęstość przestrzennej rury strumieniowej. Wzmocnienie intensywności jest prawdopodobnie spowodowane ogrzewaniem związanym z magnetyzmem, ale dokładny mechanizm nie został zidentyfikowany (CHROMOSFERA: MECHANIZMY OGRZEWANIA). Wzór sieci jest dynamiczny w skalach czasowych godzin. Jego ewolucja jest regulowana przez ciągłe pojawianie się nowego pola magnetycznego w komórkach supergranulacji, późniejszą migrację pola do granic komórek narzuconą przez przepływy supergranulacji, dalszą migrację wzdłuż granic supergranulacji i ostateczne zanikanie pola poprzez dyspersję, ponowne połączenie, subdukcję lub wznoszenie się do górnej atmosfery.
Skład
Rury strumienia magnetycznego, które tworzą sieć magnetyczną, są widoczne pojedynczo na zdjęciach fotosfery o najwyższej rozdzielczości. W szczególności są one najostrzej widoczne w paśmie Fraunhofera G wokół λ = 430,5 nm. Pasmo to składa się z molekularnych linii CH, które znacznie jaśnieją, w niezrozumiały sposób, w miejscach, w których silne rury strumienia w pasach międzykrystalicznych dynamicznie oddziałują z otaczającymi przepływami konwekcyjnymi. Rury strumienia pojawiają się na filtrogramach pasma G jako maleńkie jasne punkty o średnicy 0,1-0,2 sekundy łuku - tuż przy granicy dyfrakcji najlepszych teleskopów (SOLAR PHOTOSPHERE: FILIGREE; SOLAR TELESCOPES AND INSTRUMENTS: GROUND). Plamy w nadległej chromosferze wydają się bardziej rozproszone, z ziarnistą strukturą w skali 1-2 sekundy łuku. W obserwacjach naziemnych najlepiej widać je podczas obrazowania chromosfery słonecznej w rdzeniach linii Ca II H i K. Są to najsilniejsze linie widmowe optycznie dostępnej części widma słonecznego, ponieważ wapń jest pierwiastkiem powszechnie występującym, a większość cząstek wapnia znajduje się w pojedynczo zjonizowanym stanie podstawowym w całej fotosferze i niskiej chromosferze. Ponadto łatki sieciowe są dobrze widoczne w liniach ultrafioletowych od niższych stadiów jonizacji pierwiastków powszechnie występujących, takich jak CI i CII w średnim ultrafiolecie. Pozostają widoczne w liniach ultrafioletowych od wyższych stadiów jonizacji do temperatury formowania ≈105 K i są również widoczne w Lyman &alph; przy λ = 121,5 nm (najsilniejsza linia w widmie słonecznym). Bardziej złożona morfologia jest widoczna w Hα niż w Ca II K, ponieważ H? ma dodatkowe wkłady z dużo wyższych warstw, ze względu na wysoką energię wzbudzenia. Tylko w wysokiej temperaturze i stosunkowo dużej gęstości staje się wystarczająco nieprzezroczysty. Gdy obserwuje się sieć w centrum linii Hα, ma ona ciemne rozszerzenia zwane plamkami lub, gdy są dłuższe niż kilka sekund łuku, fibryle (CHROMOSFERA: WŁÓKNA). Rozciągają się one w kolce, gdy są widoczne na krawędzi (CHROMOSFERA: SPICULES). Takie włókniste struktury niewątpliwie przedstawiają topologię pola magnetycznego i mogą reprezentować dolne części pętli koronalnych (CORONAL LOOPS), ale ich zachowanie jest bardzo dynamiczne i wyraźnie bardziej złożone, niż przewidywałyby statyczne modele pętli. Statyczne modele rozszerzania się rurki strumienia wraz z wysokością (SOLAR PHOTOSPHERIC MAGNETIC FLUX TUBES: THEORY) przewidują, że na znacznie niższych poziomach pole magnetyczne powinno już rozchodzić się do niemal jednorodnego wypełnienia przestrzeni (CHROMOSFERA: MAGNETIC CANOPY). Obserwowane przepływy plamek, włókienek i kolców odwzorowują bardziej pionowe linie pola, ponieważ gaz porusza się swobodnie tylko wzdłuż pola. Bardziej nachylone przepływy nie sięgają tak wysoko. Przestrzenna koincydencja z siecią magnetyczną w fotosferze może być wykorzystana do określenia biegunowości magnetycznej sieci chromosferycznej. Ma ona tendencję do bycia mieszaną biegunowością na dużych obszarach spokojnego Słońca i stawania się jednobiegunową w pobliżu obszarów aktywnych lub pozostawania jednobiegunową w pozostałościach poprzednich obszarów aktywnych. Duże obszary jednobiegunowe występują również w pobliżu biegunów słonecznych.
Topologia i ewolucja wzoru
Wygląd komórkowy sieci chromosferycznej jest niekompletny, w przeciwieństwie do granic komórek supergranulacji obserwowanych na fotosferycznych dopplergramach. Na niskorozdzielczych spektroheliogramach CaIIK komórki są łatwiej zarysowane niż na wysokorozdzielczych filtrogramach CaIIK, co pokazuje, że przepływy supergranulacji nie powodują wypełnienia pól granic komórek wszędzie. Ponadto istnieją ruchome, małe obszary koncentracji pola w komórkach supergranulacji, które jeszcze nie dotarły do granicy komórki. Jest prawdopodobne, że wiele z tych ruchomych obszarów niedawno wyłoniło się spod powierzchni. Rozmiary komórek sieci chromosferycznej są większe (średnica 32 mm) w przypadku określenia za pomocą klasycznych metod autokorelacji niż w przypadku stosowania metod topologicznych, które identyfikują komórki na podstawie diagnostyki gradientowej (średnica 13-18 mm). Wydaje się, że nie ma bezpośredniego związku między rozmiarem komórki a zawartością magnetyczną, chociaż w obszarach niespokojnych komórek bez pola wydają się być znacznie mniejsze. Przestrzenne charakterystyki komórek są zdominowane przez przestrzenną gęstość centrów przepływu w górę, tak jak ma to miejsce w przypadku granulacji na mniejszą skalę (SOLAR PHOTOSPHERE: GRANULATION). Rzeczywiście, zarówno granulacja, jak i supergranulacja wydają się tworzyć jako pęcherzyki zaczynające się od miejsca "zarodka", tj. centrum wypływu, a oba są wypełnieniem powierzchni. Łaty magnetyczne pierwotnie pojawiają się w dwubiegunowych efemerycznych regionach wewnątrz komórek supergranulacji, a następnie są transportowane do granic komórek supergranulacji, gdzie pozostają ograniczone. Ruch stężeń magnetycznych można opisać za pomocą losowego spaceru w odpowiedzi na ciągle ewoluujące ruchy konwekcyjne. W skali granulacji ziarniste buforowanie powoduje, że stężenia magnetyczne poruszają się w losowym spacerze z typowymi długościami kroków równymi promieniowi granulatu (R ≃ 0,5 Mm) i krokami czasowymi równymi czasowi życia granulatu (T ≃ 10 min). Wzory przepływu przez komórki supergranulacji przetrwają dłużej niż pojedyncze przepływy granularne na małą skalę, tak że łatki są ostatecznie zbierane w granicach supergranularnych przez odpływy supergranularne. Następnie przemieszczają się wzdłuż tych granic i w ten sposób zarysowują granice supergranularne. Można to zaobserwować zarówno dla sieci chromosferycznej na filtrogramach Ca II K i obrazach ultrafioletowych o wysokiej rozdzielczości, jak i na magnetogramach fotosferycznych. Wzdłuż granic supergranularnych pole magnetyczne wydaje się skoncentrowane w łatkach o średniej zawartości strumienia magnetycznego 2,5 × 1018 Mx (Mx, Maxwell = 10
Właściwości dynamiczne
Dokładna współprzestrzenność między siecią chromosferyczną a polem magnetycznym fotosfery oraz zależność potęgowa między jasnością sieci a pozorną gęstością strumienia (głównie mierząca gęstość przestrzenną rurki strumienia) silnie sugerują, że mechanizm ogrzewania zdominowany magnetycznie działa w lub wzdłuż rurek strumienia kilogaussowego, które tworzą sieć (CHROMOSFERA: MECHANIZMY OGRZEWANIA). Jednak wiele prób nie znalazło modów falowych, które zdradzałyby transfer energii kinetycznej z fotosfery, gdzie rurki strumienia są uderzane przez przepływy ziarniste, aż do wysokości chromosferycznych, gdzie rozpraszanie fal mogłoby przyczynić się do ogrzewania, które jest wymagane do wyjaśnienia obserwowanej jasności. Jak dotąd wszystkie badania oscylacji sieci zidentyfikowały jedynie dość wolne okresy, 5 minut lub dłuższe. Wynik ten stoi w ostrym kontraście z falami akustycznymi trwającymi około 4 do 2 minut, które są wszechobecne w regionach sieci. Nie jest nawet jasne, czy obserwowane powolne modulacje opisują tryby falowe (takie jak łamanie wewnętrznych fal grawitacyjnych), czy też po prostu losowe ruchy wymuszone przez kołysanie się punktu stopy. Tak więc rzeczywisty mechanizm, dzięki któremu plamy sieciowe są jasne, choć niewątpliwie wynika to z fizyki dynamicznej rury strumieniowej, nie został jeszcze zidentyfikowany.
Chromosfera: Spikule
Już w 1877 r. ojciec Secchi opisał przypominające dżety, wydłużone struktury w chromosferach słonecznych, które Walter Orr Roberts w 1945 r. nazwał spikule. Obserwuje się je w optycznych liniach emisyjnych chromosfery wodoru (szczególnie linia 656 nm Hα), zjonizowanego wapnia (szczególnie linie 393 nm i 397 nm H i K) oraz liniach helu (szczególnie linie neutralnego helu 588 nm i 1083 nm). Rysunek przedstawia serię obrazów CHROMOSFERY wykonanych przy różnych długościach fal w linii H?, pokazujących struktury spikularne.
Z wyjątkiem najniższych wysokości nad krawędzią Słońca, do 1500 km, spikule są wyraźnie widoczne. Typowe właściwości spikuli to: szerokość 900 km, średnia wysokość 8000 km, czas życia 15 min, prędkości pozorne 25 km s-1. Z obrazów takich jak ten na rysunku można wyprowadzić przestrzenne właściwości chromosfery i jej strukturę. Większość lub cała emisja chromosferyczna w tych liniach wydaje się pochodzić ze spikuli, więc można uczciwie powiedzieć, że chromosfera słoneczna, przynajmniej na wysokościach przekraczających 1500 km nad fotosferą, składa się z materiału spikularnego. Spadek średniej jasności chromosfery wraz z wysokością jest wynikiem spadku jasności poszczególnych spikuli i liczby spikuli wraz z wysokością. Obserwując linię Hα, linię najczęściej używaną, obserwujemy średnią wysokość spikuli wynoszącą 8000 km, nieco mniej w pobliżu równika słonecznego, więcej na biegunach. Należy jednak zauważyć, że ich górna granica nie jest dobrze zdefiniowana, więc obserwowana wysokość zależy od warunków obserwacji. Pojedyncze spikule mogą sięgać znacznie wyżej, a obserwowane wysokości przekraczają 10 000 km. W literaturze można znaleźć odniesienia do tak zwanych "super-spikuli", zwłaszcza w dyskusji na temat obserwacji krawędzi Słońca wykonanych w liniach dalekiego ultrafioletu, takich jak linia zjonizowanego helu przy 30,4 nm. Super-spikule są znacznie większe niż spikule; są to struktury, które pod względem swoich właściwości znajdują się pomiędzy spikułami a przejściowymi protuberancjami słonecznymi (SURGES). Nie są one uwzględnione w niniejszym kontekście, zostaną krótko omówione na końcu tej sekcji. Obserwowana szerokość spikuli wynosi średnio 900 km, co jest prawdopodobnie górnym limitem, ponieważ nie jest korygowana pod kątem efektów obrazowania atmosfery Ziemi
Dynamika
Dynamika spikuli jest najbardziej interesująca. Na początku wyglądają jak "gejzery" w tym sensie, że następuje wznoszący się strumień materiału z prędkościami dochodzącymi do 25 km s-1M trwający około 5 minut, ale ze ścieżką, która jest często nachylona względem lokalnego kierunku pionowego. Po osiągnięciu typowej maksymalnej wysokości 9000 km w ciągu 5 minut wyrzut ustaje. Następuje zanik jasności spikuli lub powrót emitującego materiału do fotosfery. Podsumowując, znacznie więcej spikuli wydaje się unosić niż opadać. Całkowity cykl życia tych, które opadają, wynosi około 15 minut. Ponieważ materiał spikularny jest w dużej mierze zjonizowany, ruchy mają tendencję do podążania za kierunkiem linii pola magnetycznego. Orientacje i ruchy spikularne są zatem dobrym przybliżeniem wzoru struktury pola magnetycznego w tej części atmosfery słonecznej. Bezpośrednie pomiary natężenia pola magnetycznego za pomocą efektu Zeemana lub prawdopodobnie efektu Hanlego nie są jeszcze dostępne . Chociaż występują znaczne czasowe i lokalne zmiany przestrzenne w orientacjach, istnieją wyraźne zmiany w średnich orientacjach kierunków kolców, a zatem pól magnetycznych, wraz z szerokością geograficzną Słońca. W pobliżu równika słonecznego orientacje, chociaż średnio pionowe, różnią się znacznie od kolca do kolca. W pobliżu biegunów orientacje są bardziej jednolite, głównie zbliżone do pionowych, ale czasami systematycznie pochylone. W regionach polarnych nachylenie wydaje się podążać za orientacjami pióropuszy koronalnych. Ze względu na systematyczne zachowanie grupowe kolców w tym miejscu, wzory te są czasami określane jako konfiguracje "jeżozwierza" lub "pola pszenicy". Astronomowie zawsze obawiają się, że pozorne ruchy widoczne w filmach, takich jak te w chromosferze Hα, mogą nie odpowiadać rzeczywistym ruchom. Pozorne ruchy mogą wynikać z innych efektów, takich jak zmiany czasowe w warunkach wzbudzenia atomowego. Jedynym sposobem sprawdzenia realności ruchów jest obserwacja przesunięcia Dopplera linii widmowej. Jest to jednak trudna rzecz do zrobienia, ponieważ pozorne "właściwe ruchy" występują w płaszczyźnie nieba, podczas gdy przesunięcie Dopplera odpowiada ruchom w linii wzroku. Porównanie jest zatem statystyczne i wymaga znajomości różnych nachyleń spikuli. Dotychczasowe obserwacje, uwzględniające te rozważania, rzeczywiście wykazały, że pozorne ruchy są rzeczywistymi ruchami materialnymi. Przesunięcia Dopplera wydają się różnić w zależności od spikuli, co powoduje przechylenie linii emisyjnych widma. Te zmiany są często interpretowane w kategoriach obrotu spikuli.
Właściwości fizyczne
Oprócz informacji o prędkościach, analiza widmowa emisji spikularnej dostarcza ważnych informacji o warunkach fizycznych w spikulach. Obserwacje widmowe są dostępne w wielu różnych liniach: liniach Balmera wodoru (Hα do Hε), liniach neutralnego helu (linia D3 przy 588 nm, linia 1083 nm) i liniach zjonizowanego wapnia przy 393, 397, 850 i 854 nm). Obserwowana emisja tych linii wskazuje na temperatury w okolicach 15 000 K, prawdopodobnie niższe (<10 000 K) na wysokościach poniżej 2000 km, a gęstości elektronów maleją z 1,5×1011 cm-3 przy h = 2000 km do 3×1010 cm-3 przy h = 10 000 km. Na niższych wysokościach kolce są osadzone w tym, co zwykle nazywa się obszarem przejściowym chromosfera-korona. Na większych wysokościach są osadzone w samej KORONA o milionie stopni, ale musi istnieć lokalny obszar przejściowy między każdą kolcem a tą koroną. Nic nie wiadomo o tych lokalnych obszarach przejściowych. Przyszłe obserwacje o wysokiej rozdzielczości z kosmosu linii emisyjnych o wyższej temperaturze w ultrafiolecie (na przykład linie CIV przy 155 nm i można oczekiwać, że linia Lyα helu przy 30,4 nm wyjaśni to). Ciśnienie elektronów w spikulach na wysokości 8000 km wynosi 0,09 dyn cm-2 w porównaniu do 0,02 dyn cm-2 w otaczającej koronie. Różnica jest na tyle duża, że może być rzeczywista, wskazując prawdopodobnie na znaczne nadciśnienie w spikulach chromosferycznych. Ponadto z szerokości linii widmowych w spikulach można wyprowadzić nietermiczne poszerzenie o około 20 km s-1, z czego część może skutkować ciśnieniem turbulentnym. Izolowane pole magnetyczne o natężeniu zaledwie 1G powoduje ciśnienie magnetyczne o natężeniu 0,04 dyn cm-2, co stanowi zmianę o 1 G w średnim polu, na przykład 12 G w zmianie o 1 dyn cm-2. Poza ukierunkowaniem ruchu spikularnego, dla których pole musi być znacznie większe niż 1 G, zmiany pola magnetycznego między spikulą a otaczającą koroną muszą być mniejsze niż 1 G, przy czym zmiany natężenia pola magnetycznego, jeśli występują, są mniejsze w spikulach. Ta wrażliwość równowagi ciśnień na niewielkie zmiany natężenia pola magnetycznego wskazuje również na duże efekty, jakie pole magnetyczne może mieć na dynamikę spikul. Istnieje całkiem duża liczba modeli teoretycznych dotyczących pochodzenia spikul, wszystkie obejmujące efekty pola magnetycznego. Ze względu na podobieństwo ich wymiarów do wymiarów komórek konwekcyjnych słonecznych, które są obserwowane na powierzchni Słońca jako GRANULACJA, oraz ze względu na podobieństwo wskaźników narodzin spikul i granulek w obrębie wyższych stężeń pola magnetycznego obserwowanych na granicach supergranuli słonecznych (patrz dalej w tej sekcji), zasugerowano, że spikule są wynikiem oddziaływań konwekcji i pola magnetycznego. Oczywiste jest, że potrzebne są ulepszone obserwacje widm i obrazów spikul, w tym obserwacje o wyższej rozdzielczości przestrzennej ich prędkości i, jeśli to możliwe, pól magnetycznych. Również obserwacje spiculi obserwowane w projekcji na tarczę słoneczną są bezcenne. To jest główny temat poniższej dyskusji.
Wygląd na tle tarczy słonecznej
Podczas obserwacji struktur takich jak PROMINENCE lub spikule w wyższej atmosferze słonecznej na tle tarczy słonecznej, struktury te można zobaczyć jako ciemne cechy w absorpcji lub jako jasne struktury w emisji. Takie struktury są ciemne, gdy ilość promieniowania tła z tarczy słonecznej, która jest absorbowana, jest większa niż ilość emitowana przez samą strukturę. Stosunek emisji do współczynnika absorpcji w strukturze jest określany jako "funkcja źródłowa" struktury lub w skrócie S. Struktura jest jasna, gdy S przekracza intensywność tła I, ciemna, gdy jest mniejsza. Kontrast zależy od grubości optycznej ?, tak że różnica intensywności I od tła jest równa: ΔI = (I - S)(1- e-τ ). Ten prosty model widoczności struktur pokrywających jasne tło słoneczne jest często określany jako "model chmur". Ten sam model w rzeczywistości obowiązuje dla chmur ziemskich i dla każdej innej podobnej konfiguracji w dowolnym miejscu. W przypadku warunków panujących w atmosferze słonecznej funkcję źródłową Scan należy przyjąć jako niezależną od długości fali i kierunku. Intensywność tła jest funkcją długości fali (Hα jest silną linią absorpcyjną Fraunhofera) i położenia na tarczy słonecznej (ciemnienie krawędzi słonecznej). Dlatego też jest całkiem prawdopodobne, że znak kontrastu spikuli widzianych w projekcji na tarczę słoneczną zmienia się wraz z położeniem w linii Fraunhofera i położeniem dysku. Biorąc pod uwagę warunki fizyczne w spikulach opisane wcześniej, można by się spodziewać, że spikule będą ciemne, gdy są widziane w skrzydłach linii przez większość tarczy słonecznej. W pobliżu jądra linii H i na skrajnym brzegu można spodziewać się jasnych struktur kontrastowych. Tuż przy krawędzi słonecznej, gdzie jasność dysku szybko spada i faktycznie zanika poza krawędzią, oczekiwane zachowanie kontrastu spikuli jest bardzo złożone. Dlatego też bardzo trudno jest prześledzić spikule z zewnątrz krawędzi z powrotem na tarczę słoneczną, aby jednoznacznie bezpośrednio zidentyfikować struktury dysku ze spikulami. Jednakże powszechnie przyjmuje się, że ciemne, wąskie, wydłużone "plamki" widoczne na monochromatycznych obrazach na skrzydłach linii Hα należy identyfikować z chromosferycznymi spikulami w projekcji na tarczę słoneczną. Termin (1- e-τ ) w modelu chmur jest również zależny od długości fali, ponieważ optyczna grubość τ jest. Nie wpływa to na znak kontrastu, tylko na jego wielkość. Biorąc pod uwagę tę identyfikację spikul widzianych na tle tarczy słonecznej, można określić szereg innych ważnych parametrów. Jjasno wynika, że spikule nie są równomiernie rozmieszczone na tarczy słonecznej. Znajdują się one w tak zwanej sieci chromosferycznej, która graniczy z komórkami ziarnistości fotosferycznej. Chociaż szacuje się, że na Słońcu jest około 10 razy mniej spikuli niż granulek, gęstość granulek i spikuli, a także ich współczynnik urodzeń w obrębie tych obszarów sieci są porównywalne. Sugeruje to fizyczny związek między strukturą granulacji a występowaniem spikuli w tych regionach, przy czym dobrze znane lokalne wzmocnienie pola magnetycznego Słońca w tych elementach sieci o około 100 G niemal na pewno odgrywa ważną rolę. Jednak próby ustanowienia takiego połączenia obserwacyjnego do tej pory nie powiodły się. Podejrzewa się, że ograniczona rozdzielczość przestrzenna i prawdopodobnie spikule pochodzące znacznie powyżej fotosfery mogą być przyczyną tych nieudanych prób. Ale może być oczywiście tak, że nie ma takiego połączenia ani z samymi granulkami, ani z pasami międzyziarnowymi.
Rola spikuli
Jaką rolę odgrywają spikule w odniesieniu do innych aspektów słonecznych? Na podstawie parametrów fizycznych łatwo oszacować strumień energii kinetycznej i strumień masy w połączonych spikulach. W poruszających się ku górze spikulach strumień energii kinetycznej jest pomijalny w porównaniu z innymi transferami energii do i z korony. Jest to czynnik 100 mniejszy niż na przykład straty energii przewodzącej w dół od korony słonecznej. Strumień masy to zupełnie inna sprawa. W fazie poruszającej się ku górze strumień masy spikuli przewyższa utratę masy korony słonecznej przez WIATR SŁONECZNY o dwa rzędy wielkości. W tym sensie spikule mogą być szerszym zainteresowaniem, a nie być zjawiskiem o znaczeniu jedynie lokalnym. Nie istnieje powszechnie akceptowany model magnetohydrodynamiczny dla spikuli. Zaproponowano szereg modeli wykorzystujących różnorodne mechanizmy fizyczne, w tym różne rodzaje zjawisk falowych, niestabilności, rekoneksję magnetyczną itp. w oparciu o prędkość i pola magnetyczne związane na przykład
z granulkami i supergranulkami. Wszystkie one twierdzą, że wyjaśniają wiele obserwowanych właściwości spikuli. Aby odróżnić te modele, konieczne będą ulepszone obserwacje spikuli. Nowe narzędzia, takie jak optyka adaptacyjna do Słońca i obserwacje UV o wysokiej rozdzielczości, które prawdopodobnie będą dostępne w niedalekiej przyszłości, prawdopodobnie wyjaśnią sytuację. Istnieją większe struktury widoczne szczególnie dobrze w liniach ultrafioletowych, takich jak linia He+ Lyα przy 30,4 nm, które są podobne w zachowaniu do spikuli. Są one określane jako "super-spikule" i są najczęściej widoczne na wysokich szerokościach geograficznych Słońca. Próby powiązania tych struktur z obrazami H? chromosfery i protuberancji nie powiodły się. Czasami wyjątkowo długie spikule w Hα są również widoczne w regionach polarnych Słońca. Zostały nazwane "makro-spikule". Niewiele wiadomo na temat zachowania i pochodzenia tych większych struktur.
Chromosfera: Bifurkacja termiczna
Bifurkacja termiczna odnosi się do istnienia "chłodnych chmur" gazu (T < 3500 K) na dużych wysokościach w atmosferze słonecznej, w obrębie tego, co uważano za jednolicie gorącą (T ∿ 7000 K) CHROMOSFERĘ. Odnosi się również do niestabilności chłodzenia, promowanej przez cząsteczki tlenku węgla, która działa w miejscach, w których mechaniczne ogrzewanie chromosfery jest słabe. Chłodne chmury odkryto dzięki anomalnemu zaciemnieniu silnych linii absorpcyjnych CO o długości 4,7 μm w pobliżu skrajnego brzegu; po raz pierwszy rozpoznano je na początku lat 70. XX wieku, a ostatnio potwierdzono w zaskakujących emisjach poza brzegiem pasm podczerwonych CO. Ponieważ tlenek węgla jest zarówno głównym czynnikiem diagnostycznym chłodnego gazu, jak i możliwym czynnikiem przyczyniającym się do jego powstawania, niskotemperaturowe wypukłości do chromosfery zostały uznane za "COmosferę". Podstawowa przyczyna chłodnego gazu i to, jaką część objętości niskiej chromosfery może on zajmować, pozostają kontrowersyjne.
Tło
Na początku lat 70. R W Noyes i D N B Hall zgłosili dziwnie obniżone temperatury jasności absorpcji tlenku węgla w widmach podczerwonych (4,7 μm) wykonanych blisko krawędzi tarczy słonecznej. "Chłodne rdzenie" linii CO - tak niskie jak 3700 K - były zaskakujące, ponieważ były tak chłodne, jak najniższe temperatury, jakie uważano za występujące w PLAMACH SŁONECZNYCH, prawdopodobnie najchłodniejszych cechach atmosfery słonecznej. Noyes i Hall zauważyli również uderzające wahania intensywności linii CO w podczerwieni, prawdopodobnie w zgodzie z kompresjami wysokościowymi i rozrzedzeniami spowodowanymi przez globalne oscylacje trybu p. W tym czasie rozwinęła się kontrowersja, czy minimalna temperatura u podstawy inwersji temperatury chromosfery była tak wysoka jak 4400-4500 K wskazywane przez Ca II 393 nm i Mg II 279 nm, czy też 4200 K sugerowane przez natężenia kontinuum zarówno w obszarach dalekiego ultrafioletu, jak i submilimetrowych. Podczas debaty Tmin, ciekawe odkrycie Noyesa i Halla zostało odrzucone jako nieistotna osobliwość. Sami autorzy przypisywali ciemne jądra silnych linii CO efektowi związanemu z wąskimi, chłodnymi pasami subdukcji wzoru granulacji fotosfery. W wielu umysłach anomalie temperatur CO były zatem związane z małoskalowym zjawiskiem SŁONECZNEJ FOTOSFERY, o wątpliwym znaczeniu dla globalnej atmosfery, a z pewnością nie dla nadległej chromosfery. Pod koniec lat 70. XX wieku w Kitt Peak uruchomiono nowy, potężny przyrząd optyczny i podczerwony - spektrometr transformaty Fouriera (FTS) o długości fali 1 m. Debata na temat Tmin ponownie rozbudziła zainteresowanie alternatywnymi sposobami śledzenia rozwarstwienia termicznego zewnętrznej fotosfery. T.R. Ayres (zwolennik "gorącego" Tmin) i L Testerman ponownie przyjrzeli się anomalnemu zachowaniu skrajnych krawędzi linii CO, przekonani, że pomiary FTS o wysokiej precyzji doprowadzą pasma CO v = 1 do zgodności z innymi proxy Tmin. Jednak Ayres i Testerman nie tylko potwierdzili wcześniejszy wynik Noyesa i Halla, ale także doszli do wniosku, że anomalię CO można wyjaśnić w najbardziej naturalny sposób, dodając nową warstwę do atmosfery słonecznej; wszechobecny zimny składnik nakładający się na dolne partie tradycyjnej gorącej chromosfery. Równocześnie Ayres zaproponował wyjaśnienie nietypowego chłodnego gazu wysokogórskiego. Jego mechanizm "bifurkacji termicznej" był rozwinięciem kluczowej roli radiacyjnego chłodzenia powierzchni CO - czegoś w rodzaju odwróconego efektu cieplarnianego - pierwotnie opisanego niezależnie przez T. Tsuji i HR Johnsona w kontekście fotosfer czerwonych olbrzymów. Pomysł jest następujący. Przejścia wibracji-rotacji CO bardzo wydajnie zamieniają energię zderzeń gazu na fotony podczerwone. Te fotony, które uciekają z tego obszaru, zabierają energię cieplną i w ten sposób chłodzą gaz. Gdy w zewnętrznych warstwach fotosfery występuje niewielkie lub żadne mechaniczne ogrzewanie, silne chłodzenie powierzchni w pasmach CO o długości 4,7 μm powoduje przejście gazu do stanu niskiej temperatury, równoważąc łagodne ogrzewanie w kontinuum H? (optycznie cienka absorpcja głównie widocznych fotonów z tła pola promieniowania fotosfery). Jeśli jednak na niewielką składową radiacyjną zostanie wprowadzona niewielka ilość mechanicznego ogrzewania, gaz się ogrzeje, a cząsteczki CO zaczną się dysocjować. Utrata CO zmniejsza chłodzenie, co prowadzi do dodatkowego ocieplenia i dalszej dysocjacji. Następujący po tym termiczny niepokój ("katastrofa grzewcza") zatrzymuje się dopiero powyżej około 6000 K, gdzie częściowa jonizacja wodoru uwalnia wystarczającą ilość elektronów, aby zderzając się pobudzić wysokotemperaturowe gatunki chłodzące, takie jak Ca+ i Mg+. Jeśli następnie mechaniczne ogrzewanie zostanie usunięte, gaz najpierw ochładza się do temperatury granicznej H? (∿4900 K), w którym to momencie zaczyna się tworzyć CO, co dalej chłodzi gaz; tworzy się więcej CO itd., co prowadzi do "katastrofy chłodzącej", która przywraca region do niskotemperaturowej gałęzi "rozwidlonego" bilansu energetycznego. W tym ujęciu zewnętrzna atmosfera Słońca może istnieć w dwóch dość różnych stanach termicznych - jeden zimny, drugi gorący - w zależności od ilości lokalnie zdeponowanej energii mechanicznej. Mechanizm rozgałęzienia termicznego naturalnie działa tylko na dużych wysokościach; gdy pasma CO v = 1 staną się optycznie grube, fotony podczerwone są uwięzione w regionie źródłowym, a chłodzenie radiacyjne jest silnie tłumione. Na obrazie bifurkacji termicznej klasyczna gorąca chromosfera jest ograniczona do małych przegrzanych struktur skąpanych w wszechobecnej chłodnej warstwie wysokogórskiej blisko równowagi radiacyjnej.
Interfejs fotosfera-chromosfera
Klasyczny obraz, zilustrowany na lewym panelu, to warstwowanie równoległe do płaszczyzny; hierarchia odrębnych warstw, kontrolowana przez różne budżety energii, ale przez którą temperatura przebiega płynnie. Warstwowa atmosfera przedstawia zidealizowaną odpowiedź hydrostatycznie rozwarstwionego gazu, w którym mechaniczne ogrzewanie jest równomierne poziomo i zmienia się powoli wraz z wysokością. Kluczowe warstwy i ich wzajemne powiązania opisano w innym miejscu w tym tomie. Nowy paradygmat - struktury - zilustrowano po prawej stronie rysunku . Nie jest on wcale nowy, ale istniał w tej czy innej formie od czasu, gdy pierwsze zdjęcia chromosfery i korony o wysokiej rozdzielczości przestrzennej zostały wykonane dziesiątki lat temu. Zbiór pól magnetycznych - zorganizowanych w hierarchię pętlopodobnych cech - stanowi KORONĘ. Jej spód kończy się baldachimem, zajmującym to, co wcześniej nazywano górną chromosferą. Sam baldachim jest dalej zakorzeniony głównie w sieci supergranulacji przez smukłe lejkowate rurki strumieniowe. Przenikają one w dół przez fotosferę do strefy konwekcyjnej, ostatecznie łącząc się z głębokim obszarem źródłowym strumienia magnetycznego. Interakcje między splątanymi polami w i nad baldachimem powodują lokalne zdarzenia wybuchowe śledzone przez strumienie o dużej prędkości w liniach dalekiego ultrafioletu. Większość emisji "chromosferycznej" powstaje w baldachimie, przeplatana ciepłym gazem o dużych kontrastach gęstości poziomej. Dodatkowe wkłady pochodzą z przedłużeń rur strumieniowych w dół, które są najwyraźniej gorętsze niż otaczające "ciche" medium przynajmniej do środkowej fotosfery. Trzeci składnik powstaje z błysków komórek u podstawy baldachimu. Te przejściowe zdarzenia są powszechnie widoczne we wnętrzach komórek supergranulacji. Uważa się, że są one spowodowane przez skierowane na zewnątrz zaburzenia akustyczne, które stają się strome i tworzą wstrząsy na dużych wysokościach. Baldachim jest wszechobecny, a jego prążki gęstości można prześledzić na filtrogramach Hα. Składniki błysku komórkowego i tuby strumienia na małej wysokości są zwarte, co powoduje powstawanie odpowiednio przejściowych i trwałych jasnych punktów na spektroheliogramach Ca K 393 nm. Pomiędzy górną fotosferą (h ∿ 500 km) a podstawą baldachimu (h ∿ 1000 km) znajduje się COmosfera, wspomniana wcześniej chłodna strefa, zastępująca to, co historycznie określano jako niską chromosferę. Istotne aspekty zjawiska bifurkacji termicznej zostały zweryfikowane pod koniec lat 80. w serii modeli ab initio atmosfer słonecznych skonstruowanych przez L. Andersona i R. G. Athaya. Autorzy odkryli, że bardzo niskie temperatury (T < 3000 K) są możliwe na dużych wysokościach (gdzie dominuje chłodzenie CO); strefa chłodzona CO może przetrwać w obliczu niskiego poziomu mechanicznego ogrzewania, ale znika nagle, gdy ogrzewanie przekroczy poziom krytyczny. Jednocześnie symulacje radiacyjne 2D hydrodynamiczne konwekcji z chłodzeniem CO na dużych wysokościach, przeprowadzone przez M. Steffena i .D Muchmore′a, wykazały również, że silna emisja powierzchniowa w pasmach Δv = 1 może utrzymać zimną (T ≾ 3000 K), poziomo jednorodną warstwę powyżej klasycznego Tmin w obliczu fluktuującego pola promieniowania ziarnistego i przestrzelenia. Poza Słońcem mechanizm bifurkacji termicznej został rozpoznany jako jeden aspekt bardziej ogólnego zjawiska autokatalitycznych "katastrof chłodzenia molekularnego". Działają one w różnych środowiskach kosmicznych; na przykład napędzając fragmentację i zapadanie się obłoków molekularnych lub tworząc ziarna krzemianowe w rozdętych zewnętrznych otoczkach czerwonych nadolbrzymów.
Aktualne badania
W 1992 roku, zainspirowane rosnącym zainteresowaniem fizyką słoneczną w podczerwieni - nie tylko kontrowersją wokół CO, ale także głównymi korzyściami dla badań pola magnetycznego - Narodowe Obserwatorium Słoneczne (NSO) zainstalowało dużą kratę podczerwieni w 13,8-metrowym głównym spektrografie 1,5-metrowego teleskopu McMath-Pierce. Krata mozaikowa, jedna z największych na świecie, została uratowana z wycofanego z użytku poziomego spektrografu podczerwieni, w którym Noyes i Hall przeprowadzili swoje pionierskie obserwacje pasm CO 4,7 μm dwie dekady wcześniej.
Emisje poza granicami
W kwietniu 1993 r., w dniu szczególnie dobrej widoczności podczas testów inżynieryjnych na nowo odnowionym spektrografie, W Livingston z personelu NSO odkrył niezwykłe emisje poza granicami linii CO. Granica odpowiada punktowi na rzutowanym dysku Słońca, w którym linia widzenia staje się przezroczysta w kontinuum; w ten sposób intensywność tła zanika. Linie CO mogą emitować poza "krawędzią" kontinuum, jeśli nadal są optycznie grube wzdłuż ścieżki promienia: promieniujące cieplnie - choć chłodne - linie CO świecą na tle zasadniczo ciemnego nieba. (Na dysku blask gorącego promieniowania kontinuum powoduje, że chłodne jądra CO pojawiają się w "absorpcji"). Obserwacja wykazała bezpośrednio, że gaz cząsteczkowy musi występować znacznie powyżej wysokości, na której konwencjonalne modele umieszczają inwersję temperatury chromosfery; symulacje sugerują, że chłodny gaz występuje prawdopodobnie do 1000 km. Rysunek 2 przedstawia emisje poza granicami w obszarze 4,67 ?m. Obserwacje uzyskano rano 9 maja 1996 r. przy bezchmurnym niebie i umiarkowanie dobrej widoczności. Zostały one pozyskane za pomocą systemu kamery kriogenicznej z długą szczeliną, który zastąpił skaner jednokanałowy używany przez Livingstona. Szczelina spektrografu została umieszczona w poprzek północnego brzegu, prostopadle do niego. Rysunek przedstawia współaddycję pięciu najostrzejszych spektrogramów z serii 1000 krótkich ekspozycji.
Współaddycyjna klatka została podzielona przez średni ślad widmowy na dysku w celu znormalizowania intensywności i stłumienia absorpcji z atmosfery Ziemi. Linie CO to pagórki emisji, rozciągające się poza jasną krawędź kontinuum, na rysunku (góra); każdy "wypukły" odpowiada pojedynczemu przejściu CO, wszystkie obserwowane jednocześnie, w tym samym punkcie brzegu. Rysunek (dół) przedstawia rozszerzenia translimb, mierzone bin po bin w całym widmie; "0" odnosi się do widocznej krawędzi kontinuum. Chociaż maksymalne przemieszczenia w rdzeniach najsilniejszych linii CO (∿0,7 ) stanowią jedynie połowę efektywnej rozdzielczości instrumentalnej (z powodu widzenia, dyfrakcji i rozpraszania), można je dokładnie zmierzyć w odniesieniu do kontinuum. (W ten sam sposób, w jaki maleńkie paralaksy - setne części sekundy łuku - można zmierzyć na płytkach o rozdzielczości przestrzennej nie lepszej niż 1 sekunda łuku). Emisje CO poza gałęzią gromadzą się wzdłuż ogromnej długości ścieżki przez niską chromosferę. Mówią nam bezpośrednio, że gdzieś wzdłuż linii widzenia znajduje się jakiś chłodny gaz, ale nie gdzie ani ile. Kluczowym pytaniem jest, jak szeroko rozpowszechniony jest naprawdę chłodny gaz.
Mapy powierzchniowe temperatury i prędkości
Dzięki sekwencyjnemu przesuwaniu teleskopu McMath-Pierce, nowy system kamer z długą szczeliną pozwala na zbudowanie map pasmowych kluczowych parametrów linii CO: centralnej intensywności absorpcji (związanej z temperaturą powierzchni), przesunięcia Dopplera (miara prędkości w linii wzroku) i poszerzenia linii (śledzenie lokalnej turbulencji). Skanowanie przestrzenne można wykonywać wielokrotnie, aby tworzyć "filmy". Pierwsze użycie nowego systemu do obrazowania widmowego CO nastąpiło w październiku 1993 r. przez H. Uitenbroeka, R. Noyesa i D. Rabina. Dodatkowe mapowanie termiczne i prędkości CO zostało przeprowadzone przez T. Ayresa i D. Rabina następnej wiosny. Oba badania wykazały, że widoczna mozaikowa kołdra przestrzennych zmian jasności CO jest związana głównie ze wzorem interferencji oscylacji, szczególnie na dużych wysokościach (tj. w silnych liniach CO). Od czasu do czasu obserwowano trwałe "jasne punkty" CO, pokrywające się z fragmentami sieci Ca K (obszary silnego pola magnetycznego rozmieszczone wzdłuż punktów stagnacji dużego poziomego wzoru przepływu supergranulacji). W żadnym z badań nie znaleziono dowodów na znaczną populację bardzo ciemnych punktów. Ten brak ogranicza alternatywne wyjaśnienia anomalnego ściemnienia krawędzi pasm CO.
Jak powszechny jest chłodny gaz?
Aby odtworzyć skrajne ściemnienie krawędzi i emisje poza krawędzią rdzeni linii CO, wymagany jest albo (1) chłodny materiał o wysokim współczynniku wypełnienia (powiedzmy ∿80%) na dużych wysokościach, albo (2) mniejsza frakcja pokrycia (powiedzmy ∿20%) znacznie zimniejszych struktur. W pierwszym przypadku zachowanie intensywności jest kontrolowane wszędzie przez wszechobecny chłodny składnik, a obraz patrzący prosto w dół na powierzchnię Słońca powinien wydawać się stosunkowo łagodny i bez cech charakterystycznych, poza stosunkowo niewielkimi fluktuacjami spowodowanymi wzorem trybu p. W drugim przypadku izolowane zimne, ale poprzecznie nieprzezroczyste "filary" dominują tylko w pobliżu krawędzi, gdzie skutecznie "zacieniają" wszelkie gorące struktury (te ostatnie są naturalnie przezroczyste w CO). W centrum dysku jednak zimne obszary (z T ∿1000 K) powinny ukazywać się jako małoskalowe "ciemne plamy" ze współczynnikiem wypełnienia ∿20%. Jak dotąd - w ramach stałej rozdzielczości kilku sekund łuku spotykanej w dobrych warunkach w Kitt Peak - nie zaobserwowano niczego, co choć trochę przypominałoby oczekiwane rozsypywanie ciemnych punktów. Przeciwny scenariusz - wszechobecna COmosphere - wydaje się zatem bardziej obiecujący.
Dynamiczna COmosfera?
Alternatywny pogląd na COmosferę zaproponowali M. Carlsson i R. F. Stein. Jednowymiarowe symulacje radiacyjno-hydrodynamiczne sugerują, że zakres wysokości 500-1000 km może znajdować się w ciągle ewoluującym stanie termicznym z powodu przejścia stromych ciągów fal akustycznych z dołu. Przy tak niskich gęstościach skale czasowe formowania chemicznego CO są długie. Populacja cząsteczkowa nie może reagować na chwilowe zaburzenia temperatury, ale zamiast tego osiąga równowagę opartą na średnim czasowo profilu termicznym (dość chłodnym w modelu Carlssona i Steina). Takie ustalone tło CO, występujące w zmieniającym się środowisku termicznym, może być w stanie wyjaśnić emisje poza krawędzią i ekstremalne zaciemnienie krawędzi linii podczerwonych Δv = 1. Jednocześnie można by zarejestrować znaczące uśrednione w czasie sygnatury ultrafioletowe z tej samej objętości przestrzennej (głównie z pików o wysokiej temperaturze, ze względu na wykładniczą wrażliwość emisji termicznej (funkcja Plancka) przy krótkich długościach fal). Drugie wyjaśnienie dynamiczne zaproponowali H Uitenbroek i R Noyes. Sugerują, że COmosfera jest produktem ubocznym ekspansywnego chłodzenia konwekcyjnych granulek, które przelatują przez stabilne warstwy wysokiej fotosfery. Obserwacyjne konsekwencje tych propozycji powinny być dalej badane. Ponadto chemia CO (i chłodzenie) powinny zostać uwzględnione w symulacjach dynamicznych.
Implikacje
Ostatecznie COmosfera jest najprawdopodobniej stosunkowo pasywną strefą zewnętrznej atmosfery, w rzeczywistości jedynie zewnętrznym przedłużeniem fotosfery. Jej znaczenie przejawia się w sposobie przypisywania aktywności radiacyjnej różnych poziomów atmosfery w globalnej ocenie budżetu energetycznego. Gęstość gazu jest duża w zakresie 500-900 km w porównaniu z wyżej położoną strefą korony. Ponieważ chłodzenie radiacyjne zależy od ∿n2, zakres wysokości pośredniej odgrywa strategiczną rolę w budżecie energetycznym. Można sobie wyobrazić, że obliczenie całkowitych strat radiacyjnych (które muszą równoważyć ogrzewanie wejściowe, a zatem są jego przybliżeniem) przyniesie zupełnie inne odpowiedzi, jeśli nastąpi wzrost temperatury w tych warstwach (klasyczna chromosfera) w porównaniu ze spadkiem temperatury (COmosfera). Jeśli model termiczny jest stronniczy, możliwe są duże błędy w wnioskowanym wejściu energii mechanicznej. (Źródło ogrzewania chromosferycznego jest od dawna tajemnicą w fizyce słoneczno-gwiazdowej). Na koniec należy wspomnieć, że efekty bifurkacji termicznej są stosunkowo słabe w gwiazdach typu G, takich jak Słońce, i prawdopodobnie nie występują wśród cieplejszych typów F. Dzieje się tak, ponieważ przy krytycznym Teff, o kilkaset kelwinów cieplejszym niż temperatura słoneczna, temperatura graniczna H? staje się zbyt wysoka, aby populacja zarodkowa cząsteczek CO mogła się utworzyć i wywołać kaskadę chłodzenia. Odwrotnie, mechanizm ten staje się coraz ważniejszy w kierunku późniejszych klas widmowych, szczególnie widocznych wśród chłodnych czerwonych olbrzymów o niskiej grawitacji.
Podsumowanie
Kiedyś uważano, że rozwarstwienie atmosfery słonecznej jest dobrze zrozumiane, na podstawie bogatej diagnostyki ultrafioletowej i optycznej. Jednak w ciągu ostatnich dwóch dekad badania widm molekularnych w podczerwieni ujawniły niepokojące anomalie. Mocne linie 4,7 μm podstawowych pasm tlenku węgla wykazują bardzo chłodne temperatury jasności na skrajnym skraju i ciekawe emisje poza skrajem, wystające setki kilometrów w rzekomo gorącą chromosferę. Prosta - ale kontrowersyjna - propozycja jest taka, że niska chromosfera wcale nie jest gorąca, ale zamiast tego jest przesiąknięta chłodzonymi CO "chmurami", COmosferą, jeśli wolisz.
Klasyfikacja widm gwiazdowych
Jak naukowcy podchodzą do problemu próby zrozumienia niezliczonych miliardów obiektów? Jednym z pierwszych kroków jest uporządkowanie danych i opracowanie schematu klasyfikacji, który może zapewnić najlepszy wgląd w naturę obiektów. Percepcja i wgląd są głównymi celami klasyfikacji. W astronomii, gdzie istnieją "miliardy i miliardy" gwiazd, klasyfikacja jest ciągłym procesem, a nowe odkrycia są albo włączane do schematu klasyfikacji, albo pozostają izolowane jako osobliwości warte dalszych badań. Wraz z nowymi teleskopami i nowymi detektorami otwierającymi nowe okna na wszechświat, potrzeba klasyfikacji prawdopodobnie będzie nadal stanowić niezbędny składnik postępu astronomicznego. Gdybyśmy mogli szybko podróżować między gwiazdami, najpierw zauważylibyśmy ich rozmiar, kolor i jasność powierzchni. Będąc przywiązani do Ziemi, możemy zobaczyć tylko Słońce w szczegółach, ale istnieje wiele różnych kryteriów, których możemy użyć do klasyfikowania gwiazd i innych obiektów: położenie, jasność, polaryzacja, kolor, widmo, jasność powierzchni, ruch i zmienność. Spośród nich widmo dostarcza najwięcej informacji o naturze gwiazdy. Astronomia nie jest nauką eksperymentalną, pomimo opowieści o porwaniach przez kosmitów. W przeciwieństwie do większości naukowców astronomowie są ograniczeni do obserwacji z odległości. Gwiazd i galaktyk nie można podgrzewać palnikiem Bunsena; nie można dodawać do gwiazdy substancji chemicznych, aby dowiedzieć się czegoś na temat reakcji. Eksperymenty kosmiczne się zdarzają, ale ich czas jest przypadkowy, więc obserwator musi być cierpliwy i obserwować, nie mając wyboru co do parametrów zdarzenia. Aby zmaksymalizować szanse na uchwycenie eksperymentu kosmicznego, przeprowadzono i nadal będą przeprowadzane duże badania gwiazd i galaktyk. Ze względu na tę potrzebę uporządkowania dużych zbiorów danych obserwacyjnych, W. W. Morgan z Obserwatorium Yerkes na Uniwersytecie w Chicago opracował wyrafinowaną filozofię klasyfikacji, którą nazwał "Proces MK". Co ciekawe, rozwój astronomii wyprzedził myślenie bawarskiego filozofa Ludwiga Wittgensteina na temat wykorzystania okazów w klasyfikacji (Wittgenstein 1953). Najważniejszą funkcją systemu klasyfikacji jest zapewnienie ogólnego układu odniesienia, w którym można dopasować większość badanych obiektów. Statystyki oparte na schemacie klasyfikacji mogą zapewnić potężne spostrzeżenia na temat natury rozważanych obiektów. Trendy można zaobserwować wśród normalnych obiektów, a rzadkie lub patologiczne obiekty można łatwo zidentyfikować. Izolowanie osobliwości jest również ważne w astronomii, ponieważ szczegółowe badanie osobliwych gwiazd często dostarcza nowych spostrzeżeń na temat natury i zachowania normalnych gwiazd. Klasyfikacja jest podstawą naszego zrozumienia gwiazd i EWOLUCJI GWIAZD. Oprócz opracowania ogólnego układu odniesienia i rozróżniania osobliwych widm, techniki klasyfikacji można bardzo skutecznie stosować do określania odległości do gwiazd. Chociaż metoda ta jest określana jako "paralaksa spektroskopowa", nazwa ta jest myląca, ponieważ technika ta nie wykorzystuje bezpośrednio rzeczywistej PARALAKSY trygonometrycznej. Opiera się na założeniu, że gwiazdy o podobnym widmie mają podobne podstawowe parametry. To założenie pozwala astronomom wykorzystywać pobliskie gwiazdy o dobrych paralaksach trygonometrycznych do zapewnienia kalibracji, którą można następnie zastosować do odległych gwiazd o podobnym widmie. Do niedawna umiarkowanie gorące lub duże gwiazdy, które należą do najwyraźniej najjaśniejszych gwiazd ze względu na ich wewnętrzną jasność, ale które w rzeczywistości są znacznie rzadsze na jednostkę objętości niż gwiazdy takie jak Słońce, nie miały odpowiedników wystarczająco blisko, aby technika paralaksy trygonometrycznej była skuteczna, więc opracowano metody pośrednie. Pośrednie metody obejmują wykorzystanie PODWÓJNYCH GWIAZD i GROMAD GWIAZD do bootstrappingu z powszechnych gwiazd o znanych odległościach do rzadkich gorących, WYSOKIEJ JASNOŚCI GWIAZD, przyjmując takie same odległości dla członków gromady. Korzystając z danych z satelity astrometrycznego HIPPARCOS, możliwe jest teraz rozszerzenie kalibracji odległości o współczynnik 10, co pozwala na bezpośrednie kalibracje czerwonych i żółtych olbrzymów, a także wielu gwiazd gorętszych od Słońca; jednak nadolbrzymy i najgorętsze gwiazdy nadal pozostają poza zasięgiem wysokiej jakości paralaks trygonometrycznych. Do kalibracji jasności tych rzadkich, ale jasnych gwiazd nadal stosuje się techniki dopasowania układów podwójnych i gromad. Proces stosowany do klasyfikacji polega na porównaniu nieznanego widma ze znanymi widmami dobrze zbadanych gwiazd standardowych (okazów), przy użyciu technik rozpoznawania wzorców obejmujących wszystkie cechy w widmie gwiazdowym. Gdy używa się widm dobrej jakości i nieznana gwiazda jest starannie porównywana z dobrym zestawem gwiazd standardowych, możliwe jest uzyskanie bardzo wiarygodnych i pouczających wyników. Słabe wyniki są zazwyczaj spowodowane niewystarczającą lub nieodpowiednią siatką widm gwiazd standardowych.
Historia klasyfikacji widm gwiazdowych
Ojciec ANGELO SECCHI (1818-78), astronom jezuita pracujący w latach 60. XIX wieku w Obserwatorium Watykańskim, jako pierwszy przedstawił ogólny schemat klasyfikacji widm gwiazdowych. Obserwował tysiące gwiazd za pomocą wizualnego spektroskopu i małych teleskopów (apertura 15-25 cm), ale jego obserwacje nie były fotograficzne, więc niebiesko-fioletowy obszar widma nie był widoczny, głównie dlatego, że ludzkie oko nie jest zbyt wrażliwe na głęboko niebieskie długości fal. Najchłodniejsze gwiazdy dominują w jego schemacie klasyfikacji, tworząc dwie z czterech jego klas, częściowo dlatego, że należą do najwyraźniej najjaśniejszych gwiazd w wizualnym obszarze widma, a częściowo ze względu na uderzający wygląd ich pasm molekularnych. Współcześnie jego cztery klasy to:
I. gwiazdy gorętsze od Słońca,
II. gwiazdy podobne do Słońca,
III. gwiazdy chłodniejsze od Słońca z pasmami absorpcji tlenku tytanu w żółtych i czerwonych obszarach widma oraz IV. gwiazdy chłodniejsze od Słońca z pasmami absorpcji cząsteczkowej węgla w żółtych i czerwonych obszarach widma.
Gwiazdy klasy IV można łatwo odróżnić od gwiazd klasy III po ich bardziej czerwonym kolorze, położeniu pasm i wyglądzie pasm węglowych, które zanikają w kierunku przeciwnym do pasm tlenku tytanu. Pod koniec XIX wieku Edward C. Pickering i inni zdali sobie sprawę z wagi widm fotograficznych i teleskopów z pryzmatami obiektywowymi do klasyfikowania bardzo dużej liczby gwiazd przy użyciu jednolitego schematu ze spójnymi kryteriami. Projekt "HD" w Harvard College Observatory był sponsorowany przez Henry&pirme;ego Drapera i realizowany głównie przez ANNIE JUMP CANNON, która do połowy lat dwudziestych sklasyfikowała ponad ćwierć miliona gwiazd w jednorodnym, jednowymiarowym układzie. System HD, który obecnie mniej więcej odpowiada skali temperatur współczesnej astronomii, pierwotnie opierał się głównie na sile linii wodorowych, a typy były przypisywane w kolejności alfabetycznej: A, B, C, …Później, gdy odkryto, że linie wodorowe osiągają maksymalną siłę (gwiazdy typu A) w temperaturach niższych niż w przypadku gwiazd typu B i gwiazd typu O, a także, że niektóre litery są zbędne, kolejność liter zmieniono na kolejność stosowaną obecnie dla układu odniesienia temperatury: OBAFGKM(SRN). Typy SRN są w nawiasach, ponieważ ich temperatury są równoległe do gwiazd GKM, a widma różnią się składem chemicznym, a nie temperaturą. Istnieją różne mnemoniki opracowane dla (i przez) studentów, aby pomóc zapamiętać kolejność, ale najpopularniejszą jest "Oh, Be A Fine Girl (Guy), Kiss Me Sweetly Right Now". Dr Nancy Houk z University of Michigan reklasyfikuje wszystkie gwiazdy katalogu HD w dwuwymiarowym układzie MK. Również na Harvardzie Antonia Maury wyodrębniła klasę osobliwych gwiazd, które sklasyfikowała, umieszczając małą literę "c" przed klasą temperatury. Jej ważny wgląd stał się podstawą drugiego wymiaru, który odpowiada grawitacji powierzchniowej i jest związany z jasnościami gwiazd. Zaproponowano wiele innych systemów, ale większość z nich jest przeznaczona do klasyfikacji gwiazd w określonych regionach DIAGRAMU HERTZSPRUNGA-RUSSELLA i jest wykorzystywana z korzyścią tylko w tej części diagramu HR. System BCD Barbiera, Chalonge′a i Divana, który mierzy skok Balmera bezpośrednio, jest dobrym przykładem; jest skuteczny w swoim celu, ale nie nadaje się jako ogólny układ odniesienia. Inne z różnych powodów nie uzyskały szerokiej akceptacji. System Mount Wilson opracowany przez Adamsa w latach 30. XX wieku jest innym przykładem; w tym przypadku kalibracja była używana do klasyfikacji, więc parametry zmieniały się za każdym razem, gdy wprowadzano nowy model. System Adamsa stał się bardzo uciążliwy i nieefektywny. Więcej historycznych przykładów można znaleźć w artykule Kurtza w The MK Process oraz w doskonałej historii spektroskopii autorstwa Hearnshawa 1986: The Analysis of Starlight. W Obserwatorium Yerkes Uniwersytetu Chicagowskiego w 1943 r. WW Morgan, P C Keenan i E Kellman zaproponowali system klasyfikacji widm gwiazd znany jako "system MKK". "System MK" (zrewidowany przez Morgana i Keenana w 1953 r. na podstawie MKK) jest praktycznie jedynym powszechnie używanym obecnie ogólnym układem odniesienia. Jego sukces w dużej mierze wynika z filozofii klasyfikacji opracowanej przez W W Morgana - procesu MK, którego układ MK jest podzbiorem.
System MK
Systemy klasyfikacyjne są tworzone z jakiegoś powodu. Używając konkretnego systemu, ważne jest, aby być świadomym, dlaczego został stworzony, jak został skonstruowany, jakie są jego użyteczne granice, jak ewoluował i jaką wiarygodność osiągnął. Łącznie odpowiadają one mandatowi systemu. Mandatem systemu MK jest opisanie niebiesko-fioletowego obszaru widma gwiazdy w kategoriach zestawu standardowych gwiazd, bez odwoływania się do fotometrii, teorii lub innych informacji. Wartość oddzielenia systemu MK od fotometrii i teorii początkowo polega na tym, że na styku dwóch niezależnych systemów znajdują się informacje, które są tracone, jeśli jednemu systemowi pozwoli się wpływać na drugi. Znacznie bardziej produktywne jest porównanie dwóch autonomicznych systemów, zakładając, że oba są starannie wykonane, niż deklarowanie wyższości jednego lub drugiego. Na przykład nie ma relacji jeden do jednego między fotometrią a widmem, chociaż ogólnie rzecz biorąc systemy są skorelowane i mogą być używane do kalibracji. Innym przykładem jest teoria, która obejmuje wiele upraszczających założeń i ciągle ewoluuje (jak powinna). W tym przypadku wyprowadzone parametry zmieniają się wraz z nowymi postępami w modelach, więc najlepiej nie mieszać teorii i klasyfikacji a priori. Użycie współczynników siły linii pomaga w porównywaniu widm i umożliwia wysoki poziom rozróżniania typów widmowych i klas jasności. System MK wykorzystuje następującą nomenklaturę.
(a) Sekwencja harwardzka (OBAFGKMSRN) jest zachowana dla głównych podziałów osi temperatury , aby zachować pewną ciągłość z wielką pracą Henry Draper Catalog. Gwiazdy typu O są najgorętsze i najmasywniejsze, podczas gdy gwiazdy M są najchłodniejsze. Wiemy teraz, że gwiazdy węglowe (R i N) mają mniej więcej taką samą temperaturę jak gwiazdy G, K i M, z wyjątkiem tego, że stosunek węgla do tlenu jest odwrócony, a gwiazdy S mają podobne temperatury do gwiazd M, z wyjątkiem tego, że wykazują pasma absorpcji ZrO.
(b) Po każdej literze następują podziały 0-9, z wyjątkiem gwiazd typu O, dla których O3 jest najgorętszym typem.
(c) Dodano klasę związaną z jasnością, reprezentującą pośrednio absolutną jasność gwiazdy, jak wskazują cechy wrażliwe na grawitację powierzchniową i mikroturbulencje. Cyfry rzymskie są używane do reprezentowania klasy jasności, w tym sensie, że superolbrzymy to I, olbrzymy to III, a gwiazdy ciągu głównego (zwane karłami, chociaż są podobne do Słońca) to V . Czasami podziały a, ab i b są używane do uściślenia klasyfikacji jasności w tym sensie, że ab jest środkiem pola, a a należy do najjaśniejszych gwiazd w polu.
(d) Nie ma pojedynczego trzeciego wymiaru reprezentującego obfitość, ponieważ w gwiazdach osobliwych pierwiastki mogą być indywidualnie dotknięte. Tak więc osobliwość jest oznaczana symbolem pierwiastka (Fe, Ba, C, CH, CN itd.), po którym następuje liczba 1-5, która jest dodatnia dla nadmiaru i ujemna dla niedoboru.
(e) Gdy w klasie osobliwej jest wystarczająco dużo okazów, definicja "normalnego" może zostać rozszerzona o nie. Tak było w przypadku superolbrzymów, szybko rotujących gwiazd, gwiazd linii emisyjnej i innych. Tak więc w klasyfikacjach używa się kilku dodatkowych symboli. Kilka przykładów zilustruje zasady. Szybkie rotatory są oznaczane literami n lub nn, w zależności od szybkości obrotu. Gwiazdy z liniami wodoru w emisji są oznaczone literą e, co oznacza szczegółowy opis widma gwiazdy w notatkach; ponieważ linie emisyjne są zwykle zmienne w skalach lat, szczegóły nie są podane w ogólnym typie widmowym, ale raczej w notatkach, wraz z datą. Gorące gwiazdy typu O z helem, węglem, azotem lub tlenem w emisji są oznaczone literą f. Bardzo gorące gwiazdy tracące masę w zawrotnym tempie są klasyfikowane jako GWIAZDY WOLFA-RAYETA (WR).
(f) Jeśli gwiazda w ogóle nie pasuje do układu, nadaje się jej oznaczenie standardowego okazu, który najbardziej do niej pasuje, i dołącza się literę p, co oznacza osobliwą (i prawdopodobnie szczególnie interesującą) gwiazdę. Osobliwość jest następnie opisana w notatce.
(g) Typowe przykłady klasyfikacji są następujące: G2 V (klasyfikacja Słońca), oznaczająca gwiazdę o umiarkowanej temperaturze i masie, która znajduje się w stabilnym stadium syntezy wodoru w swoim życiu; M6 IIIe wskazuje na chłodną gwiazdę olbrzymkę emitującą wodór, która prawdopodobnie przekształca hel w węgiel w celu uzyskania energii, oraz B0 Ib (zbliżona do klasyfikacji gwiazdy, która później stała się supernową 1987A), reprezentująca bardzo gorącą, dużą, bardzo masywną gwiazdę, która szybko ewoluuje (mówiąc astronomicznie); K0 IIIb Fe2, CH1, CN?2 oznaczające umiarkowanie chłodną gwiazdę olbrzyma, nieco słabszą od większości olbrzymów, z mocnymi metalami (Fe2), dość silnym pasmem G (CH1), a także słabym CN; A5p (Cr, Eu) opisuje umiarkowanie gorącą gwiazdę z wyraźnymi liniami chromu i europu.
Proces MK
Sukces systemu MK wynika głównie z "procesu MK", arystotelesowskiego, indukcyjnego podejścia do klasyfikacji w ogólności, które opiera się na konkretnych okazach (standardowych gwiazdach w przypadku widm gwiazdowych) i jest niezależne od kalibracji z teorii lub fotometrii. Nie opiera się na modelach teoretycznych lub średnich, jak w podejściu platońskim, ale jest autonomiczne i opiera się na istniejących obiektach. Klasyfikacja widma gwiazdowego jest opisem w kategoriach zestawu standardowych gwiazd, więc rzeczywista klasyfikacja pozostaje taka sama, gdy kalibracja zmienia się ze względu na postęp w technikach fotometrycznych, teorii atmosfer gwiazdowych lub innych metodach określania temperatury, grawitacji powierzchniowej, struktury atmosfery lub składu chemicznego. Każde pole klasyfikacji jest reprezentowane przez jeden lub więcej okazów, a nie przez jego parametry fizyczne. Na przykład gwiazda standardowa αPsA = HD216956 reprezentuje pole A3 V w systemie MK. Widmo niesklasyfikowanej gwiazdy jest dokładnie porównywane ze widmem gwiazdy standardowej i określane jako podobne lub nie do αPsA. Jeśli jest podobne do αPsA, jest klasyfikowane jako A3 V; jeśli nie jest podobne do αPsA, jest porównywane z inną gwiazdą standardową i proces jest kontynuowany, aż do znalezienia dopasowania. Nie jest to tak żmudne, jak się wydaje, ponieważ szybkie przejrzenie widma nieznanej gwiazdy powie doświadczonemu obserwatorowi (lub programowi komputerowemu), która grupa gwiazd standardowych najprawdopodobniej pasuje. Następnie stosuje się bieżącą kalibrację pudełka, opartą na kalibracji gwiazd standardowych, w celu określenia parametrów fizycznych nieznanej gwiazdy. Przy dużej liczbie gwiazd, które zostały sklasyfikowane, byłoby koszmarem powtarzać pracę za każdym razem, gdy pojawią się nowe dane fizyczne. Wartość autonomicznej metodologii klasyfikacji polega na tym, że gdy kalibracja zmienia się z roku na rok lub z osoby na osobę, klasyfikacja nie musi być ponownie ustalana. Metodologia procesu MK przedstawia sposób rozszerzenia systemu MK poza jego definicje długości fal i standardy. Możliwe jest stworzenie nowych autonomicznych systemów, niezależnych od systemu MK i od siebie nawzajem, które obejmą nowe kategorie obiektów wewnątrz i na zewnątrz Drogi Mlecznej.
Nowe obszary długości fal: rozszerzenie klasyfikacji
Ogólnym układem odniesienia dla typów MK jest niebiesko-fioletowy obszar widma, który pierwotnie został wyznaczony przez połączenie starych spektrografów pryzmatycznych, które odcinały ultrafiolet (UV) i względną niewrażliwość emulsji żółtej, czerwonej i podczerwonej (IR) w latach 30. XX wieku. Nawet dzisiaj, z satelitami, instrumentami o wysokiej przepustowości UV i i CCD, które są bardzo czułe w czerwieni i podczerwieni, niebiesko-fioletowy pozostaje najlepszym wyborem dla ogólnego układu odniesienia, ponieważ zawiera wiele linii i pasm o szerokim zakresie wzbudzenia. Jednak w przypadku szczególnych problemów klasyfikacyjnych w szczególnych częściach diagramu HR często dużą zaletą jest użycie innych długości fal. Rozkład energii dla najgorętszych gwiazd osiąga szczyt w ultrafiolecie, gdzie występują silne linie odpowiednie do klasyfikacji gwiazd typu O i B. Kryteria klasyfikacji i atlasy zostały opublikowane przez astronomów NASA, Janet Rountree i Nolana Walborna. Widma UV są silnie zależne od utraty masy gwiazd (wiatrów) i zakłada się, że utrata masy jest skorelowana z jasnością gwiazdy, co nie zawsze jest prawdą; istnieją wyjątki. Ponadto chłodne gwiazdy nie mają dużo światła w ultrafiolecie, a ich widma UV są zdominowane przez linie chromosferyczne. Tak więc UV może być korzystnie wykorzystywane w konkretnych projektach obejmujących gorące gwiazdy, ale nie jest dobrym ogólnym układem odniesienia. Rozkład energii dla najchłodniejszych gwiazd osiąga szczyt w podczerwieni i szybko spada w kierunku niebiesko-fioletowym. IR jest najlepszym obszarem dla pasm molekularnych, które są najbardziej użytecznymi kryteriami dla chłodnych gwiazd. Jest to zaleta przy klasyfikowaniu temperatur chłodnych gwiazd, ale w podczerwieni jest bardzo mało linii atomowych, a linie z ziemskiej atmosfery silnie interferują. Niebieskie widma są potrzebne do prawidłowego określenia metaliczności, ponieważ istnieje znacznie większa różnorodność linii atomowych o różnych wzbudzeniach. Gorące gwiazdy mają mniej energii w podczerwieni, a widma są silnie zależne od materii okołogwiazdowej. Zatem IR może być korzystnie używany do konkretnych problemów związanych z chłodnymi gwiazdami, ale nie jest dobry jako ogólny układ odniesienia.
Dialekt cyfrowy
Większość atlasów klasyfikacyjnych sprzed 1980 r. była fotograficzna, ale większość prac od tego czasu była cyfrowa. Obecnie CCD są używane powszechnie. Istnieją pewne różnice w użyciu tych dwóch mediów; jednak problemy charakterystyczne dla rewolucji cyfrowej zostały rozwiązane. Podczas gdy widma fotograficzne są logarytmiczne (gęstość) i dwuwymiarowe, widma cyfrowe są liniowe i są zwykle przedstawiane jako jednowymiarowe ślady (rysunek 5). W rozpoznawaniu wzorców oko woli patrzeć na powierzchnie niż na ślady linii. Detektory cyfrowe są znacznie bardziej wydajne niż emulsje fotograficzne, chociaż obserwatorzy często niedoceniają ogólnego fotograficznego stosunku sygnału do szumu (S/N) przy określaniu równoważnego cyfrowego S/N. Najlepiej poszerzone widma fotograficzne używane do klasyfikacji mają S/N wynoszący około 200-300, więc cyfrowy odpowiednik najlepszej pracy fotograficznej powinien być podobny. Wielu obserwatorów pracuje z dużo mniejszą ilością, a dokładność ich wyników cierpi. Jednak podczas pracy z niezwykle słabymi obiektami konieczne jest pójście na kompromis. Dobre klasyfikacje cyfrowe są możliwe przy S/N = 50, a przeciętne przy S/N = 35, ale poniżej tego wyniki prawdopodobnie będą niewiarygodne. Inna różnica w podejściu dotyczy procesu porównywania ze standardowymi gwiazdami. Ze względu na nieliniowość procesu fotograficznego ekspozycje (tj. S/N) dla standardów musiały być podobne. Jednak w przypadku liniowych danych cyfrowych wskazane jest, aby jasne standardy były brane przy bardzo wysokim S/N (kilkaset), nawet jeśli nieznane można brać tylko przy bardzo niskim S/N. W przypadku danych cyfrowych należy zachować ostrożność, aby zapobiec utracie informacji lub wprowadzeniu fałszywych informacji podczas procesu redukcji, szczególnie podczas rektyfikacji. Ponadto podczas porównywania prześledzeń ważne jest, aby używać stosunków bliskich linii i patrzeć na siłę linii, a nie na ostre dna linii, ponieważ w przypadku silnych linii dno linii znajduje się przy niższym S/N, a skrzydła linii są o wiele bardziej niezawodne i ważne. Dlatego też dane cyfrowe, chociaż znacznie bardziej wydajne, wszechstronne i łatwiejsze w obróbce niż fotografia, muszą być wykorzystywane ostrożnie, aby uzyskać lepsze rezultaty.
Automatyzacja procesu klasyfikacji
Tradycja klasyfikacji widmowej MK obejmuje wizualne porównywanie całego niebiesko-fioletowego widma gwiazdy w celu znalezienia dopasowania do jednej ze standardowych gwiazd. Ludzie są bardzo dobrzy w rozpoznawaniu wzorców, co jest trudne dla komputerów. Jednak opracowano potężne techniki komputerowe do automatyzacji poprzez symulację procesu rozpoznawania wzorców. (Aby zapoznać się z przeglądem, zobacz artykuł Kurtza w Garrison (1984)). Najbardziej udane metodologie, które pozwalają komputerom radzić sobie równie dobrze lub lepiej niż ludzie w przypadku normalnych gwiazd, to podejście minimalnej odległości metrycznej (MMD) i sieci neuronowej (NN). Każde z nich ma swoje zalety i każde zostało przetestowane na dużych zbiorach danych. Techniki automatyzacji można stosować z wielką korzyścią w przypadku zbiorów danych milionów gwiazd. W takich przypadkach, gdy zostaną znalezione nowe typy osobliwości, są one oznaczane do rozważenia przez ludzi. Oznacza to nie tylko, że można sklasyfikować bardzo dużą liczbę gwiazd, ale że nadal będą potrzebni eksperci, aby zinterpretować wyniki.
Grupy naturalne
System MK został stworzony do wykorzystania widm o wystarczająco wysokiej rozdzielczości, aby umożliwić wykrycie najważniejszych osobliwości, ale wystarczająco niskiej, aby dotrzeć do gwiazd tak słabych, jak to możliwe. Ten kompromis jest spełniony w zakresie rozdzielczości 0,1-0,3 nm. Są jednak sytuacje, w których przydatne byłoby posiadanie pewnych informacji o gwiazdach tak słabych, jak to możliwe, co oznaczałoby rozszerzenie procesu MK do niższych rozdzielczości. W.W. Morgan opracował koncepcję grup naturalnych, która wykorzystuje najsilniejsze, najbardziej wyróżniające się cechy widma, aby identyfikować unikalnie określone typy gwiazd, nawet przy ekstremalnie niskich rozdzielczościach. Przykładami są gwiazdy A0 V, których linie wodorowe są silniejsze niż w jakimkolwiek innym normalnym typie gwiazd i można je wykryć przy rozdzielczościach tak niskich, jak 2-3 nm. Tak więc, jeśli linie wodoru są nadal widoczne, gdy rozdzielczość widma jest obniżona do tej wartości, gwiazda musi być w przybliżeniu A0 V. Przy bardzo niskiej rozdzielczości (np. 3 nm) gwiazdy G8-K2 III są wyjątkowo wyjątkowe, ponieważ ich temperatury i grawitacje powierzchniowe są optymalne dla szczytowej widoczności szerokich pasm CN. Podobnie najchłodniejsze gwiazdy można klasyfikować jednoznacznie i łatwo przy bardzo niskiej rozdzielczości, wykorzystując ich pasma TiO i VO w czerwonym obszarze widma i ich pasma CO w domenie IR. Potężne techniki grup naturalnych można zatem wykorzystać jako początkowy filtr do zdefiniowania zestawu obiektów do dalszych badań, ale nie nadają się do definitywnych typów dla pojedynczych gwiazd, ponieważ trzy wspomniane obszary są również lokalizacjami wielu osobliwych i interesujących gwiazd, których osobliwości nie są widoczne przy tak niskiej rozdzielczości.
Zintegrowane widma: układy podwójne, gromady i galaktyki.
Koncepcja grup naturalnych może być również wykorzystana do rozwikłania złożoności zintegrowanych widm gwiazd podwójnych, gromad kulistych i galaktyk. Jeśli na przykład pasma CN są silne w zintegrowanym widmie jądra galaktyki, musi istnieć znaczący wkład w światło gwiazd olbrzymów G8-K2. MgH to pasmo molekularne, które jest widoczne tylko w chłodnych karłach; jeśli nie jest widoczne w zintegrowanym widmie, chłodne karły nie mogą być obecne w wystarczającej liczbie, aby przeciwdziałać światłu olbrzymów, które, choć znacznie rzadsze, są również znacznie jaśniejsze. W W Morgan i jego współpracownicy rozwinęli ten pomysł do granic możliwości, używając ekstremalnie niskiej rozdzielczości (1000 nm mm-1), co dało widma przypominające kijanki. Asocjacja Cyg OB6 została odkryta przy użyciu kijanek, aby ujawnić silnie zaczerwienione, bardzo słabe, masywne, gorące gwiazdy, które różniły się od chłodnych gwiazd o podobnych kolorach. Te techniki grup naturalnych nie zostały w pełni wykorzystane w interpretacji zawartości gwiazdowej gromad i galaktyk. Pryzmaty obiektywne, spektrografy wieloobiektowe i badania. Pobieranie pojedynczych widm do dużych badań jest bardzo czasochłonne. Jednym ze sposobów na zwiększenie wydajności jest użycie szerokokątnego TELESKOP-U SCHMIDT wyposażonego w cienki pryzmat na całej aperturze, co pozwala na uzyskanie widm wszystkich gwiazd na dużym obszarze. Na początku lat 1900. Annie Jump Cannon używała widm pryzmatów obiektywnych do przypisywania typów widmowych w systemie Harvard do ponad ćwierć miliona gwiazd na całym niebie. Reklasyfikacja wszystkich gwiazd Henry′ego Drapera w dwuwymiarowym systemie MK dokonana przez dr Nancy Houk również opiera się na widmach pryzmatów obiektywnych. Światłowody są używane do jednoczesnego uzyskiwania wielu widm słabych obiektów. Nowoczesne spektrografy wieloobiektowe mogą być używane do pobierania widm o niskiej dyspersji setek gwiazd lub galaktyk na raz, co pozwala na uzyskanie tysięcy widm na noc. Zautomatyzowane techniki klasyfikacji można by wykorzystać z dużym powodzeniem, zapewniając wstępne, internetowe typy widm gwiazd i sygnalizując obserwatorowi wykrycie nietypowych widm (np. supernowej w odległej galaktyce). Jednak pomysł ten nie został jeszcze skutecznie zbadany.
Kalibracja: efektywna temperatura, logarytm grawitacji i obfitości
Proces MK jest indukcyjny. Klasyfikacje opierają się wyłącznie na zestawie standardowych gwiazd i są niezależne od wyników teorii, fotometrii i wszystkich innych zewnętrznych wpływów. Po przeprowadzeniu klasyfikacji przydatne jest skalibrowanie systemu, powiązanie go z innymi metodami, a także podstawowymi parametrami Teff, log g i [Fe/H]. Autonomiczne podejście, takie jak proces MK, jest przydatne, ponieważ w interfejsie znajdują się informacje, które zostałyby utracone, gdyby metody nie były a priori niezależne. Dzięki nowym danym z satelitów, takich jak HIPPARCOS, możliwe jest skalibrowanie jasności pobliskich gwiazd, a tym samym uzyskanie odległości dla wszystkich gwiazd o podobnych widmach. Teoria ATMOSFER GWIEZDNYCH może być wykorzystana do kalibracji typów widmowych, klas jasności i wskaźników obfitości w odniesieniu do podstawowych parametrów Teff, log g i obfitości kluczowych pierwiastków.
Zasada komplementarności
Porównując wyniki różnych podejść do interpretacji widm gwiazdowych pod względem podstawowych parametrów, takich jak Teff, log g i [Fe/H], najbardziej produktywne jest myślenie o metodach jako komplementarnych, z ważnymi informacjami w interfejsie. Na przykład, podczas gdy istnieje ogólna zgodność między starannie zmierzonymi kolorami gwiazdy a jej widmem, nie ma korelacji jeden do jednego między fotometrią a widmem, głównie dlatego, że odnoszą się one do różnych części atmosfery gwiazdy. Fotometria odnosi się przede wszystkim do dolnej części fotosfery, podczas gdy widmo powstaje z kilku warstw fotosfery. Różne wyniki uzyskane dwiema technikami mogą wskazywać na szczególną strukturę w atmosferze. Jeśli obie techniki zostały użyte ostrożnie, zwykle istnieje dobry powód tej różnicy, a wiele typów osobliwych gwiazd zostało odkrytych dzięki niezgodności między ich kolorami a ich widmami.
Podsumowanie
Opisano indukcyjny proces klasyfikacji widm gwiazdowych. Dzięki starannej uwadze przy porównywaniu ze standardowymi okazami można osiągnąć wysoki poziom rozróżnienia. Proces MK jest potężnym narzędziem do astrofizycznego wglądu. W.W. Morgan, twórca systemu klasyfikacji widmowej MK, napisał: "Można powiedzieć, z pewną dozą prawdy, że formy widmowe pomogły sklasyfikować się same, pokazując, gdzie czują się najbardziej komfortowo".
Klimat
Klimat Ziemi można zdefiniować jako globalny stan fizyczny, uśredniony w pewnym okresie czasu (zwykle dekady lub dłużej), ATMOSFERY ZIEMI, OCEANU i pokrywy lodowej. Obecność stosunkowo gęstej atmosfery - trzeciej wśród ciał stałych w Układzie Słonecznym - sprawia, że Ziemia nadaje się do zamieszkania. Bez pokrycia energią podczerwoną emitowaną z powierzchni Ziemi i dolnej atmosfery, warunki byłyby znacznie poniżej zera prawie wszędzie na świecie. Podczas gdy atmosfera jest najbardziej bezpośrednią i namacalną częścią systemu klimatycznego Ziemi, przynajmniej dla życia na lądzie, ocean odgrywa kluczową rolę. Ocean i atmosfera wymieniają ciepło i parę wodną (a także dwutlenek węgla i inne gazy). Znacznie większa masa oceanu w porównaniu z atmosferą zapewnia tłumiący efekt dla systemu klimatycznego, ale paradoksalnie może również powodować jego przejście z jednego konkretnego stanu do drugiego (na przykład z klimatu lodowcowego na interglacjalny). Ta podwójna rola oceanu jest konsekwencją obecności prądów oceanicznych, które z kolei zależą od dystrybucji ciepła i soli (zasolenia) w zależności od lokalizacji i głębokości. Gdyby nie nasze głębokie oceany, klimat Ziemi byłby drastycznie różny od obecnego stanu i stanów z przeszłości odnotowanych w zapisie geologicznym. Pokrywy lodowe odgrywają również rolę w silnym odbijaniu energii Słońca i magazynowaniu słodkiej wody, która po stopieniu zmienia zasolenie oceanu i globalny poziom mórz. Podstawowym źródłem energii dla klimatu jest Słońce. Obrót Ziemi, sezonowe wahania orientacji biegunów i długoterminowe zmiany orbity służą do modulacji ilości energii słonecznej otrzymywanej z miejsca na miejsce i w różnych skalach czasowych. Pomimo dość drastycznych zmian klimatu na przestrzeni dziejów, niezwykłym faktem wynikającym z zapisu geologicznego jest zasadnicza stabilność wody w stanie ciekłym na dużych obszarach powierzchni Ziemi co najmniej do 4 miliardów lat temu. Wymiana masy i energii między różnymi składnikami systemu klimatycznego, a także ich interakcje ze skorupą ziemską, musiały utrzymać tę zasadniczą stabilność w obliczu dużych postępujących zmian w produkcji energii przez Słońce, co sugeruje teoria ewolucji gwiazd. Zamieszkiwalność Ziemi jest zatem o wiele bardziej złożona niż tylko jej korzystne położenie około 150 milionów km od Słońca. Światowy monitoring klimatu stał się możliwy dopiero w ciągu ostatnich kilku dekad dzięki udoskonaleniom w transporcie, instrumentacji i technologiach przesyłania informacji. Bezpośrednie pomiary, tj. in situ, stanowią pierwszy rodzaj zbieranych danych klimatycznych i obejmują ciśnienie, temperaturę, zawartość wody (wilgotność), prędkość wiatru, zawartość soli (w miejscach oceanicznych), warunki zachmurzenia i opadów. Liczba stacji powierzchniowych wzrosła z około 60 w 1875 r. (które znajdowały się głównie w Stanach Zjednoczonych i Europie Zachodniej) do około 7000 stacji raportujących codziennie dzisiaj. Dane z górnych warstw atmosfery są trudniejsze do zebrania, ale pod koniec lat 80. około 800 stacji (głównie w pobliżu lotnisk) wystrzeliło pakiety przenoszone przez balony ("rawinsondy" lub "radiosondaże") dwa razy dziennie, aby mierzyć parametry meteorologiczne na wysokościach do 30 km. Monitorowanie satelitarne rozpoczęło się od wystrzelenia TIROS 1, pierwszego satelity zaprojektowanego specjalnie do obserwacji pogody, w 1960 r. W ciągu następnych czterech dekad monitorowanie wzorców chmur i opadów za pomocą satelitów orbitujących stało się ustaloną częścią badań nad pogodą i klimatem i rozszerzyło się o zdalne obserwacje chemii atmosfery, bilansu energii atmosferycznej, stanu morza i wielu innych parametrów. Wiele z tych informacji jest obecnie publicznie dostępnych, zasadniczo natychmiastowo, za pośrednictwem sieci WWW (zainteresowani czytelnicy mogą najłatwiej uzyskać dostęp za pośrednictwem strony internetowej służby pogodowej swojego kraju). Badanie klimatów trzech innych dużych ciał stałych w naszym układzie słonecznym z istotnymi atmosferami - Wenus, Marsa i Tytana - ujawnia bardzo różne reżimy klimatyczne. Wenus wykazuje ogromną atmosferę CO2, która jest oszałamiającym przykładem efektu ocieplenia cieplarnianego. Cienka atmosfera CO2 Marsa jest napędzana przez kombinację procesów znanych ziemskim klimatologom, ale ze znacznymi różnicami w sezonowym cyklu CO2 do i z polarnych regionów Marsa oraz występowaniem sporadycznych globalnych burz pyłowych. Oprócz głębokich atmosfer zewnętrznych planet, gruba atmosfera księżyca Saturna, Tytana, podtrzymuje skromną szklarnię i profil temperatury o kształcie bardzo podobnym do ziemskiego, chociaż o setki stopni Celsjusza chłodniejszy. Badając klimaty tych innych stałych światów, można uzyskać pewien wgląd w warunki wymagane w innych systemach planetarnych, aby mogły istnieć planety nadające się do zamieszkania. Ludzkość zmienia chemię i bilans energetyczny atmosfery Ziemi, wprowadzając do powietrza i wody duże ilości dwutlenku węgla, chlorofluorowęglowodorów (CFC) i innych produktów naszej przemysłowo-rolniczej cywilizacji. CFC zmniejszają grubość wysokogórskiej warstwy ozonowej Ziemi, która chroni narażone organizmy przed zabójczą energią ultrafioletową ze Słońca. Dwutlenek węgla i inne gazy wzmacniają efekt osłony podczerwonej w atmosferze, ogrzewając planetę, a także zmieniając zachowanie systemu klimatycznego w skali dziesięcioleci. Świadome decyzje dotyczące kontroli emisji gazów cieplarnianych i niszczących warstwę ozonową wymagają głębokiego zrozumienia, jak działa system klimatyczny, zrozumienia, które jest czerpane z nowych generacji urządzeń powierzchniowych, powietrznych i kosmicznych.
Składniki systemu klimatycznego Ziemi
Atmosfera
Atmosfera jest tym, co najbardziej kojarzymy z klimatem i jest gospodarzem krótkoterminowej i przestrzennie zlokalizowanej zmienności zwanej pogodą. Atmosfera Ziemi składa się głównie z cząsteczkowego azotu (N2), stanowiącego 78% powietrza pod względem liczby. Około 21% atmosfery to cząsteczkowy tlen (O2), produkt fotosyntezy roślin i mikroorganizmów, który reaguje ze zwykłymi minerałami i zniknąłby w ciągu mniej niż 10 milionów lat, gdyby nie te procesy. Para wodna, ponieważ skrapla się, tworząc chmury, i jest połączona poprzez kondensację i parowanie z oceanami i lądem Ziemi, jest bardzo zmienna w zależności od miejsca i wysokości (patrz CYKL WODY). Średnio globalnie jej stosunek mieszania w pobliżu podstawy atmosfery wynosi 1%. Dwutlenek węgla (CO2) jest podstawowym źródłem węgla dla cyklu fotosyntezy roślin i bakterii i obecnie stanowi 330 części na milion (0,000 33) atmosfery. Całkowita masa atmosfery Ziemi szacowana jest na 5 × 1018 kg, co określa się na podstawie gęstości atmosferycznej i struktury wysokości. Atmosferę można w rzeczywistości postrzegać jako koncentryczne warstwy gazu, z których każda wyróżnia się określonymi mechanizmami transportu energii, a zatem profilem temperatury. Troposfera charakteryzuje się spadkiem temperatury wraz z wysokością (z wyjątkiem powierzchni, gdzie lokalnie temperatura może wzrastać wraz z wysokością w cienkiej warstwie inwersyjnej). W troposferze konwekcja i promieniowanie przenoszą ciepło w górę z powierzchni, która jest ogrzewana przez widoczne promieniowanie słoneczne. To tutaj tworzą się prawie wszystkie chmury i zachodzi pogoda, zachodzi wymiana gazów ląd-morze-powietrze i istnieje biosfera. Troposfera kończy się w tropopauzie, około 8 km nad powierzchnią w regionach polarnych i 13 km w tropikach (również ze znacznymi wahaniami sezonowymi). Tutaj profil temperatury zmienia kierunek, a temperatura zaczyna wzrastać wraz z wysokością w stratosferze. Stratosfera jest ogrzewana przez absorpcję promieniowania ultrafioletowego i podczerwonego, głównie przez ozon (O3), jako część fotochemicznego cyklu tworzenia i niszczenia. W miarę jak ozon zanika, chłodzenie przez emisję promieniowania w przestrzeń kosmiczną przez CO2 prowadzi do zatrzymania wzrostu temperatury w stratopauzie około 50 km nad powierzchnią; powyżej temperatura spada wraz z wysokością w mezosferze. Powyżej 100 km wysokości fotoliza (rozbicie cząsteczki przez absorpcję fotonów) O2 i jonizacja gwałtownie zwiększają temperaturę wraz z wysokością w termosferze, gdzie przewodzenie zastępuje promieniowanie jako kluczowy proces transportu energii. W dalszej dyskusji na temat klimatu rozważane są tylko stratosfera i troposfera, w których znajduje się ponad 90% całkowitej masy atmosferycznej. Obrót Ziemi i różnicowe ogrzewanie słoneczne jako funkcja szerokości geograficznej i pory roku napędzają wzorce cyrkulacji atmosferycznej. Ogrzewanie słoneczne jest największe na równiku i najmniejsze na biegunach; stąd atmosfera musi transportować ciepło z równika na biegun. Dzieje się tak za pośrednictwem tzw. cyrkulacji Hadleya, w której ciepłe powietrze unosi się i jest transportowane na wyższe szerokości geograficzne, ochładza się i opada. Cyrkulacja Hadleya nie składa się z pojedynczej komórki w przypadku Ziemi; zamiast tego trzy komórki w każdej półkuli przemieszczają ciepło w kierunku biegunów.Wznoszące się powietrze na granicach komórek rozchodzi się, prowadząc do pasów powietrza niskiego ciśnienia, podczas gdy opadające powietrze zbiega się na granicach komórek, dając strefy wyższego ciśnienia. Ponieważ Ziemia obraca się, temu wzorowi pasów wysokich i niskich towarzyszy dominujący strefowy wzór wiatru. Wiatry zachodnie zwiększają prędkość wraz z wysokością, osiągając maksimum tuż pod stratosferą jako wąskie strumienie strumieniowe, które odpowiadają za ruch układów burzowych średnich szerokości geograficznych. Pasaty, wiejące ze wschodu, są głównym motorem oceanicznego Prądu Zatokowego poprzez naprężenia tarcia na powierzchni morza. Na opisany powyżej pierwotny wzór cyrkulacji nałożony jest szereg wtórnych układów wysokiego i niskiego ciśnienia związanych z zaburzeniami w podstawowym przepływie. Obrót Ziemi tworzy skuteczną siłę Coriolisa, która działa pod kątem prostym do kierunku wiatru: w prawo na półkuli północnej i w lewo na półkuli południowej. Na szerokościach geograficznych wyższych niż 10° i wysokościach powyżej warstwy granicznej tarcia atmosfery siła Coriolisa jest wystarczająco silna, aby niemal całkowicie zrównoważyć siłę gradientu ciśnienia między ośrodkami wysokiego i niskiego ciśnienia. Ta równowaga geostroficzna powoduje, że obszary wysokiego ciśnienia wirują zgodnie z ruchem wskazówek zegara, a obszary niskiego ciśnienia wirują przeciwnie do ruchu wskazówek zegara na półkuli północnej - i w przeciwnym kierunku na półkuli południowej. Obszary niskiego ciśnienia są zatem regionami cyklonicznymi (na półkuli północnej), w których wznoszące się powietrze tworzy chmury i systemy opadów, jeśli dostępna jest wystarczająca ilość wilgoci. Obszary wysokiego ciśnienia antycyklonalnego charakteryzują się osiadaniem, parowaniem, a zatem wysychaniem; są to na ogół cechy sprzyjające pogodzie (ponownie kierunek cyrkulacji jest odwrócony na półkuli południowej). Niektóre układy wysokiego i niskiego ciśnienia są trwałymi cechami, sezonowo lub rocznie, ale mogą zmieniać siłę i położenie z roku na rok. Inne są zmienne przestrzennie i czasowo, takie jak układy burzowe i huragany na średnich szerokościach geograficznych. Układy cykloniczne na średnich szerokościach geograficznych i tropikalne istnieją z powodu zaburzeń przepływu, które rosną z czasem. Niestabilności baroklinowe są wyzwalane przez istnienie południkowego (północ-południe) gradientu temperatury w atmosferze geostroficznej i dlatego są odpowiedzialne za układy burzowe na średnich szerokościach geograficznych (gdzie efekt Coriolisa jest silny). Niestabilności barotropowe z kolei działają na równikowych szerokościach geograficznych i stanowią klasę niestabilności, w której tylko energia kinetyczna (nie termiczna) jest przenoszona z tła rotacji atmosfery do rosnącego zaburzenia. Uważa się, że niestabilności barotropowe powodują depresje tropikalne, które w niektórych przypadkach stają się burzami tropikalnymi lub huraganami, w równikowym pasie niskiego ciśnienia zwanym strefą konwergencji międzyzwrotnikowej (ITCZ). W przeciwieństwie do równowagi geostroficznej atmosfer ziemskich i marsjańskich, na Wenus i księżycu Saturna, Tytanie, wiatry stratosferyczne są szybsze niż rotacja planet. Wynikająca z tego silna siła odśrodkowa dominuje nad siłą Coriolisa, prowadząc do tzw. równowagi cyklostroficznej.
Hydrosfera
Ziemia jest wyjątkowa wśród planet Układu Słonecznego, ponieważ posiada ogromną warstwę ciekłej wody, nasz ocean. Oprócz wody oceanicznej, systemy słodkiej wody są rozproszone na powierzchni Ziemi w postaci rzek i jezior. Znaczna ilość wody krąży również w górnej warstwie skorupy ziemskiej wnętrza Ziemi. Woda ta miesza się z głębokim oceanem w szerokim zakresie skal czasowych, od bardzo krótkich do geologicznych (tj. milionów lat). Cały system ciekłej wody jest określany jako hydrosfera i ma masę szacowaną na 1,7 × 1021 kg, z czego zdecydowana większość znajduje się w oceanie. Tak więc ilość wody w kontakcie z atmosferą w skalach czasowych znacznie krótszych niż geologiczne wynosi 200 razy więcej niż masa atmosfery Ziemi i silnie modyfikuje reakcję klimatu na zmiany warunków zewnętrznych, a także tworzy własne funkcje wymuszające. Oceany skutecznie magazynują duże ilości energii cieplnej (pierwotnie światła słonecznego), która jest później uwalniana jako ciepło jawne lub utajone. Temperatura oceanu ma bezpośredni wpływ na ilość pary wodnej, głównego gazu cieplarnianego, uwalnianego do atmosfery; oceany magazynują również duże ilości CO2 (drugiego głównego gazu cieplarnianego) w sposób zależny od temperatury. Średnia głębokość oceanu wynosi 4 km; niektóre z najgłębszych części mieszają się z górnymi warstwami lub atmosferą tylko sporadycznie, podczas gdy najwyższa część oceanu bardzo szybko i nieprzerwanie wymienia gazy i ciepło z atmosferą. Ocean przenosi ciepło z równika na biegun w ilościach porównywalnych z tym, co jest transportowane przez atmosferę. W przeciwieństwie do atmosfery istnieje duża skala codziennej równomierności temperatury w pobliżu powierzchni oceanu i powolna zmiana sezonowa. Podobnie jak duży kryty basen, ocean tłumi wahania temperatury w atmosferze i kontroluje niższą wilgotność atmosferyczną (zawartość pary wodnej) na dużych obszarach Ziemi. Ocean wykazuje wzorce cyrkulacji, które przynoszą ciepłe prądy wody do wysokich szerokości geograficznych, a zimną wodę do regionów równikowych. Zmniejszają one gradient temperatury w atmosferze z północy na południe. Najbardziej znanym przykładem pierwszego jest Prąd Zatokowy Atlantycki. Prąd Pacyficzny na południe od wybrzeża Kalifornii jest znanym przykładem drugiego, który sprawia, że letnia woda oceaniczna jest bardzo zimna aż do Los Angeles. Prądy powierzchniowe są napędzane przez naprężenia wiatru, a zbieżność lub rozbieżność przepływów prowadzi do ruchów pionowych (downwelling lub upwelling) pod powierzchnią. To jednak nie jest cała historia. Oceany zawierają około 3 części na tysiąc rozpuszczonych soli, które zarówno obniżają temperaturę zamarzania wody, jak i zmieniają jej gęstość. Pierwszy efekt pozwala, aby średnie roczne temperatury na wysokich szerokościach geograficznych były prawie 2°C poniżej zera. Efekt gęstości jest taki, że powoduje, że wody o wzrastającym zasoleniu stają się gęstsze. Głębokie wzorce cyrkulacji w oceanie są słabo znane z powodu braku obserwacji. Efekty gęstości termicznej i słonej (termohalinowej), ściśliwość wody oceanicznej (właściwie dość ważne na dużych głębokościach) i zachowanie masy związane z przepływem powrotnym wody z prądów powierzchniowych napędzają ogólną cyrkulację oceaniczną. Ze względu na ściśliwość i efekty termiczne bardzo zimna, głęboka woda oceaniczna może nie wymieniać się z powierzchnią częściej niż setki lat. Położenie kontynentów odgrywa kluczową rolę w cyrkulacji i w szczególności może wpływać na wydajność transportu ciepła z północy na południe. Rola wiatru w napędzaniu prądów oceanicznych i wpływ prądów na redystrybucję ciepła dostępnego dla atmosfery skutkuje złożonym, sprzężonym systemem klimatycznym ocean-atmosfera. Najlepszym przykładem (i prawdopodobnie najważniejszym w określaniu globalnego stanu klimatu; patrz poniżej) jest Prąd Zatokowy do północnego pasa transmisyjnego Pacyfiku. Prąd Prądu Zatokowego jest napędzany naprężeniem wiatrów pasatowych wywieranych na powierzchnię oceanu w tropikach i wiatrów zachodnich na średnich szerokościach geograficznych. Prąd przesuwa ciepłe wody na północny wschód, wzdłuż wschodniego wybrzeża Stanów Zjednoczonych. Parowanie zwiększa zasolenie prądu; wymiana ciepła z atmosferą wzdłuż trasy prowadzi do netto chłodzenia wody i ocieplenia atmosfery. W rezultacie postępujące, północne zagęszczenie osiąga krytyczny etap w pobliżu Islandii, gdzie woda Zatoki staje się gęstsza niż otoczenie i opada. Przewrócenie jest wspomagane przez wiatry, które odsuwają zimniejsze wody powierzchniowe, pozwalając głębszym częściom prądu unosić się, uwalniać ciepło i szybko się ochładzać. Woda znajdująca się obecnie na dnie płynie na południe, wokół Afryki, a następnie na północ do zimniejszego północnego Pacyfiku. Tam unosi się na powierzchnię, a rozbieżność odsuwa wody otoczenia, część przesuwa się na południe w kierunku początku Prądu Zatokowego. Najważniejszym skutkiem tej cyrkulacji jest transport znacznej ilości ciepła równikowego do regionu północnego Atlantyku, co znacznie łagodzi klimat Europy i tym samym zapobiega tworzeniu się ogromnych pokryw lodowych.
Kriosfera
Kriosfera składa się z trwałych i sezonowych pokryw lodowych i śniegu Ziemi, a także wiecznej zmarzliny, które razem stanowią 80% zasobów słodkiej wody na planecie. Głównymi składnikami są pokrywy lodowe Antarktydy, Grenlandii, wieczna zmarzlina w Ameryce Północnej i Azji, lód morski, górskie systemy lodowcowe i sezonowe pola śnieżne. Chociaż tylko około 2% wody na Ziemi jest zamarznięte, kriosfera ma głęboki wpływ na obecny klimat i na oscylacje lodowcowo-interglacjalne ostatnich 2 milionów lat. Bardzo wysoka refleksyjność lodu wodnego (która jest wrażliwa na wielkość cząstek, a zatem warunki powstawania i wiek, a także na zanieczyszczenia) odbija promieniowanie słoneczne w widzialnych i bliskich ultrafioletowych częściach widma. W podczerwieni termicznej lód wodny jest dość ciemny, a zatem działa jako bardzo wydajny nocny radiator ziemskiego promieniowania cieplnego. Duże ciepło utajone topnienia lodu wodnego działa również jako silny pochłaniacz ciepła, szczególnie w chłodniejszych epokach, w których występuje bardziej masywne zlodowacenie niż obecnie. Kriosfera wzmacnia wpływ na klimat dychotomii półkuli północnej i południowej w rozmieszczeniu kontynentów i oceanów. Ponieważ półkula północna ma znacznie większą powierzchnię lądu niż południowa, rozwój masywnego zlodowacenia kontynentalnego w średnich szerokościach geograficznych, cecha epok lodowcowych, jest głównie efektem półkuli północnej. To z kolei może wiązać czas początku zlodowaceń z konfiguracjami parametrów orbitalnych i spinowych Ziemi, które powodują minima w średniorocznym nasłonecznieniu półkuli północnej. Jednak w znacznie krótszych (sezonowych) skalach czasowych obecność dużego kontynentu polarnego na południu i oceanu polarnego na północy wpływa na względne reakcje biegunów na zmniejszone nasłonecznienie w okresie zimowym.
Ocieplenie cieplarniane
Przydatność Ziemi do życia jest w dużej mierze wynikiem stabilności ciekłej wody na powierzchni; średnia roczna globalna temperatura powierzchni oceanu wynosi 288 K. Jednak samo przyrównanie średniej rocznej ilości promieniowania słonecznego pochłanianego przez powierzchnię Ziemi do wychodzącego bolometrycznego promieniowania cieplnego daje efektywną temperaturę 255 K, znacznie poniżej punktu zamarzania wody (nawet z solami). Wysoka temperatura powierzchni Ziemi, a zatem stabilność ciekłej wody, jest konsekwencją wyższej średniej nieprzezroczystości atmosfery w podczerwieni (gdzie promieniowanie cieplne jest uwalniane w przestrzeń kosmiczną) niż w długościach fal optycznych (gdzie występuje szczyt widma słonecznego). Termin efekt cieplarniany jest nierozerwalnie związany z tą podstawową właściwością ziemskiej atmosfery, pomimo faktu, że w szklarni konwekcja napędzana termicznie zasadniczo nie odgrywa żadnej roli, podczas gdy jest ważna w regulacji niższej temperatury ziemskiej atmosfery. Rozkład długości fal
fotonów płynących ze Słońca, przybliżony jako ciało czarne o temperaturze 6000 K, osiąga szczyt przy długości fali około 0,6 μm , gdzie gazy atmosferyczne prawie nie mają absorpcji (z wyjątkiem tzw. pasm Chappuis ozonu). Tak więc w bezchmurnej atmosferze światło słoneczne mogłoby praktycznie swobodnie docierać do powierzchni (chociaż rozpraszanie Rayleigha przez cząsteczki powietrza preferencyjnie rozprasza krótsze długości fal z wiązki słonecznej, co prowadzi do znajomo niebieskiego nieba). Chmury odbijają około 20% przychodzącego światła słonecznego, podczas gdy powierzchnia odbija średnio mniej niż 10%. Około 2/3 światła słonecznego padającego na Ziemię jest pochłaniane przez grunt lub niższą atmosferę i przekształcane w fotony o rozkładzie widmowym, który, przybliżony przez ciało czarne, odpowiada temperaturze 255 K (bez efektu cieplarnianego; 288 K z ociepleniem cieplarnianym). Szczyt rozkładu widmowego tych termalizowanych fotonów znajduje się w środkowej części podczerwieni widma, przy długości
fali około 15-20 μm, a atmosfera jest tam bardzo nieprzezroczysta. Dominują pasma absorpcji pary wodnej i CO2, a dziury w widmie absorpcji wypełniają CH4, O2, O3, tlenki azotu, a nawet sztuczne freony. Na poziomie gruntu atmosfera jest wysoce nieprzezroczysta powyżej długości fali 5 μm, ale absorpcje maleją wraz z wysokością, ponieważ obfitość kolumny atmosfery (od danego poziomu do przestrzeni) i ciśnienie maleją. Na wysokości 10 km atmosfera jest w dużej mierze ponownie przezroczysta. Fotony termiczne płynące w górę z ziemi mają średnie swobodne ścieżki znacznie krótsze niż przychodzące promieniowanie słoneczne, którego strumień energii muszą zrównoważyć. Absorpcja i ponowne promieniowanie fotonów termicznych przekierowuje część strumienia z powrotem w dół; skierowany w dół strumień maleje wraz z wysokością, ponieważ przezroczystość atmosfery wzrasta. W wyniku tej nieefektywności w transporcie ciepła na zewnątrz w stosunku do promieniowania widzialnego słonecznego, temperatura powierzchni musi wzrosnąć powyżej temperatury efektywnej, aby zapewnić równowagę między strumieniem energii przychodzącej i wychodzącej. Wysokości nad powierzchnią również muszą doświadczać podwyższonych temperatur, ale stopniowo mniej w miarę przesuwania się na zewnątrz. W ten sposób temperatura wzrasta między wysokością, na której fotony podczerwone mogą swobodnie płynąć na zewnątrz, średnim poziomem promieniowania i powierzchnią. Stromość wzrostu temperatury jest modyfikowana od wartości cieplarnianej przez szereg innych procesów transportu energii. Najważniejsza jest konwekcja. Gdy gradient temperatury staje się stromy, przekraczając wyidealizowaną, adiabatyczną szybkość gradientu, powietrze staje się niestabilne, a masowe ruchy pionowe (konwekcja) transportują ciepło w górę z adiabatyczną szybkością gradientu. W przypadku braku wody odpowiednia adiabatyczna szybkość gradientu to tak zwana sucha wartość 10 K km-1. Kondensacja wody podczas formowania się chmur uwalnia ciepło utajone, które umożliwia wilgotny (czasem mokry) konwekcyjny transport ciepła przy gradientach temperatury znacznie poniżej suchej adiabaty. W pierwszym przybliżeniu obserwowany średni gradient temperatury w atmosferze Ziemi jest wilgotnym gradientem adiabatycznym. Dalsza modyfikacja profilu temperatury następuje, gdy wiatry adwekcyjne transportują ciepło z jednego miejsca do drugiego, a układy burzowe przenoszą zarówno wilgoć, jak i ciepło w kierunkach poziomym i pionowym. Rysunek 3 podsumowuje różne mechanizmy transportu energii w górę i w dół. Istotny punkt dotyczący efektu cieplarnianego nie powinien być przesłonięty złożonością wielu procesów transportu. Przychodzący strumień energii musi być zrównoważony przez wychodzący, a jeśli atmosfera jest mniej przejrzysta dla wychodzącego (cieplnego) promieniowania niż dla przychodzącego (słonecznego), temperatura powierzchni jest podwyższana, aż do osiągnięcia równowagi. Jednak reakcja klimatu Ziemi na wzrost gazów cieplarnianych jest trudna do przewidzenia ze względu na dużą liczbę stopni swobody. Modyfikacje tworzenia się chmur, opadów, pokrywy lodowej na powierzchni, cyrkulacji oceanicznej, temperatury i rozpuszczalności CO2 stanowią reakcje na wzrost gazów cieplarnianych, które mogą zapewnić dodatnie lub ujemne sprzężenia zwrotne. Efekt stopniowego wzrostu gazów cieplarnianych można przewidzieć (stopniowo wyższa temperatura powierzchni), ale dyskretne zmiany (szczególnie duże) mogą po prostu popchnąć klimat Ziemi w inny stan. Ekstremalny przykład efektu cieplarnianego jest dostępny do zbadania na Wenus, gdzie ciśnienie powierzchniowe wynosi 92 bary, a atmosfera składa się w 96% z dwutlenku węgla. Ponieważ warstwa odbijającego kwasu siarkowego i chmur wodnych pokrywa glob, powierzchnia Wenus otrzymuje tylko kilka procent światła słonecznego padającego na szczyt atmosfery - mniej niż Ziemia otrzymuje na swojej powierzchni, mimo że ta ostatnia jest o 40% bardziej oddalona od Słońca. Mimo to temperatura powierzchni Wenus wynosi 730 K, wartość ta odzwierciedla ekstremalne pokrycie podczerwienią zapewniane przez wysokie ciśnienie powierzchniowe CO2, a także wkład pomniejszych gatunków, takich jak para wodna (około 100 części na milion atmosfery). Podobnie jak w przypadku Ziemi, transport energii na zewnątrz odbywa się głównie przez konwekcję, ale na Wenus jest to całkowicie sucha konwekcja. Cienka atmosfera Marsa ma średnie ciśnienie powierzchniowe wynoszące zaledwie 7,5 mbar i jest prawie pozbawiona wody. Dlatego też, mimo że składa się w 95% z dwutlenku węgla (co daje wyższe ciśnienie parcjalne CO2 niż na Ziemi), pasma absorpcji dwutlenku węgla są bardzo wąskie w częstotliwości, pozbawione poszerzenia zapewnianego przez wysokie ciśnienie azotu; ponadto pasma absorpcji wody prawie nie istnieją. W ten sposób występuje tylko bardzo mały efekt cieplarniany o temperaturze 5 K. Ogrzewanie powierzchni przez słońce napędza konwekcję i w związku z tym tworzy troposferę rozciągającą się na 40 km. Jednakże gradient temperatury jest znacznie mniejszy niż w przypadku suchej adiabatyki ze względu na zawieszenie cząstek pyłu w atmosferze, które pochłaniają światło słoneczne na wszystkich wysokościach przez troposferę. W niektórych latach globalne burze pyłowe obciążają atmosferę tak dużą ilością pyłu, że profil temperatury otoczenia ulega silnemu zaburzeniu.
Ogólne modele cyrkulacji: ocean i atmosfera
Podstawowym narzędziem teoretycznym zarówno do prognozowania pogody, jak i do badań nad zmianami klimatu jest numeryczny ogólny model cyrkulacji, czyli GCM. Ziemia jest podzielona na siatkę z komórkami o rozmiarach tak małych, jak to praktycznie możliwe dla dostępnych zasobów obliczeniowych. W każdej siatce stosowane są następujące równania: (a) poziome równania ruchu; (b) prawo hydrostatyczne; (c) równania ciągłości; (d) bilans energetyczny (pierwsza zasada termodynamiki); (e) równanie stanu dla wilgotnego i suchego powietrza; (f) równanie bilansu pary wodnej. Tworzą one zamknięty układ z warunkami brzegowymi określonymi przez pomiary meteorologiczne lub (w przypadku modeli paleoklimatycznych) dane geologiczne i założenia. Dzięki szybkim komputerom ruchy atmosferyczne można sprzężyć z ruchami oceanów, co prowadzi do modeli GCM ocean-atmosfera. W przypadku składnika oceanicznego obowiązują podobne równania do (a)-(f), z tą różnicą, że (e) jest zastąpione równaniem stanu dla wody oceanicznej, a (f) jest zastąpione równaniem bilansu dla zasolenia. Nad obszarami porośniętymi roślinnością musi być również uwzględniony transfer pary wodnej i energii z i do roślin poprzez ewapotranspirację. Równania są zintegrowane, aby śledzić ewolucję czasową, w trzech wymiarach, cyrkulacji atmosferycznej, intensywności i położenia ośrodków wysokiego i niskiego ciśnienia, temperatury, transferu ciepła i masy między atmosferą a oceanem i innych parametrów. Ze względu na ogromną różnicę w skalach czasowych między atmosferą a oceanem konieczne jest pewne uproszczenie modelu oceanu (na przykład płytki ocean reprezentujący najwyższą, dobrze wymieszaną warstwę) lub uśrednienie procesów atmosferycznych. Coraz częściej przeprowadzane są pełne symulacje łączące te dwa elementy w miarę wzrostu mocy obliczeniowej. Pozostają jednak istotne ograniczenia. W przypadku atmosfery procesy zachodzące w skalach poniżej rozmiaru siatki mogą mieć znaczący wpływ. Na przykład orograficzne unoszenie mas powietrza przez zlokalizowane lub topograficznie złożone góry, niewielkie zmiany w schematach użytkowania gruntów lub skomplikowane relacje geograficzne między lądem a zatokami lub morzami często nie mogą być dobrze obsługiwane przez modele GCM. Powstawanie opadów jest wysoce wrażliwe na procesy w podskali, dlatego modele GCM są mniej skuteczne w szczegółowym śledzeniu tego procesu. Jak zobaczymy poniżej, zmiany wzorców opadów nad lądem i morzem mogły być przyczyną głębokich zmian stanu klimatu i możliwe, że symulacje GCM, szczególnie jeśli uśredniono czas w celu śledzenia zmian dekadowych lub dłuższych, mogą je pominąć. Przeprowadzono wystarczającą liczbę obserwacji atmosfery Marsa, aby umożliwić zastosowanie modeli GCM o znacznym stopniu zaawansowania. Całkowity brak globalnego oceanu na Marsie oznacza, że nie ma dużego pochłaniacza ciepła, który mógłby tłumić zmiany klimatu w sezonowych lub dłuższych skalach czasowych, ani źródła pary wodnej, która mogłaby modyfikować gradienty atmosferyczne i służyć jako źródło powstawania masywnych chmur. Zamiast tego klimat Marsa jest napędzany głównie przez sezonowe cykle CO2 i pyłu. Regiony polarne stają się tak zimne zimą (150 K), że główny składnik atmosfery, CO2, skrapla się, tworząc rozszerzoną czapę na półkuli zimowej. Roczny cykl CO2 z jednej zimowej półkuli do drugiej moduluje ciśnienie atmosferyczne o 30%. Zjawisko to, nie mające analogu na Ziemi ani Wenus, zostało bezpośrednio zmierzone przez lądowniki VIKING i MARS PATHFINDER. Między innymi powoduje ono znaczną zmienność w naturze cyrkulacji Hadleya od równika do średnich szerokości geograficznych, która obejmuje jedną komórkę Hadleya podczas przesileń i dwie podczas równonocy. Na wyższych szerokościach geograficznych zimą i wiosną występują zaburzenia przemieszczania się, które są podobne do ziemskich systemów burzowych; nie występują one latem. Takie systemy są wykrywane zarówno przez stacje meteorologiczne lądowników, jak i przez bardzo delikatne ślady chmur wodnych widoczne na obrazach globalnych.
Wydarzenia klimatyczne: ENSO i monsun azjatycki
El Niño-Oscylacja Południowa to zjawisko klimatyczne, którego istnienie i ogólnoświatowe powiązania zostały rozpoznane dopiero w ciągu ostatnich kilku dekad. Stanowi doskonały przykład interakcji atmosfera-ocean i zdolności regionalnych zaburzeń wywołanych przez ocean do powodowania ogólnoświatowych zmian wzorców pogodowych. W odstępach około 2-10 lat niezwykle silny prąd oceaniczny spycha ciepłe, nisko zasolone wody powierzchniowe w kierunku zachodniego wybrzeża Ameryki Południowej, gdzie następnie przemieszcza się na południe. Zjawisko to określa się mianem El Niño, co jest zapożyczeniem tradycyjnego terminu używanego przez peruwiańskich rybaków do opisu corocznego ocieplenia wód przybrzeżnych tuż po Bożym Narodzeniu. Ociepleniu wód wschodniego Pacyfiku towarzyszy wzrost temperatury powietrza. Silne El Niño może utrzymywać się przez ponad rok, a zaburzenia prądów oceanicznych Pacyfiku są generowane na przestrzeni wielu tysięcy mil na zachód od Ameryki Południowej. Zaburzenie atmosferyczne towarzyszące zmianom oceanicznym jest jeszcze bardziej rozpowszechnione. W latach El Niño susza występuje w Australii, Indonezji, południowo-wschodniej Afryce i północno-wschodniej Ameryce Południowej, podczas gdy niezwykle obfite deszcze mogą wystąpić w Ekwadorze, północnym Peru, wschodniej Afryce równikowej i obszarach na południe od Indii. Zmiana wzorców pogodowych była tradycyjnie uważana za odrębne zjawisko obejmujące przesunięcia w pozycjach sezonowych wzorców wysokiego i niskiego ciśnienia, znane jako Oscylacja Południowa. Dopiero w latach 60. ustalono związek przyczynowo-skutkowy między nią a El Niño. Mechanika zaburzeń oceanicznych obejmuje fale generowane na Pacyfiku, które wypychają ciepłą wodę na wschód, podnosząc tam nieznacznie poziom morza i zmniejszając ilość ciepłej wody w zachodnim Pacyfiku. Początek i zanik tego zdarzenia obejmują złożoną, słabo poznaną serię interakcji między zmienionym rozkładem temperatury powierzchni morza a wzorcem temperatury atmosferycznej. To, czego w ogóle nie rozumiemy, to pochodzenie zjawiska ENSO w całości. Propozycje wahają się od pomysłu, że sam wzór cyrkulacji oceanicznej napędza oscylację, aż po mało prawdopodobną koncepcję, że podmorskie erupcje dostarczają ciepło do głębokiego oceanu i stymulują ten efekt. Słabo zrozumiano również, czy oscylacje ocean-atmosfera mogą istnieć gdzie indziej niż w równikowym Pacyfiku. Wreszcie, wysunięto spekulację, że ENSO jest symptomem coraz cieplejszego klimatu na granicy niestabilności i że chłodniejsze czasy w holocenie nie doświadczały takich oscylacji. Znaczne letnie deszcze na subkontynencie indyjskim i otaczających go częściach Azji są częścią sezonowej zmiany wzoru wiatru zwanej monsunem azjatyckim. Wielki osioł płaskowyżu tybetańskiego, duży obszar lądowy kontynentu azjatyckiego z towarzyszącymi mu ekstremalnymi sezonowymi kontrastami temperatur i położenie ITCZ odgrywają rolę w definiowaniu monsunowego reżimu klimatycznego. Najbardziej dramatyczna jest sezonowa zmiana wiatrów wiosną, podczas której wiatry średniego poziomu zmieniają się z zachodnich na wschodnie, a ekstremalnie gorące i suche warunki późną wiosną ustępują miejsca wilgotnemu przepływowi na lądzie, gdy zaczyna się lato. Złożony kontynentalny przepływ powietrza jest inicjowany, co prowadzi do dużych ilości opadów w miejscach takich jak Indie. Ilość opadów deszczu dostarczanych zarówno lokalnie, jak i w całym regionie zmienia się dramatycznie z roku na rok i wydaje się być skorelowana z siłą El Niño. Ponieważ Indie i niektóre inne kraje azjatyckie są zależne od monsunu w zakresie znacznej części swojego zaopatrzenia w wodę rolniczą, przewidywalność zmienności monsunu i jej związek ze światowymi zjawiskami, takimi jak ENSO, stanowią kwestie klimatyczne o dużym znaczeniu dla człowieka.
Zmiany klimatu w przeszłości
Informacje o zmianach klimatu pochodzą, w najdłuższych skalach czasowych (od miliardów do setek milionów lat), z izotopów tlenu w krzemionkach i dowodów geologicznych, w tym geograficznego rozmieszczenia gatunków kopalnych i sygnatur zlodowacenia. W pośrednich skalach czasowych (od milionów do dziesiątek milionów lat), obfitość izotopów w osadach dna morskiego (węgiel i wodór) dostarczają bardziej szczegółowego zapisu klimatycznego. Wreszcie, w krótszych skalach czasowych dostępnych jest wiele wskaźników klimatycznych, od danych izotopowych w osadach dna morskiego w całym plejstocenie, po dane z rdzeni lodowych (wskaźniki temperatury izotopowej, zawartość dwutlenku węgla itp.), a także rdzenie słojów drzew, dane o przepływie strumieni i zapisy historyczne dla obecnego etapu holocenu. Rysunek przedstawia widmo mocy zmian temperatury atmosferycznej w skalach czasowych od geologicznej do dobowej.
Pochodzenie różnych szczytów, od najdłuższej do najkrótszej skali czasowej, jest następujące. Dane izotopowe sugerują ogólny spadek temperatury powierzchni od czasu najwcześniejszych osadów, prawdopodobnie z powodu spadku poziomu CO2 w atmosferze Ziemi. Uważa się, że obfitość tego gazu jest regulowana przez skomplikowane interakcje między wietrzeniem krzemianów (prowadzącym do uwięzienia CO2 w postaci węglanów na dnie morskim) a wulkanicznym wytłaczaniem CO2 związanym w dużej mierze z tektonicznym recyklingiem płyt oceanicznych i osadów. Dane geomorfologiczne i izotopowe wskazują na jeden, a może dwa okresy głębokich, niemal globalnych epok lodowcowych przed 500 milionami lat, a także (wraz z danymi kopalnymi) zmiany klimatu w skali stu milionów lat. Takie zmiany prawdopodobnie odzwierciedlają zmieniające się położenie kontynentów, które wpływają na cyrkulację oceaniczną, a tym samym transport ciepła, wraz ze związanymi z tym zmianami w tempie rozprzestrzeniania się dna morskiego, wulkanizmem i aktywnością górotwórczą, które wpływają na obfitość CO2 w atmosferze. Słabe wahania widoczne w 10-milionowych okresach czasu mogą być spowodowane czynnikami wulkanicznymi lub tektonicznymi, ale mogą również odzwierciedlać efekty stochastyczne, takie jak oscylacje jasności Słońca, a nawet przejścia Układu Słonecznego do i z galaktycznych obłoków molekularnych. Silne sygnały zmian klimatu w skalach czasowych 10 000-100 000 lat są prawie na pewno wynikiem zmian nachylenia osi Ziemi, mimośrodu orbity i fazowania różnych parametrów orbitalnych. Te cykle Milankovicia są naturalną konsekwencją grawitacyjnego wpływu Księżyca i innych planet na Ziemię i prowadzą do złożonych cyklicznych modulacji sezonowej i średniorocznej absorpcji promieniowania słonecznego przez Ziemię. Wariancja jest silna, ponieważ modulacje doprowadziły do oscylacji Ziemi w ciągu ostatnich 2 milionów lat, pomiędzy stanami znaczącego zlodowacenia półkuli północnej o czasie trwania rzędu 100 000 lat i ciepłymi okresami interglacjalnymi trwającymi zwykle 1/10 czasu trwania zlodowacenia. Słaby podpis wahań klimatycznych w skali tysiącletniej jest związany z optymalnym klimatem w środkowym holocenie i późniejszym ochłodzeniem. W historycznych skalach czasowych osobliwa Mała Epoka Lodowcowa, która rozpoczęła się kilka wieków temu i zakończyła się w XIX wieku, może być postrzegana jako silna wariancja, podobnie jak oscylacje typu ENSO w skalach dekadowych i półrocznych. Ruch orbitalny Ziemi, nachylenie osi i obrót (w ich obecnych względnych orientacjach) powodują silne wahania w skalach rocznych, sezonowych i dobowych. Dwa szczególnie dobrze zbadane przykłady warunków klimatycznych w przeszłości mają znaczenie dla naszego zrozumienia wywołanych przez człowieka zmian klimatycznych. Dane izotopowe i dowody geologiczne w postaci rozkładów kopalnych i geomorfologii dowodzą, że Ziemia w okresie kredy (65-100 milionów lat temu) była wolna od stałych pokryw lodowych. Aby wyjaśnić dane, różnica temperatur między równikiem a biegunem musiała wynosić 1/2-1/4 tego, co jest obecnie, przy czym równik nie był dużo cieplejszy niż obecnie, ale bieguny były cieplejsze o 20-40°C. Samo podwojenie lub czterokrotne zwiększenie poziomu CO2 w atmosferze nie wyjaśnia klimatu kredowego, ponieważ podnosi temperatury równikowe zbyt mocno. Zamiast tego, zwiększony oceaniczny transport ciepła z równika na biegun jest przywoływany w modelach GCM, które pasują do danych geologicznych i izotopowych. Pochodzenie takiego zwiększonego oceanicznego transportu ciepła nie jest dobrze poznane; być może różnica w konfiguracji kontynentalnej w okresie kredy mogła odegrać rolę. Epizod młodszego dryasu, który miał miejsce około 11 000 lat temu, podczas przejścia od zimnych warunków lodowcowych do cieplejszych warunków holocenu, jest szczególnie godny uwagi. Był to zimny okres w kontynentalnych obszarach wokół północnego Atlantyku, który trwał nie dłużej niż stulecie, podczas którego lodowce odwróciły swój bieg. Paradoksalnie, początkiem epizodu młodszego dryasu było topnienie samych lodowców. Woda z topniejącego lodowca gromadziła się w częściach wschodniej Kanady i spływała w dół Missisipi z objętością dorównującą obecnej rzece Amazonce. Lodowce blokujące ten masowy przepływ słodkiej wody przed dostaniem się do północnego Atlantyku cofnęły się na tyle około 11 000 lat temu, że woda z topniejącego lodu zaczęła płynąć na wschód. Przypuszcza się, że ten napływ słodkiej wody do północnego Atlantyku rozcieńczył słony Prąd Zatokowy na tyle, że zapobiegło to jego opadnięciu w pobliżu Islandii, a tym samym zmniejszyło lub zablokowało towarzyszące temu uwalnianie ciepła. Cyrkulacja Zatoki ustała, zastąpiona stabilną górną warstwą bardzo zimnej wody, która schłodziła północną Europę i Kanadę oraz ponownie zainicjowała narastanie lodowców poprzez zwiększone roczne opady śniegu i zmniejszone topnienie śniegu. Gdy przepływ słodkiej wody opadł, prąd Zatoki powrócił, a ocieplenie zaczęło się ponownie. Bardzo niedawne dane z rdzeni lodowych ujawniają wiele innych szybkich epizodów wahań klimatu w epokach lodowcowych i interglacjalnych plejstocenu, niektóre na skalę dziesięcioleci lub krótszą. Powyższa interpretacja epizodu młodszego dryasu doprowadziła do spekulacji, że podobne odwrócenie wywołane na północnym Atlantyku może nastąpić, jeśli działalność człowieka przyspieszy globalne ocieplenie (patrz poniżej). Modele GCM przewidują zwiększone opady deszczu na wysokich szerokościach geograficznych, ponieważ poziom CO2 wzrośnie w nadchodzącym stuleciu. Wystarczające opady deszczu mogą zmniejszyć zasolenie wód północnego Atlantyku do takiego stopnia, że osiadanie wody u wybrzeży Islandii zostanie przerwane, jak w młodszym dryasie. Trudno przewidzieć wynikłą zmianę klimatu przy użyciu modeli GCM, ale prawdopodobnie może ona zmierzać w kierunku zwiększonego zlodowacenia z dodatnim sprzężeniem zwrotnym zapewnianym przez wysoką refleksyjność lodu wodnego. Szczegóły tej domniemanej odpowiedzi na globalne ocieplenie są mniej ważne niż ogólna lekcja z młodszego dryasu, że zaburzenia związane ze zmianą klimatu w jednym kierunku mogą spowodować, że system klimatyczny zmieni tryb, który ewoluuje w zupełnie innym kierunku.
Globalne ocieplenie wywołane przez człowieka
Począwszy od połowy XIX wieku poziom CO2 w atmosferze zaczął wzrastać w wyniku działalności człowieka, w tym spalania paliw kopalnych i wylesiania. Obecna obfitość CO2 jest o 30% wyższa niż poziom bazowy przed wzrostem. Ponadto działalność człowieka zwiększa obfitość CH4 i CFC w atmosferze, które zwiększają absorpcję podczerwieni wraz z CO2. Zwiększenie zawartości gazów cieplarnianych w atmosferze zmusza średni poziom promieniowania do przesunięcia się w górę; w odpowiedzi średnia temperatura powierzchni musi wzrosnąć, aby zrównoważyć przychodzący strumień słoneczny. Jednak złożoność różnych efektów związanych z taką zmianą, w tym przesunięcia chmur i opadów, a także rola oceanu w magazynowaniu i uwalnianiu ciepła i dwutlenku węgla, wymagają użycia modelu GCM w celu szczegółowego przewidywania wynikających z tego zmian klimatycznych. Bezpośrednie zapisy temperatur z ostatnich stu lat, a także wskaźniki temperatury zastępczej dostępne w całym holocenie sugerują, że ostatnia dekada była wyjątkowo ciepła, być może najcieplejsza w ciągu ostatnich 1000 lat. Wiele debat politycznych dotyczy interpretacji danych (naturalne wahania czy wywołane przez człowieka globalne ocieplenie?) i przydatności modeli GCM w przewidywaniu lokalnych lub regionalnych skutków. Klimat może reagować liniowo na rosnącą zawartość gazów cieplarnianych, przynajmniej przez jakiś czas. Jednak młodszy dryas i inne dowody szybkich zmian klimatu w zapisie geologicznym służą jako ostrzeżenie, że działalność człowieka, zakłócając skład atmosfery, zmusi nas do radzenia sobie ze znacznymi i prawdopodobnie niepożądanymi szybkimi zmianami klimatu.
Przyszłość badań nad klimatem
Przyszłość badań nad klimatem będzie zależeć, tak jak w ciągu ostatniego półwiecza, od międzynarodowych programów współpracy w zakresie monitorowania klimatu i oceny danych klimatycznych. Specjalne programy, często ograniczone czasowo i czasami motywowane zarówno politycznymi, jak i naukowymi nakazami, przynoszą korzyści dziedzinie badań nad klimatem poprzez dodatkowe finansowanie i przyciąganie utalentowanych studentów do tej dziedziny. Międzynarodowe Lata Polarne w latach 1882-1883 i 1932-1933 były wczesnymi przykładami skupionymi na zbieraniu danych w Arktyce. Międzynarodowy Rok Geofizyczny od 1957 do 1958 roku wykazał wykonalność znacznie szerszej, jeśli nie globalnej, koordynacji gromadzenia danych w zakresie badań Ziemi, w tym klimatu. Niedawno Światowa Organizacja Meteorologiczna i Program Środowiskowy Narodów Zjednoczonych powołały Międzynarodowy Panel ds. Zmian Klimatu, który opracował kilka głównych opublikowanych ocen stanu i najbliższej przyszłości klimatu Ziemi. Kraje prowadzące podróże kosmiczne koordynują obserwacje satelitarne, a w przypadku Stanów Zjednoczonych i Europy są w trakcie wdrażania głównych systemów opartych na przestrzeni kosmicznej w celu monitorowania klimatu Ziemi z poziomem dokładności i szerokością zasięgu znacznie przewyższającą poprzednie wysiłki. Te systemy satelitarne stanowią obecne inwestycje w wysokości miliardów dolarów i euro i będą rosły w przyszłości. Imponujący wzrost możliwości obliczeniowych przyniesie korzyści badaniom klimatu na dwa sposoby, umożliwiając bardziej rozbudowane i wierniejsze modele klimatyczne oraz umożliwiając gromadzenie i przetwarzanie bardzo dużych zestawów danych na temat klimatu Ziemi. Nowe podejścia obliczeniowe do przetwarzania informacji i dostępność sieci WWW sprawiają, że dane klimatyczne są bardziej zrozumiałe i dostępne zarówno dla badaczy, jak i decydentów. Stopniowe gromadzenie danych z sond kosmicznych na Marsie, Wenus i Tytanie pozwoliło na zastosowanie modeli GCM do tych trzech pozostałych stałych ciał planetarnych o znacznych atmosferach. Takie wysiłki testują nasze zrozumienie fizyki klimatu w reżimach bardzo różniących się od reżimu samej Ziemi. W miarę jak nasze doświadczenie z klimatem Ziemi staje się coraz bardziej szczegółowe wraz z eksploracją klimatów innych planet, nasze zrozumienie procesów w nim zachodzących będzie się dramatycznie pogłębiać.
Bliskie gwiazdy podwójne
Często okazuje się, że gwiazda ma gwiazdę towarzyszącą, która znajduje się bardzo blisko niej. Często też te dwie gwiazdy zmieściłyby się wygodnie w naszym układzie słonecznym, którego promień wynosi około dziesięciotysięcznej odległości do najbliższej gwiazdy. Czasami te dwie gwiazdy są tak blisko siebie, że praktycznie się stykają. W kilku przypadkach rzeczywiście się stykają, a nawet zachodzą na siebie, tak że możemy mieć pojedynczą jednostkę w kształcie ósemki (układ podwójny "kontaktowy") składającą się z dwóch jąder gwiazdowych w pojedynczej cienkiej otoczce. Większość bliskich układów podwójnych (CB) jest odkrywana jedną z dwóch technik: (i) mogą one wykazywać okresowe przesunięcie Dopplera spowodowane ruchem na orbicie keplerowskiej (SPECTROSCOPIC BINARY STARS, lub SB) lub (ii) mogą wykazywać okresowe zaćmienia, gdy jedna gwiazda przechodzi przed drugą (ECLIPSING BINARIES, lub EB). SB i EB mają okresy od ∿30 lat do kilku dni, a nawet kilku minut. Konkretnie, ustaliliśmy okres 30 lat jako górną granicę dla "bliskości". Oznacza to separacje, zgodnie z trzecim prawem Keplera, mniejsze niż orbita Saturna, w przybliżeniu. Istnieją inne sposoby rozpoznawania niektórych klas CB. Na przykład, wybuchy kategorii NOVA i karłowatych nowych wskazują na binarność, a tak samo (często, ale nie zawsze) jest produkcja promieni rentgenowskich. Jednak binarność takich obiektów jest znana tylko dlatego, że bardzo duża ich część po dokładnym zbadaniu okazuje się być albo SB, albo EB (lub obydwoma). Statystyczny rozkład okresów w CB nie jest jeszcze dobrze określony. Chociaż znanych jest kilka tysięcy SB i EB, ich wykrycie podlega wielu efektom selekcji. Na przykład, krótkie okresy są zwykle łatwiejsze do rozpoznania niż długie okresy. Najbardziej systematyczne badania wykazują, że dłuższe okresy, powiedzmy 3-30 lat, są częstsze niż krótkie, powiedzmy 3-30 dni, ale tylko o skromny czynnik, być może czynnik 5. Wśród gwiazd podobnych do Słońca prawdopodobnie około 20% to CB, jak zdefiniowano powyżej, podczas gdy wśród masywnych gwiazd typu widmowego O proporcja musi być znacznie wyższa, ponieważ około 25% ma okresy do zaledwie około 30 dni. Dłuższe okresy orbit spektroskopowych wśród gwiazd typu O są trudne do rozpoznania, ponieważ takie gorące i masywne gwiazdy mają tendencję do wewnętrznego widmowego "drgania", które może ukryć ruch orbitalny. Jeśli dwie gwiazdy typu słonecznego krążą wokół siebie (ściśle wokół swojego środka ciężkości) z okresem około 10 lat, byłyby mniej więcej tak daleko od siebie, jak Jowisz od Słońca. Moglibyśmy nie myśleć o tym jako o bliskim, ponieważ ich separacja byłaby prawie tysiąc razy większa niż ich promienie. Jednak w miarę ewolucji gwiazdy stają się większe, ostatecznie o współczynnik kilkuset w promieniu, a może nawet tysiąca. Oczywiste jest, że gdy gwiazda jest prawie tak duża jak orbita, na której się znajduje, musi się wydarzyć coś dość drastycznego. Istnieje wiele dowodów obserwacyjnych na to, niektóre bezpośrednie, a niektóre pośrednie. Bezpośrednio obserwujemy szereg układów podwójnych, w których strumień gazu przepływa z jednej gwiazdy do drugiej. Pośrednio widzimy szereg CB zawierających zwarte pozostałości gwiazdowe: BIAŁE KARŁY (WD), GWIAZDY NEUTRONOWE (NS), a nawet CZARNE DZIURY (BH). Te pozostałości mogą wydawać się dość odległe w swoich obecnych układach podwójnych, ale muszą być potomkami gwiazd, które kiedyś były znacznie większe. Mogą znajdować się w układach podwójnych, które obecnie są zbyt blisko siebie, aby kiedykolwiek zawierały normalne gwiazdy, więc w przeszłości musiała mieć miejsce jakaś interakcja. CB są interesujące z co najmniej trzech bardzo różnych powodów. Po pierwsze, dokładny pomiar orbity, zwłaszcza w układach, które są zarówno SB, jak i EB, może doprowadzić do określenia mas i promieni gwiazd. Jest to w rzeczywistości jedyny wiarygodny sposób określania takich podstawowych parametrów. Po drugie, pokazują one szeroki zakres procesów fizycznych, których nie można zaobserwować w przypadku pojedynczych gwiazd, na przykład strumienie gazu, które mogą zostać oderwane od jednego składnika i zaabsorbowane przez drugi. Po trzecie, dają nam możliwość przetestowania wniosków na temat ewolucji gwiazd. Gwiazda o danej masie początkowej rozpoczyna większą część swojego życia w skromnym promieniu, porównywalnym ze Słońcem, gdy synteza jądrowa (spalanie wodoru do helu) zostaje ustanowiona w jej centralnym jądrze. Jest to gwiazda "ciągu głównego" (MS) i pozostaje taka, rozszerzając się powoli o współczynnik około 2,5 promienia, aż wyczerpie paliwo wodorowe w swoim centrum. Następnie ewoluuje szybciej do dużego promienia, dużej jasności i niskiej temperatury powierzchni: staje się CZERWONYM OLBRZYMEM (RG). Centralne jądro wytwarzające energię staje się natomiast bardziej zwarte. Czas życia jako RG wynosi zazwyczaj ∿10-30% czasu życia w paśmie MS. W końcu albo (a) osiąga tak wysoką jasność, że jest w stanie zdmuchnąć większość swoich zewnętrznych warstw poprzez silny wiatr gwiazdowy, albo (b) w przypadku bardziej masywnych gwiazd jądro staje się tak zwarte, że grawitacja powoduje jego implozję, a nagłe uwolnienie energii grawitacyjnej w jądrze zdmuchuje otoczkę w eksplozji supernowej. Pozostałość w obu przypadkach jest zwartym, bezwładnym obiektem, a WD w przypadku (a) i NS lub BH w przypadku (b). Czas życia tej pozostałości jest niezwykle długi, ale jednocześnie obiekt jest bardzo słaby i dlatego niepozorny. Wydaje się, że dość podstawową właściwością ewolucji gwiazd jest to, że w miarę starzenia się ich jądra stają się mniejsze, a otoczki większe. Obecne Słońce ma około 50% swojej masy w wewnętrznych 50% swojego promienia. Jednak Słońce stanie się RG za około 5 Gyr, a na późnym etapie tego procesu wewnętrzne 50% masy skurczy się do jądra (w praktyce WD) o jednej dwudziestej swojego obecnego promienia, podczas gdy pozostałe 50% rozszerzy się do otoczki około 300 razy większej od swojego obecnego promienia. Jednocześnie jego jasność wzrośnie do kilku tysięcy razy swojej obecnej wartości. Bardziej masywne gwiazdy przechodzą przez dość podobne etapy, ale tym szybciej, im większa masa. Najwyraźniej taka ekspansja musiałaby zostać w jakiś sposób zmodyfikowana, gdyby Słońce miało towarzysza w układzie podwójnym na orbicie, powiedzmy, takiej jak Ziemia. Ta orbita ma promień około 200 razy większy od promienia Słońca. W rzeczywistości, gdy Słońce osiągnie promień wynoszący zaledwie około 80 razy większy od obecnej wartości, obecność tego hipotetycznego towarzysza na orbicie Ziemi spowodowałaby, że otoczka Słońca stałaby się niestabilna. Krytyczny rozmiar jest określany przez jej "PŁAT ROCHE′A" . Dla każdej pary mas i każdego rozdzielenia orbitalnego istnieje krytyczna powierzchnia w kształcie ósemki, która ma jeden składnik w środku każdego płata. Jeśli objętość gwiazdy przekroczy objętość jej płata Roche′a, gwiazda staje się niestabilna. Jej materiał powinien wydostawać się z jej płata przez punkt przecięcia i do drugiego płata. Zaobserwowano, że kilka gwiazd robi właśnie to. Na przykład w Algol (β Per), pierwszej odkrytej EB (przez Goodricke&perime;a w 1783 r.), promień jednego składnika jest niemal równy promieniowi jego płata, a obecność strumienia gazu w układzie od dawna jest rozpoznawana przez obecność linii emisyjnych. W pozornym paradoksie gwiazda wypełniająca jej płat jest mniej masywna niż towarzysz, co przeczy teoretycznemu oczekiwaniu, że to bardziej masywna gwiazda powinna stać się niestabilna jako pierwsza. Odpowiedź na to pytanie jest taka, że gwiazda, która pierwotnie była bardziej masywna, rzeczywiście stała się niestabilna jako pierwsza, ale następnie straciła tak wiele swoich zewnętrznych warstw z powodu swojej niestabilności, że teraz jest mniej masywna z dużym marginesem. Większość, ale prawdopodobnie nie cała, utraconej masy została akreowana przez towarzysza, co jeszcze bardziej zwiększyło margines. Cztery aspekty ewolucji gwiazd są szczególnie ważne w kształtowaniu naszych oczekiwań dotyczących gwiazd podwójnych.
(i) Gwiazdy mają tendencję do zwiększania rozmiaru wraz z wiekiem, przynajmniej tak długo, jak gwiazda ma jeszcze paliwo jądrowe do spalenia. Zachowują swoją początkową masę przez większość swojego życia, ale na późnym etapie dużego promienia i dużej jasności wyrzucają znaczną część swojej masy w przestrzeń, pozostawiając zwartą, wyczerpaną pozostałość.
(ii) Tempo ewolucji silnie wzrasta wraz ze stopniem ewolucji; ekstremalny RG ewoluuje sto razy lub więcej razy szybciej niż na MS.
(iii) Tempo ewolucji jest bardzo wrażliwe na początkową masę gwiazdy: jeśli jeden składnik układu podwójnego jest powiedzmy o 20% bardziej masywny niż drugi, można się spodziewać, że przejdzie przez całe swoje życie i stanie się zwartą pozostałością, podczas gdy drugi pozostaje prawie niezmieniony na MS. Gwiazdy, których początkowa masa jest mniejsza od masy Słońca, nie mogą w ogóle znacząco ewoluować w czasie życia (uważa się, że wynosi ∿10-15 Gyr) wszechświata. (iv) Natura pozostałości (WD, NS lub BH) prawdopodobnie zależy głównie od początkowej masy gwiazdy, choć z dużo mniejszą pewnością niż trzy poprzednie propozycje. WD wydają się pochodzić z gwiazd nie większych niż 6 lub 7 razy masywniejszych od Słońca, BH prawdopodobnie z gwiazd 30-50 razy masywniejszych od Słońca, a NS z mas pośrednich. Może jednak występować pewne znaczące nakładanie się, być może w zależności od niektórych pozornie drugorzędnych właściwości gwiazdy, takich jak jej prędkość obrotowa lub siła jej pola magnetycznego.
Wstępne oczekiwanie jest takie, że tak jak ewolucja pojedynczej gwiazdy zależy głównie od jednej wielkości, jej początkowej masy, tak ewolucja układu podwójnego będzie zależeć głównie od trzech wielkości, dwóch początkowych mas i okresu orbitalnego (lub równoważnie, separacji). Ostatni z nich określi, jak daleko w swojej ewolucji może posunąć się gwiazda o większej masie początkowej, zanim stanie się niestabilna, wypełniając swój płat Roche′a i przekazując masę swojemu towarzyszowi. Po przekroczeniu tego punktu ewolucja obu gwiazd może stać się wyraźnie inna niż byłaby, gdyby nie znajdowały się w układzie podwójnym. Trzy wielkości, o których mowa powyżej, dwie masy i okres, określają (zgodnie z prawem grawitacji Newtona) nie tylko separację, ale także moment pędu. Jest to kardynalna zasada fizyki, że w układzie izolowanym moment pędu jest zachowany. Transfer masy między gwiazdami, gdy jedna z nich wypełni swój płat Roche′a, zmieni okres i separację obu gwiazd, ale nie powinien (można by przypuszczać) zmieniać jej momentu pędu. Zasada ta pozwala nam przewidzieć, jaka będzie przyszła ewolucja po rozpoczęciu transferu masy (zwykle określanego jako przepełnienie płatu Roche′a). Na tej podstawie spodziewamy się mniej więcej następujących rzeczy:
(a) przegrywający nadal traci masę, aż zostanie rozebrany do swojego zwartego (WD) jądra, a orbita w tym procesie staje się znacznie szersza;
(b) zyskujący, który prawdopodobnie nadal jest gwiazdą MS, chyba że jego początkowa masa była dość zbliżona do masy zyskującego, zacznie ewoluować szybciej i z kolei stanie się duży, aż wypełni swój własny płat Roche′a.
W praktyce jednak sytuacja wydaje się bardziej skomplikowana. Prawdopodobnym wyjaśnieniem jest to, że gwiazdy, zwłaszcza w układach podwójnych, tracą masę, nie tylko względem siebie, ale (w efekcie) do nieskończoności, tak że układ nie jest izolowany. Masa utracona do nieskończoności może przenosić moment pędu. Jeśli masa ta jest stosunkowo bogata w moment pędu w porównaniu z pierwotnym układem podwójnym, utrata może sprawić, że układ podwójny stanie się mniejszy. Jeśli jest stosunkowo uboga, może sprawić, że układ podwójny stanie się szerszy, a nawet (co jest nieco zaskakujące) tak szeroki, że stanie się nieograniczony, a oba składniki same będą zmierzać do nieskończoności w różnych kierunkach. Dwa dość ekstremalne przykłady mogą to zilustrować. Gwiazda 0957 ? 66 jest układem podwójnym dwóch gwiazd białych, z których każda ma masę około jednej trzeciej masy Słońca. Okres orbitalny jest krótszy niż 1,5 h. Nawet całkowita masa jest zbyt mała, aby mogła nastąpić jakakolwiek ewolucja, więc układ musiał stracić co najmniej jedną trzecią swojej pierwotnej masy; bardziej realistycznie, co najmniej 60%. Ponadto moment pędu jest zbyt niski, nawet o jeszcze większy współczynnik, aby układ zawierał kiedyś dwie gwiazdy MS zdolne do znaczącej ewolucji. Układ musiał utracić co najmniej 85-90% swojego pierwotnego momentu pędu. Z drugiej strony zauważyliśmy powyżej, że duża część masywnych (typu O) gwiazd MS znajduje się w CB. Można się spodziewać, że gwiazdy typu O będą ewoluować w NS, a mimo to NS są obserwowane jako przytłaczająco pojedyncze; tylko około 5% pulsarów radiowych występuje w układach podwójnych. Sugeruje to, że eksplozja supernowej, która towarzyszyła zapadnięciu się jądra do rozmiaru NS, usunęła znaczną część masy, z łatwością ponad 50% pierwotnej masy układu, jednocześnie usuwając nieproporcjonalnie mało momentu pędu. Taki proces może całkowicie zakłócić układ podwójny, dając jeden, a w dłuższej perspektywie dwa izolowane NS. Wariantem tego jest to, że eksplozja supernowej ma pewien stopień asymetrii, tak że pozostałość po eksplozji otrzymuje "kopa", który może być wystarczająco silny, aby wyrzucić ją z układu. Aby zrozumieć ewolucję CB, musimy zatem zwrócić uwagę na możliwe procesy powodujące utratę masy lub utratę momentu pędu, oprócz wszelkich spodziewanych przepełnień Rochelobe. Kilka procesów jest wymienionych tutaj.
a) Promieniowanie grawitacyjne z pewnością spowoduje utratę momentu pędu, choć zwykle w bardzo powolnej skali czasowej. Jednak wspomniana powyżej para WD powinna wpaść w siebie w ciągu mniej niż 1 Gyr.
(b) Aktywność magnetyczna może powodować utratę masy. Uważa się, że ta aktywność jest siłą napędową wiatru słonecznego. Taki wiatr jest znacznie silniejszy w rozwiniętych RG niż w gwiazdach MS, zwłaszcza stosunkowo szybko obracających się RG, które często występują w CB. Pole magnetyczne, łączące gwiazdę z wiatrem, może powodować "hamowanie magnetyczne", prawdopodobnie wydajny proces utraty momentu pędu. Utrata masy wynosząca 0,1% może wiązać się z utratą momentu pędu wynoszącą 10%.
(c) Nawet pojedyncze gwiazdy tracą dużo masy, być może 50-80% początkowej masy, z powodu znacznie silniejszych "superwiatrów" w ich bardzo jasnych ostatnich stadiach. Część z tego może zostać akreowana przez towarzysza, nawet jeśli żadna z gwiazd nigdy nie wypełni jego płata Roche'a. Ta utrata masy prawdopodobnie nie spowoduje dużej utraty momentu pędu, a ostateczny układ podwójny może być mniej więcej tak blisko, jak początkowy układ podwójny, a nawet nieco szerszy.
(d) Przepełnienie płatu Roche'a może spowodować katastrofalną ucieczkę, jeśli stosunek masy (przegrany/zyskający) jest duży lub przegrany ma głęboko konwekcyjną otoczkę, taką jak można się spodziewać w układzie RG. Masa zrzucona przez przegrywającego, zamiast gromadzić się na zyskującym, może gromadzić się w "wspólnej otoczce" wokół układu i ostatecznie zostać wyrzucona, niosąc nie tylko dużą ilość masy, ale także nieproporcjonalnie dużą ilość momentu pędu, tak że ostateczny układ podwójny może być znacznie mniejszy niż początkowy. Ten proces może nawet doprowadzić do zlewania się, a pozostały obiekt będzie szybko obracającą się pojedynczą gwiazdą.
(e) Jak wskazano powyżej, wybuch supernowej może usunąć dużo masy i albo zwiększyć, albo zmniejszyć moment pędu w pozostałej masie. Dobrze wymierzony "kopniak" może nawet spowodować połączenie się, w wyniku czego pozostałość NS uderzy w towarzyszący MS i opadnie do jego środka.
Wiele zaobserwowanych układów podwójnych wydaje się być modyfikowanych przez jeden lub więcej z tych procesów, prawdopodobnie oprócz przepełnienia płatu Roche′a. Tabela zawiera listę szeregu układów podwójnych i ich parametrów astrofizycznych, takich jak okres, masy, mimośród, separacja i promienie (jeśli są znane).
Wykazują one szeroki zakres stanów ewolucyjnych dla każdego składnika. Oprócz stanów MS, RG, WD, NS, BH uwzględniamy dwa kolejne, przedciąg główny (PM) i gorącą pozostałość, które opisujemy poniżej. Stan taki jak "RG+MS; S" oznacza, że gwiazda RG i MS znajduje się w stanie "półoddzielonym" (S) - gdzie większa gwiazda wypełnia swój płat Roche′a. D odnosi się do stanu "oddzielonego" - a C do stanu "kontaktowego" . TY CrA jest najwyraźniej bardzo młodym układem podwójnym, w którym mniej masywna gwiazda nadal kurczy się w kierunku MS; fuzja wodoru nie osiągnęła jeszcze stanu równowagi. Kiedy to nastąpi, układ będzie przypominał nieco GGLup, w którym mniej masywna gwiazda jest również mniejsza. α Vir (Spica), GG Lup, RT And, α Aur (Capella) i V2291 Oph to wszystkie normalne układy, niektóre bardzo bliskie, a niektóre szersze, w których nie wystąpił jeszcze żaden przelew płatów Roche′a. W każdym przypadku bardziej masywna gwiazda wypełni swój płat Roche′a w odpowiednim czasie. W α Aur widzimy, że obie gwiazdy są olbrzymami: zgodnie z punktem (iii) powyżej mają niemal równe masy. V2291 Oph ma dość długi okres (∿1 rok). Gdyby był jeszcze 20 razy dłuższy, RG mógłby ewoluować bez przelewu płatów Roche′a, ale z ostatnim epizodem superwiatru - procesem (c) powyżej - który przekształciłby go w a WD bez większego wpływu ani na okres, ani na drugą gwiazdę. Pozostawiłoby to ją jak α CMa (Syriusz), gdzie WD ma tylko połowę masy swojego towarzysza, ale prawdopodobnie była kiedyś bardziej masywnym składnikiem. Dalsza ewolucja drugiej gwiazdy w V2291Oph byłaby podobna (nadal zakładając, że okres byłby dłuższy) i pozostawiłaby szeroką parę WD, takich jak EG52. Jednak ? Cap pokazuje, że pewna znacząca interakcja może mieć miejsce przy okresach orbitalnych kilku lat. Tutaj jedna gwiazda, prawdopodobnie pierwotnie bardziej masywna, jest WD, ale towarzysz RG ma widmo niezwykle bogate w bar (Ba) - a także niektóre inne pierwiastki. Oczekuje się, że te pierwiastki powstaną w wyniku syntezy jądrowej dopiero na bardzo późnym etapie ewolucji, krótko przed etapem superwiatru. Musiały zostać wytworzone przez pierwszą gwiazdę, wyrzucone w jej superwiatrze i akreowane przez drugą gwiazdę, gdzie teraz pojawia się w widmie. BF Cyg jest prawdopodobnie w stanie, w którym ζ Cap będzie ewoluować, gdy jej gigantyczny składnik będzie jeszcze większy. Ten "symbiotyczny" układ pokazuje połączenie chłodnej, bardzo dużej gwiazdy i małego gorącego obiektu, prawdopodobnie gorącej pozostałości RG, która utraciła otoczkę, ale jeszcze nie jest WD. Gorący obiekt wydaje się oddziaływać z wiatrem z obecnego składnika RG, który być może wypełnia połowę jego płatu Roche′a. Kiedy wypełnia swój płat Roche′a, interakcja może być dość dramatyczna - przypadek (d) powyżej - prowadząc do fazy wspólnej otoczki i pozostawiając parę WD + WD, prawdopodobnie pośrednią w okresie między 0957 ? 66 a EG52. CI Cyg jest innym układem symbiotycznym, ale tutaj gorący obiekt jest prawdopodobnie gwiazdą MS, ogrzewaną przez akrecję z wiatru RG, a nie WD. Jest zatem raczej mniej niż bardziej rozwinięta niż ζ Cap (i prawdopodobnie ma znacznie mniejszą masę). Epizod ze wspólną otoczką wydaje się raczej prawdopodobny, ponieważ przyszły przegrany, RG, jest prawdopodobnie trzy razy masywniejszy od zyskującego. Masa wyrzucona we wspólnej otoczce może na krótko zabłysnąć jako mgławica planetarna w świetle ultrafioletowym z odsłoniętego jądra RG (gorąca pozostałość), a jeśli okres ten zostanie znacznie skrócony przez fazę wspólnej otoczki, jak się spodziewano, możemy otrzymać obiekt taki jak UU Sge, który jest otoczony przez mgławicę planetarną Abell 63. Wiele innych mgławic planetarnych ma gwiazdy centralne CB, które najłatwiej zrozumieć jako pozostałości fazy wspólnej otoczki . W UU Sge można by się spodziewać, że gorący resztkowy obiekt ostygnie dość szybko do WD, a następnie układ może nie zmieniać się dalej, ponieważ druga gwiazda ma zbyt małą masę, aby ewoluować - punkt (v). Jednak utrata momentu pędu przez proces (b) może działać, ponieważ wiadomo, że chłodne, szybko obracające się karły MS są aktywne magnetycznie. To zmniejszyłoby układ podwójny do momentu, aż mógłby stać się podobny do DQHer, gdzie chłodny karzeł wypełniałby swój płat Roche′a. Takie układy podwójne są zmiennymi "kataklizmicznymi", które wykazują epizodyczne wybuchy. Są one spowodowane połączeniem niestabilności w akreującym przepływie gazu (nowe karłowate) i niestabilności termojądrowej w gazie niedawno akreowanym na powierzchni składnika WD (nowe klasyczne). DQ Her miał klasyczny wybuch nowej w 1934 roku. Układy o krótkim okresie początkowo, takie jak GG Lup, ? Vir i RT And, powinny osiągnąć przepełnienie płatów Roche′a znacznie wcześniej niż powiedzmy CI Cyg, być może nawet przed przejściem z MS do RG. λ Tau i β Per (Algol) to dwa takie układy podwójne z trwającym przepełnieniem płatów Roche′a. Pierwszy może pochodzić ze stosunkowo masywnego układu, pośredniego między ? Vir i GG Lup, drugi z czegoś pośredniego między RT And i GG Lup. Przegrany w β Per jest teraz RG, ale był prawdopodobnie MS, gdy rozpoczął się przepełnienie płatów Roche′a. W przeciwieństwie do szerszych układów, takich jak V2291 Oph lub CI Cyg, nie ma miejsca, aby RG, w przyszłości, ewoluował do dużego promienia i masywnego rdzenia WD. Zamiast tego RG w β Per prawdopodobnie straci całą swoją otoczkę, gdy rdzeń będzie nadal obiektem o małej masie. Produktem będzie układ podobny do V1379 Aql, w którym gorący resztkowy obiekt (jeszcze nie WD) stanowi zaledwie 10% masy towarzysza i prawdopodobnie jest resztką dawnego RG. Towarzysz w V1379 Aql sam ewoluował z MS, stając się RG i wkrótce wypełni swój własny płat Roche′a. Znaczny stosunek mas prawdopodobnie sprawi, że będzie to zdarzenie o wspólnej otoczce - punkt (d) - a następnym etapem będą dwa WD o małej masie, na bardzo krótkiej orbicie, prawdopodobnie takiej jak 0957?66. Promieniowanie grawitacyjne - punkt (a) - spowoduje, że te WD będą się spiralnie zbliżać do siebie w dość krótkiej skali czasowej (około 10 milionów lat), aby spowodować trzeci epizod przepełnienia płatu Roche′a. Układ może przypominać AM CVn, który wydaje się (ale ze znaczną niepewnością) być układem podwójnym o ultrakrótkim okresie dwóch WD, przy czym większy (i mniej masywny) składnik przelewa się przez płat Roche'′. Niektóre układy podwójne, takie jak Z Her, są wystarczająco szerokie, aby jeden składnik stał się przynajmniej małym RG przed przepełnieniem płatu Roche′a. Dziwne jest tutaj to, że bardziej rozwinięty składnik jest nieco mniej masywny niż jego towarzysz. Może to być spowodowane punktem (b) powyżej; aktywność magnetyczna może powodować znacznie szybszą niż normalna utratę masy przez wiatr gwiazdowy, krótko przed rozpoczęciem przepełnienia płatu Roche′a. Jednak towarzysz sam jest dość rozwinięty i może być również RG, gdy rozpocznie się przepełnienie płatu Roche′a. Możemy zatem otrzymać podwójny układ podwójny RG półoddzielony, taki jak RT Lac. Późniejsza ewolucja może również przeprowadzić układ przez etapy takie jak V1379 Aql, 0957 ? 66 i AM CVn. W układzie początkowo takim jak RT And, w którym dwa składniki prawie się stykają, mimo że są ledwie rozwinięte, możemy się spodziewać, że bardzo krótko po przepełnieniu płatu Roche′a składniki faktycznie się zetkną . Zarówno ewolucja jądrowa, jak i hamowanie magnetyczne - punkt (b) - mogą sprawić, że układ będzie jeszcze mniejszy w tej fazie kontaktu, ale może to zrobić tylko wtedy, gdy przepływ masy zostanie średnio odwrócony, tak że mniej masywna gwiazda zostanie stopniowo wchłonięta przez bardziej masywną. Może to być początek układu takiego jak CrA, który musi być w dość zaawansowanym stadium, ponieważ jeden składnik jest 10 razy bardziej masywny niż drugi. Osobliwością w tym i innych układach podwójnych kontaktowych jest to, że oba składniki mają mniej więcej taką samą temperaturę i jasność, podczas gdy gdyby były oddzielne, mniej masywny składnik byłby co najmniej 1000 razy słabszy. Wydaje się to wskazywać, że gdy dwie gwiazdy są w kontakcie, cieplejsza podgrzewa chłodniejszą, wysyłając energię przez wąską "szyję" łączącą je. Można przypuszczać, że masa przepływa powoli w przeciwnym kierunku, aż do momentu, gdy mniej masywna gwiazda zostanie całkowicie pochłonięta, a to, co pozostaje, to pojedyncza gwiazda, dająca niewielkie wskazówki na temat jej poprzedniej historii podwójnej. Jeśli jeden składnik jest wystarczająco masywny, może być przeznaczony do tego, by skończyć jako NS lub BH, a nie WD. α Vir może w odpowiednim czasie wytworzyć dwa NS, &;ambda; Tau prawdopodobnie tylko jeden NS i jeden WD. Φ Per być może reprezentuje późny etap przyszłej ewolucji ? Vir, gdy przepełnienie płatów Roche′a rozebrał początkowo masywniejszą gwiazdę do gorącej pozostałości, która prawdopodobnie nie jest bardzo daleko od wybuchu supernowej. Dłuższy okres w Φ Per nie jest sprzeczny z dużo krótszym początkowym okresem, ponieważ zachowanie momentu pędu powinno powodować wzrost okresu w miarę postępu przepełnienia płatów Roche′a. CV Ser może być porównywalnie późnym etapem znacznie masywniejszego układu podwójnego, a można by argumentować, że bardziej rozwinięty, ale mniej masywny składnik może zmierzać w kierunku BH, a nie NS. Chociaż wcześniej argumentowaliśmy, że wybuch supernowej prawdopodobnie rozbije układ podwójny, rozsadzając dwa składniki na oddzielne pojedyncze gwiazdy, najwyraźniej nie zawsze tak się dzieje, ponieważ układy podwójne, takie jak QVNor i Cyg X-1, mają odpowiednio towarzysza NS i BH. Te ultrakompaktowe towarzysze są identyfikowane przez fakt, że są bardzo jasne w promieniach rentgenowskich . BH jest wnioskowana w Cyg X-1, ponieważ, chociaż jej masa nie jest dobrze znana, musi być ona w każdym rozsądnym modelu kilkakrotnie większa niż maksymalna możliwa masa NS. Zarówno w QV Nor, jak i Cyg X-1 występuje normalna gwiazda, jak również zwarta pozostałość. Ten normalny składnik musi sam rosnąć z wiekiem i prowadzić do drugiego epizodu przepełnienia Rochelobe. Jednak w tych przypadkach stosunek mas jest bardzo ekstremalny, co zgodnie z punktem (d) sugeruje fazę wspólnej otoczki z prawdopodobieństwem, że orbita skurczy się o duży współczynnik. To może być początek podwójnego układu podwójnego NS, takiego jak 1913 + 16. Nie rozpoznano jeszcze żadnego układu podwójnego BH + NS, ale prawdopodobnie możemy się spodziewać ich niewielkiej liczby w Galaktyce. Dość duży początkowy stosunek masy wydaje się być wymagany do wytworzenia układu takiego jak V404 Cyg, w którym jeden składnik jest BH, a drugi jest dość skromnym RG. Być może zaczęło się to od okresu tak długiego jak kilka lat, z jedną gwiazdą o masie 40 mas Słońca, a drugą tylko 2 lub 3. Bezpośrednio nie znamy takich układów, ale byłyby bardzo trudne do rozpoznania. Bardziej masywna gwiazda mogła na krótko stać się ekstremalnym RG, wypełnić swój płat Roche′a, a następnie ulec masywnemu wyrzuceniu otoczki i jednoczesnemu skurczeniu orbity przez mechanizm wspólnej otoczki. Pozostałość masywnej gwiazdy zapadła się następnie w eksplozji supernowej, tworząc BH, ale być może raczej przypadkowo, nie zakłócając nowego krótkookresowego układu podwójnego. Następnie składnik o małej masie ewoluował i teraz cierpi na przepełnienie Rochelobe. RG powinien stracić całą swoją otoczkę i skończyć jako WD: wynik byłby nieco podobny do układu podwójnego 1855 + 09, chociaż z czarną dziurą, a nie czarną dziurą. Aby uzyskać sam układ 1855 + 09, moglibyśmy potrzebować umiarkowanie mniej masywnych gwiazd pierwotnych, ale historia może być podobna. Nauka rozumienia procesów ewolucyjnych, w wyniku których gwiazdy CB osiągnęły konfiguracje, w których są obserwowane, jest wciąż w powijakach. W żadnym wypadku nie wszystkie niewielkie wybory w tabeli 1 wygodnie pasują do obecnego zrozumienia, a znanych jest kilka znacznie trudniejszych układów. Aby dodać do niepewności, kilka gwiazd okazuje się po dostatecznie dokładnej inspekcji potrójnymi, a trzecia gwiazda może być zdolna do interakcji z pierwszymi dwoma, aby zapewnić dodatkową warstwę złożoności.
Bliskie gwiazdy podwójne: powstawanie i ewolucja
Układ podwójny składa się z dwóch gwiazd związanych grawitacyjnie, które krążą wokół wspólnego środka ciężkości (COG). Obserwacje wskazują, że większość gwiazd należy do układów podwójnych lub nawet układów wielokrotnych składających się z trzech, czterech lub więcej gwiazd. Układy wielokrotne mają tendencję do hierarchii, tzn. układy potrójne zwykle składają się z bliskiej pary, przy czym trzeci towarzysz krąży w znacznie większej odległości itd. Pojedyncze gwiazdy, takie jak Słońce, są mniej powszechne. Dlatego nie można opracować kompleksowej teorii ewolucji gwiazd bez uwzględnienia efektów ewolucji podwójnej. Mówimy o BLISKICH GWIAZDACH PODWÓJNYCH, gdy dwie gwiazdy są tak blisko siebie, że mają głęboki wpływ na wzajemną ewolucję. Najczęściej jest to spowodowane siłami pływowymi (patrz poniżej), przez które gwiazdy są deformowane, a gdy jedna z gwiazd rozszerza się poza pewną krytyczną otaczającą powierzchnię (PŁAT ROCHE'A), powoduje wymianę masy między dwiema gwiazdami. Ponieważ gwiazdy znacznie pęcznieją w trakcie swojego życia, często o kilka rzędów wielkości, nawet układy podwójne z okresami orbitalnymi wynoszącymi dziesięciolecia mogą być bliskimi układami podwójnymi. G.P. Kuiper (1941) jako pierwszy rozpoznał znaczenie płatów Roche′a dla gwiazd podwójnych. Bliźniacze układy podwójne można podzielić na trzy szerokie klasy: oderwane (D), półoderwane (SD) i kontaktowe (C), w zależności od tego, czy żadna (D), tylko jedna (SD) lub obie gwiazdy wypełniają swoją krytyczną powierzchnię Roche′a dla wymiany masy. Prototypowym półoderwanym ciasnym układem podwójnym jest ALGOL (β Persei); jego okresowe (2,87 dnia) zmiany jasności zostały po raz pierwszy odkryte w 1667 r., ale dopiero w 1783 r. John Goodricke wyjaśnił te zmiany w kategoriach zaćmienia jednej gwiazdy przez drugą w ciasnym układzie podwójnym. Po wprowadzeniu spektroskopii gwiazdowej pod koniec XIX wieku udowodniono, że ta idea jest słuszna. Jednak wraz z pojawieniem się obliczeń ewolucji gwiazd na komputerach elektronicznych około 1950 r. ⊙
Deformacja pływowa gwiazd podwójnych
Gdy odległość orbitalna D między dwoma składnikami podwójnymi jest duża w porównaniu z wymiarem największej gwiazdy, dynamikę dwóch związanych gwiazd można odpowiednio opisać za pomocą układu dwóch mas punktowych. Jednakże, gdy rozmiar R największej gwiazdy nie jest dużo mniejszy niż odległość orbitalna D, należy wziąć pod uwagę wewnętrzną strukturę gwiazdy (gwiazd). Różnica między przyciągającą siłą grawitacyjną towarzysza na bliskiej i dalekiej stronie drugiej gwiazdy jest regulowana przez prawo odwrotnych kwadratów Newtona. Stosunek między siłą grawitacyjną towarzysza w dwóch skrajnych punktach obu półkul gwiazdowych większej gwiazdy wynosi zatem [(D - R)/(D + R)]-2. Ten stosunek może znacznie różnić się od jedności, jeśli R/D nie jest dużo mniejsze od jedności. Oczywiste jest, że wzajemne przyciąganie grawitacyjne nie tylko utrzymuje dwie gwiazdy razem na ich orbicie, ale także ściska gwiazdy, oddalając je od siebie wzdłuż linii łączącej dwa centra gwiazdowe. Ta deformacja jest przejawem "siły pływowej", tj. różnicy siły grawitacyjnej nad gwiazdą. Jeśli orbita jest ekscentryczna i/lub obroty gwiazd nie są synchroniczne z obrotem orbity, deformacja pływowa bliskich składników układu podwójnego jest oczywiście zależna od czasu. Spadek energii orbitalnej poprzez nieuchronne rozproszenie tych okresowych deformacji pływowych generuje momenty pływowe między gwiazdami, które mają tendencję do kołowego (i kurczenia) orbity i mają tendencję do synchronizowania spinów gwiazd z obrotem orbity. Skala czasowa tego procesu relaksacji pływowej szybko maleje wraz ze wzrostem R/D, tj. ze wzrostem ściskania pływowego składników układu podwójnego. W przypadku wystarczająco bliskich układów podwójnych deformacja pływowa gwiazd może stać się tak poważna, że materia powierzchniowa w jednej z gwiazd (lub obu) staje się niezwiązana i zaczyna płynąć do towarzysza, zjawisko znane jako przepełnienie płatów Roche′a (RLO).
Zasady transferu masy w ciasnych układach podwójnych
Przyjmijmy tzw. "przybliżenie Roche&pimel;a", tj. załóżmy, że momenty pływowe działały wystarczająco długo, aby orbita układu podwójnego stała się kołowa (tj. obie gwiazdy opisują okręgi wokół wspólnego środka ciężkości). Załóżmy również, że w wyniku momentów pływowych gwiazdy obracają się wokół swojego indywidualnego środka ciężkości z tą samą prędkością kątową, co orbita. Ponieważ wewnętrzny rozkład masy gwiazd wykazuje silne skupienie w centrum gwiazdy (zwykle wzrastające wraz z wiekiem), możemy, jako pierwsze przybliżenie dla pola grawitacyjnego w rozrzedzonych warstwach zewnętrznych, założyć, że cała masa jest skoncentrowana w centrum gwiazdy. Rozważmy teraz cząstkę testową (tj. masę punktową o zaniedbywalnej masie w porównaniu z masami gwiazd M1 i M2) dryfującą poza dwiema gwiazdami. Wprowadzając układ obracający się z tą samą prędkością kątową = [G(M1 + M2)/D3]1/2 co ruch orbitalny wokół środka ciężkości, możemy wyrazić przyspieszenie doświadczane przez tę cząstkę jako:
gdzie G jest stałą grawitacyjną Newtona, i
są wektorami od dwóch mas gwiazdowych do cząstki testowej, a
r jest wektorem od COG do cząstki. Dwa ostatnie człony po prawej stronie opisują przyspieszenie odśrodkowe i przyspieszenie Coriolisa w naszym obracającym się układzie odniesienia. Można wykazać, że przyspieszenie współbieżnej cząstki testowej (z
) można wyrazić jako gradient efektywnego potencjału grawitacyjnego (skorygowanego o efekt odśrodkowy):
gdzie d jest odległością cząstki od osi orbity przechodzącej przez COG. Powierzchnie równe Ψ są znane jako powierzchnie ekwipotencjalne Roche′a;. Przekroje poprzeczne z płaszczyzną orbity zawierają pięć szczególnych punktów, zwanych punktami Lagrange′a L1, L2,…, L5, w których przyspieszenie współporuszającej się cząstki znika, tj. w których przyspieszenie grawitacyjne spowodowane przez dwie gwiazdy jest dokładnie znoszone przez przyspieszenie odśrodkowe od osi orbity. Powierzchnia ekwipotencjalna przechodząca przez wewnętrzny punkt Lagrange′a L1 składa się z dwóch gruszkowatych płatów Roche′a i tworzy największą zamkniętą powierzchnię wokół każdej z dwóch gwiazd, łącząc się w punkcie L1. Można wykazać, że powierzchnie ekwipotencjalne Roche′a wewnątrz gwiazd pokrywają się z powierzchniami o równym ciśnieniu i gęstości: ekwipotencjalne Roche′a (w przybliżeniu) nadają kształt dwóm gwiazdom w układzie podwójnym. Co się stanie, jeśli jedna z dwóch gwiazd rozszerzy się i wypełni swój płat Roche′a? Widzieliśmy, że cząstka testowa w spoczynku w L1 nie doświadcza żadnego przyspieszenia netto. Jednak wewnątrz gwiazdy wypełniającej płat działa inna siła ze względu na gradient ciśnienia termicznego w gazie gwiezdnym. Jeśli gwiazda jest oderwana, ta siła ciśnienia równoważy przyciąganie grawitacyjne gwiazdy do wewnątrz (skorygowane o siłę odśrodkową spowodowaną obrotem gwiazdy). Ale ponieważ siła grawitacyjna netto (skorygowana o obrót) wynosi zero w L1, siła ciśnienia jest tam niezrównoważona i wydmuchuje strumień gazu przez region (punktu siodłowego) wokół L1 do płatu Roche′a towarzysza. Tam zostanie on szybko przyspieszony do prędkości naddźwiękowych przez przyciąganie grawitacyjne towarzysza. Przeniesiona masa (lub przynajmniej jej część) ostatecznie spadnie na towarzysza. Ponieważ przepływ masy przez L1 niesie orbitalny moment pędu, nie może on spaść bezpośrednio na gwiazdę towarzyszącą i - jeśli ta ostatnia jest wystarczająco zwarta, aby strumień nie uderzył w nią bezpośrednio - utworzy wokół gwiazdy towarzyszącej dysk akrecyjny, w którym część energii spadającej zostanie rozproszona i wypromieniowana. Wymiana masy głęboko zmienia dalszą ewolucję obu gwiazd.
Ewolucja orbitalna
Proces wymiany masy jest skomplikowanym zjawiskiem hydrodynamicznym, którego szczegóły są nadal słabo poznane. Ogólny obraz jest następujący. Załóżmy dla uproszczenia, że cała materia, która wpływa do płatu Roche′a towarzysza, jest ostatecznie akreowana przez towarzysza i że orbitalny moment pędu układu
jest zachowany podczas wymiany masy. Część orbitalnego momentu pędu może zostać pochłonięta (poprzez momenty pływowe) przez spiny gwiazd, ale z wyjątkiem ekstremalnych układów, można to zwykle pominąć. Ponieważ ilość masy i momentu pędu zmagazynowanego w materii przeniesionej, ale jeszcze nieakreowanej, można pominąć w porównaniu z ilością obu gwiazd, nowe rozdzielenie orbitalne po wymianie danej ilości masy jest podane przez warunek, że Jorb jest stały. Jeśli zróżnicujemy powyższe wyrażenie względem czasu (oznaczone kropką), to warunek Jorb = 0 daje
co pokazuje, że transfer masy z masywniejszej gwiazdy (M1) do gwiazdy mniej masywnej ( ˙M1 < 0) daje D˙ < 0 i w ten sposób powoduje kurczącą się orbitę. Z drugiej strony, gdy M1 < M2 transfer masy do Mposzerza orbitę. Obserwacje wielu układów podwójnych potwierdzają ten podstawowy obraz, chociaż wiele szczegółów jest nadal słabo znanych. Na przykład obserwacje materii okołogwiazdowej wokół bliskich układów podwójnych SD wskazują, że część przeniesionej materii może uniknąć akrecji przez towarzysza. Jednak z wyjątkiem sytuacji ekstremalnych,założenie braku utraty masy przez układ wydaje się ogólnie dawać przynajmniej jakościowo poprawny obraz.
Reakcja gwiazdy tracącej masę>
Ponieważ masywniejsza gwiazda (pierwotna) w układzie podwójnym ma największy promień i ewoluuje najszybciej, będzie pierwszą, która rozszerzy się do swojego płatu Roche′a w początkowo oderwanych bliskich układach podwójnych. Właśnie widzieliśmy, że separacja orbitalna D zanika w odpowiedzi na transfer masy do mniej masywnego składnika. Rozmiar płatu Roche′a wokół głównego zmniejsza się wraz z D i zależy od odpowiedzi głównego na utratę materii powierzchniowej, w jakiej skali czasowej kontynuowany jest transfer masy. Ta reakcja zależy od rozwarstwienia w otoczce głównego: głęboka otoczka konwekcyjna charakteryzuje się stromym gradientem temperatury. Kiedy masa jest tracona na jej powierzchni, szybka adiabatyczna ekspansja nowo odsłoniętych warstw powierzchniowych - w celu przywrócenia globalnej równowagi hydrostatycznej - wydobywa stosunkowo gorący materiał, sprawiając, że gwiazda początkowo jest większa niż jej konfiguracja równowagi termicznej. Z drugiej strony, kiedy otoczka jest przeważnie radiacyjna, dla której gradient temperatury jest mniej stromy, adiabatyczna ekspansja powoduje, że gwiazda jest mniejsza niż jej rozmiar równowagi termicznej. Oczywiste jest, że RLO z głębokiej konwekcyjnej otoczki jest z natury niestabilne, ponieważ im większa utrata masy, tym silniejsza szybka ekspansja adiabatyczna i tym większe rozszerzenie pierwotnego poza płat Roche′a. Możemy wyróżnić trzy skale czasowe dla transferu masy. Dynamiczna wymiana masy w skali czasowej występuje, gdy szybka adiabatyczna odpowiedź pierwotnego na utratę masy powoduje, że powierzchnia pierwotnego znajduje się poza skurczoną powierzchnią Roche′a. Pierwotnego nie można utrzymać wewnątrz jego płatu Roche′a, więc jego warstwy powierzchniowe zostaną wyczerpane przez ciągłą ekspansję przez L1. Taka sytuacja ma miejsce, gdy pierwotny jest (super)olbrzymem i ma głęboką konwekcyjną otoczkę. Podobna niestabilna sytuacja ma miejsce, gdy (masywniejsza) gwiazda kontaktowa jest zdegenerowana (biały karzeł), ponieważ takie gwiazdy zawsze rozszerzają się, tracąc masę. Wymiana masy w skali czasu termicznego ma miejsce, gdy po szybkiej adiabatycznej ekspansji, która przywraca globalną równowagę hydrostatyczną, gwiazda pierwotna pozostaje wewnątrz skurczonego płata Roche′a i nie dochodzi do niekontrolowanej wymiany masy. Transfer masy jest następnie napędzany przez (wolniejszą) relaksację termiczną gwiazdy pierwotnej: przywracając równowagę termiczną w jej zaburzonych warstwach zewnętrznych, gwiazda ponownie rozszerzy się poza płat Roche′a. Ten typ przepełnienia płatu Roche′a występuje w gwiazdach pierwotnych z (głównie) promienistymi warstwami zewnętrznymi i jest samoregulujący, ponieważ relaksacja termiczna i wynikająca z niej ekspansja konkurują z kurczeniem się spowodowanym szybką utratą masy. Wymiana masy w skali czasu jądrowego ma miejsce, gdy gwiazda kontaktowa jest mniej masywna niż akretor, a separacja układu podwójnego i ogólnie płat Roche′a rozszerzają się. W tych okolicznościach wymiana masy może być utrzymana tylko przez ewolucyjną ekspansję gwiazdy pierwotnej napędzaną reakcjami syntezy termojądrowej w jej wnętrzu. Sytuacja taka ma miejsce w późniejszych fazach transferu masy, po odwróceniu stosunku mas w układzie binarnym, i skutkuje najwolniejszym trybem wymiany masy.
Reakcja akreującego towarzysza
Rozważmy teraz, co dzieje się z akreującym towarzyszem wtórnym podczas początkowego RLO. Będąc mniej masywną gwiazdą w układzie, akreujący odłączony towarzysz ma zazwyczaj dłuższą skalę czasu termicznego niż gwiazda kontaktowa. Dlatego jego równowaga termiczna zostaje poważnie zaburzona przez szybką akrecję przeniesionego materiału, szczególnie dlatego, że akreowany materiał niesie znaczną energię kinetyczną po opadnięciu z L1. Ta energia kinetyczna jest w większości rozpraszana na powierzchni akretora lub w jej pobliżu, znacznie go ogrzewając. (Zwykle) niewielka część orbitalnego momentu pędu przenoszona przez strumień akrecyjny może spowodować szybki obrót akretora. Jest prawdopodobne, że akretor powiększy się do lub poza swój płat Roche′a, szczególnie podczas dynamicznej fazy transferu masy w skali czasu, ale prawdopodobnie również podczas wymiany w skali czasu termicznego. W takim przypadku układ podwójny wkrótce ewoluuje w układ kontaktowy ze wspólną otoczką wokół dwóch płatów Roche′a. Późniejsza ewolucja takich układów kontaktowych jest słabo poznana.
Przypadki A, B i C wymiany masy
Istnieją trzy główne fazy ewolucyjne, podczas których gwiazda rozszerza się i może najpierw wypełnić swój płat Roche′a, a mianowicie faza spalania wodoru w jądrze (faza ciągu głównego) oraz fazy szybkiego kurczenia się jądra w kierunku zapłonu helu i zapłonu węgla. Kippenhahn i Weigert (w 1967 r.) wprowadzili odpowiednią klasyfikację odpowiednio do przypadków A, B i C wymiany masy.
Przypadek A. Gwiazda pierwotna wypełnia swój płat Roche′a, będąc nadal w ciągu głównym. Gdy rozpocznie się przepełnienie płata Roche′a, równowaga termiczna gwiazdy pierwotnej staje się coraz bardziej zaburzona i następuje szybka faza wymiany masy w skali czasu termicznego, w której stosunek mas q jest więcej niż odwrócony. Następnie ewolucja zwalnia do skali czasu jądrowego. Gwiazda wypełniająca płat Roche′a stała się nadświetlnym podolbrzymem spalającym wodór w jądrze. Znanych jest wiele zmiennych zaćmieniowych tego typu. Symulacje numeryczne pokazują, że przypadek A wymiany masy prawie zawsze prowadzi do kontaktu podwójnego.>
>
Przypadek B. Pierwotny jest (sub)olbrzymem spalającym wodór w powłoce, gdy osiąga płat Roche′a. Początkowa szybka faza transferu masy może być albo w dynamicznej skali czasu (gdy pierwotny rozwinął głęboką otoczkę konwekcyjną), albo w skali czasu termicznego, gdy konwekcja w otoczce jest mniej rozwinięta. Następna wolniejsza faza transferu masy do teraz masywniejszego towarzysza przebiega albo w skali czasu termicznego kurczącego się jądra helowego, albo w skali czasu jądrowego źródła powłoki wodorowej w mniej masywnych pierwotnych jądrach, które rozwinęły zwarte zdegenerowane jądro helowe.>
>
W przypadku pierwotnych jąder pierwotnie masywniejszych niż 3M⊙ wymiana masy kończy się, gdy pierwotny zapłon helu w jądrze, przez co pozostałość pierwotnego jądra (prawie pozbawiona otoczki wodorowej) kurczy się wewnątrz płata Roche′a. Przypadek B w masywnych układach podwójnych wytwarza zatem gwiazdy niemal czystego helu (gwiazdy WOLFA-RAYETA (gwiazdy WR)) na orbicie z towarzyszem ciągu głównego. Masywniejsze gwiazdy helowe (w przybliżeniu MHe > 2,5M⊙) eksplodują następnie jako supernowe typu II: pozostałe jądro zapada się do gwiazdy neutronowej, a nawet czarnej dziury. Pierwotne gwiazdy, pierwotnie mniej masywne niż 3M⊙, kończą fazę szybkiego transferu masy, gdy ekspansja gwiazdy zwalnia wraz z początkiem degeneracji elektronów w silnie skompresowanym jądrze helowym. Następująca po tym powolna wymiana masy tworzy układy podwójne o stosunkach mas tak małych jak 1/5 lub 1/10. Wtórny układ ciągu głównego jest teraz znacznie jaśniejszy niż jego mniej masywny (zbyt jasny) towarzysz kontaktowy podolbrzyma. Jeśli nachylenie orbity jest korzystne, taki układ podwójny wykazuje zaćmienia i zostanie sklasyfikowany jako układ podwójny typu Algol. Transfer masy kończy się, gdy otoczka wodorowa gwiazdy kontaktowej zostaje wyczerpana zarówno przez spalanie otoczki, jak i utratę masy. Otoczka pozostałości kurczy się w obrębie płata Roche′a, a układ pierwotny ewoluuje w białego karła helowego o małej masie.
Przypadek C. Odpowiada to transferowi masy z gwiazd ewolucyjnych o bardzo rozciągniętych otoczkach i było mało badane, częściowo z uwagi na trudności w traktowaniu rozciągniętych chłodnych warstw zewnętrznych gwiazdy kontaktowej. Aby porównać rozmiar płata Roche′a z zazwyczaj kulistymi modelami gwiazd, należy określić promień Roche′a: jest to promień kuli o tej samej objętości co płat Roche′a.
Niekonserwatywna ewolucja układów podwójnych
Zauważyliśmy już, że część strumienia masy przechodzącego przez L1 w układach podwójnych półoddzielonych może opuścić układ, ale jak dotąd nie mamy możliwości wiarygodnego określenia tego. Istnieją jednak inne sposoby, w jakie masa może zostać utracona z układu podwójnego. Obserwacje pokazują, że wiele gwiazd traci masę w postaci wiatrów gwiazdowych, niezależnie od możliwego towarzysza układu podwójnego. Towarzysz może w rzeczywistości przechwytywać część tego wyrzuconego materiału wiatru, tak że wymiana masy może nastąpić nawet w układach podwójnych oddzielonych. Jednak wskaźniki transferu są na ogół znacznie mniejsze niż w przypadku RLO. W gwiazdach (super)olbrzymach i bardzo masywnych gwiazdach wczesnego typu straty wiatru gwiazdowego zabierają znaczną część masy gwiazdy. Szybki wiatr izotropowy, który odłącza się od gwiazdy na jej powierzchni, pozostawia moment pędu pozostałego niezmiennika masy i w ten sposób poszerza orbitę układu podwójnego, gdy masa grawitacyjna w układzie podwójnym maleje. Gwiazdy z powierzchniowymi polami magnetycznymi wystarczająco silnymi, aby sprzęgać się z wyrzucanym zjonizowanym materiałem wiatru i wymuszać współrotację na kilka promieni gwiazdowych od powierzchni, są obracane w dół przez moment magnetyczny. W układach podwójnych SD efektywna interakcja pływowa ma tendencję do utrzymywania rotacji gwiazdy synchronicznej z orbitą, tak że moment pędu spinowego przenoszony przez magnetycznie sprzężony wiatr musi być kompensowany przez orbitalny moment pędu układu. Skutecznie sprzężony wiatr może zatem wymusić zmniejszenie separacji orbitalnej. Jeśli te straty wiatru mogą wystąpić jednocześnie z RLO, szybkość transferu masy jest zwiększana przez indukowane kurczenie się płata Roche′a. Powszechnie uważa się, że takie "hamowanie magnetyczne" występuje w układach z gwiazdami typu G i K, np. w zmiennych kataklizmicznych (CV). Obserwacyjnie wnioskowane spowolnienie spinu gwiazd G wraz z wiekiem dostarcza nam informacji o tym hamowaniu magnetycznym, chociaż nie jest wcale pewne, czy wartości te można zastosować do szybko obracających się gwiazd podwójnych. Inny niekonserwatywny efekt wynika z ogólnej teorii względności Einsteina, która przewiduje, że zwarty układ podwójny emituje promieniowanie grawitacyjne, przenosząc moment pędu. Wynikowa szybkość utraty momentu pędu orbitalnego wynosi J˙
gdzie c jest prędkością światła. W ciasnych układach podwójnych z okresami orbitalnymi krótszymi niż około pół dnia indukowany rozpad orbity staje się znaczący.
Układy podwójne o wspólnej otoczce
Niewiele wiadomo o transferze masy i energii między dwiema gwiazdami w układach podwójnych kontaktowych, a ich ewolucji nie można wiarygodnie symulować. Najbardziej znaną klasą układów podwójnych kontaktowych są układy W Ursae Majoris (W UMa), które składają się z gwiazd typu widmowego G i K, o typowym stosunku mas wynoszącym 2. Gwiazdy te mają konwekcyjne warstwy zewnętrzne, a zatem wspólną otoczkę konwekcyjną, która, jak się uważa, pochłania płaty Roche′a obu gwiazd i leży wewnątrz powierzchni ekwipotencjalnej przez L2. Obserwuje się również układy podwójne kontaktowe z masywnymi gwiazdami wczesnego typu (które mają otoczki radiacyjne). Ponadto istnieją dowody obserwacyjne na istnienie układów podwójnych kontaktowych z chłodnymi składnikami nadolbrzymów z głębokimi otoczkami konwekcyjnymi.
Ewolucja spiralna
Zostało to zasugerowane przez B. Paczynskiego (w 1976 r.) i obecnie powszechnie uważa się, że w pewnych okolicznościach ewolucja układów podwójnych o wspólnej otoczce może być bardzo gwałtowna w przeciwieństwie do obserwowanych, pozornie stabilnych układów wymienionych powyżej. Krytycznym czynnikiem wydaje się stosunek masy układu podwójnego q = M1/M2. Jeśli gwiazda kontaktowa w bliskim układzie podwójnym jest znacznie masywniejsza i większa niż jej towarzysz, pochłonie ona niezaniedbywalną część orbitalnego momentu pędu, gdy siły pływowe próbują utrzymać jej spin synchroniczny z przyspieszeniem zwężającego się obrotu orbitalnego jej towarzysza. Nawet przed fazą SD naturalna ekspansja gwiazdy głównej spowalnia jej spin, przez co pływy stają się aktywne, aby resynchronizować gwiazdę. Ze względu na absorpcję orbitalnego momentu pędu przez gwiazdę główną, towarzysz musi lekko spiralnie do wewnątrz, po czym obraca się jeszcze szybciej na swojej orbicie. Aby przyspieszyć spin dużej gwiazdy w kierunku synchronizmu, należy pobrać z orbity jeszcze więcej momentu pędu, a dla wystarczająco dużej gwiazdy głównej układ podwójny przechodzi przez katastrofalną niestabilność pływową (G.H. Darwin, 1908), przez co towarzysz nurkuje w otoczce gwiazdy głównej. Towarzysz porusza się następnie z prędkością naddźwiękową przez otoczkę pierwotną, w wyniku czego fale uderzeniowe gwałtownie rozpraszają energię orbitalną, co prowadzi do jeszcze szybszego rozpadu orbity. Szczegóły i dokładny wynik tego skomplikowanego zjawiska są nieznane. W wielu przypadkach otoczka pierwotna może zostać wyrzucona przez rozproszoną energię orbitalną, tak że praktycznie tylko jej rdzeń pozostaje na ciasnej orbicie z być może usuniętym towarzyszem. Obserwowane mgławice planetarne z podwójnymi jądrami (około 5-10% populacji) mogą być wynikiem takiej ewolucji. Istnieje inne powiązanie obserwacyjne, mianowicie z CV, zwartymi układami podwójnymi ze składnikiem białego karła, który jest otoczony jasnym dyskiem akrecyjnym. Te układy wykazują słabe okresowe wybuchy (nowe karłowate) lub silne erupcje (nowe).
Powstawanie i ewolucja CV
Uważa się, że CV ewoluowały poprzez fazę spiralną, ponieważ składnik BIAŁEGO KARŁA musi być pozostałością jądra byłej dużej gwiazdy olbrzyma, która nigdy nie mogła zostać umieszczona w obecnie obserwowanych ciasnych układach podwójnych CV o typowych okresach orbitalnych mniejszych niż 10 h. Przypuszczalnie nieewoluujący towarzysz ciągu głównego białego karła, pierwotnie na szerokiej orbicie, zwinął się w znacznie większego i cięższego olbrzyma (przodka białego karła) z powodu niestabilności pływowej i odparował rozszerzoną otoczkę tego ostatniego, tak że pozostał tylko zdegenerowany rdzeń (biały karzeł). W przypadku separacji orbitalnych (zaraz po fazie spirali) większych niż wartość krytyczna układ podwójny ewoluuje powoli do szerszego układu, gdy nieewoluująca gwiazda rozszerza się do swojego płatu Roche′a i rozpoczyna się powolny transfer masy w skali czasu jądrowego. Uważa się, że w węższych układach dominującym jest magnetyczne hamowanie gwiazdy ciągu głównego, w wyniku czego separacja układu podwójnego zanika nawet wtedy, gdy gwiazda ciągu głównego wypełnia swój płat Roche′a i przekazuje materię do masywniejszego białego karła. Wzmocniony transfer masy generuje gorący, jasny dysk akrecyjny wokół białego karła, a układ podwójny staje się układem CV. Skala czasu hamowania magnetycznego jest znacznie krótsza niż skala czasu jądrowego gwiazdy kontaktowej, więc ewolucja jądrowa tej gwiazdy zostaje skutecznie zamrożona i ewoluuje ona w dół ciągu głównego, pozostając mniej więcej w równowadze termicznej. Jednak gdy okres orbitalny został skrócony do około 3 godzin, ciągła utrata masy lekko zaburzyła równowagę termiczną gwiazdy kontaktowej. Obserwacje wskazują, że nie istnieją żadne układy podwójne CV z okresem wynoszącym od około 3 do 2 godzin: tzw. przerwa okresowa. Uważa się, że przerwa okresowa jest spowodowana nagłym zakończeniem hamowania magnetycznego, co skutkuje przerwaniem transferu masy, gdy gwiazda kurczy się wewnątrz swojego płatu Roche′a, przywracając równowagę termiczną. Uważa się, że hamowanie magnetyczne kończy się, gdy gwiazda kontaktowa staje się w pełni konwekcyjna - co ma miejsce mniej więcej na tym etapie ewolucji w symulacjach numerycznych. Do tego czasu jedyne straty momentu pędu z układu podwójnego wynikają z promieniowania grawitacyjnego. Dopiero gdy orbita się rozpadnie, a płat Roche′a ponownie zacieśni się wokół gwiazdy o małej masie, RLO może kontynuować. Gdy kontynuowany RLO zredukuje masę gwiazdy kontaktowej do około 0,1 M⊙, jej skala czasu termicznego staje się dłuższa niż skala czasu utraty masy, tj. dłuższa niż skala czasu strat promieniowania grawitacyjnego. Dalsza utrata masy znacząco zaburza jej równowagę termiczną, a gwiazda oddala się od ciągu głównego. W tym momencie reakcje syntezy jądrowej w jej wnętrzu zaczynają zanikać, przez co gaz elektronowy ulega degeneracji. Po pewnym czasie gwiazda kontaktowa staje się tak zdegenerowana, że jej relacja masa-promień odwraca się i zaczyna się rozszerzać w odpowiedzi na utratę masy. Od tego momentu szybkość transferu masy jest dyktowana przez warunek, że płat Roche′a, a zatem separacja gwiazd, musi się zwiększać. Układ podwójny przechodzi zatem minimalny okres orbitalny, który w przypadku otoczek bogatych w wodór okazuje się wynosić około 80 min. Obserwowany brak układów CV poniżej Porb ≃ 80 min potwierdza, że transfer masy w tych zwartych układach CV jest rzeczywiście napędzany promieniowaniem grawitacyjnym.
Powstawanie i ewolucja rentgenowskich układów podwójnych o dużej masie (HMXB)
Masywne rentgenowskie układy podwójne składają się z masywnej gwiazdy wczesnego typu (OB) na orbicie z NEUTRONSTAR, która przechwytuje materię z wiatru gwiazdowego masywnej gwiazdy poprzez ogniskowanie grawitacyjne. Istnienie gwiazdy neutronowej oznacza, że układ podwójny przetrwał gwałtowną eksplozję SUPERNOWEJ (SN), w wyniku której powstała gwiazda neutronowa po zapadnięciu się wypalonego jądra gwiazdy pierwotnej. Uważa się, że przed eksplozją SN układ podwójny ewoluował poprzez przypadek B transferu masy, w którym stosunek mas się odwrócił, tak że pozostałość gwiazdy helowej układu głównego stała się mniej masywnym składnikiem, gdy eksplodowała jako SN (van den Heuvel i Heise, 1972). Gdyby to była bardziej masywna gwiazda, która eksplodowała, układ podwójny uległby rozproszeniu, chyba że eksplozja była asymetryczna i przypadkowo wygenerowałaby odpowiedni wypadkowy odrzut w kierunku przeciwnym do ruchu orbitalnego, tak aby układ podwójny mógł przetrwać. W przybliżeniu Bondiego-Hoyle′a efektywny promień przechwytywania wiatru gwiazdy neutronowej wynosi RA ≃ GM2/V2, gdzie V jest prędkością (naddźwiękowego) materiału wiatru w pobliżu gwiazdy neutronowej (w jej układzie odniesienia). Dla typowych prędkości wiatru RA jest większe niż promień geometryczny gwiazdy neutronowej. Prędkości wiatru są wysokie, rzędu prędkości ucieczki z powierzchni gwiazdy głównej, tak że towarzysz może akreować tylko niewielką część emitowanego wiatru. Materia wiatru nagrzewa się i emituje promienie rentgenowskie, gdy zderza się z gwiazdą neutronową, wytwarzając jasne źródło promieni rentgenowskich (np. Vela X-1); odpowiada to etapowi (e) na rysunku 4. W niektórych przypadkach (Cen X-3) wczesny RLO może być odpowiedzialny za emisję promieniowania rentgenowskiego, chociaż pełnowymiarowy transfer masy w skali czasu termicznego z masywnej gwiazdy prawdopodobnie prowadzi do zniknięcia źródła promieniowania rentgenowskiego przez samoabsorpcję i do późniejszego spiralnego wciągania gwiazdy neutronowej i odparowania otoczki masywnej gwiazdy. Spirala może wytworzyć nowy, ale teraz znacznie bardziej zwarty, rentgenowski układ podwójny, taki jak Cyg X-3 z okresem orbitalnym wynoszącym zaledwie 4,8 h. Spektroskopia w podczerwieni wykazała, że towarzyszem gwiazdy neutronowej jest gwiazda WR typu azotowego. Takie gwiazdy to gwiazdy helowe o masach przekraczających około 5M, tak więc gwiazda helowa w Cyg X-3 jest prawdopodobnie gołym rdzeniem pozostałym po spiralinie gwiazdy neutronowej w znacznie masywniejszą pierwotną gwiazdę wtórną. Gdy druga gwiazda helowa ewoluuje do fazy SN, układ podwójny może zostać rozerwany, pozostawiając dwie pojedyncze gwiazdy neutronowe, w których najmłodsza, ze względu na swój szybki spin i silne pole magnetyczne, działa jako pulsar radiowy. Jeśli okoliczności są sprzyjające (wybuch supernowej), a układ podwójny pozostaje związany, pozostajemy z kompaktowym układem pulsara podwójnego, z których kilka jest obserwowanych i w którym rozpad orbity przez promieniowanie grawitacyjne może być dokładnie mierzony dzięki dokładnemu zegarowi dostarczanemu przez szybko wirującą gwiazdę neutronową (pulsar radiowy). Obserwacje J.H. Taylora (w 1986 r.) pięknie potwierdziły przewidywania z ogólnej teorii względności.
Powstawanie i ewolucja rentgenowskich układów podwójnych o małej masie (LMXB)
Nasza Galaktyka zawiera około 100 rentgenowskich układów podwójnych o małej masie, w których gwiazda neutronowa (lub CZARNA DZIURA) otrzymuje masę od gwiazdy kontaktowej o małej masie. Okres orbitalny został zmierzony tylko dla mniejszości tych układów; większość okresów orbitalnych okazuje się być krótsza niż 20 h. Jednak z istnienia szerokich układów podwójnych składających się z pulsara radiowego z towarzyszącym mu białym karłem można oczekiwać istnienia układów LMXB, w których gwiazda neutronowa jest zasilana przez RLO z rozszerzającego się (sub)olbrzyma, prekursora białego karła, fazy, w której układ podwójny rozszerza się w skali czasu jądrowego (sub)olbrzyma. Niewiele z tych układów jest obserwowanych, ale Cyg X-2 prawdopodobnie należy do tej klasy. Podobnie jak w układach CV, obserwacyjnie wnioskowane szybkości transferu masy w zwartych układach LMXB wydają się wyższe niż te, które mogą być spowodowane powolną ekspansją jądrową gwiazdy kontaktowej o małej masie. Najwyraźniej transfer masy jest wzmacniany przez kontrakcję układu podwójnego spowodowaną utratą momentu pędu, podobnie jak w układach CV. Wydaje się, że istnieje rozwidlenie na zwarte i szerokie układy LMXB: układy krótkookresowe, w których dominują straty momentu pędu spowodowane hamowaniem magnetycznym i promieniowaniem grawitacyjnym, ewoluują do coraz mniejszych rozmiarów, podczas gdy układy z okresami przekraczającymi krytyczny okres początkowy (rzędu 1 dnia), po którym te straty momentu pędu stają się nieskuteczne, ewoluują w czasie ekspansji jądrowej (sub)olbrzymiej gwiazdy kontaktowej i stają się bardzo szerokimi układami. Główną różnicą między zwartymi układami LMXB a układami CV jest to, że akrecja na gwiazdę neutronową w układach LMXB uwalnia znacznie więcej energii, która może być częściowo przechwycona przez (w ten sposób rozgrzaną) gwiazdę kontaktową. Akreująca materia może obracać gwiazdę neutronową do okresów spinu milisekund. Zasugerowano, że akreowana energia obrotowa może ostatecznie odparować gwiazdę kontaktową o małej masie w zwartych LMXB. Wyjaśniałoby to pozorny brak przerwy w okresie (orbitalnym) między około 3 a 2 h w LMXB, którą można zaobserwować w populacji CV. Pomysł polega na tym, że po zakończeniu hamowania magnetycznego (kiedy gwiazda kontaktowa staje się w pełni konwekcyjna) transfer masy zostaje przerwany, tak że gwiazda neutronowa zostaje nagle odsłonięta i staje się szybko wirującym pulsarem radiowym, którego wysokoenergetyczna emisja może odparować towarzysza, zanim wypełni on swój płat Roche′a. To odparowanie wyjaśniałoby również obserwowane istnienie szybko wirujących pulsarów radiowych o pojedynczej milisekundie. Z faktu, że nasza Galaktyka zawiera podobną liczbę HMXB (tylko o 50% mniej niż liczba LMXB), podczas gdy czas życia a HMXB musi być o rzędy wielkości krótszy niż czas życia LMXB, możemy wywnioskować, że powstanie LMXB jest znacznie rzadszym zdarzeniem niż narodziny HMXB. Dlatego nie dziwi fakt, że powstawanie LMXB jest znacznie mniej proste niż HMXB. Jednym ze scenariuszy powstawania, które zostały zasugerowane, jest kolaps wywołany akrecją (AIC) masywnego białego karła, w którym biały karzeł jest wypychany ponad masę graniczną Chandrasekhara i kolapsuje, stając się gwiazdą neutronową. Proces ten wymaga precyzyjnego dostrojenia z szybkościami transferu masy w wąskim zakresie do rzadkiego rodzaju masywnego białego karła (składającego się z O-Ne-Mg). Takie białe karły mogą powstawać tylko w układach podwójnych o ograniczonym zakresie mas pierwotnych i okresów orbitalnych. Transfer masy do bardziej powszechnych białych karłów węglowo-tlenowych o średniej masie prowadzi w większości przypadków do wybuchowego spalania węgla, w wyniku którego zdegenerowana gwiazda zostaje całkowicie zniszczona w eksplozji SN typu Ia. Niektóre LMXB mają towarzyszy w postaci czarnych dziur , a te nie mogą być wytwarzane przez AIC, więc kanały formowania inne niż AIC muszą być aktywne w tworzeniu LMXB. W szczególnym środowisku o wysokiej gęstości gwiazd gromad kulistych LMXB mogą powstawać, gdy gwiazda ciągu głównego o małej masie zostanie przechwycona przez przechodzącą gwiazdę zwartą, ale nie może to wyjaśnić występowania LMXB w pozostałej części Galaktyki. Ewolucja spiralna po eksplozji supernowej masywnej gwiazdy helowej może wyjaśnić istnienie składników gwiazdy neutronowej lub czarnej dziury w zwartych LMXB, ale tylko w dość ekstremalnych warunkach układy po spirali mogą ewoluować w LMXB.
Chmury w atmosferach planetarnych
Czym są chmury? Odpowiedź na to pytanie jest zarówno oczywista, jak i subtelna. W atmosferze ziemskiej chmury są znane jako ogromne zbiory małych kropel wody lub kryształków lodu zawieszonych w powietrzu. W atmosferach Wenus, Marsa, Jowisza, Saturna, księżyca Saturna Tytana, Urana, Neptuna i prawdopodobnie Plutona składają się z kilku innych substancji, w tym kwasu siarkowego, amoniaku, siarkowodoru, wodorosiarczku amonu, metanu i złożonych cząsteczek organicznych. Badanie chmur dotyka wielu aspektów nauki o atmosferze. Chemia chmur jest związana z chemią otaczającej atmosfery. Chmury mogą być zarówno źródłem, jak i pochłaniaczem kondensujących się cząsteczek, ponieważ nawilżają lub osuszają powietrze. Lokalne chłodzenie lub ogrzewanie oraz lokalne różnice w zawartości wilgoci spowodowane tworzeniem się chmur zmieniają wyporność paczek powietrza, co napędza lokalną dynamikę (systemy frontowe, burze i huragany to kilka znanych przykładów). Chmury wpływają na globalny klimat, odbijając lub pochłaniając promieniowanie słoneczne, a jednocześnie zatrzymując promieniowanie cieplne. Los życia na Ziemi za kilka stuleci może zależeć od ich niepewnej roli w łagodzeniu efektów cieplarnianych zwiększonej emisji dwutlenku węgla ze spalania biomasy i paliw kopalnych. W tym artykule zbadano, co wiemy o chmurach w atmosferach planet.
Zachmurzone atmosfery planetarne
Największy satelita Saturna Tytan i wszystkie planety z wyjątkiem Merkurego mają zachmurzone atmosfery. Można je podzielić na trzy główne grupy. Woda jest głównym składnikiem chmur w stosunkowo cienkich atmosferach Ziemi i Marsa. Wenus i Tytan mają grube warstwy chmur i mgiełki, na które silnie wpływają reakcje chemiczne inicjowane przez światło słoneczne w wysokiej atmosferze. Olbrzymy Jowisz, Saturn, Uran i Neptun mają redukujące atmosfery zdominowane przez wodór, który łączy się ze śladowymi ilościami azotu, siarki i węgla, tworząc chmury amoniaku (NH3), wodorosiarczku amonu (NH4SH), siarkowodoru (H2S) i (w przypadku Urana i Neptuna) metanu (CH4). Wywnioskowano, że chmury metanu są obecne w atmosferze Plutona, chociaż interpretacja danych jest niejednoznaczna.
Ziemia
Wiemy najwięcej o naturze chmur w ATMOSFERZE ZIEMI, dlatego pouczające jest rozpoczęcie przeglądu chmur planetarnych od przeglądu chmur ziemskich. Woda jest zdecydowanie głównym składnikiem chmur ziemskich, ale często występują w nich również inne składniki (głównie siarka i azot). Woda może występować w postaci pary, kropli cieczy lub zamrożonych kryształków lodu. Ilość wody w tych różnych formach zależy od złożonej historii każdej paczki powietrza, gdy przemieszcza się ona nad lądem lub wodą. Chmury przybierają charakterystyczne formy, które są kontrolowane przez procesy dynamiczne odpowiedzialne za ich powstawanie. Patrząc na zdjęcia chmur zrobione z kosmosu, można uzyskać poczucie reżimu dynamicznego. Wizualna kategoryzacja typów chmur to nauka sięgająca wielu setek lat wstecz, a duża część terminologii jest łacińska. Współcześni meteorolodzy grupują chmury na trzy główne grupy w zależności od wysokości (niska, średnia i wysoka), z podkategoriami w obrębie każdej grupy. Na najniższej wysokości 2 km znajdują się cumulus, cumulonimbus, stratus, stratocumulus i nimbostratus. W środkowej warstwie (2-8 km) znajdują się altostratus i altocumulus. Na najwyższym poziomie troposfery znajdują się cirrus, cirrostratus i cirrocumulus. Na jeszcze wyższych wysokościach w stratosferze i przy bardzo niskich stężeniach (z wyjątkiem bezpośrednio po wybuchu wulkanu) znajdują się małe krople kwasu siarkowego na wielu szerokościach geograficznych i cząsteczki lodu, które tworzą polarne chmury srebrzyste (cienkie chmury widoczne o świcie i zmierzchu polarnym). Chmury cumulus są stosunkowo małe (kilka km średnicy), oderwane, puszyste, których szczyty i boki wydają się jaskrawo białe w bezpośrednim świetle słonecznym. W tej formie byłyby niemożliwe do zobaczenia z kosmosu, chyba że obserwowane pobliskim aparatem o wysokiej rozdzielczości przestrzennej. Można je zobaczyć jako pojedyncze chmury, w polach wielu, i mogą rozwinąć się w duże wieże kilku zgrupowanych razem. W miarę jak wilgoć staje się bardziej dostępna z parowania gruntu, chmury te mogą rosnąć i łączyć się, tworząc cumulonimbusy, które są ciężkie i gęste, o wznoszącej się strukturze. Mogą to być miejsca opadów i piorunów. Widziane z góry często mają płaski wierzchołek z ogonem rozciągającym się w dół wiatru. Morfologia ogona przypomina kowadło kowalskie, a słowo "kowadło" jest często stosowane do tych cech. Chmury są klasyfikowane jako chmury niskie, ponieważ ich podstawa znajduje się na najniższym poziomie, ale w całości chmura rozciąga się przez wszystkie trzy poziomy, a kowadło zapewnia źródło wody w dół rzeki na najwyższym poziomie. Chmury Stratus tworzą dość płaską, jednolitą warstwę, ciemnoszary koc, gdy są widziane z dołu. Często wytwarzają mżawkę lub śnieg. Chmury Stratocumulus wyglądają bardzo podobnie do stratusów, z wyjątkiem tego, że wykazują szczegóły (plamy, poszarpane krawędzie) i są miejscami mniej gęste, co pozwala na przenikanie większej ilości światła słonecznego i pokazuje jaśniejszy odcień szarości. Widziane z góry wydają się grudkowate i czasami ujawniają okresowe struktury wałów (ulice chmur), które mogą rozciągać się na wiele kilometrów. Ruch wewnątrz tych chmur może czasami wytwarzać struktury typu cumulus. Duże (∿1000 km) ławice chmur stratus i stratocumulus można zobaczyć na fotografiach satelitarnych. Chmury Nimbostratus mogą być niezwykle głębokie, z wierzchołkiem prawie na szczycie troposfery i zwykle wytwarzają opady. Chmury Altostratus różnią się od chmur stratus głównie położeniem ich podstawy, która znajduje się wyżej w troposferze. Czasami można zobaczyć kolorową koronę wokół Słońca. Jest to konsekwencja sposobu, w jaki kryształki lodu rozpraszają światło. Altocumulus mają również swoją podstawę wyżej w atmosferze w porównaniu do cumulus. Te chmury są zwykle cienkie i mogą przybierać wiele form od cienkich i płaskich do oddzielnych kęp do morfologii w kształcie zamku. Chmury w wysokiej troposferze składają się niemal wyłącznie z cząsteczek lodu. Analogicznie do niższych chmur, chmury, które są ograniczone do najwyższych warstw (cirrus, cirrostratus i cirrocumulus) mogą wahać się od szerokich płaskich arkuszy do grudkowatych, odrębnych elementów. Istnieje wiele podkategorii cirrusów, które je charakteryzują, na wiele sposobów te chmury mogą się pojawiać (gładkie, splątane, z haczykami, w komórkach, ziarniste lub faliste, przypominające struktury szkieletowe itp.). Całe to bogactwo morfologiczne ma swoje korzenie w równie bogatym dynamicznym polu wiatru i złożonej interakcji między dostawą pary lub kryształów a mikrofizycznymi procesami chmur (nukleacja, kondensacja, wzrost, parowanie, agregacja, opady). Duża część cirrusów zawdzięcza swoje pochodzenie wodzie dostarczanej przez wciąganie powietrza na dużych wysokościach z kowadeł cumulonimbusów i wierzchołków chmur nimbostratus. Halo atmosferyczne i korony są często widoczne w cienkich chmurach pierzastych, w wyniku rozproszenia światła słonecznego przez duże kryształki lodu wodnego. Jak rozumiemy złożoność różnych typów chmur i co mówią nam one o procesach? Jest to obszar aktywnych badań, ale już wiele wiadomo. Istnienie chmury wskazuje na proces, w którym paczka powietrza zawierająca parę wodną (np. z parowania nad oceanem lub nad wilgotną powierzchnią lądu) została przetransportowana do miejsca, w którym temperatura jest niższa - na tyle niska, że ciśnienie pary wodnej w powietrzu jest wyższe niż ciśnienie pary kondensacyjnej w temperaturze powietrza. Na najniższej wysokości około 12 km (troposfera) temperatura spada wraz z wysokością, więc paczka wilgotnego powietrza, która unosi się z ziemi, ostatecznie osiągnie poziom, w którym temperatura jest na tyle niska, aby umożliwić kondensację i tworzenie się chmur. Nisko położone chmury mają tak dużo wilgoci, że nie muszą wznosić się bardzo wysoko, aby temperatura osiągnęła temperaturę kondensacji. Innym sposobem na schłodzenie powietrza i wspomaganie tworzenia się chmur jest mieszanie ciepłego, wilgotnego powietrza z chłodnym, suchszym powietrzem, gdy przemieszcza się polarny front zimna. Trzecim sposobem jest unoszenie powietrza, gdy przepływa ono nad górą. Chmura tworzy się nad lub w pobliżu góry, gdy przepływające nad nią powietrze ochładza się, gdy osiąga większą wysokość. Chmury utworzone w ten sposób nazywane są chmurami orograficznymi, ponieważ pozostają nieruchome obok cechy topograficznej, gdy powietrze przepływa obok. Ten sam proces zachodzi w atmosferze Marsa w pobliżu szczytów wysokich wulkanów i w atmosferze Neptuna nad dużym wirem (Wielka Ciemna Plama). Tworzenie się chmury kłębiastej jest inicjowane przez naturalną konwekcję, gdy światło słoneczne ogrzewa wilgotny grunt. Gdy ciepła, wilgotna, wyporna paczka gazu unosi się, osiąga poziom kondensacji, w którym temperatura spada poniżej temperatury kondensacji, a chmura kłębiasta tworzy się u jej podstawy. Pomocą w konwekcji w atmosferze ziemskiej jest różnica gęstości wynikająca zarówno z różnicy temperatur (ciepła paczka jest mniej gęsta), jak i różnicy składu (wilgotna paczka jest mniej gęsta niż suchy gaz w atmosferze Ziemi). W atmosferach planet olbrzymów wilgotna paczka jest gęstsza niż suchy gaz, co raczej hamuje niż wspomaga wilgotną konwekcję. Trzecim czynnikiem, który wzmacnia wilgotną konwekcję, jest dodatkowe ciepło uwalniane jako utajone ciepło kondensacji, gdy para wodna skrapla się w chmurze. W sytuacji spoczynku, w której chmury cumulus lub stratus tworzą się i rozpraszają w równym tempie, istnieje równowaga między dopływem wilgotnego powietrza z ziemi a parowaniem i opadami w chmurze. Jeśli z ziemi pochodzi duża ilość wilgoci i jeśli początkowy ruch konwekcyjny jest dość silny, niestabilność może wzrosnąć, a wyporność przenoszona przez wilgotne paczki konwekcyjne zwiększa się do tego stopnia, że bardzo duże ilości wilgoci są wstrzykiwane na bardzo dużych wysokościach (wieże i kowadła cumulonimbusów). Chmury Stratus powstają w wyniku wolniejszego reżimu dynamicznego, w którym powietrze jest bardziej stabilne, a stały dopływ wilgoci jest stały i obfity, co chroni chmurę przed opadami i parowaniem. Kosmiczne widoki chmur na wszystkich planetach są zdominowane przez cechy wielkoskalowe. W dużej skali w atmosferze Ziemi powszechnie widoczne są trzy typy cech chmur. Każda z nich ma łatwo rozpoznawalną morfologię i ruch, które są zakorzenione w dynamicznym reżimie wymuszającym powstawanie chmur. Mezoskalowe systemy konwekcyjne składają się z pól chmur cumulonimbus, których kowadła łączą się w pojedynczą tarczę chmur o rozciągłości poziomej znacznie większej niż poszczególne kowadła. Mezoskalowe systemy konwekcyjne mogą być długie (∿100 km) i wąskie (kilka km) z rozległymi opadami występującymi na dużą skalę. Konwekcja cumulus jest napędzana przez małoskalowe (100 km lub mniej) komórki konwekcyjne. Małoskalowe komórki mogą łączyć się, tworząc znacznie większe mezoskalowe systemy konwekcyjne widoczne na zdjęciach satelitarnych. Szczególne znaczenie dla dynamiki ziemskiej atmosfery ma zorganizowana głęboka konwekcja w pobliżu równika. Uśrednione w czasie mapy zachmurzenia ujawniają pas w pobliżu równika, który przesuwa się na szerokości geograficznej wraz z porami roku. To jest Inter Tropical Convergence Zone (ITCZ). Jej istnienie jest spowodowane zbieżnością mas powietrza na niskiej wysokości, napędzaną przez cyrkulację Hadleya na dużą skalę na obu półkulach. Obfita para wodna w pobliżu powierzchni jest dostępna do transportu ogromnej ilości ciepła utajonego. Wilgotna konwekcja w ITCZ jest silna i odpowiada za dużą ilość ciepła i wilgoci przenoszonej do górnej atmosfery w ITCZ. Huragany atlantyckie i tajfuny pacyficzne to cyklony tropikalne, które stanowią inną powszechnie obserwowaną strukturę chmur na dużą skalę. Tworzą się nad oceanami i czerpią energię z wilgotnego, ciepłego powietrza oceanów tropikalnych. Cyklony obracają się w kierunku przeciwnym do ruchu wskazówek zegara na półkuli północnej i trwają około 10 dni. Huragany i tajfuny mają przepływ powrotny w wąskiej kolumnie w rdzeniu, która jest wolna od chmur. Pozostają pewne kontrowersje dotyczące tego, jakie specjalne warunki są wymagane, aby przekształcić powszechnie występujące cyklony tropikalne w intensywne systemy, które występują stosunkowo rzadko. Wspólnym mianownikiem różnych modeli jest bardzo skuteczne sprzężenie wilgotnej konwekcji w skali cumulus z polem wiatru na dużą skalę za pośrednictwem niestabilności zwanej warunkową niestabilnością drugiego rodzaju, r CISK. Zgodnie z większością modeli temperatura powierzchni oceanu musi wynosić co najmniej 26°C, co zgadza się z obserwacją i prowadzi do wniosku, że te intensywne burze będą częstsze i/lub intensywniejsze, jeśli powierzchnia morza ociepli się w przyszłości z powodu globalnego ocieplenia. Trzecią powszechnie obserwowaną strukturą chmur na dużą skalę jest cyklon pozatropikalny, który powoduje rozległe opady na średnich szerokościach geograficznych. Są one znane jako fronty pogodowe przed zimnymi regionami niskiego ciśnienia. Chmury, które tworzą się na tych frontach, robią to poprzez konwekcję pochyłą (w przeciwieństwie do konwekcji cumulus opisanej powyżej). Konwekcja pochyła występuje, gdy jeden korpus powietrza nadciąga nad inny, wymuszając unoszenie się wilgotnego powietrza w górę. Chmury wszystkich typów są powiązane z tymi cechami na dużą skalę, a także z dwoma innymi wymienionymi powyżej. Dzięki temu krótkiemu wprowadzeniu do ziemskich chmur możemy teraz zbadać chmury na innych planetach. Najlepszym miejscem do rozpoczęcia jest atmosfera Marsa, która zawiera chmury lodu wodnego i wykazuje wiele cech dynamicznych znanych z ziemskiej meteorologii
Mars
Nasza wiedza na temat atmosfery Marsa opiera się na obrazach i widmach uzyskanych na przestrzeni wielu lat z naziemnych obserwatoriów, a także z Kosmicznego Teleskopu Hubble′a, kilku radzieckich i amerykańskich satelitów przelotowych lub orbitujących oraz lądowników, w szczególności Mariners 4, 6, 7 i 9, Mars 2, 3, 4 i 5, Viking 1 i 2, Phobos 1 i 2 oraz Mars Global Surveyor, a kolejne są w drodze lub planowane. Na początku 1999 roku trzy statki (VIKING Landers 1 i 2 oraz MARS PATHFINDER) wylądowały na powierzchni i przesłały informacje in situ na temat składu atmosfery, temperatury, ciśnienia oraz nieprzezroczystości chmur i pyłu. W ciągu następnych dekad zaplanowano wiele kolejnych lądowników. Atmosfera Marsa składa się niemal wyłącznie z dwutlenku węgla (CO2) ze śladowymi ilościami wody, argonu i kilku innych składników. Średnie ciśnienie powierzchniowe wynosi 8 mb (w porównaniu do ciśnienia około 1 b na poziomie morza na Ziemi). Temperatura powierzchni waha się od około 140 K do 250 K w zależności od szerokości geograficznej i pory roku. Dwutlenek węgla skrapla się, tworząc rozległą warstwę szronu na powierzchni Marsa na wysokich szerokościach geograficznych, gdy temperatura powierzchni spada nieznacznie poniżej 150 K. Czasami temperatura w polarnej atmosferze kilka kilometrów nad powierzchnią spada na tyle nisko, że tworzy się mgła lodowa CO2, ale prawie wszystkie jasne białe chmury widoczne na Marsie składają się z lodu wodnego. Lód wodny skrapla się również na wysokich szerokościach geograficznych zimą, a na niższych szerokościach geograficznych również w chłodne noce. Czapy lodowe na biegunach i gleba Marsa służą jako zbiorniki wody, które pochłaniają lub uwalniają wodę w cyklach dobowych i sezonowych, a także w znacznie dłuższych cyklach związanych z powolnymi zmianami orbity i nachylenia Marsa. Kanały odpływowe na powierzchni są obecnie suche, ale wskazują na znacznie wilgotniejszy Mars w odległej przeszłości. Obecna ilość wody w atmosferze wynosi średnio tylko około 10 mikrometrów wytrącalnych, co jest zbyt małą ilością, aby mieć znaczenie jako źródło wyporności poprzez uwalnianie ciepła utajonego. Tak więc na Marsie nie widać żadnego z ziemskich typów chmur (cumulonimbus lub stratonimbus na małą skalę, huragany i mezoskalowe układy konwekcyjne), które żywią się utajonym wydzielaniem ciepła i obfitym zapasem wody. Najbardziej owocnym podejściem do zrozumienia chmur wodnych na Marsie jest zauważenie ich podobieństwa do chmur pierzastych w wysokiej, zimnej atmosferze ziemskiej, z dodatkiem efektów topografii działających w atmosferze Marsa. Chmury fal Lee są często widoczne na Marsie poniżej wysokich gór wulkanicznych i w pobliżu kraterów na niższych wysokościach. Często można zobaczyć chmury fal Lee z wieloma liniowymi falami rozciągającymi się na ponad 100 km poniżej. Chmury tworzą się najczęściej wczesnym rankiem i późnym popołudniem, gdy temperatury są niskie. Występują obficie w północnym lecie w regionie Tharsis, wysokim płaskowyżu, na którym znajduje się kilka najwyższych wulkanów marsjańskich. W nocy powierzchnia może skutecznie promieniować w przestrzeń kosmiczną i gwałtownie się ochładzać, co prowadzi do powstawania nisko położonej mgły przyziemnej, która rozprasza się wkrótce po wschodzie słońca. Chociaż nie jest klasyfikowany jako chmura, pył w atmosferze Marsa odgrywa ważną rolę w dynamice atmosfery i tworzeniu się chmur. Atmosfera Marsa zwykle zawiera wystarczająco dużo pyłu, aby być znaczącym pochłaniaczem energii słonecznej, ogrzewając atmosferę w ciągu dnia i promując chłodzenie radiacyjne w nocy. Silne kontrasty termiczne na krawędzi polarnego osadu szronu, w połączeniu z niską gęstością atmosfery Marsa, mogą prowadzić do silnych wiatrów powierzchniowych, które zbierają pył, czasami przechodząc w globalną burzę pyłową, która może pokryć planetę, przesłaniając nawet najwyższe wulkany. Po kilku miesiącach większość pyłu osadza się, a atmosfera stopniowo powraca do chłodniejszego stanu bardziej sprzyjającego tworzeniu się chmur lodu wodnego.
Wenus
Wenus i Ziemia mają podobne rozmiary i masę, ale ich atmosfery i struktury chmur różnią się wyraźnie . Atmosfera Wenus składa się głównie z CO2. Jest masywna (90 barów na powierzchni) i gorąca (740 K) w pobliżu powierzchni. Ze względu na dużą masę płynów, powolny obrót i efekt cieplarniany występuje niewielki poziomy kontrast termiczny (maksymalnie kilka K od równika do bieguna), a w konsekwencji reżim dynamiczny jest zupełnie inny niż na Ziemi lub Marsie. Wenus widziana przez teleskop wydaje się jasna i prawie pozbawiona cech charakterystycznych ze względu na wszechobecną grubą warstwę chmur. Subtelne kontrasty można dostrzec w długościach fal fioletowych i bliskiego ultrafioletu. Materiał odpowiedzialny za kontrast nie został zidentyfikowany z pewnością, ale sugerowanymi kandydatami są pierwiastkowa siarka i związek FeCl3. Dwutlenek siarki (SO2) został wykryty na szczytach chmur, a widoczne chmury składają się z kropli ciekłego kwasu siarkowego (H2SO4). W zakresie bliskiej podczerwieni istnieje kilka przedziałów widmowych (okien), w których nieprzezroczystość gazu jest stosunkowo niska, co pozwala na przenikanie przez chmury światła podczerwonego emitowanego przez gorącą powierzchnię. Jednak nawet przy tych długościach fal występuje znaczna nieprzezroczystość chmur, więc kontrasty widoczne w bliskiej podczerwieni mówią nam głównie o nierównomierności dolnych warstw chmur, które są bardziej turbulentne niż górna warstwa, którą widzimy przy widzialnych długościach fal. Wiele statków kosmicznych ze Stanów Zjednoczonych i byłego Związku Radzieckiego odwiedziło Wenus. Kilka sond zeszło do atmosfery i zmierzyło ciśnienie, temperaturę, skład gazu, wewnętrzne pole promieniowania oraz gęstość i rozmiary cząstek chmur. Chmury rozciągają się na bardzo dużym zakresie pionowym. Istnieją trzy główne warstwy chmur na wysokościach od około 45 do 70 km. Cienkie warstwy mgły rozciągają się powyżej i poniżej tych granic. Kilka eksperymentów wykazało, że główny obszar chmur składa się z trzech warstw. Górna warstwa jest skoncentrowana na wysokości od 59 do 66 km. Środkowa warstwa leży na wysokości 49-57 km, a dolna warstwa jest najgęstsza w regionie 2 km tuż poniżej granicy 49 km, przynajmniej według pomiarów danych licznika cząstek na dużej sondzie Pioneer Venus. Późniejsze zdjęcia bliskiej podczerwieni wykonane z Ziemi i Galileo (ze spektrometru mapującego bliską podczerwień - NIMS) wykazały, że ta warstwa jest bardzo zmienna w przestrzeni i czasie . Skład cząstek chmury jest zdominowany przez kwas siarkowy, ale niektóre dowody sugerują, że dodatkowy składnik może być odpowiedzialny za największe cząstki w dolnej warstwie chmur. W górnej chmurze i mgle światło słoneczne rozbija cząsteczki SO2, które łączą się z wodą, tworząc kwas siarkowy o stężeniu około 85% na górze, wzrastającym na głębszych poziomach. W środkowych i dolnych chmurach nie ma wystarczającej ilości światła ultrafioletowego, aby napędzać fotochemię, a procesy termochemiczne stają się ważne w ustalaniu równowagi chemicznej. Na najgłębszych poziomach atmosfera i powierzchnia oddziałują na siebie, a powierzchnia działa jako źródło i pochłaniacz siarki i innych składników. Spektrometr cząstek na dużej sondzie Pioneer Venus zidentyfikował trzy rozmiary cząstek. Cząstki trybu 2 mają promień bliski 1 mikrona i dominują w górnych i środkowych chmurach. Cząstki trybu 1 są mniejsze (średni promień 0,4 mikrona) i odpowiadają za kilka dziesiątych głębokości optycznej w górnej chmurze, podczas gdy cząstki trybu 3 są większe (kilka mikronów lub więcej) i zapewniają większość masy w dolnej chmurze. Reżim dynamiczny, w którym tworzą się te chmury, jest w większości stabilny w dwóch górnych warstwach (wysokości powyżej 49 km). Te chmury są analogiczne do chmur warstwowych w atmosferze ziemskiej. Przytłumione kontrasty widoczne w najwyższej chmurze poruszają się z prędkością wiatru (około 100 m s-1) na widocznych szczytach chmur (około 70 km wysokości), podczas gdy kontrasty widoczne w regionach okna bliskiej podczerwieni poruszają się wolniej (50 ms-1, zgodnie z prędkościami wiatru mierzonymi przez sondy śledzące wejście). Oszacowania liczby dużych cząstek w dolnym pokładzie chmur wykonane przez różne sondy wejściowe różniły się w zależności od dużych czynników. Ta obserwacja potwierdza ideę, że kontrasty widoczne w zakresie fal bliskiej podczerwieni wskazują na bardzo zmienne stężenia dużych (o promieniu kilku mikronów lub większych) cząstek w dolnym pokładzie chmur. Dolny obłok jest obszarem dynamicznej niestabilności w atmosferze Wenus. Mechanizm odpowiedzialny za napędzanie cyrkulacji Wenus pozostaje niejasny, chociaż wydaje się prawdopodobne, że interakcje między falami a średnim przepływem, zainicjowane przez absorpcję światła słonecznego w obszarze chmur, odgrywają kluczową rolę.
Tytan
Podobnie jak Wenus, atmosfera TITANA jest masywna, z gęstą warstwą mgły i powolnym obrotem i może być napędzana tym samym mechanizmem. Ale chemia atmosfer Tytana i Wenus nie mogłaby być bardziej różna. Atmosfera Tytana składa się głównie z azotu z kilkoma procentami metanu i innych węglowodorów i nitryli (cząsteczek z H, C i N). Atmosfera Tytana jest zimna (około 94 K w pobliżu powierzchni i 71 K przy minimalnej temperaturze w pobliżu 40 km wysokości). W tych temperaturach metan może się skraplać w pobliżu minimalnej temperatury, ale niektóre pomiary w podczerwieni z eksperymentu Voyager IRIS sugerują, że chmura metanu może nie być obecna. Jeśli tak jest, metan byłby przesycony w pobliżu minimalnej temperatury. Przesycenie nie występuje w atmosferze ziemskiej (w odniesieniu do wody), ale można je osiągnąć w laboratorium w kontrolowanych warunkach. Trudno będzie rozwiązać ten problem, dopóki sonda Huygens nie zejdzie do atmosfery Tytana w 2004 roku. Fotoliza metanu w wyższych warstwach atmosfery prowadzi do
powstawania etanu i innych węglowodorów oraz cząsteczek nitrylu. Przetwarzanie tych cząsteczek poprzez długotrwałe narażenie na światło słoneczne i bombardowanie cząstkami naładowanymi z kosmosu ostatecznie powoduje powstanie mgły polimerowej, która pokrywa satelitę i blokuje powierzchnię przed wzrokiem w zakresie widzialnym. Mgła ta jest bardzo ciemna w zakresie ultrafioletowym i staje się jasna, z niewielką absorpcją w zakresie czerwonym. Składa się z agregatów małych cząstek, których średni promień wynosi około 0,066 mikrona. Modele chemiczne przewidują szereg warstw mgły i chmur głębiej w atmosferze, składających się z bardziej lotnych węglowodorów. Metan jest najbardziej lotny i może kondensować się poniżej minimalnej temperatury (zakres wysokości 10-40 km). Nieco wyżej w atmosferze etan może tworzyć chmurę kondensacyjną. Oczekuje się, że mniej lotne węglowodory i nitryle utworzą warstwy kondensatu na większych wysokościach, w tym C2H2, C3H4,
C3H8, C4H2, HCN, C2N2, HC3 N, C4N2 i wiele cięższych węglowodorów. Możliwe są również cząsteczki dwutlenku węgla i lodu wodnego. Z nich tylko cząsteczki HC3N i C4N2 zostały wykryte spektroskopowo. Wykrycie wielu z nich jest utrudnione przez zaciemniającą mgłę fotochemiczną Tytana na większych wysokościach. Widmowy podpis lodu C4N2 (dicyjanoacetylenu) został zaobserwowany przez spektrometr podczerwieni Voyager tylko w polarnej mgle Tytana. Analiza tych obserwacji ujawnia, że (1) średni promień cząstek lodu wynosi około 5 μm, a (2) stosunek kondensatu do ułamka molowego pary, jak wynika z danych, jest około 100 razy większy niż oczekiwano na podstawie równowagi stacjonarnej składników, co odpowiada tworzeniu się pary na dużych wysokościach z produkcji fotochemicznej oraz wyczerpywaniu się pary i kondensatu na małych wysokościach z powodu kondensacji i sedymentacji cząstek. Duży stosunek nierównowagi jest prawdopodobnie wynikiem sezonowej zmienności fotochemicznego niszczenia pary na dużych wysokościach i dużych szerokościach geograficznych, działającej w połączeniu ze znacznym opóźnieniem czasowym termicznym głębiej w atmosferze z powodu długich stałych czasowych termicznych. Na Tytanie nie ma prawie żadnego kontrastu w zakresie widzialnych długości fal, poza kontrastem odbicia półkuli północ/południe, który odwraca się w ciągu kilku lat, gdy Tytan reaguje na sezonowe zmiany nasłonecznienia. Istnieje odpowiadająca temu półkulista różnica w wielkości cząstek w górnej mgiełce, która z kolei jest związana z ruchem wznoszącym się i opadającym w skali półkuli, który reaguje na zmiany sezonowe. Aerozole atmosferyczne w znacznym stopniu przyczyniają się do bilansu cieplnego w stratosferze poprzez silne pochłanianie światła słonecznego, a zatem są ważne dla bilansu energetycznego i cyrkulacji
Olbrzymie planety
Wszystkie olbrzymie planety Jowisz, Saturn, Uran i Neptun mają głębokie atmosfery składające się głównie z wodoru i helu ze śladowymi ilościami cząsteczek tworzących chmury: wody, amoniaku (NH3), wodorosiarczku amonu (NH4SH), siarkowodoru (H2S) i metanu (CH4). Wszystkie z nich, z wyjątkiem metanu, mogą skraplać się w atmosferach Jowisza i Saturna. Atmosfery Urana i Neptuna osiągają wystarczająco niskie temperatury w pobliżu temperatury minimalnej przy ciśnieniu 0,1 b, aby skroplić metan. Chmury kondensatu tworzą się w warstwach, przy czym najbardziej lotne tworzą się na większych wysokościach, gdzie temperatury są niższe. Nasze pomysły dotyczące składu opierają się na połączeniu obserwacji z ziemi i statków kosmicznych wraz z modelami reakcji chemicznych w temperaturze i składzie atmosfery. Jak dotąd wszystkie nasze pomiary, z wyjątkiem tych z sondy Galileo, która weszła w atmosferę Jowisza , zostały wykonane zdalnie za
pomocą instrumentów z Ziemi lub ze statku kosmicznego. Sonda Galileo pobrała próbki z części atmosfery Jowisza, która jest uważana za zubożoną w kondensowalne cząsteczki, podobnie jak pustynny region na Ziemi, więc pomiary sondy nie mówią nam o globalnych właściwościach chmur i składnikach tworzących chmury. Jako punkt wyjścia do zrozumienia pionowego położenia i składu chmur polegamy na modelach równowagi termochemicznej, które tworzą prognozy na podstawie zmierzonej lub wnioskowanej obfitości chemicznej w głębokiej atmosferze, ciśnienia i temperatury mierzonych przez różne instrumenty oraz wiedzy na temat termodynamiki chemicznej dostępnych cząsteczek. To ćwiczenie może nam powiedzieć, na jakich wysokościach spodziewać się chmur i jaki powinien być ich skład, ale nie jest ono wystarczające do przewidywania gęstości cząstek chmur w danym miejscu, ponieważ inne procesy,
takie jak dynamika atmosfery i mikrofizyka cząstek chmur, określają te ilości. Obserwuje się lub przewiduje się, że wspomniane powyżej cząsteczki tworzące chmury będą występować w liczbie dwa lub większej niż w przypadku mieszanki materiału atmosfery słonecznej przy tej samej temperaturze i ciśnieniu. Zwiększenie obfitości "słonecznej" wzrasta od Jowisza do Saturna, Urana i Neptuna, odzwierciedlając fakt, że większe planety były w stanie zatrzymać więcej lekkich pierwiastków wodoru i helu podczas ich formowania. Zwiększenie ilości dostępnych skroplonych cząsteczek spowoduje powstawanie chmur na głębszym poziomie, gdzie temperatury są wyższe. JOWISZ i SATURN tworzą jedną parę o podobnych typach chmur, podczas gdy URAN i NEPTUN, które są chłodniejsze, tworzą drugą. Przewiduje się, że chmura roztworu wody i amoniaku utworzy się przy poziomach ciśnienia zaczynających się w pobliżu 8 b w atmosferze Jowisza i 15 b w atmosferze Saturna. Na większych wysokościach (niższe ciśnienie i temperatura) znajdują się chmury
wodorosiarczku amonu i lodu amoniaku. Najwyższa chmura w obu przypadkach to lód amoniaku. Widmowy podpis lodu amoniaku tajemniczo nie został zaobserwowany aż do niedawna w widmach bliskiej podczerwieni z Europejskiego Obserwatorium Kosmicznego w Podczerwieni (ISO) i instrumentu Galileo NIMS. Widmowych podpisów lodu w innych chmurach nie zaobserwowano. Jeden z eksperymentów sondy Galileo wykrył cząstki w pobliżu poziomu 1,6 b w atmosferze Jowisza, których skład może składać się z wodorosiarczku amonu lub wody. Nie zaobserwował chmury wodnej przy poziomach ciśnienia, które przewidują modele równowagi termochemicznej, prawdopodobnie dlatego, że woda w badanym regionie jest uszczuplona z powodu opadania suchego powietrza z zimnej górnej troposfery. Nie wiadomo, jak rozległa może być głęboka chmura wodna na którejkolwiek z planet olbrzymów. Uran i Neptun są wystarczająco zimne, aby skroplić metan, który tworzy górną chmurę w tych atmosferach. Kolejna głębsza chmura, przy ciśnieniu kilku barów, to prawdopodobnie
lód H2S, ale może również zawierać trochę amoniaku. Na głębszych poziomach (ciśnienie od 10 do kilkuset barów) znajdują się chmury NH4SH i wody. Widoczność chmur różni się znacznie między planetami olbrzymami. Atmosfera Jowisza jest wypełniona białożółtymi chmurami i ciemniejszymi żółtobrązowymi chmurami z kilkoma obszarami, które są bardziej czerwone (WIELKA CZERWONA PLAMA) lub szare (obszary gorących punktów, w których można zobaczyć wznoszące się promieniowanie podczerwone o długości fali 5 mikronów). Wielka Czerwona Plama Jowisza to duży (około 3 razy większy od Ziemi) owal obracający się w kierunku antycyklonicznym (przeciwnie do ziemskich systemów burzowych). Jest obserwowany od ponad wieku i prawdopodobnie zawdzięcza swoją stabilność ścinaniu strumieni strefowych wschód-zachód, w których jest osadzony. Wszystkie wymienione powyżej lody są białe w widzialnych długościach fal. Gdyby były to jedyne składniki chmur, Jowisz wyglądałby jak pozbawiona cech biała kula. Kolory i kontrasty wynikają z
materiału barwiącego, którego pochodzenie i skład są niepewne. Materiały kandydujące obejmują związki wodoru połączone wiązaniami z siarką, azotem i węglem (węglowodory) powstałe w wyniku fotolizy w górnej troposferze lub bombardowania wysokoenergetycznymi cząstkami naładowanymi wytrącającymi się z magnetosfery. Ten ostatni proces jest prawie na pewno odpowiedzialny za powstawanie polarnych mgieł stratosferycznych w stratosferach Jowisza i Saturna. Kontrasty chmur są stonowane w przypadku Saturna i prawie nieobecne w przypadku Urana. Te planety, podobnie jak Neptun, mają głębokie struktury chmur, które zmniejszają kontrast i blokują promieniowanie cieplne wznoszące. Kontrasty są zdominowane przez struktury strumieniowe, chociaż nie ma jednoznacznej korespondencji między odbiciem chmur a prędkością i kierunkiem wiatru. Saturn wykazuje sezonowe wahania wysokości chmur. Wynikają one z nagrzewania górnej atmosfery przez słońce, co wpływa na stabilność statyczną i wysokość chmur. Te efekty mogą występować
również na Uranie i Neptunie, ale zmiany sezonowe na tych planetach zachodzą w skalach czasowych odległych od naszych możliwości ich obserwacji. Pojedyncze owale i plamy tworzą się w atmosferze Saturna. Można je najłatwiej zobaczyć na obrazach o wzmocnionym kontraście. Sonda kosmiczna VOYAGER obserwowała Urana w czasie, gdy Słońce oświetlało tylko jedną półkulę. Tylko kilka cech chmur o niskim kontraście zostało zauważonych na tle niemal jednolitej grubej pokrywy chmur. Niedawno kamera bliskiej podczerwieni na Teleskopie Kosmicznym Hubble′a sfotografowała szereg chmur na przeciwległej półkuli. Podczas bliskiego przelotu sondy Voyager obok Neptuna w 1989 roku zaobserwowano szereg typów chmur. Zaobserwowano kilka dużych owali. Największy z nich nazwano Wielką Ciemną Plamą. Podobnie jak w przypadku Jowisza, za kontrast i kolor chmur odpowiada pewien składnik kolorystyczny o niepewnym pochodzeniu i składzie. Te owale poruszają się i oscylują w długości geograficznej. Współczynnik kształtu i nachylenie długiej i krótkiej osi owali również oscylują. Oscylacje te można zrozumieć za pomocą modeli, które uwzględniają wirowość plamy, jej głębokość w atmosferze i ścinanie wiatru, w którym jest osadzona. W atmosferze Neptuna zaobserwowano inne rodzaje chmur, które przypominają chmury pierzaste i chmury fal zawietrznych widoczne wysoko w atmosferach ziemskiej i marsjańskiej. Są prążkowane, szybko ewoluują z czasem (zbyt szybko, aby można je było wykorzystać jako wskaźniki wiatru), a niektóre z nich tworzą skupiska, które są przywiązane do większych owali i nakładają się na nie. Biały Towarzysz Wielkiej Ciemnej Plamy jest tego najlepszym przykładem. Był widoczny nawet na zdjęciach naziemnych w jednym z pasm absorpcji metanu wrażliwych na wysokie chmury. Te chmury prawdopodobnie składają się z lodu metanowego, a leżąca pod nimi gruba warstwa chmur to lód H2S.
Mikrofizyka chmur
Mikrofizyka chmur to badanie procesów, które rządzą powstawaniem i ewolucją cząstek chmur w skali mikroskopowej. Zajmuje się takimi pytaniami jak: "Jakie warunki są wymagane do powstania chmur? Jak szybko rosną cząstki? Co kontroluje rozkład wielkości cząstek?" Badanie mikrofizycznych procesów chmur wykracza poza mikroskop. Szerszym celem jest zrozumienie podstawowych procesów, które rządzą strukturą i dynamiką chmur na dużą skalę. Znaczną ilość pracy zainwestowano w odpowiedź na te pytania dla chmur ziemskich, dla których można wykonać pomiary in situ i połączyć je z badaniami laboratoryjnymi i teoretycznymi. Podejmowano pewne próby zrozumienia mikrofizyki chmur na innych planetach, chociaż ograniczenia obserwacyjne są znacznie słabsze. Cząsteczki kondensatu mogą powstawać albo przez bezpośrednią kondensację z przesyconej pary, albo przez kondensację na wcześniej istniejącej obcej cząstce (na przykład pyłu lub aerozolu siarczanowego). Są one nazywane odpowiednio nukleacją jednorodną i niejednorodną. Jednorodna nukleacja rozpoczyna się, gdy cząsteczki w fazie gazowej łączą się, tworząc mały klaster, który może służyć jako jądro zarodkowe. Cząsteczki klastra mogą odparować lub więcej cząsteczek z pary może się skroplić, w zależności od tego, który wynik jest preferowany przez termodynamikę. Swobodna energia Gibbsa jest wielkością termodynamiczną, która kontroluje wzrost lub parowanie cząstek. Swobodna energia Gibbsa zależy od dwóch terminów, powierzchni cząstki razy napięcie powierzchniowe plus objętość cząstki razy KT razy logarytm naturalny ciśnienia pary podzielony przez ciśnienie pary nasyconej lub
W powyższym równaniu ΔG jest zmianą swobodnej energii Gibbsa związaną z tworzeniem cząstki o promieniu a, σ jest napięciem powierzchniowym cieczy, nl jest gęstością liczbową cząsteczek w cieczy, K jest stałą Boltzmanna, e jest ciśnieniem pary, a el jest ciśnieniem pary nasyconej w temperaturze T . Wykres ΔG jako funkcji promienia a ujawnia, że swobodna energia Gibbsa dla formowania cząstek jest zawsze dodatnia dla ciśnienia pary mniejszego lub równego ciśnieniu pary nasyconej. Jest to niekorzystne termodynamicznie i każda cząstka, która może początkowo istnieć, wyparuje. Gdy ciśnienie pary jest wyższe niż ciśnienie pary nasyconej, swobodna energia Gibbsa staje się ujemna przy pewnym promieniu cząstki. Istnieje promień krytyczny, ac, gdzie kondensacja na powierzchni cząstki zmniejsza swobodną energię Gibbsa, a cząstka będzie rosła przez kondensację. W normalnych okolicznościach w atmosferze ziemskiej jest niezwykle trudno wyhodować cząstkę do promienia krytycznego, ponieważ stosunek ciśnienia pary do ciśnienia pary nasyconej nigdy nie jest bardzo wysoki. Znacznie częstsza inicjacja procesu wzrostu zależy od istnienia jąder kondensacji chmur (CCN), które mogą składać się z małych cząstek pyłu lub siarczanu na Ziemi. Może występować szeroka gama składów cząstek CCN, ale tylko niewielka ich część sprzyja wzrostowi. Cząsteczki, których struktura powierzchni jest podobna do struktury wody lub lodu (takie jak kryształy jodku srebra używane do zasiewania chmur) tworzą dobre CCN. Inną klasą cząstek, które tworzą jeszcze lepsze CCN, są higroskopijne siarczany i azotany. Nadmiar małych CCN prowadzi do nadmiaru małych kropelek. Odwrotnie, w środowisku z niewielką ilością CCN powstanie niewiele kropelek wody, ale te, które to zrobią, wykorzystają dostępną parę do wzrostu do stosunkowo dużych rozmiarów. Obrazy powierzchni oceanu w niektórych warunkach ukazują ślady statków jako smugi małych cząsteczek chmur, których powstawanie zostało zainicjowane przez nadmiar CCN w pióropuszach spalin statków. Sama kondensacja nie wystarcza, aby cząsteczki w chmurach rosły do punktu opadów w ciągu kilku godzin. Inny mechanizm, wzrost przez zderzenie i łączenie się kropel (koalescencja) lub przywieranie cząsteczek lodu (koagulacja), powoduje znacznie szybszy wzrost, gdy cząsteczki stają się wystarczająco duże (promień około 20 μm), że prędkości sedymentacji stają się ważne. Największe cząsteczki osadzają się szybciej niż mniejsze i zderzają się z innymi cząsteczkami podczas opadania przez chmurę. To zachowanie prowadzi do procesu, który może szybko zwiększać wielkość cząsteczek (do około 2 mm). Nawet większe cząsteczki mogą tworzyć się w prądach wstępujących lub paczkach, które krążą między prądami wstępującymi i zstępującymi. Te pomysły wprowadzają współdziałanie między mikrofizyką chmur a wiatrami pionowymi i poziomymi. Innym sprzężeniem jest sprzężenie między promieniowaniem a chmurami. Na szczycie warstwy chmur chmura stygnie, emitując promieniowanie cieplne w przestrzeń. To schłodzenie z kolei zasila wzór cyrkulacji z opadającym chłodnym powietrzem zastępowanym przez wznoszące się cieplejsze powietrze z dołu i z wnętrza chmury. Tak więc trzy główne procesy fizyczne (mikrofizyka chmur, dynamika atmosfery i promieniowanie) są sprzężone, a to sprzężenie musi być uwzględnione w modelach formowania się/ewolucji chmur. Chmury pierzaste tworzą się w pobliżu szczytu troposfery, gdzie temperatury są niskie (około 40°C niższe niż temperatura zamarzania wody). Chmury są zasilane parą z wierzchołków dużych układów konwekcyjnych przenoszonych poziomo przez ścinanie wiatru. Mogą istnieć zarówno ciecz, jak i lód, przy czym ciecz jest przechłodzona o ponad 30°C. Kryształki lodu mogą rosnąć do stosunkowo dużych rozmiarów (rzędu 100 μm) w miarę opadania. Kryształy lodu tworzące się w różnych temperaturach wytwarzają szeroką gamę nawyków krystalicznych, ale dominującymi formami są heksagonalne. Typowe kąty krystaliczne wynoszą 120? i 90°. Prowadzą one do cech halo, najczęściej występujących przy kącie rozpraszania 22°. Płaskie płyty mają tendencję do orientowania się w jednym kierunku podczas opadania ze względu na ich profil aerodynamiczny. Orientacja cząstek prowadzi do pewnych typów halo
Mikrofizyczne modele Wenus, Marsa, Tytana i planet olbrzymów
Wenus
Nasza wiedza na temat struktury chmur Wenus jest znaczna, dzięki obszernym pomiarom z wielu instrumentów na kilku sondach, które opadły przez atmosferę, a także zdalnych statków kosmicznych i instrumentów naziemnych. Modele mikrofizyki chmur muszą uwzględniać sprzężony skład chemiczny cząstek i gazu (oba zmieniają się wraz z wysokością), procesy fotochemiczne na szczycie atmosfery, profil temperatury atmosfery i transport pionowy spowodowany ruchami wirowymi i sedymentacją cząstek. Modele mikrofizyczne próbują odtworzyć obserwowaną chemię cząstek (roztwór kwasu siarkowego/wody, którego stężenie zmienia się wraz z wysokością, co określa temperatura) oraz rozkład wielkości i gęstość liczbową cząstek, które również zmieniają się wraz z wysokością. Pamiętając, że w atmosferze Wenus istnieją trzy główne warstwy chmur, najwyższa jest rządzona przez procesy fotochemiczne, które działają na dwutlenek siarki i wodę, tworząc chmurę kwasu siarkowego. Górna chmura jest bliska stanu stacjonarnego z niewielką zmiennością czasową. Wzrost cząstek odpowiada utracie przez sedymentację. Wzrost cząstek jest regulowany przez dostępny siarczan wytwarzany przez fotochemię. Dwutlenek siarki jest dostarczany przez transport pionowy spod chmur. W górnej chmurze obserwuje się dwumodalny rozkład wielkości, przy czym jeden mod ma promień modu 0,3 μm, a drugi promień modu 1 μm. Dolne i środkowe chmury powstają przez kondensację z istniejącej pary, a nie przez fotochemię, która napędza powstawanie cząstek w górnej chmurze. Dwa składniki pary (H2SO4 i H2O) są obecne w różnych ilościach. Małe cząstki są obecne poniżej podstawy dolnej chmury i mogą służyć jako jądra kondensacji. Symulacje modelu pokazują, że dwoma najważniejszymi parametrami modelu są transport pionowy, scharakteryzowany przez profil dyfuzji wirowej, który jest funkcją wysokości (osiąga szczyt na wysokości 54 km w modelu) i mechanizm nukleacji. Uważa się, że mechanizm nukleacji jest połączeniem heterogenicznej nukleacji na nierozpuszczalnych rdzeniach i mechanizmu aktywacji na rozpuszczalnych (higroskopijnych) rdzeniach. Model numeryczny uwzględnia równowagę ciśnień pary H2SO4 i H2O jako funkcję temperatury, dostarczanie pary poprzez dyfuzję wirową, szybkość utraty spowodowaną sedymentacją i ciągłość masy cząstek w miarę wzrostu cząstek. Model odtwarza zaobserwowany trójmodalny rozkład wielkości cząstek. Najmniejsze cząstki (mniejsze niż 0,6 μm) to nierozpuszczalne jądra. Największe cząstki (zwykle o promieniu 3-4 μm) to te, które tworzą jądra w pobliżu szczytu chmury. Podczas opadania rosną przez zderzenia i kondensację, stając się większe na niższych wysokościach.
Mars
Cząsteczki wody kondensują się na jądrach pyłu w atmosferze Marsa, tworząc chmury lodu wodnego. Obfitość wody nie jest wysoka, więc kondensacja lodu wymaga zarówno niskich temperatur, jak i dostępności jąder kondensacji pyłu. W bardzo niskich temperaturach dwutlenek węgla może kondensować się na cząsteczkach lodu wodnego. Zdjęcia z kosmosu oraz z lądowników Viking i Mars Pathfinder pokazały, że tworzenie się chmur lodowych na Marsie jest bardzo zmienne. Gdy Mars jest najdalej od Słońca, temperatury są niższe, a chmury lodowe są bardziej rozległe i częstsze. Jednak nawet w ciągu kilku tygodni misji Mars Pathfinder tworzenie się chmur w pobliżu miejsca lądowania było bardzo zmienne. Istnieje kilka głównych różnic między tworzeniem się chmur lodowych na Marsie i na Ziemi. Obfitość wody w atmosferze Marsa jest znacznie mniejsza niż na Ziemi. W rezultacie jest tak mało cząsteczek, że proces koagulacji można zignorować, pozostawiając nukleację, kondensację i sedymentację jako czynniki, które determinują tworzenie się chmur i rozkład wielkości cząstek. Najmniejsze cząsteczki mają taki sam rozmiar jak jądra kondensacji. Zdolność cząstek pyłu marsjańskiego do służenia jako miejsca nukleacji jest wysoce niepewna, ponieważ niewiele wiadomo o mineralogii, która ma silny wpływ na nukleację. Mogą być obecne minerały ilaste, które zazwyczaj są wydajnymi nukleatorami. Inne rodzaje minerałów są nieefektywne. Jednym ze sposobów uwzględnienia niepewności w modelowaniu tego procesu jest uczynienie parametru kontaktu parametrem modelu mikrofizycznego. Energia związana z tworzeniem się cząstek lodu jest proporcjonalna do współczynnika (2 + m)(1? m)2, gdzie m jest parametrem kontaktu. Wartości m bliskie 1 (np. dla jodku srebra) zmniejszają energię tworzenia, co prowadzi do szybkiej nukleacji. Typowe cząstki gleby lądowej mają m bliskie 0,4. Modele mikrofizyczne, które wykorzystują profil temperatury określony przez instrumenty Mars Pathfinder, znajdują tworzenie się chmur lodowych w dwóch warstwach. Najwyższa znajduje się w zakresie wysokości 30-50 km. Druga warstwa tworzy się przy minimalnej temperaturze w pobliżu 10 km wysokości. Konkurencja między wzrostem przez nukleację i kondensację oraz strata przez sedymentację definiują rozkład wielkości. Cząstki w górnej warstwie mają średni promień w pobliżu 1,5 ?m, podczas gdy te w dolnej warstwie mają średni promień w pobliżu 2,5 μm.
Tytan
Podobnie jak w przypadku Ziemi, Wenus i planet olbrzymów, chmury lub mgła w stratosferze powstają w wyniku procesów fotochemicznych, podczas gdy te w troposferze powstają w wyniku kondensacji. Na najgłębszym poziomie powinny znajdować się chmury metanowe. Inne chmury kondensatu, prawdopodobnie o różnym składzie, mogą powstawać na poziomach pośrednich. Tworzenie się chmur metanowych w pobliżu minimalnej temperatury (poniżej 40 km wysokości) jest wysoce niepewne. Widma w podczerwieni z sondy Voyager zostały zinterpretowane przez niektórych jako sugerujące, że metan jest wysoce przesycony w pobliżu minimalnej temperatury. Nie może to mieć miejsca w obecności znacznej chmury, a zatem oznaczałoby to, że kondensacja występuje rzadko, tworząc duże cząsteczki lodu (lub cieczy w najniższych kilku km), które szybko opadają na powierzchnię (deszcz bez chmur). Ten scenariusz został zaproponowany przed interpretacją wysokiego globalnego przesycenia metanem. Tytan i Ziemia mogą się znacznie różnić pod względem liczby
dostępnych jąder kondensacji, które mogą zainicjować tworzenie się cząstek. Na Ziemi jest wiele CCN wymieszanych z powierzchnią. Na Tytanie jedyny dostępny CCN może pochodzić z powolnej sedymentacji nadległej mgły fotochemicznej i innych kondensatów. Uważa się, że gęstość liczbowa z tego źródła jest dość niska w porównaniu do tej na Ziemi. Niska gęstość CCN prowadziłaby do mniejszej liczby cząstek, ale te, które się tworzą, mogą rosnąć przez kondensację do dużych rozmiarów (promienie większe niż 50 μm), ponieważ ich powstawanie w niewielkim stopniu przyczynia się do wyczerpania dostępnej pary. Zarówno modele mikrofizyczne, jak i ostatnie naziemne widma bliskiej podczerwieni sugerują nierównomierne i zmienne chmury dużego lodu metanowego lub cząstek cieczy, które tworzą się na wysokości około 15 km. Stratosferyczna mgła fotochemiczna Tytana składa się ze złożonych węglowodorów i nitryli. Punktem wyjścia dla tego procesu jest fotoliza metanu i azotu wysoko w atmosferze (powyżej 300 km wysokości).
Chociaż proces jest powolny, w czasie geologicznym powinno zostać przetworzone wystarczająco dużo metanu, aby wytworzyć 100-metrowej grubości powierzchniowe złoża ciekłego etanu i stałego materiału organicznego, pod warunkiem, że dostępny jest powierzchniowy zbiornik metanu, który uzupełni to, co zostało zniszczone przez miliardy lat. Cząsteczki mgły są niewątpliwie złożonymi związkami organicznymi i nitrylami, chociaż nie wiadomo wystarczająco dużo, aby być bardziej konkretnym co do składu. Mikrofizyczne modele stratosferycznej mgły Tytana grupują procesy chemiczne prowadzące do powstawania kondensowalnych związków organicznych w jeden regulowany parametr, szybkość masowej produkcji cząsteczek tworzących aerozol na szczycie warstwy mgły. Zakłada się, że nukleacja jest inicjowana przez tworzenie małych skupisk cząsteczek, które rosną poprzez zderzenia. Modele obejmują ładowanie cząstek przez UV i zdarzenia związane z promieniowaniem kosmicznym. Ładunek jest parametrem swobodnym (liczba elektronów na
jednostkę promienia cząstki) i służy do hamowania wzrostu poprzez koagulację. Tradycyjne modele mikrofizyczne zakładały, że cząstki pozostają kuliste podczas wzrostu. Byłoby to oczekiwane, gdyby cząstki były cieczą. Nowsze modele uwzględniają wyniki laboratoryjne i przewidywania teoretyczne, które sprzyjają cząstkom stałym. Gdy cząstki stałe zderzają się, przyklejają się do siebie, tworząc agregaty. Gdy agregaty zderzają się ze sobą, tworzą większe agregaty o naturze fraktalnej. Agregaty klaster-klaster mają wymiar fraktalny bliski 2 (w przeciwieństwie do sfer, które mają wymiar fraktalny 3). W pobliżu szczytu warstwy mgły (∿400 km) proces wzrostu zachodzi za pośrednictwem cząsteczek, które przyklejają się do pojedynczych cząstek. Poszczególne cząstki rosną do pewnego limitu rozmiaru określonego przez ciśnienie. Zarówno teoria, jak i obserwacja wskazują, że poszczególne cząstki lub monomery mają promienie bliskie 0,066 μm. Wzajemne zderzenia między monomerami powodują powstawanie klastrów i agregatów
klaster-klaster, gdy cząstki się osadzają. Idea agregatu klaster może wyjaśnić połączenie silnej polaryzacji liniowej w świetle rozproszonym w pobliżu kąta rozpraszania 90? i silnego rozpraszania światła w kierunku do przodu.
Olbrzymie planety
Mikrofizyczne badania chmur kondensatu w troposferach olbrzymich planet opierają się na znanych zasadach opisujących wzrost poprzez kondensację, koagulację i koalescencję oraz utratę poprzez parowanie i sedymentację. Jednak te modele są niezwykle prymitywne, ponieważ liczba i skład potencjalnych jąder kondensacji chmur są nieznane. Ponadto powstawanie chmur zależy w dużym stopniu od dynamiki atmosfery, która nie jest brana pod uwagę. Nie ma żadnych pomiarów in situ, z wyjątkiem sondy Galileo, która znalazła niewiele cząstek na swojej ścieżce opadania przez zubożony w substancje lotne fragment atmosfery Jowisza. Niektóre modele mikrofizyczne przewidują, że chmury metanu na Uranie i Neptunie są 10-100 razy masywniejsze niż jakiekolwiek chmury na Ziemi. Jednak obserwacje wykazują bardzo małą masę chmury metanu. Brakuje dowodów obserwacyjnych na istnienie chmury wodnej, chociaż przeszkadzają wyższe chmury. Chmura amoniaku w górnej części troposfery na Jowiszu i Saturnie jest przewidywana na podstawie modeli mikrofizycznych jako słabo opadowa chmura podobna do ziemskich pierzastych chmur, a obserwacje są zgodne z tą ideą. Sprzężone fotochemiczne/mikrofizyczne modele chmur są w stanie uwzględnić głębokość optyczną i rozkład wielkości cząstek mgły węglowodorowej w stratosferach Urana i Neptuna, pod warunkiem, że szybkość produkcji masowej i ładunek cząstek są regulowanymi parametrami. Modele uwzględniają rozmiary cząstek (wszystkie submikronowe) i profile pionowe uzyskane z danych z sondy Voyager. Dyfuzja wirowa transportuje metan do górnej atmosfery, gdzie procesy fotochemiczne prowadzą do powstawania cząstek lodu diacetylenu, acetylenu i etanu, które kondensują się odpowiednio w pobliżu 0,1 mb, 2,5 mb i 14 mb. Gdy cząstki opadają do ciśnień większych niż 600 mb, odparowują wraz ze wzrostem temperatury. Polimery organiczne mogą również powstawać, prawdopodobnie poprzez fotochemię stanu stałego w oryginalnej cząstce lodu podczas okresu osiadania. Proces ten może odpowiadać za słabą absorpcję widoczną w odbitym świetle słonecznym
Przynależność do gromady
Nasza Galaktyka Drogi Mlecznej zawiera liczne układy gwiazdowe, których członkowie mają wspólne pochodzenie i są ze sobą powiązani grawitacyjnie. Galaktyczne GROMADY KULISTE i GALAKTYCZNE GROMADY OTWARTE są najważniejszymi przedstawicielami takich układów. Mniej widoczne są asocjacje gwiazd o niskiej gęstości i niezwiązane grawitacyjnie. Istnieje ścisłe powiązanie między gromadami otwartymi, asocjacjami i dyskiem galaktycznym, które jest łatwo widoczne na rozgwieżdżonym niebie. Jednak dysk galaktyczny jest bardzo bogaty w gwiazdy, tak że gromady otwarte i asocjacje, wyświetlane na tym tle, zaczynają się z nim mieszać. To mieszanie, lub innymi słowy zanieczyszczenie gromady przez gwiazdy dysku galaktycznego, staje się poważne przy słabszych wielkościach gwiazdowych. Radzenie sobie z zanieczyszczeniem gromady jest w zasadzie częścią problemu określania przynależności do gromady. Z drugiej strony galaktyczne gromady kuliste są tak bogate w gwiazdy, że przypadkowa gwiazda tła rzadko jest przyjmowana jako członek gromady. Może tak nie być, jeśli gromada kulista jest słabo zaludniona i/lub znajduje się w pobliżu centrum Galaktyki, gdzie gęstość gwiazd tła osiąga maksimum. Dlaczego musimy identyfikować członków gromady tak pewnie, jak to możliwe? Obserwacja GROMAD GWIAZD jest ważna dla porównania teorii EWOLUCJI GWIAZD i TWORZENIA SIĘ GWIAZD z obserwacjami. W rzeczywistości teoria ewolucji gwiazd dla gwiazd młodszych niż kilka miliardów lat opiera się niemal wyłącznie na obserwacjach otwartych gromad gwiazd i Słońca. Jeśli obserwacje gromady gwiazd są zanieczyszczone przez gwiazdy tła, nieuchronnie wpłynie to na DIAGRAM HERTZSPRUNGA-RUSSELLA (HR) gromady, a wyprowadzone średnie właściwości gromady mogą być błędne. Z kolei teoria formowania się gwiazd wymaga znajomości początkowej funkcji masy gwiazd (IMF), którą w zasadzie można wywnioskować z obserwacji gromad gwiazd. Ponownie, zanieczyszczenie wraz z kompletnością członkostwa w klastrze są kluczowymi kwestiami w próbie wyprowadzenia IMF. Warunkiem wstępnym do gruntownego badania dowolnego konkretnego klastra gwiazd i asocjacji jest ustalenie członkostwa, które samo w sobie jest cenne. Ustalenie członkostwa przedstawia paradoksalną sytuację. Z jednej strony koncepcja jest łatwa do zrozumienia, ale z drugiej strony praktyczna implementacja zajęła pokolenia astronomów i z pewnością zajmie w przyszłości. Ten paradoks jest czasami pomijany nawet przez pracowników w tej dziedzinie i nie jest odpowiednio uznawany przez innych wykorzystujących wyniki badań klastrów. Poniższa dyskusja ma przelotny związek z grupą metod statystycznych znanych jako techniki klastrowania, które są często stosowane w analizie rozkładów galaktyk. W przypadku gromad gwiazd podstawowym założeniem jest to, że ich istnienie jest zwykle dobrze ustalone, podczas gdy indywidualne prawdopodobieństwa członkostwa mogą nie być znane.
Prawdopodobieństwo przynależności
Ponieważ gromady gwiazd są rzutowane na pole gwiazdowe Galaktyki, zawsze mamy do czynienia z mieszanką dwóch populacji: gwiazd gromady (c) i gwiazd pola (f). Nie ma łatwo dostępnego kryterium, które dałoby nam jasne rozróżnienie między tymi dwiema populacjami. Dlatego możemy jedynie oszacować prawdopodobieństwo, p, przynależności gwiazdy do gromady, które można zdefiniować następująco:

gdzie Fc i Ff to pewne funkcje rozkładu (często nazywane funkcjami gęstości prawdopodobieństwa, pdf) odpowiednio dla gromady i pola. Funkcje te z kolei zależą od pewnych wielkości fizycznych i ich błędów charakteryzujących gwiazdy gromady i pola. Zasadniczo każde kryterium przynależności oparte na zjawiskach fizycznych lub innych jest przydatne, o ile pozwala na oddzielenie populacji gromady i pola w pewnym stopniu. Prawdziwa gwiazda gromady prawdopodobnie przejdzie wszystkie "filtry" ustawione przez różne podejścia, jeśli założenia są poprawne i bezstronne, podczas gdy oczekuje się, że gwiazda pola zawiedzie przynajmniej na jednym z nich. Zwykle gromady gwiazd odkrywano jako lokalne, rzutowane wzmocnienia gęstości gwiazd na niebie. Jako pierwszy krok można narysować wyimaginowany okrąg na niebie wokół takiego wzmocnienia i oświadczyć, że każda gwiazda w okręgu jest członkiem gromady. Niestety, przy słabszych wielkościach gwiazdowych podejście to prowadzi do słabych wyników. Jako
przykład rozważmy przypadek stosunkowo bliskiej gromady otwartej Messier 39. Uzbrojeni w wiedzę a priori o prawdziwych członkach gromady, możliwe jest oszacowanie średniego prawdopodobieństwa, że każda gwiazda jest członkiem gromady o różnych pozornych wielkościach gwiazdowych w promieniu równym 15 minut łuku wokół środka gromady. W tabeli 1 prawdopodobieństwo przynależności do gromady wynoszące 75% oznacza, że 3/4 tych gwiazd jest członkami gromady, podczas gdy 1/4 to gwiazdy pola. Ponieważ jest to prawdopodobieństwo, nie możemy powiedzieć, które konkretne gwiazdy są członkami gromady. Oczywiście, im niższe prawdopodobieństwo, tym mniejsze szanse na znalezienie gwiazdy gromady w próbce.
Jak widać z tabeli , do V ∿11 mag liczba gwiazd gromady jest wystarczająco duża, aby pozwolić nam zignorować obecność gwiazd pola. Jednak przy słabszych wielkościach gwiazd członkowie gromady praktycznie znikają w morzu gwiazd pola. Jest to bardzo powszechny obraz w badaniach gromad otwartych. Na szczęście istnieje kilka cech, które różnią się dla gwiazd w gromadach i tych w polu galaktycznym. Na przykład, ze względu na ich wspólne pochodzenie i pole grawitacyjne, gwiazdy gromady znajdują się w ograniczonej objętości, rzadko przekraczającej 20 pc średnicy. W diagramie HR lub diagramie wielkości barwnej gwiazdy gromady znajdują się głównie w wąskim pasie wzdłuż ciągu głównego, z wyjątkiem bardzo młodych gromad otwartych, w których mniej masywne gwiazdy są rozproszone znacznie powyżej tak zwanego ciągu głównego zerowego wieku. Z drugiej strony, rozkład gwiazd pola galaktycznego na diagramie wielkości barwnej tworzy jedynie szeroki i rozproszony obłok. Ta różnica w wyglądzie diagramów wielkości barwnej jest jedną z często stosowanych metod wyznaczania gwiazd gromady z pola. Chociaż nigdy nie zajmuje się ona obliczaniem prawdopodobieństw przynależności, w istocie zwiększa prawdopodobieństwo przynależności en masse. Jednak schodząc do słabszych wielkości, zawsze istnieje krytyczny obszar diagramu wielkości barwnej, w którym gwiazdy pola zanieczyszczają diagram nie do poznania. Ironicznie, w chwili obecnej ten region zajmowany przez najsłabsze członki gromad gwiazd, takie jak białe i brązowe karły, znajduje się w centrum uwagi wielu astronomów z bardzo dobrych powodów. Obiekty te mogą zapewnić niezależną skalę wieku absolutnego i mogą ujawnić pewne sekrety formowania się planet. Najwyraźniej istnieje potrzeba wyprowadzenia rzeczywistych prawdopodobieństw przynależności do gromady, a nie tylko szacunków. Ruch dowolnej gwiazdy można podzielić na dwie mierzalne wielkości - prędkość styczną na niebie, czyli tak zwany ruch własny, oraz prędkość radialną wzdłuż linii wzroku. Te dwie prędkości są szeroko stosowane przy obliczaniu prawdopodobieństw przynależności i z pewnością wymagają dokładniejszego przyjrzenia się. W przypadku typowej gromady otwartej rozrzut ruchów gwiazd polowych jest w przybliżeniu do stu razy większy niż dyspersja prędkości ruchu wewnętrznego wokół środka masy gromady. Zasadniczo ta dysproporcja jest kluczem do określenia przynależności do gromady za pomocą ruchów gwiazd. Oczywiście każda gromada ma swój własny ruch systemowy w Drodze Mlecznej. Określenie przynależności jest znacznie łatwiejsze, jeżeli ruch ten znacząco różni się od średniego ruchu gwiazd polowych.
Ruch własny jako narzędzie do przynależności
Chociaż istnienie RUCHU WŁASNEGO jest znane od czasu jego odkrycia przez Edmonda Halleya w 1718 r., niełatwo jest zmierzyć ruch własny gwiazdy. Po pierwsze, ruchy własne są bardzo małe. Typową jednostką pomiaru ruchu własnego jest milisekunda łuku na rok (mas yr?1), a bardzo niewiele gwiazd ma ruchy przekraczające 1000 mas yr-1. W świecie gromad, członkowie gromady Hiady posiadają największy ruch własny, około 100 mas yr-1. Po drugie, standardowa naziemna technika określania ruchu własnego wymaga skoordynowanego, długoterminowego wysiłku obserwacyjnego. Tradycyjnie pozycje gwiazd mierzy się na dwóch lub więcej zestawach płyt fotograficznych wykonanych w różnych epokach obejmujących co najmniej kilka dekad. Następnie wszystkie zmierzone współrzędne są redukowane do wspólnego układu współrzędnych w ustalonej epoce, umożliwiając liniowy zależny od czasu wyraz współrzędnych dla każdej gwiazdy (znany również jako ruch własny) oprócz konwencjonalnych globalnych wyrazów wielomianowych. Niezawodność ruchu własnego jest charakteryzowana przez stosunek ruchu własnego do jego błędu standardowego. Zasada jest taka, że im dłuższy okres czasu, tym dokładniejszy ruch własny. Relatywnie łatwo jest uzyskać ruchy własne na poziomie dokładności 1 mas yr-1, chociaż dokładności sub-mas yr-1 nadal stanowią wyzwanie. Co więcej, dla większości gromad otwartych praktycznie nie ma dostępnego materiału wczesnych płyt, a jeśli już jest, płyty często nie zawierają wystarczająco słabych gwiazd. Znaczenie ruchu własnego w określaniu przynależności do gromady było rozumiane dawno temu, ale dokładne wykorzystanie ruchu własnego rozpoczęło się dopiero wraz z wprowadzeniem fotografii do obserwacji astronomicznych w ostatnich dekadach XIX wieku. Od tego czasu około 100 z 1200 znanych gromad otwartych ma przynajmniej jedno określenie ruchu własnego przy użyciu metody fotograficznej, w przeciwieństwie do około 500 gromad, dla których wykonano obserwacje fotometryczne. Szczególne miejsce w badaniach nad przynależnością do gromad zajmuje niedawna, bardzo udana misja HIPPARCOS i planowane przyszłe misje astrometrii kosmicznej, takie jak SIM, FAME i GAIA. Hipparcos wywarł znaczący wpływ na pobliską gromadę otwartą i przynależność do asocjacji oraz spis. Ze względu na oczekiwane dokładności położenia na niespotykanym dotąd poziomie mikrosekund łuku, przyszłe misje kosmiczne, FAME i GAIA, będą w stanie dostarczyć doskonałych informacji o przynależności dla praktycznie wszystkich zarejestrowanych gromad otwartych. Oczekuje się, że te przyszłe misje zrewolucjonizują badania Drogi Mlecznej, w tym gromad gwiazd. Jak powiedziano wcześniej, określenie przynależności przy użyciu ruchu własnego wykorzystuje fakt zupełnie różnych rozproszeń prędkości gwiazd gromady i gwiazd polowych. W praktyce jednak każde określenie ruchu własnego ma pewien błąd. Innymi słowy, prawdziwy ruch własny jest zawsze nieco rozmyty z powodu błędów pomiarowych i innych. Jeśli błędy te są porównywalne z rozproszeniem gwiazd polowych (zwykle około 5-10 mas yr-1), a ruch systemowy gromady nie różni się znacząco od średniego ruchu gwiazd polowych, wówczas segregacja członków gromady jest niemożliwa. Rozważmy ponownie gromadę otwartą Messier 39, która ma dość dużą próbkę gwiazd o ruchach własnych z dokładnościami nieznacznie powyżej 1 mas yr-1. Narzędziem roboczym do analizy ruchu własnego jest tak zwany diagram wektorowo-punktowy (VPD). Na tym diagramie z osiami zwykle zorientowanymi wzdłuż rektascensji i deklinacji, każda kropka jest końcem wektora ruchu własnego. Można zauważyć dwie populacje kropek: dużą koncentrację wokół (0,0) i mniejszą wokół (?6, ?16) mas yr
Rysunek przedstawia diagram kolor-wielkość dla wszystkich gwiazd w regionie Messier 39 (rysunek (a)). Górny ciąg główny gromady jest ledwo widoczny; Jednakże, dzięki pomocy ruchu własnego praktycznie wszystkie gwiazdy pola zniknęły (rysunek b)), a ciąg główny jest pięknie zarysowany. Z drugiej strony, ruch własny nie jest absolutnym kryterium przy decydowaniu o przynależności pojedynczej gwiazdy o szczególnym znaczeniu. Nawet wysokie prawdopodobieństwo przynależności, z samej natury prawdopodobieństw, pozostawia szansę dla gwiazdy pola. Dlatego, jeśli to możliwe, należy użyć innego kryterium, takiego jak prędkość radialna.
Prędkości radialne
Określenia PRĘDKOŚCI RADIALNEJ wykonuje się poprzez pomiar przesunięcia Dopplera w widmach gwiazd, tj. przesunięcia linii widmowych, Δλ, względem ich długości fali w spoczynku, ?0, jak określono na podstawie pomiarów laboratoryjnych. W klasycznym ujęciu przesunięcie to jest proporcjonalne do prędkości wzdłuż linii wzroku
gdzie c jest prędkością światła. Prędkości radialne gwiazd gromad otwartych, mierzone z układu słonecznego, rzadko przekraczają 10-20 km s-1, stąd wymagana dokładność prędkości radialnych do ± 1 km s-1 lub lepsza wymaga określenia przesunięcia długości fali z dokładnością do kilku części na milion, co stanowi wyzwanie nawet dla współczesnej spektroskopii. Najczęściej stosowaną techniką pomiaru prędkości radialnej jest korelacja krzyżowa obserwowanego widma z wysokiej jakości szablonem (optycznym lub syntetycznym) widma odniesienia. W ten sposób można to zrobić bezpośrednio, podczas obserwacji, jak w spektrometrze CORAVEL, lub numerycznie, używając spektrogramów CCD wykonanych dla jednej gwiazdy na raz, jak w projektach francusko-szwajcarskich ELODIE i CORALIE oraz cyfrowych prędkościomierzy opracowanych w Harvard-Smithsonian Center for Astrophysics, USA, lub dla wielu gwiazd jednocześnie. Najdokładniejsze prędkości radialne uzyskano, umieszczając komórkę absorpcyjną (HF lub jodową) przed spektrografem, ale ta technika wymaga wysokiego poziomu strumienia światła i jest głównie stosowana w polowaniu na planety pozasłoneczne wokół jasnych gwiazd. Widma gwiazd późnego typu (F-G-K) zawierają dużą liczbę linii absorpcyjnych metali o małej szerokości, co sprawia, że stosowanie technik korelacji krzyżowej jest stosunkowo łatwe. Wyjaśnia to, dlaczego zdecydowana większość gwiazd gromady mających precyzyjne prędkości radialne jest późnego typu widmowego. Ze względu na niedobór cech widmowych połączony z ich silną zależnością od warunków fizycznych w ATMOSFERACH GWIAZDOWYCH i często dużymi prędkościami obrotowymi gorących gwiazd, znacznie trudniej jest zmierzyć prędkości radialne wczesnych gwiazd typu O, B i A, które zazwyczaj są najjaśniejsze w gromadach otwartych. Ostatnie postępy w modelowaniu atmosfer gwiazdowych i dostrajaniu tych modeli do rzeczywistych parametrów fizycznych gwiazdy obiecują wkrótce zamknąć tę lukę. Rysunek 3 przedstawia rozkład prędkości radialnych w gromadzie otwartej NGC 188. W pewnym sensie przypomina diagram wektorowo-punktowy, choć tylko w jednej współrzędnej. W zasadzie możliwe jest modelowanie rozkładów gwiazd gromady i pola, ale istnieją dwie przeszkody. Po pierwsze, pomiary prędkości radialnej są niedostępne dla teleskopu, a zatem próbki gwiazd są zawsze zoptymalizowane tak, aby obejmowały maksymalną liczbę potencjalnych członków gromady. Innymi słowy, taki wybór jest w dużym stopniu stronniczy w kierunku członków gromady. Powoduje to poważne niedoreprezentowanie gwiazd polowych i w konsekwencji podważa podstawy statystyczne do obliczania prawdopodobieństwa przynależności. Po drugie, około połowa lub nawet więcej członków gromady może być układami podwójnymi (niektóre są nawet układami potrójnymi). Ruch orbitalny wywoła zależne od czasu przesunięcie względem średniego ruchu układu podwójnego. Aby wykryć takie przesunięcie ruchu, obserwacje muszą obejmować znaczną część okresu orbitalnego. Jeśli przesunięcie nie zostanie wykryte, gwiazda może zostać błędnie sklasyfikowana jako gwiazda polowa. Chociaż może się to wydawać irytujące dla określenia przynależności do gromady, większość badaczy preferuje układy podwójne, ponieważ dostarczają one tak podstawowych danych astronomicznych, jak masy, promienie i jasności, i mają głęboki wpływ na historię formowania się gwiazd i dynamiczną ewolucję układów gwiezdnych (patrz także GWIAZDY PODWÓJNE W GROMADACH KULISTYCH). Z tych powodów ustalenie przynależności do gromady na podstawie prędkości radialnych jest jak dotąd ograniczone do prostego podziału gwiazd na członków gromady i nie-członków, w zależności od tego, czy ich prędkości radialne mieszczą się w oknie 3σ wokół średniej prędkości radialnej gromady. Niemniej jednak nawet tak prymitywne członkostwo w połączeniu z członkostwem na podstawie ruchów własnych dość skutecznie odsiewa gwiazdy polowe. Do tej pory około 200 gromad otwartych ma jakieś pomiary prędkości radialnej, głównie dla gwiazd gałęzi olbrzymów. Tylko kilkanaście z nich, głównie pobliskich gromad, ma pomiary dla gwiazd ciągu głównego, ale szybko się to poprawia dzięki nowym postępom w projektowaniu spektrografów wieloobiektowych i dostępności dużych teleskopów.
Członkostwo w asocjacjach
Członkostwo w asocjacjach gwiazdowych stanowi prawdziwe wyzwanie dla każdego, kto próbuje je określić. Najczęściej występują tzw. ASSOCJACJE OB. Asocjacje te to grawitacyjnie niezwiązane układy gwiazd, rozpoznawalne po pewnym nadmiarze gęstości gwiazd typu widmowego O i B na tle nieba i małej dyspersji prędkości wewnętrznej. Ta ostatnia nie przekracza kilku km s-1, w związku z czym asocjację można wykryć za pomocą wspólnej kinematyki jej członków, choć w sposób mniej spójny niż w przypadku gromad gwiazd. Ponieważ asocjacje obejmują dziesiątki do setek stopni kwadratowych na niebie przy ekstremalnie niskiej gęstości (kilka gwiazd na stopień kwadratowy), przed misją Hipparcos informacje o członkostwie były ograniczone do jasnych gwiazd i nawet one nie były wiarygodne. Pomiary Hipparcos idealnie nadają się do określania członkostwa w pobliskich asocjacjach OB w odległości ≈650 pc. Duży zasięg przestrzenny asocjacji skłania badaczy do stosowania tzw. techniki ruchomych klastrów. Wszystkie gwiazdy asocjacyjne poruszają się tak, że oddalająca się asocjacja zbliża się do miejsca na niebie znanego jako punkt pokrycia. W przypadku asocjacji jest to tylko częściowo prawdą, ponieważ ruchy gwiazd są lekko rozbieżne. Najwyraźniej dyspersja prędkości prostopadła do kierunku ruchu asocjacji jest po prostu kombinacją wewnętrznej dyspersji prędkości splecionej z błędami obserwacyjnymi. Rozkład tej dyspersji prędkości jest używany do obliczania prawdopodobieństw przynależności dla asocjacji. Dzięki pojawieniu się paralaks Hipparcosa i ruchów własnych możliwe jest wyprowadzenie eliptycznego cylindra prawdopodobieństwa przynależności w trójwymiarowej przestrzeni prędkości, co stanowi tzw. metodę "spaghetti" wprowadzoną przez holenderskich astronomów. Teraz znany jest znacznie lepszy spis zawartości gwiazd w asocjacjach gwiezdnych z dokładnością do 1 kpc od Słońca.
Gromady kuliste
Głównym celem astrometrii gromad kulistych jest określenie absolutnych ruchów własnych, które pozwalają obliczyć orbity. Wiedza o orbitach jest kluczowa dla zrozumienia zawartości i właściwości przypuszczalnie dość heterogenicznego układu gromad kulistych, z których niektóre zostały prawdopodobnie uchwycone podczas zdarzeń łączenia się galaktyk. Do identyfikacji potencjalnych gwiazd pola rzutujących na gromadę wymagane są bardzo precyzyjne względne ruchy własne. W ten sposób materiał płytki refraktora Yerkesa wytworzył czyste próbki gwiazd gromad w kilkunastu gromadach kulistych. Ponieważ gromady kuliste są dość odległymi obiektami, na starych płytach fotograficznych widoczne są tylko górne części diagramu kolor-jasność gromady. Oczekuje się, że archiwalne klatki CCD Teleskopu Kosmicznego Hubble′a (HST) będą przydatne w przeprowadzaniu głębokich badań przynależności w gromadach kulistych. Dokładność położenia na klatkach HST CCD jest wystarczająco wysoka, aby osiągnąć poziom dokładności sub-mas yr-1 dla ruchów własnych w ciągu kilku lat, co jest niemożliwe w przypadku obserwacji naziemnych.
Gromady osadzone
To klasa bardzo młodych gromad otwartych otoczonych grubymi obłokami gazu molekularnego i pyłu, prawdopodobnie pozostałościami po formowaniu się gwiazd. Zazwyczaj te obłoki blokują większość światła gwiazd. Jednak w długościach fal bliskiej podczerwieni obłoki stają się dość przezroczyste. Dzięki pojawieniu się panoramicznych detektorów bliskiej podczerwieni możliwe jest próbkowanie pobliskich (d < 1 kpc) osadzonych gromad do i znacznie poniżej granicy spalania wodoru. Takie gromady są idealnymi miejscami do badania początkowej funkcji masy gwiazd (IMF), ponieważ ewolucja gwiazd i efekty dynamiczne minimalnie zmieniły zawartość i masę osadzonych gromad. Z drugiej strony, nawet w podczerwieni wygaszanie w kierunku członków gromady może być nierównomierne, co w połączeniu z emisją spowodowaną obecnością dysków okołogwiazdowych i innych pozostałości formowania się gwiazd sprawia, że określenie masy jest dość trudne. W przypadku garstki dobrze zbadanych osadzonych gromad, przynależność do gromady nadal nie jest dostępna z kilku powodów. Po pierwsze, gęstość gwiazd w tych gromadach jest znacznie wyższa niż w otaczającym polu, co pozwala na zastosowanie prostego statystycznego odejmowania gwiazd polowych. Po drugie, przedział czasowy między pierwszymi i drugimi ramkami matrycy obrazowej epoki jest obecnie zbyt krótki, aby wyprowadzić wiarygodne ruchy własne. Ponadto całe pole ASTRONOMII PODCZERWIENI szybko ewoluuje, a przyszłe instrumenty najprawdopodobniej zapewnią nowe sposoby znajdowania przynależności do gromady. Alternatywna metoda przynależności Słaby koniec sekwencji gromad na diagramie HR jest niezmiennie zanieczyszczony gwiazdami polowymi z powodu kilku pogarszających się okoliczności. Po pierwsze, funkcja jasności gromady (w istocie liczba gwiazd na jednostkę wielkości gwiazdowej) w okolicach jasności Słońca i słabszych staje się płaska, głównie z powodu efektu dynamicznego "odparowywania" gwiazd gromady. Z drugiej strony, funkcja jasności gwiazdy pola stale rośnie. W tej sytuacji obserwowany stosunek gwiazd gromady do gwiazd pola gwałtownie spada, podobnie jak prawdopodobieństwo przynależności. Po drugie, przy słabych wielkościach przynależność jest wyraźnie niewystarczająca z powodu płytkiej granicznej wielkości starej płyty i niedopuszczalnie niskich poziomów strumienia światła dla pomiarów prędkości radialnej. Okazuje się, że większość młodych gwiazd typu widmowego A i późniejszych ma znaczną aktywność koronalną, widoczną w promieniach rentgenowskich. Satelita rentgenowski ROSAT, działający w latach 1990-1998, był głównym instrumentem do mapowania "miękkiego" (0,1-2,4 KeV) nieba rentgenowskiego. Szybko zdano sobie sprawę, że prawie wszystkie pobliskie gromady w wieku Plejad i młodsze powinny być widoczne na rentgenowskim "niebie" ROSAT, a te pozytywne identyfikacje mogą być wykorzystane jako cenne kryterium przynależności. Korzystając z danych ROSAT, prawie tuzin otwartych gromad ma swoje listy członkostwa znacznie powiększone na słabym końcu. Chociaż nie jest do końca jasne, czy wszystkie słabsze gwiazdy gromady mają taką aktywność rentgenowską, jest to mimo wszystko potężna alternatywna technika określania przynależności, uzupełniająca klasyczne metody kinematyczne. Być może jej potencjał nieco maleje w obszarach pobliskich asocjacji OB, gdzie frakcja gwiazd jasnego pola rentgenowskiego jest wyższa.
Przyszłość
Pomimo ogromnego wysiłku włożonego w określenie przynależności do gromady gwiazd i asocjacji, wciąż jest wiele do zrobienia. Nie jest znany żaden gromad, w przypadku którego rozpoznaliśmy wszystkich członków gromady. Aby jeszcze bardziej skomplikować sprawę, obserwacje Hipparcos ujawniły szereg gwiazd gromady poza promieniem pływowym najbliższych gromad otwartych. Promień pływowy to odległość, po przekroczeniu której gromada traci swoje gwiazdy z powodu galaktycznych sił pływowych grawitacyjnych. Oznacza to, że należy wykorzystać badania ruchu własnego całego nieba i paralaksy, takie jak planowana misja GAIA, aby uzyskać decydujące i kompletne członkostwo w gromadzie lub asocjacji. Paralaksa dostarczy dotychczas brakującą współrzędną pozycyjną - odległość. Przynależność do gromady można rygorystycznie wyprowadzić tylko przy użyciu pełnego zestawu trzech współrzędnych pozycyjnych i trzech składowych prędkości, które w porównaniu z energią potencjalną gromady ostatecznie określają, czy gwiazda prawdopodobnie będzie związana z gromadą. Natychmiastowa dokładność pozycyjna planowanych misji astrometrycznych jest tak wysoka, że osiągnięcie najlepszej dokładności ruchu własnego Ziemi zajęłoby zaledwie kilka miesięcy, w przeciwieństwie do kilku dekad, które były potrzebne wcześniej.
Procesy bezkolizyjne w plazmach astrofizycznych
Plazmy, zwane również czwartym stanem materii, aby odróżnić je od ciał stałych, cieczy i elektrycznie obojętnych gazów, są zjonizowanymi gazami. Oznacza to, że ich energia cieplna przekracza pierwszy potencjał jonizacji, tak że znaczna część ich atomów (lub cząsteczek) jest zjonizowana, chociaż nawet przy niższych energiach cieplnych znaczna jonizacja w gazie może być również wytwarzana przez inne procesy, na przykład przez promieniowanie zewnętrzne. Oznacza to również, że plazmy składają się z wolnych naładowanych cząstek, na ogół dodatnio naładowanych jonów i ujemnie naładowanych elektronów. Wyjątkami od tej ogólnej zasady są "plazmy grawitacyjne", które są rozcieńczonymi gazami obojętnymi wystawionymi na działanie pola grawitacyjnego lub zachowującymi się pod wpływem własnej grawitacji i wykazującymi podobieństwo do zwykłych plazm. Inne wyjątki to plazmy zbudowane z elektronów i pozytonów, dodatnio i ujemnie naładowanych jonów, pyłowe plazmy, w których ziarna pyłu mogą przenosić dowolną ilość i dowolny znak ładunku, elektrosłabe plazmy, w których oddziaływanie jest pośredniczone przez masywne bozony W i Z zamiast fotonów i wreszcie chromodynamiczne plazmy, które składają się z asymptotycznie swobodnych kwarków i gluonów. Wszystkie takie "plazmy" można znaleźć w przestrzeni kosmicznej w różnych miejscach i w różnych kosmologicznych czasach, w zależności od dostępnych oddziaływań lub energii cieplnych. Na przykład, krótko po Wielkim Wybuchu, około 10-10 s, plazma znajdowała się w stanie elektrosłabym. Przy temperaturze przejścia poniżej 100 GeV w jednostkach energii w tym czasie bozony W, Z stały się fotonami. Podobnie, przed około 10-4 s temperatura kosmologiczna była wystarczająco wysoka, aby umożliwić chromodynamiczny stan plazmy, czasami nazywany zupą kwarkowo-gluonową. Gdy temperatura spadła poniżej energii wiązania jąder, jądra zamarzły. W temperaturach znacznie poniżej 0,5 MeV po kilku sekundach plazma stała się zwykłą plazmą. To jest stan, z którym mamy tu do czynienia. Zwykła plazma była powszechna we wszechświecie od tamtego czasu aż do dziś. Jednak do około 300 000 lat po Wielkim Wybuchu cała zwykła materia we wszechświecie znajdowała się w stanie plazmy. Po odłączeniu materii od światła mniej więcej w tym czasie stan plazmy nadal występuje w wielu, choć tylko w zlokalizowanych regionach, i nie ma już pochodzenia kosmologicznego. Dlatego dzisiaj twierdzenie, że prawie cała materia we wszechświecie byłaby w stanie plazmy, należy traktować ostrożnie. Duża jej część jest w stanie plazmy, w szczególności większość gorącej materii, ale zdecydowanie nie cała. Jest to tym bardziej prawdziwe, że nie mamy jeszcze pojęcia, z czego tak naprawdę składa się prawdopodobnie największa ilość grawitującej materii we wszechświecie, tajemnicza ciemna materia. Quasineutralność i ekranowanie Ponieważ jonizacja wytwarza równe ładunki o przeciwnych znakach, rzeczywiste plazmy są quasineutralne. Oznacza to, że patrząc z zewnątrz, plazma niesie zerowy ładunek całkowity (elektryczny). Osadzenie plazmy w zewnętrznym polu elektrycznym lub oddzielenie jednego ze składników ładunku zmienia plazmę w plazmę nieobojętną o zupełnie innym zachowaniu. Patrząc od wewnątrz, plazma wcale nie jest elektrycznie obojętna. Wynika to z dużej ruchliwości nośników ładunku, z których jest zbudowana. Każda cząstka, elektron lub jon, znajduje się w szybkim ruchu cieplnym. Reprezentuje mikroskopijny element gęstości ładunku, mikroskopijny element prądu i ze względu na swój ruch mikroskopijny element promieniującej anteny. Jest zatem źródłem pola elektromagnetycznego. Z tego powodu plazma podlega nie tylko ruchomym ładunkom, ale także silnie fluktuującym polom elektromagnetycznym we wszystkich skalach czasowych i przestrzennych. Te pola elektromagnetyczne działają na każdy z ładunków w plazmie, nadając plazmie jej charakterystyczne właściwości, które odróżniają ją od innych stanów materii. Quasineutralność jest ważną właściwością. Oznacza to, że objętość plazmy, średnio, niesie równą liczbę przeciwnych ładunków. Jednak ze względu na ich różne masy, jony i elektrony są zwykle w zasadniczo różnych stanach ruchu, przy czym jony są prawie nieruchome, a elektrony poruszają się bardzo szybko. Oznacza to, że średnio wiele elektronów przechodzi blisko jonu, tym samym osłaniając pole elektryczne jonu od reszty plazmy. Z równania Poissona dla gęstości ładunku wynika zatem, że pole elektryczne ładunku jonu +e, z ładunkiem elementarnym e, który niesie, nie jest odczuwalne poza odległością λD = ve/ωpe = (ε0kBTe/n0e2)1/2 od jonu. Potencjał elektryczny Φ(r) jonu jako funkcja odległości radialnej r od jonu w otaczającej chmurze elektronowej przyjmuje zależność Φ(r) = (e/4πε0r) exp(-r/λD). Zależność 1/r jest zwykłym prawem Coulomba, podczas gdy wykładnik opisuje ekranowanie. Ta odległość ekranowania λD jest tak zwaną długością Debye′a. Można ją zapisać jako stosunek prędkości termicznej elektronu ve = (2kBTe/me)1/2 i częstotliwości plazmy elektronowej ωpe = (n0e2/ε0me)1/2 i w ten sposób zależy od temperatury elektronów Te i średniej gęstości plazmy n0 (kB,me, ε0 to odpowiednio stała Boltzmanna, masa elektronu i stała dielektryczna wolnej przestrzeni).
Klasyfikacja
Plazmy można klasyfikować według ich gęstości liczbowej. Im gęstsza plazma, tym większe prawdopodobieństwo, że cząstki zderzą się ze sobą. Procesy plazmowe w warunkach częstych zderzeń nazywane są kolizyjnymi. Gdy zderzenia są rzadkie lub praktycznie nie występują, nazywane są bezkolizyjnymi. Czasami tę terminologię stosuje się do samej plazmy, ale należy pamiętać, że oznacza to, że procesy zachodzące są albo wolniejsze, albo szybsze niż typowy czas między zderzeniami binarnymi w plazmie. W tym duchu stopień kolizyjności jest definiowany w odniesieniu do danej skali czasu. Dlatego nie jest to ścisła definicja. Ze względu na dostępne długie skale czasowe, wiele plazm astrofizycznych można uznać za kolizyjne. Jednak dla dużej klasy wystarczająco rozcieńczonych plazm, nawet w astrofizyce, skale czasowe są wystarczająco krótkie, aby te plazmy można było zakwalifikować jako plazmy bezkolizyjne. Bezkolizyjne procesy plazmowe zachodzą w wiatrach gwiazdowych i ośrodku międzygwiazdowym, w plazmach obłoków molekularnych, atmosferach gwiazd, różnych magnetosferach namagnesowanych gwiazd, plazmach strumieniowych i w niektórych obszarach dysków akrecyjnych. Ponadto większość procesów prowadzących do fal uderzeniowych w astrofizyce, które są widoczne w emisji optycznej lub rentgenowskiej, należy do klasy procesów bezkolizyjnych lub w skrócie do plazm bezkolizyjnych. Uważa się również, że środowisko czarnych dziur zawiera w dużej mierze plazmy, które są wolne od kolizji dla procesów tam zachodzących. Ścisła definicja procesu bezkolizyjnego w plazmie jest następująca. Biorąc pod uwagę skalę czasową ? rozpatrywanego procesu i typową częstotliwość vc = 1/τc zderzeń binarnych między cząstkami tworzącymi plazmę, tj. odwrotność czasu ?c między dwoma takimi zderzeniami, plazmę nazywamy bezkolizyjną, gdy ?vc > 1. Aby określić stopień kolizyjności plazmy, należy zatem znać zarówno częstotliwość zderzeń Spitzera-Coulomba ?c, jak i typową skalę czasową procesu.
Skale czasu relaksacji
Narzuć niejednorodność lub, w przeciwnym razie, jakiekolwiek odchylenie od równowagi termicznej na plazmę. Ze względu na wysoce dynamiczny stan plazmy takie odchylenia będą łatwo się relaksować, próbując pozbyć się nadmiaru energii i dążąc do powrotu do warunków równowagi. Równowagi są określane przez szczegółowy bilans sił. W plazmie, w szczególności w plazmie bezkolizyjnej, taki bilans sił nie jest trywialnie osiągany. Zgodnie z mechaniką statystyczną, w równowadze termodynamicznej funkcja rozkładu powinna mieć kanoniczną formę rozkładu energii Boltzmanna. W przestrzeni prędkości rozkład ten przyjmuje formę funkcji rozkładu w kształcie dzwonu Maxwella. Każde odchylenie od tego rozkładu będzie miało tendencję do rozmazywania się w pewnym czasie relaksacji, aż rozkład powróci do rozkładu Boltzmanna. Charakterystyczne czasy relaksacji różnych możliwych procesów relaksacji można obliczyć z równania Fokkera-Plancka, które opisuje ewolucję funkcji rozkładu nierównowagowego w kierunku równowagi termicznej. Najważniejszym czasem relaksacji jest czas zbliżania się do funkcji rozkładu równowagi Maxwella. Istnieje typowa relacja między czasami zbliżania się elektronów i jonów do takiej równowagi, którą można zapisać jako

Pokazuje to, że elektrony same w sobie, ze względu na ich wysoką ruchliwość, relaksują się po czasie τee, który jest szybszy o pierwiastek stosunku masy elektronów do jonów niż czas, którego jony potrzebują, aby się zrelaksować do stanu równowagi. Podobnie, jony relaksują się szybciej o ten sam stosunek, niż cała plazma, złożona z jonów i elektronów, potrzebuje, aby osiągnąć jedną wspólną temperaturę dla jonów i elektronów. Z tego powodu elektrony często można opisać za pomocą izotropowych rozkładów Maxwella, podczas gdy elektrony i jony mogą mieć zasadniczo różne temperatury. Ta wymiana energii między różnymi składnikami plazmy zależy od liczby zderzeń, których doświadczają cząstki. Ze względu na stosunkowo długi zasięg oddziaływania Coulomba w wysoce rozrzedzonych i gorących plazmach, takich jak plazmy astrofizyczne, oraz ze względu na ogólnie długie astronomiczne skale czasowe, plazmy astrofizyczne w dużych skalach przestrzennych i czasowych mogą czasami nie być naprawdę bezkolizyjne. Częstotliwość zderzeń jest zdefiniowana jako vc = σcn0〈v〉 , gdzie σc jest przekrojem czynnym na zderzenia, a v jest średnią prędkością cząstek. Problemem jest znalezienie wyrażenia na σc. W rozcieńczonej plazmie, w której wszystkie cząstki oddziałują tylko za pośrednictwem sił Coulomba, reżimu stosowanego do plazm astrofizycznych, przekrój czynny na zderzenia jest odwrotnie proporcjonalny do czwartej potęgi prędkości termicznej cząstek. Stąd częstotliwość zderzeń staje się vc ∝ n0/T3/2. Tak więc liczba zderzeń na sekundę szybko maleje wraz ze wzrostem temperatury T (zwykle temperatury elektronów, która w wielu przypadkach jest wyższą z dwóch, temperatur elektronów Te i jonów Ti) i ze spadkiem gęstości. To gorące, rozcieńczone plazmy mają tendencję do bycia bezkolizyjnymi. Stąd zarówno czas relaksacji kolizyjnej τc = v-1c, jak i średnia droga swobodna cząstek, λmfp = 〈v〉 /vc = (n0σc)-1 zwiększają się, gdy T3/2 wraz z temperaturą.
Podobnie do powyższego czasu kolizji można zdefiniować czas relaksacji dla wymiany energii τ,sub>W
gdzie ED ≈ ? 4 × 10sup>-10ZneT-1e jest polem elektrycznym Dreicera, innym podstawowym parametrem plazmy. W przypadku małych pól elektrycznych żadne cząstki nie uciekną, ale im większe staje się pole elektryczne, tym więcej cząstek ucieknie z kolizyjnego ograniczenia i opuści pozycję, aby utworzyć wiązki lub rozszerzone ogony na funkcji rozkładu.
Opis plazmy
Plazma bez kolizji musi być traktowana w ramach pełnej teorii kinetycznej. Oznacza to, że należy rozwiązać łączony układ równań Vlasova-Maxwella zarówno dla elektronów, jak i jonów. Ten układ równań jest niezwykle skomplikowany. Równanie Vlasova jest bezkolizyjnym równaniem Boltzmanna dla jednej cząstki, które, biorąc pod uwagę hamiltonian H(p, x, t) i definiując funkcję rozkładu prawdopodobieństwa jednej cząstki f (p, x, t), jest
gdzie nawiasy klamrowe są nawiasami Poissona, a p = mγrv jest pędem cząstki, γr relatywistycznym współczynnikiem γ, v prędkością cząstki i x położeniem. Jawna wersja tego równania zaniedbująca grawitację staje się
gdzie ∇v ≡ ∂/∂v jest gradientem w przestrzeni prędkości. Pola elektryczne i magnetyczne pojawiające się w równaniu są powiązane z funkcją dystrybucji f poprzez wyrażenia
dla gęstości ładunku elektrycznego ?q i prądu j. Wchodzą one do równań elektrodynamicznych (Maxwella)
Rozwiązania tego niezwykle skomplikowanego zestawu równań można znaleźć tylko w najprostszych przypadkach. Jednak gdy jedna z fizycznych skal czasowych jest znacznie dłuższa niż czasy relaksacji, zderzenia są wystarczająco częste, aby umożliwić opis płynu. W takim opisie zmienne płynu (gęstość n, prędkość objętościowa u, tensor ciśnienia P itd.) są definiowane jako momenty wznoszące
W takich warunkach plazmę można poddać obróbce w ramach podejścia MAGNETOHYDRODYNAMIC (MHD), które jest ściśle ważne tylko w stanie silnie kolizyjnym. Bezkolizyjne MHD jest, ściśle mówiąc, sprzecznością samą w sobie, gdy jest stosowane do plazmy, mimo że znalazło szerokie zastosowanie i doprowadziło do wielu przydatnych wyników. Opis płynny może również wynikać z bezkolizyjnych plazm, gdy działa pewien proces porządkowania, który zmusza cząstki do zachowywania się jak płyn. Wirowanie wokół silnego pola magnetycznego może mieć taki efekt. Prowadzi to następnie, w pewnych warunkach, do tak zwanej anizotropowej MHD Chewa-Goldbergera-Low. Ponadto, bezkolizyjne plazmy bardzo często generują wewnętrzne korelacje, oddziaływania turbulentne i inne efekty, które zmuszają cząstki plazmy do wywierania kolektywnego zachowania. W takich przypadkach zwykłe zderzenia binarne są zastępowane przez tak zwane zderzenia "anomalne", które mogą również umożliwiać opis płynny. Zderzenia anomalne są konsekwencją turbulencji fali plazmowej.
Uogólnione prawo Ohma
Ze względu na ogromne różnice mas między elektronami i jonami me/mi = 1/1836, czasami wygodnie jest brać pod uwagę tylko dynamikę jonów. Dotyczy to rozważania procesów, które zmieniają się w znacznie dłuższej skali czasu τ = ω-1 niż czas oscylacji plazmy elektronowej ω-1pe lub ω << ωpe. W tym przypadku dynamika elektronów częściowo oddziela się od dynamiki jonów. Równanie pędu elektronów można następnie wykorzystać jako równanie definicji pola elektrycznego. Przekształcając je w celu wyrażenia E poprzez wielkości elektronów otrzymujemy
które jest rozszerzoną formą prawa Ohma. Tutaj u jest prędkością objętościową, a P tensorem ciśnienia. Wprowadzając gęstość prądu j = e(ui- ue), równanie przyjmuje zwykłą formę
Tutaj u jest dobrym przybliżeniem prędkości środka masy, η = vc/ε0ω2pe rezystywności, a drugi człon po prawej stronie jest członem Halla. W plazmie bezkolizyjnej pierwszy człon znika, a prawo Ohma jest w całości rządzone przez człon Halla, gradient ciśnienia elektronów i bezwładność elektronów w dwóch ostatnich członach, podczas gdy lewa strona równania opisuje właściwość zamrożenia szeroko stosowaną w MHD. Człony po prawej stronie prawa Ohma modyfikują ten warunek w dużym stopniu w rzeczywistej plazmie bezkolizyjnej. Człon Halla wprowadza efekty niekoplanarności, heliczności i anizotropii, podczas gdy gradienty ciśnienia, a w szczególności człony bezwładności, mogą naruszać stan zamrożenia.
Właściwości plazmy bezkolizyjnej
Zaniedbanie zderzeń w plazmie oznacza, że plazma jest idealnie przewodząca. Nie należy jednak mylić tego z plazmą nadprzewodzącą. Wręcz przeciwnie, idealne plazmy mogą zawierać pola magnetyczne, a tych pól nie można wyrzucić z plazmy, ponieważ są one zamrożone w plazmie. Aby wyciągnąć pole magnetyczne, stan zamrożenia musi zostać przerwany przynajmniej lokalnie przez generowanie anomalnych rezystywności, które niszczą niekolizyjność.
Koncepcja zamrożenia
Właściwość zamrożenia wynika z uniwersalnej ważności prawa Faradaya ∇ × E = -∂B/∂t nawet dla plazmy oraz z (uproszczonego) prawa Ohma E + u × B = ηj. To ostatnie daje proporcjonalność między polem elektrycznym E a gęstością prądu j. Współczynnik to rezystywność η = me?c/n0e2, która sama wzrasta wraz z częstotliwością zderzeń. Lewa strona prawa Ohma jest prostą konsekwencją transformacji Lorentza w ruchomych ośrodkach. Wzięte razem te dwa równania prowadzą do podstawowego równania indukcji dla przewodzącego i ruchomego ośrodka, takiego jak plazma:
Równanie to pokazuje, że dla η → ∞ pole magnetyczne w plazmie poruszającej się z prędkością v jest równe zeru, co oznacza, że w poruszającym się układzie odniesienia pole magnetyczne nie zmienia się w czasie i stąd, jak argumentowano powyżej, jest zamrożone w plazmie.
Gyration
Fizycznie oznacza to, że w ruchomym układzie odniesienia same cząstki plazmy są związane z liniami pola magnetycznego, wirując wokół nich po okręgach o promieniu rB = v⊥/Ω ( i okresie gyration &atu;B = 2π/Ω. Częstotliwość gyration jest podana przez ( Ω = eB/m i jest proporcjonalna do pola magnetycznego. Gyration jest po prostu narzucany ładunkom przez siłę Lorentza FL = ±ev×B. Lokalnie jest prostopadła do pola magnetycznego B i prędkości cząstki v. Nie wykonuje pracy na cząstkach. Dlatego też oszczędza energię cząstki i po prostu zamienia składową prędkości cząstki prostopadłą do pola magnetycznego na orbitę kołową wokół B.
Przełamanie stanu zamrożenia
Aby zabrać cząstki plazmy z pola magnetycznego w plazmie bezkolizyjnej, potrzebne są zatem procesy anomalne. Generują one anomalne współczynniki transportu. Przypuszczalnie we wszystkich bezkolizyjnych plazmach astrofizycznych takie procesy zachodzą. W przeciwnym razie właściwość zamrożenia może zostać również przerwana przez niezwykle strome gradienty gęstości, temperatury, składu lub pola magnetycznego w plazmie. Ich skala długości musi być rzędu promienia gyro cząstek zaangażowanych. W porównaniu ze wszystkimi skalami astrofizycznymi są one ogromnie małe. Gradienty w tych skalach są zatem nie tylko nieobserwowalne, ale prawdopodobnie również nierealne. Głównym mechanizmem prowadzącym do anomalii transportu w bezkolizyjnej plazmie jest turbulencja. Turbulencja jest generowana poprzez wzbudzanie fal plazmowych. Wzbudzanie fal przebiega poprzez niestabilności. Istnieje ogromna liczba możliwych niestabilności w bezkolizyjnych plazmach w zależności od natury dostępnych źródeł energii swobodnej, tj. słabych niejednorodności, wiązek, strumieni, ścinania w polu i prędkości, prądów elektrycznych, sił zewnętrznych wywieranych na plazmę itd. Każda z niestabilności wzbudza ograniczony zakres częstotliwości ? i wektorów falowych k, które są wzajemnie powiązane relacją dyspersji ω = ω(k).
Fale plazmowe
Ze względu na skończoną i stosunkowo wysoką temperaturę plazma jest ośrodkiem termicznie aktywnym. Oznacza to, że prędkości cząstek tworzących plazmę obejmują szeroki zakres w przestrzeni prędkości, przy czym każda z cząstek jest w stanie absorbować lub zużywać energię w interakcji z fluktuacją pola elektrycznego. Zasadniczo cząstka poruszająca się z prędkością niższą niż prędkość fazowa takich fluktuacji będzie popychana przez falę i pochłonie energię fluktuacji. Prowadzi to do tłumienia fali. Z drugiej strony cząstka poruszająca się szybciej niż fala będzie popychać falę i zwiększać energię fluktuacji. Z uwagi na tę naturę jasne jest, że w plazmie może rozprzestrzeniać się tylko ograniczona liczba modów falowych. Są to mody, które są bardzo słabo absorbowane przez cząstki plazmy. Relacje dyspersyjne dla dozwolonych fal można znaleźć z rozwiązania wartości własnych układu podstawowych równań zlinearyzowanych wokół równowagi. Oczywiste jest, że zawsze będzie słabe tłumienie bezkolizyjne (lub Landaua), ponieważ niektóre cząstki będą zawsze wolne względem fali i będą pochłaniać energię fali. Jednak w wielu przypadkach tłumienie to jest tak słabe, że można je pominąć. Mówiąc o takich modach falowych lub fluktuacjach, nie oznacza to, że wszystkie fale są z natury elektromagnetyczne, jak w zwykłej elektrodynamice. Właściwość plazmy polegająca na byciu aktywnym ośrodkiem oznacza, że w ciele plazmy lub na jej powierzchni mogą ewoluować zupełnie nowe mody falowe. Te mody są nieznane w wolnej przestrzeni, a większość z nich nie może opuścić plazmy, ale jest ograniczona do plazmy. Duża różnorodność takich możliwych modów sięga od fal dźwiękowych i czysto elektrostatycznych fluktuacji na skalach elektronów i jonów do wszelkiego rodzaju fluktuacji elektromagnetycznych, czysto magnetycznych fluktuacji o długich długościach fal i mieszanych fal magnetoakustycznych. Prawie absolutna niewidzialność większości fal plazmowych oglądanych z odległej pozycji, co jest powszechne w astrofizyce, stwarza ogromną trudność dla astrofizyki w wyciąganiu wniosków na temat samej natury oddziaływań w bezkolizyjnej plazmie astrofizycznej. Wszelkie informacje muszą koniecznie opierać się na efektach wtórnych prowadzących do obserwacji promieniowania, które można wykryć na Ziemi. Ponieważ żadne obserwacje in situ żadnego obiektu astrofizycznego nigdy nie będą możliwe, prawdziwe procesy będą na zawsze dla nas ukryte. Dlatego też niezwykle istotne jest wyciągnięcie informacji na temat efektów, jakie bezkolizyjne procesy plazmowe mogą mieć na promieniowanie emitowane przez takie obiekty. Niestety, obecnie bardzo niewiele wiadomo na temat takich efektów.
Promieniowanie
Najbardziej pożądanym efektem jest bezpośrednia emisja promieniowania w pewnym paśmie fal, z którego można wyciągnąć wnioski na temat mechanizmu emisji, a zatem stanu bezkolizyjnej plazmy u źródła. Tutaj nie interesują nas zwykłe emisje synchrotronowe ani emisje bremsstrahlung (swobodne-swobodne). Pierwsza z nich jest emitowana przez naładowane cząstki o dużej energii, które wirują w konfiguracji pola magnetycznego. Pozwala nam to na mapowanie odległych pól magnetycznych pod względem kierunku i wielkości. Druga, będąc emitowana z bardzo gorących, słabo kolizyjnych plazm, pozwala na określenie wysokiej temperatury i gęstości w miejscu emitującego źródła. Ważne procesy zachodzące w bezkolizyjnych plazmach są bez wyjątku oparte na założeniu niestabilności, generowania fal plazmowych i interakcji tych fal między sobą lub ze składnikami cząstek. Istnieje tylko bardzo niewiele przypadków, w których te interakcje bezpośrednio prowadzą do emisji promieniowania. Takie przypadki ograniczają się głównie do dwóch procesów: wzmocnienia maserowego promieniowania w silnie namagnesowanych, bardzo rozrzedzonych plazmach zawierających słabo relatywistyczny składnik uwięzionych cząstek, tzw. mechanizm masera cyklotronowego elektronów oraz promieniowanie z szybkich wiązek elektronów przechodzących przez gęstą, gorącą, ale w innym przypadku stosunkowo słabo namagnesowaną plazmę. Emisja masera cyklotronowego jest ograniczona do plazm podgęstych spełniających warunek ωpe/ωce < 1, który jest spełniony tylko w silnych polach magnetycznych. Ponieważ pola magnetyczne na dużą skalę są zwykle słabe w astrofizyce, warunek ten ogranicza ją do sąsiedztwa silnie namagnesowanych obiektów. Przykłady takich procesów można znaleźć w przestrzeni międzyplanetarnej w nietermicznych emisjach radiowych ze Słońca i planet. W astrofizyce oczekuje się, że podobne procesy będą zachodzić w bardzo silnie namagnesowanych magnetosferach pulsarów, koronach namagnesowanych gwiazd, a prawdopodobnie także w strumieniach radiowych lub rentgenowskich wyrzucanych z masywnych obiektów. Bezkolizyjne procesy plazmowe odgrywają kluczową rolę również w wielu innych efektach, takich jak przyspieszanie małych grup naładowanych cząstek w wiązki energetyczne i ewentualnie strumienie plazmy, powstawanie bezkolizyjnych fal uderzeniowych, proces ponownego łączenia magnetycznego i generowanie transportu anomalnego. Aby opisać te zjawiska, następuje krótka dyskusja na temat mechanizmów niestabilności plazmy i turbulencji.
Niestabilność i turbulencja plazmy
W szczególnych przypadkach, gdy funkcja rozkładu cząstek odbiega od rozkładu Maxwella-Boltzmanna, plazma ulega niestabilności. Ponieważ plazma jest termicznie aktywna, zawiera kąpiel spontanicznie wzbudzonego szumu termicznego o wszystkich długościach fal. W danej temperaturze T poziom fluktuacji nigdy nie spada poniżej tego poziomu termicznego, który jest podany przez prawo Stefana-Boltzmanna. Zmniejszenie poziomu fluktuacji wymaga zatem chłodzenia plazmy za pomocą adiabatycznego rozszerzania lub strat radiacyjnych w przypadkach, gdy plazma jest optycznie cienka do promieniowania lub od swojej powierzchni, jak w przypadku termicznego promieniowania hamowania.
Liniowy wzrost fali
Niestabilność wybiera określony zakres długości fal i częstotliwości z szumu termicznego i pozwala mu rosnąć w czasie i przestrzeni. Dla jednego trybu wektora falowego k0 poza tym zakresem gęstość energii poziomu szumu termicznego wynosi w0 ≡ ?ε0|E0|2 + 1/2|B0|2/μ0. Ponieważ liniowy tryb falowy [E(t, x),B(t, x)] ∝ exp(-iωt + ik0 ⋅ x), gęstość energii w trybie rośnie wraz z czasem, ponieważ
gdzie, dla niestabilności, szybkość wzrostu γ(k0) jest dodatnią urojoną częścią częstotliwości fali. Głównym celem teorii liniowej plazmy jest obliczenie γ(k0). Sama szybkość wzrostu jest funkcją częstotliwości fali, liczby falowej i właściwości źródła energii swobodnej. Wykładniczy wzrost fali podany przez szybkość wzrostu ma szereg ważnych efektów. Po pierwsze, łatwo wyczerpuje energię źródła energii swobodnej i przekształca ją w energię elektromagnetyczną, chyba że źródło jest ciągle ponownie ustanawiane. Po drugie, energia fali dla wzrostu wykładniczego łatwo osiąga poziom porównywalny z lokalnym poziomem energii kinetycznej n0kBT samej plazmy. Gdy to nastąpi, liniowość zostaje naruszona, chyba że energia fali jest transportowana przez jakiś proces, taki jak propagacja fali lub konwekcja w skali czasu szybszej niż wzrost fali. Następnie plazma wchodzi w stan nieliniowy. Przykładem niestabilności elektromagnetycznej występującej przy bezkolizyjnych wstrząsach jest niestabilność wiązki jonowo-jonowej. Kiedy dwa składniki jonowe mają prędkość dryfu vd większą od pewnego progu, odpowiadająca jej swobodna energia może prowadzić do wzrostu niestabilności. Załóżmy dla uproszczenia, że dwa składniki jonowe, w przypadku szoku, plazma w górnym biegu reprezentująca rdzeń i jony wsteczne reprezentujące wiązkę, są dryfującymi maxwellianami. Istnieją trzy niestabilności elektromagnetyczne, które mogą wynikać z takiej konfiguracji: rezonansowa prawoskrętna, nierezonansowa i rezonansowa lewoskrętna niestabilność jonowo-jonowa. Przy niskich gęstościach i niskich prędkościach dryfu niestabilność rezonansowa prawoskrętna jonowo-jonowa jest rosnącym trybem najniższego progu. Fale rozprzestrzeniają się w kierunku wiązki. W granicy zerowej prędkości dryfu ten tryb jest prawoskrętnym kołowo spolaryzowanym dodatnim trybem helikalizacji na gałęzi magnetosonic whistler. W przypadku dużych prędkości wiązki i wysokich gęstości wiązki możliwa jest nierezonansowa niestabilność. Gdy wiązka ma dużą temperaturę, możliwa jest niestabilność lewostronna, gdy fale są rezonansowe z tymi jonami wiązki, których prędkość (w układzie rdzenia) jest przeciwna do prędkości wiązki.
Efekty nieliniowe
W stanie nieliniowym fale o dużej amplitudzie zaczynają zanikać w pasma boczne, poszerzając w ten sposób widmo. Mogą oddziaływać z innymi falami, przekształcając energię w odległe części przestrzeni k. Mogą wywierać ciśnienie promieniowania na plazmę, powodując modulację ich właściwości propagacyjnych. Wprowadza to do plazmy zmarszczki. Fale mogą zostać uwięzione, odbite i zmodulowane pod względem długości fali. Mogą również oddziaływać ze składową cząstkową. Cząstki o niskiej energii w ramie falowej mogą zostać uwięzione w studniach potencjału fali i przetransportowane, w ten sposób przyspieszane przez falę, aż zostaną wstrzyknięte z fali do plazmy jako wiązki. Cząstki mogą zostać odbite od fali i przyspieszone do umiarkowanych i wysokich energii w pewnego rodzaju procesie Fermiego. Niektóre z tych procesów modyfikują właściwości plazmy bezkolizyjnej w taki sposób, że powodują anomalne zderzenia. Plazma zawierająca wysoki poziom turbulencji opisanej powyżej przedstawia dużą liczbę przeszkód dla cząstki testowej, która próbuje przejść przez plazmę. Cząstki będą rozpraszane na falach, zostaną uwięzione, uwolnione po pewnym czasie, pobudzone lub spowolnione. Wszystkie te procesy modyfikują orbitę swobodnych cząstek i prowadzą do rozproszenia cząstki w energii, ścieżce i kącie nachylenia. W bardziej makroskopowym opisie proces ten można opisać jako transport anomalny. Wszystkie aktywne plazmy bezkolizyjne wykazują zatem anomalne właściwości transportowe. W każdym pojedynczym przypadku jest jednak niezwykle trudno określić rodzaj anomalnego transportu, który jest realizowany w plazmie w określonych warunkach. W rzeczywistości cały problem anomalnego transportu pozostaje do rozwiązania. Można zatem śmiało powiedzieć, że nie wiemy, jakie są naprawdę właściwości transportowe bezkolizyjnych plazm astrofizycznych. Tylko w kilku prostych granicach, w szczególności quasiliniowej, wyprowadzono dotychczas takie bezkolizyjne "anomalne" współczynniki transportu. Należy dodać, że w długich skalach czasowych i dużych skalach przestrzennych, z którymi spotyka się w zastosowaniach astrofizycznych, każdy proces plazmowy zawsze osiągnie quasi-stacjonarny i wysoce nasycony nieliniowy stan w pełni rozwiniętej turbulencji. Ponieważ jest to naturalny fakt, należy być bardzo ostrożnym przy stosowaniu liniowej teorii plazmy w astrofizyce. Ponieważ w pełni nieliniowa teoria turbulencji plazmy nie istnieje, znacznie zaciemnia to astrofizyczne zastosowanie fizyki plazmy.
Transport anomalny
Współczynniki transportu (rezystywność, przewodnictwo cieplne itp.) wchodzące do opisu płynów plazmy muszą zostać obliczone w ramach w pełni rozwiniętej teorii turbulencji. W ramach przybliżenia pierwszego i najniższego poziomu jest to zazwyczaj robione dla wybranych przypadków w ramach teorii quasiliniowej. Filozofia tej teorii jest prosta.
Podejście Fokkera-Plancka
Rozważmy niestabilność, która wzbudza liniowo rosnące fale o częstotliwości ω(k) w pewnym paśmie fal o szerokości ω,k. Szybkość wzrostu wynosi γ (ω,k). Gdy fale te osiągną znaczną amplitudę, ich obecności nie można zaniedbać bardziej energetycznie w porównaniu z innymi źródłami energii, a w szczególności z energią swobodną napędzającą niestabilność. W takim przypadku fale zaczynają reagować na plazmę i energię swobodną. Najprostszym efektem jest wygaszenie niestabilności przez fale prowadzące do nasycenia na poziomie określonym przez równanie ze znikającą szybkością wzrostu. Sama szybkość wzrostu γ[f(v, t)] zależy funkcjonalnie od zmodyfikowanej funkcji rozkładu f (v, t), która z kolei ewoluuje zgodnie z równaniem Fokkera-Plancka. Zapisując to jako
∂tf = ∂v ⋅ D(W, γ, v) ⋅ ∂vf
i znając jawną formę współczynnika dyfuzji przestrzeni prędkości D(W, γ, v), wyrażenia dla W, γ, D wraz z równaniem ewolucji dla W(t) i równaniem Fokkera-Plancka tworzą zamknięty układ, z którego można wyznaczyć f(t →∞) i W(t → ∞). Gdy znana jest końcowa gęstość energii falowej W(∞), określa ona anomalną częstotliwość zderzeń. Można to zauważyć z faktu, że klasyczna częstotliwość zderzeń Coulomba
można wyrazić w kategoriach energii falowej W0 w fluktuacjach cieplnych. Zastąpienie W0 przez W(∞) daje oszacowanie (z α jako współczynnikiem liczbowym)
van = αωpe ⋅ W(∞?)/ nkBT
dla zderzeń anomalnych.
Przypadek niemagnetyczny
W plazmach niemagnetycznych (lub w plazmach jednowymiarowych z kierunkiem prądu równoległym do pola magnetycznego B) dominującą niestabilnością prądu jest turbulencja fali akustycznej jonów. W tym przypadku znajduje się wzór Sagdeeva
Tutaj ωpi = (me/mi )1/2ωpe jest częstotliwością plazmy jonowej, cia = (kBTe/mi )1/2 jest prędkością fali akustycznej jonowej, a vd = |j/en| jest prędkością dryfu prądu. Wzór ten pokazuje, że anomalna częstotliwość zderzeń może być duża w gęstych plazmach o wysokiej częstotliwości plazmy przenoszących silne prądy i zawierających gorące elektrony.
Przypadek namagnesowany
W namagnesowanych plazmach różne inne tryby falowe mogą przyczyniać się do generowania anomalnych kolizji i transportu. W podejściu quasiliniowym najważniejsze są te niestabilności, które są spowodowane makroskopowymi gradientami gęstości, pola magnetycznego i temperatury, co prowadzi do tak zwanych niestabilności dryfu. Ich typowa częstotliwość oscylacji jest pośredniczona przez łączony ruch jonów i elektronów, rezonans niższej hybrydy ωlh ≈ (ωceωci)1/2 = ωce(me/mi )1/2, a anomalna częstotliwość kolizji staje się
Tutaj L∇ jest odpowiednią skalą gradientu, a rci jest promieniem żyroskopowym jonu termicznego. Te częstotliwości zderzeń mogą stać się bardzo duże, rzędu samego ωlh. Mogą powodować znaczną dyfuzję plazmy zbliżoną do dyfuzji Bohma DB = kBTe/16eB. Mikroskopijna turbulencja plazmy jest zatem w stanie znacząco zmienić właściwości transportowe plazmy bezkolizyjnej. Teoria quasiliniowa może w wielu przypadkach zostać zastąpiona przez inne silnie nieliniowe efekty, takie jak pułapkowanie cząstek w polach fal o dużej amplitudzie, modulacja plazmy przez "ciśnienie promieniowania" fal o dużej amplitudzie, oddziaływania koherentne i nieliniowe oddziaływania fala-cząstka, które nie są uwzględnione w powyższej teorii. Ponadto w relatywistycznej plazmie chłodzenie elektronów przez promieniowanie może modyfikować warunki i indukować niestabilności o wysokiej temperaturze jonów. Prowadzi to do turbulencji elektromagnetycznej o niskiej częstotliwości, która powoduje wiry plazmy i efekty mieszania.
Rekoneksja
MAGNETYCZNE REKOMENDACJE są jednymi z najważniejszych zastosowań transportu anomalnego. Rekoneksja opisuje łączenie się dwóch przeciwnie skierowanych pól magnetycznych przez warstwę prądu, co oddziela je w silnie przewodzącej plazmie. Problem ten ma duże znaczenie dla astrofizycznej fizyki plazmy. Rekoneksja ma dwa skutki: zmienia topologię pola magnetycznego i prowadzi do przyspieszenia plazmy masowej. W próżni rekoneksja nie sprawia żadnych trudności, ponieważ strumień magnetyczny może się przegrupować w dowolny sposób. Jednak w idealnie przewodzącej plazmie bezkolizyjnej łączenie się dwóch przeciwnie skierowanych konfiguracji pól magnetycznych zbliżających się do siebie jest hamowane przez stan zamrożenia. Gdy plazma jest kolizyjna, łączenie jest możliwe w pewnym wąskim obszarze, tak zwanym obszarze dyfuzji, przez dyfuzyjny (ostatni prawy) człon w równaniu. Początkowo antyrównoległe pola dyfundują przez obszar dyfuzji i przegrupowują się w konfigurację typu X. Dwie wcześniej niepołączone linie pola nagle się łączą. Co jednak o wiele ważniejsze, plazmy po obu stronach warstwy prądu, które przed połączeniem nie mogły się mieszać po ponownym połączeniu, znajdują się na tej samej linii pola i będą się mieszać wzdłuż pola nawet poza obszarem dyfuzji. Ponadto silne wygięcie nowo połączonych linii pola w warstwie prądu powoduje naprężenia magnetyczne, które mają tendencję do relaksacji i przyspieszania plazmy masowej do prędkości przepływu rzędu prędkości Alfv éna, va = B/(μ0nmi)1/2. W tak zwanym modelu ponownego połączenia Petscheka dwie stojące fale wolnego trybu rozciągają się od obszaru dyfuzji i definiują klinowaty przepływ o dużej prędkości region. Większość przyspieszenia faktycznie występuje w tych powolnych wstrząsach. Model Petscheka opiera się na obrazie płynu (MHD). W bezkolizyjnej plazmie nie jest jasne, czy takie powolne wstrząsy faktycznie powstają podczas procesu rekoneksji. W małym obszarze dyfuzji rozproszenie Joule′a powoduje lokalne nagrzewanie plazmy, a pole elektryczne generowane w procesie rekoneksji dodatkowo przyspiesza grupy cząstek do wysokich energii. W bezkolizyjnej plazmie odchylenie od nieidealności może wspierać rekoneksję w obszarze dyfuzji. Taką nieidealność mogą zapewnić anomalne rezystywności oparte na anomalnych częstotliwościach zderzeń. Wymaga to silnych prądów i/lub gradientów plazmy, dopóki niestabilności prądu nie przekroczą progu. Jednak bezkolizyjna rekoneksja może również przebiegać bez anomalnej rezystywności. W obszarze blisko linii X jony można uznać za niemagnetyczne. Stan zamrożenia elektronów można przełamać dzięki bezwładności elektronów i/lub dzięki braku żyrotropii funkcji rozkładu cząstek elektronów w otoczeniu linii X.
Bezkolizyjne wstrząsy
Innym ważnym obszarem zastosowania teorii plazmy bezkolizyjnej jest rozpraszanie w bezkolizyjnych wstrząsach. Składa się on z wstrząsu końcowego wiatru słonecznego wynikającego z oddziaływania między wysoce naddźwiękowym strumieniem wiatru słonecznego a ośrodkiem międzygwiazdowym. Ponadto, na zewnątrz, ale przed heliopauzą, powstaje łukowy wstrząs, który powstaje w wyniku jego ruchu przez obłok międzygwiazdowy.
Wstrząsy podkrytyczne i nadkrytyczne
W tym przypadku anomalne procesy transportu mają mniejsze znaczenie. W plazmie kolizyjnej szerokość przejścia wstrząsu jest rzędu średniej swobodnej drogi kolizyjnej. Jest ona o wiele rzędów wielkości za duża w plazmie bezkolizyjnej, gdzie przejście wstrząsu wynosi zwykle kilka długości bezwładności jonu, c/&pi. Fizyka bezkolizyjnych wstrząsów zależy zasadniczo od trzech parametrów, liczby Macha magnetosonic M = u/(v2A + c2ia)1/2, kąta θBn między polem magnetycznym w górę strumienia a normalną do wstrząsu oraz składu chemicznego plazmy. Zgodnie z liczbą Macha rozróżnia się wstrząsy podkrytyczne (M < Mc) i nadkrytyczne (M > Mc). Krytyczna liczba Macha Mc = ud/cia,d jest definiowana jako stosunek prędkości w dół strumienia do zwykłej prędkości dźwięku w dół strumienia (indeks d). W odniesieniu do θBn rozróżnia się wstrząsy quasi-prostopadłe ( θBn > 45°) i quasi-równoległe ( θBn < 45°). Dla wstrząsów prostopadłych krytyczna liczba Macha wynosi Mc = 2,76. Maleje ona wraz ze wzrostem kąta θBn. Skład chemiczny może prowadzić do osłabienia profilu wstrząsu. W przypadku wstrząsów podkrytycznych anomalne rozpraszanie kolizyjne na froncie wstrząsu spowodowane przez mikroniestabilności tam generowane jest mniej więcej wystarczające do wymaganego wzrostu entropii, ogrzewania i generowania turbulentnego nieporządku za wstrząsem, co prowadzi do rozpraszania nadmiaru energii w górę rzeki zmagazynowanej w przepływie. W przypadku wstrząsów nadkrytycznych dostarczanie energii przepływu do wstrząsu z góry rzeki jest zbyt szybkie. Niestabilności na froncie wstrząsu nie mają wystarczająco dużo czasu, aby rozwinąć się do poziomu wystarczająco wysokiego dla skutecznego rozpraszania. W tym przypadku front wstrząsu działa jak lustro i zaczyna odbijać coraz więcej jonów i elektronów z powrotem w górę rzeki do przepływu w strumieniu. W tym przypadku staje się istotne rozróżnienie wstrząsów quasi-prostopadłych i quasi-równoległych. Jest to ważne, ponieważ w plazmie bezkolizyjnej cząstki są związane z polem magnetycznym i mogą poruszać się tylko wzdłuż pola magnetycznego. Oznacza to, że w wstrząsach quasi-prostopadłych odbite cząstki pozostają na froncie wstrząsu lub są konwekcyjne z powrotem do regionu w dół rzeki. Szerokość górnego biegu regionu zawierającego odbite cząstki jest rzędu średniego promienia gyro odbitych cząstek.
Kwasi-prostopadłe wstrząsy
Odbite lustrzanie i następnie wirujące cząstki powodują sygnaturę przypominającą stopę w każdym zapisie in situ B. Podczas tego wirowania lustrzanie odbite jony są przyspieszane w polu elektrycznym v × B do około dwukrotności prędkości głównej w górnym biegu. Ponieważ jony te pozostają związane z polem magnetycznym, stają się konwekcyjne z polem magnetycznym do dolnego biegu. Region bezpośrednio za rampą wstrząsu zawiera transmitowany rozkład plus przyspieszone i transmitowane lustrzanie odbite jony. Transmitowane lustrzanie odbite jony wirują w pęczkach wokół linii pola magnetycznego. Takie rozkłady są niestabilne w odniesieniu do generowania fal plazmowych. Wzbudzają fale, które w dolnym biegu prowadzą do rozproszenia i nagrzewania plazmy. W przypadku wstrząsów o dużej liczbie Macha, jak również wstrząsów pozostałości supernowych, oddziaływanie lustrzano odbitych jonów z elektronami tła dodatkowo wzbudza fale akustyczne jonów, co może powodować szybkie, anomalne nagrzewanie się elektronów w fazie wstrząsu.
Wstrząsy quasi-równoległe
W przypadku wstrząsu quasi-równoległego sytuacja jest diametralnie inna. Tutaj odbite cząstki mogą poruszać się daleko w górę strumienia wzdłuż pola magnetycznego do strumienia napływającego. Ponieważ w tym samym czasie pole jest konwekcyjne w dół strumienia w kierunku wstrząsu, jest to prawdą dla cząstek mających prędkości wzdłuż B wyższe niż prędkość przepływu. Takie szybkie cząstki tworzą przeciwprądową wiązkę w przepływie i wzbudzają niestabilności wiązka-wiązka w inaczej niezakłóconym supermagnetosonicowym przepływie nadkrytycznym. Te niestabilności ewoluują w turbulencje o dużej amplitudzie, które są stale konwekcyjne w kierunku wstrząsu. Obszar wypełniony tymi turbulencjami nazywa się wstrząsem wstępnym. Ponieważ wstrząs wstępny jest turbulentny, energia jest tutaj rozpraszana, a przepływ jest nieznacznie zwalniany. Tak więc wstrząs wstępny skutecznie oznacza znacznie poszerzone przejście wstrząsu. Gdy fale w górę o niskiej częstotliwości są konwekcyjne z przepływem do szoku, oddziałują one z energetycznymi cząstkami w górę i stają się strome w pulsacje o dużej amplitudzie. Sam wstrząs można postrzegać jako mozaikę takich pulsacji o dużej amplitudzie, które się kumulują i określają stan plazmy w dół. W przypadku bardziej równoległych wstrząsów oddziaływanie plazmy w górę z gorącą plazmą w dół w obszarze nakładania się na rampie szoku również powoduje niestabilność wiązki jonowo-jonowej. Fale generowane przez tę tak zwaną niestabilność interfejsu są ograniczone do obszaru w dół od przejścia szoku, gdzie przyczyniają się do rozpraszania i nagrzewania. Długość fali fal interfejsu wzrasta wraz ze wzrostem liczby Macha szoku. W zakresie od niskiej do średniej liczby Macha fale interfejsu mają małe długości fal i są tłumione w niewielkiej odległości w dół. Przy wyższych liczbach Macha wstrząsów fale interfejsu mają duże długości fal i określają turbulencje w dół. W przypadku wstrząsów równoległych stan w dół jest zatem określany przez turbulencje w górę. Wstrząsy quasiparalelne są zatem wysoce niestacjonarne i oscylacyjne, a główną dyssypację zapewnia interakcja wstrząsu z falami w górę rzeki zamiast mikroturbulencji w samej rampie wstrząsu. Pokazuje to, że w plazmach bezkolizyjnych mechanizm powstawania wstrząsu jest bardzo różny od mechanizmu powstawania płynów kolizyjnych.
Przyspieszenie cząstek
Ważnym obszarem w bezkolizyjnej astrofizyce plazmy jest mechanizm przyspieszania cząstek do wysokich energii. Bezkolizyjne wstrząsy są jednymi z głównych czynników przyspieszających jony, a także elektrony do wysokich energii, gdy tylko jest wystarczająco dużo czasu. Cząstki odbite od wstrząsu i od ośrodków rozpraszania za wstrząsem w turbulentnym obszarze ściśniętym, gdy wracają przez wstrząs do turbulentnego obszaru w górę rzeki mają duże szanse na doświadczenie wielokrotnego rozpraszania i przyspieszania przez przyspieszenie Fermiego pierwszego rzędu. Przyspieszenie Fermiego drugiego rzędu lub stochastyczne w szerokopasmowej turbulencji w dół rzeki od bezkolizyjnych wstrząsów przyczyni się do przyspieszenia. Ponadto jony mogą być uwięzione w prostopadłych wstrząsach. Siły uwięzienia są zapewniane przez potencjał elektrostatyczny wstrząsu i siłę Lorentza wywieraną na cząstkę przez pola magnetyczne i elektryczne w ruchu w obszarze w górę rzeki. Przy każdym odbiciu od wstrząsu cząstki wirują równolegle do pola elektrycznego w ruchu, zbierając energię i surfując wzdłuż powierzchni wstrząsu. Wszystkie te mechanizmy są nadal badane, ale istnieją dowody na to, że wstrząsy odgrywają niezwykle ważną rolę w przyspieszaniu promieni kosmicznych i innych cząstek do bardzo wysokich energii. Oprócz przyspieszania w wstrząsach można się spodziewać, że cząstki są również przyspieszane w obszarze rekoneksji. Pomimo wstrząsów, plazmy bezkolizyjne są zdolne do generowania dużych różnic potencjałów wzdłuż pola magnetycznego. Są one znane jako warstwy podwójne lub wstrząsy elektrostatyczne. W większości przypadków potencjał nie będzie składał się z ciągłego spadku, ale będzie składał się z niezliczonych małych mikro- lub mezoskalowych spadków potencjału ograniczonych do kawitonów, samotnych struktur falowych lub dziur przestrzeni fazowej generowanych w nieliniowej interakcji fala-cząstka. Plazma dzieli się na kilka składników, które albo podtrzymują te struktury, albo niszczą je poprzez tłumienie czasu przejścia, co prowadzi do przyspieszenia.
Uwagi końcowe
Nie ma dostępnych informacji in situ na temat plazmy astrofizycznej. Dlatego trzeba odwołać się do pośrednich metod i analogii z dostępną plazmą. Takie plazmy występują tylko w przestrzeni bliskiej Ziemi. Właściwie większość pomysłów i modeli dotyczących zachowania plazmy astrofizycznej została zapożyczona z fizyki kosmicznej i przeskalowana do skali astrofizycznej. Pomiary i modele opracowane do opisu plazmy kosmicznej często służą jako paradygmaty dla plazmy astrofizycznej. Modele te obejmują przepływy wiatru gwiazdowego, magnetosfery pulsarów, magnetosfery namagnesowanych gwiazd i innych planet, w tym planet pozasłonecznych, magnetosfery w pobliżu czarnych dziur, interakcję wiatrów gwiazdowych z otaczającą MATERIĄ MIĘDZYGWIAZDOWĄ, ekspansję POZOSTAŁOŚCI SUPERNOWYCH, całą domenę rekoneksji, bezkolizyjnych wstrząsów, strumieni plazmy i niektórych mechanizmów promieniowania nietermicznego. Jednakże duże skale przestrzenne i długie skale czasowe w astrofizyce i obserwacjach astrofizycznych nie pozwalają na rozdzielenie stanu bezkolizyjnego plazmy. Na przykład w wietrze słonecznym średnia droga swobodna kolizyjna jest rzędu kilku AU. Patrząc z zewnątrz, heliosfera , region, na który wpływa wiatr słoneczny, będzie zatem uważana za zdominowaną przez kolizje w skalach czasowych dłuższych niż typowy czas propagacji ze Słońca do Jowisza. W każdej mniejszej i krótszej skali jest to błędne, ponieważ procesy bezkolizyjne rządzą tutaj wiatrem słonecznym. Podobne argumenty dotyczą wiatrów gwiazdowych, obłoków molekularnych, magnetosfer pulsarów i gorącego gazu w gromadach galaktyk. Należy zatem zdawać sobie sprawę z samego faktu braku obserwacji na małą skalę. Procesy bezkolizyjne generują anomalne współczynniki transportu. Pomaga to w wyprowadzeniu bardziej makroskopowego opisu. Jednak w ten sposób ukryte są procesy na małą skalę, które są naprawdę bezkolizyjne. Oznacza to, że trudno, jeśli nie niemożliwe, będzie wywnioskować cokolwiek na temat rzeczywistej struktury, na przykład bezkolizyjnych astrofizycznych fal uderzeniowych. Podobnie procesy promieniowania nietermicznego i przyspieszania oraz kinetyczne zachowanie gazu w skupiskach galaktyk są dostępne tylko poprzez wykorzystanie analogii z dostępnymi bezkolizyjnymi plazmami w bliskim otoczeniu Ziemi i heliosfery. Z teoretycznego punktu widzenia bezkolizyjne procesy plazmowe wymagają rozwiązania bezkolizyjnego równania Boltzmanna (równania Własowa) połączonego z pełnym zestawem równań Maxwella. Jest to trudne zadanie; często łatwiej jest przeprowadzić symulacje cząstek w komórce takich procesów, w których makrojony i elektrony są śledzone w czasie w samospójnie obliczonych polach magnetycznych i elektrycznych. Jeśli badane są tylko procesy o niskiej częstotliwości, elektrony są często aproksymowane jako ciecz, a tylko jony są traktowane jako cząstki (metoda symulacji hybrydowej).
Gromada Coma
Coma, wraz z Virgo, jest jedną z najlepiej zbadanych GROMAD GALAKTYK. Gromada znajduje się przy rektascensji 12h59m48,7s, deklinacji +27°58′50″ (J2000) i leży prawie na północnym biegunie Galaktyki, (l, b) = (58° , +88°). W głównym katalogu gromad galaktyk Abella, jej oznaczenie to Abell 1656. Średnie przesunięcie ku czerwieni gromady wynosi około 6900 km s-1, co daje jej odległość 69h-1 Mpc (gdzie H0 = 100h km s-1 Mpc-1). Coma jest jedną z najbogatszych pobliskich gromad, mającą 650 potwierdzonych galaktyk członkowskich i, wliczając karły, prawdopodobnie łącznie 2000 galaktyk. Ma dwie centralne, dominujące galaktyki i dlatego jest klasyfikowana jako gromada binarna. Coma od dawna jest uważana za archetypową bogatą gromadę. Wydaje się regularna i mniej więcej kulista, z silnym centralnym skupieniem. Sferyczna symetria i ogólna regularność oznaczały, że była uważana za dobry (choć rzadki) przykład
gromady, która osiągnęła równowagę dynamiczną i dlatego była podatna na prostą analizę teoretyczną. Prace prowadzone przez ostatnie dwie dekady stopniowo ujawniły jednak, że Coma jest daleka od rozluźnienia, z wieloma podstrukturami. Złożoność układu dynamicznego ujawnia wskazówki dotyczące procesu formowania się gromady. Całkowitą masę Coma oszacowano na podstawie obserwacji jej grawitacyjnych efektów na galaktyki i gorący gaz rentgenowski w gromadzie. Zakładając, że gromada znajduje się w równowadze dynamicznej, całkowita masa jest znacznie większa niż obserwowana masa w galaktykach i gazie rentgenowskim. Wynik ten, uzyskany po raz pierwszy przez ZWICKY′EGO w 1933 r., pozostaje jednym z najsilniejszych dowodów na to, że wszechświat składa się głównie z jakiejś formy niewidocznej CIEMNEJ MATERII.
Historia
William Herschel jako pierwszy zauważył koncentrację mgławic w gwiazdozbiorze COMA BERENICES w 1785 roku. Pierwszy katalog 108 mgławic w Coma został podany przez Wolfa w 1902 roku i rozszerzony przez Curtisa do ponad 300 obiektów w 1918 roku. Prędkości recesji kilku członków gromady zostały zmierzone przez Hubble′a i Humasona w 1931 roku. Miejsce gromady Coma jako kamienia probierczego pozagalaktycznej astronomii i kosmologii zostało ustalone, gdy Zwicky wyprowadził szacunek masy gromady w 1933 roku i stwierdził, że wynosi ona co najmniej 2 × 1014h-1M⊙ , co było znacznie więcej, niż można by wyjaśnić widoczną materią. Był to pierwszy dowód sugerujący, że we wszechświecie istnieje jakaś forma ciemnej materii.
Galaktyki gromady
Bogactwo
Gromada Coma ma 276 galaktyk jaśniejszych niż B = 18 w odległości 0,75h-1 Mpc (0,67°) od środka gromady i około 900 galaktyk jaśniejszych niż B = 20 do 1,5h-1 Mpc (1,33°). Moduł odległości dla Coma wynosi 34,2?5 log h, więc B = 20 odpowiada MB = ?14,2; około połowa galaktyk należących do Lokalnej Grupy to galaktyki karłowate o wielkościach bezwzględnych słabszych od tej, więc całkowita liczba galaktyk w Coma wynosi około 2000.
Funkcja jasności
Liczba galaktyk jako funkcja jasności została określona w Coma w zakresie długości fal optycznych, podczerwonych, ultrafioletowych i radiowych. Funkcja jasności optycznej i bliskiej podczerwieni (LF) nie jest zbyt dobrze dopasowana do standardowej formy funkcjonalnej Schechtera i wydaje się mieć trzy główne reżimy: liczba galaktyk na jednostkę jasności szybko wzrasta między najjaśniejszym członkiem gromady przy B = 12,6 i B ≈ 16 (L ≈ 3 × 109h-1L⊙ ), a następnie stabilizuje się do B≈ 18 (L≈ 0,5 × 109h-1L⊙α, dla galaktyk karłowatych o słabszych wielkościach. LF zmienia się w zależności od położenia w gromadzie. W regionach centralnych LF ma w rzeczywistości szczyt około B ≈ 16,5 i spadek przy B ≈ 17,5, zanim gwałtownie wzrośnie. Może to być spowodowane segregacją masy (jasności), gdy gromada zbliża się do ekwipartycji energii w centrum, lub ze względu na zwiększone scalanie w rdzeniu gromady lub ze względu na różne historie ewolucyjne galaktyk centralnych. Stromość prawa potęgowego dla galaktyk karłowatych zależy również od położenia w gromadzie, przechodząc od α ≈ ?1,3 w rdzeniu do α ≈ ?1,8 na obwodzie.
Morfologie
Jak w większości gromad, galaktyki w jądrze Coma są głównie eliptyczne i soczewkowate, podczas gdy obrzeża mają większy udział spirali. W przypadku 200 najjaśniejszych galaktyk w gromadzie mieszanka wynosi w przybliżeniu E:S0:Sp = 30%:55%:15%. Zróżnicowanie mieszanki morfologicznej znajduje odzwierciedlenie w kolorach galaktyk, przy czym czerwone galaktyki dominują w centrum, a niebieskie na obrzeżach. W regionie pomiędzy podgromadą NGC4839 a gromadą główną występuje nadmiar galaktyk wczesnego typu, które wykazują dowody niedawnego formowania się gwiazd, co mogło zostać wywołane przez interakcję z polem pływowym gromady lub ośrodkiem wewnątrzgromadowym (ICM), gdy obiekty te wpadły do Coma. Bardziej ogólnie, galaktyki E i S0 w gromadzie są silnie skoncentrowane wzdłuż osi północny wschód-południowy zachód, podczas gdy galaktyki spiralne wykazują bardziej rozproszony i izotropowy rozkład.
Galaktyki dominujące
W gromadzie Coma znajdują się trzy galaktyki dominujące (D lub cD). Dwie z nich (NGC4874 i NGC4889) leżą w jądrze gromady i powodują, że jest ona klasyfikowana jako gromada podwójna (klasa Bautza-Morgana II). NGC4874 (B = 12,8) to galaktyka cD z rozszerzonym halo i jasnością absolutną 5,8 × 1010h-1L⊙, która znajduje się blisko szczytu rozkładu galaktyk i gazu rentgenowskiego. NGC4889, 0,12° na wschód od NGC4874, jest jeszcze jaśniejsza (B = 12,6, 6,9×1010h-1L⊙), chociaż nie ma rozszerzonych halo. Szacuje się, że zarówno NGC4874, jak i NGC4889 mają masy (w zakresie 80h-1 kpc) wynoszące 1,4×1013h-1M⊙. NGC4874 jest silnym źródłem radiowym, ale NGC4889 nie. Trzecią dominującą galaktyką jest NGC4839 (B = 13,5), która leży daleko poza rdzeniem gromady, 0,67° na południowy zachód od NGC4874. Jest to kolejna galaktyka cD o jasności 3,0 × 1010h-1L⊙.
Jest to również źródło radiowe typu głowa-ogon, którego ogon skierowany jest na zewnątrz od środka gromady. Każda z trzech dominujących galaktyk jest wiodącym członkiem podgromady w Warkoczu.
Dynamika
REDSHIFTS zostały zmierzone dla 650 członków gromady. Rozkład prędkości w linii widzenia wewnątrz gromady można rozdzielić na dwa rozkłady maxwellowskie (gaussowskie). Jednym z nich jest główna część gromady, ze średnią prędkością 6900 km s-1 i jednowymiarową dyspersją prędkości 1100 km s-1. Drugim jest grupa galaktyk wokół NGC4839, ze średnią prędkością 7300 km s-1 i dyspersją 300 km s-1. Galaktyki E i S0, które dominują w głównej gromadzie, mają rozkład prędkości maxwellowski, co wskazuje, że są mniej więcej w równowadze dynamicznej. Jednak galaktyki spiralne w gromadzie mają szerszy i bardziej płaski rozkład prędkości, co sugeruje, że swobodnie spadają na gromadę.
Ośrodek wewnątrzgromadowy
Coma od dawna jest znany jako silne źródło emisji promieniowania rentgenowskiego. Całkowita jasność promieniowania rentgenowskiego gromady wynosi około 2,5 × 1044h-2erg s-1. Emisja promieniowania rentgenowskiego pochodzi z ICM, gorącej (8 keV ≈ 9×107 K) plazmy o masie co najmniej tak dużej, jak masa galaktyk. Gromada wydaje się dość regularna, poza oczywistym drugim szczytem w emisji promieniowania rentgenowskiego skupionym na NGC4839, która ma jasność 1043h-2erg s
Struktura
Szczegółowa analiza rozmieszczenia i dynamiki galaktyk oraz gazu rentgenowskiego pokazuje, że w Warkoczu Komora znajdują się co najmniej cztery podgromady. Podgromady NGC4874 i NGC4889 znajdują się w końcowej fazie łączenia się w rdzeniu gromady, podczas gdy podgromada NGC4839 albo wchodzi do Warkocza Komora po raz pierwszy z kierunku pobliskiego gromady Abell 1367, albo powraca z tego kierunku, mając już za sobą pierwsze przejście przez rdzeń gromady. Fakt, że NGC4839 ma radiowy "ogon" skierowany na zewnątrz od głównej gromady, wskazuje, że podgromada jest skierowana do wewnątrz i porusza się przez dość gęsty ICM. Inna podgromada została zidentyfikowana wokół NGC4911 i istnieją pewne dowody na inne, niższego poziomu struktury. Istnieje znaczący związek między strukturami w skalach od 10h-1 kpc do 100h-1 Mpc. Główne osie dominujących galaktyk oraz rozkład galaktyk gromady E i S0 oraz gazu rentgenowskiego są mniej więcej wyrównane ze strukturą włóknistą (tzw. "WIELKI MURU") biegnącą przez Comę na południowy zachód do Abell 1367 przy cz = 6500 km s-1 i na północny wschód do Abell 2197/2199 przy cz = 9100 km s-1. Wniosek jest taki, że gromada została zbudowana głównie z materiału, zarówno podgromad, jak i pojedynczych galaktyk, które opadły wzdłuż tego włókna.
Masa i zawartość materii
Ignorując podstrukturę i traktując Comę jako układ kulisty, w którym zarówno galaktyki, jak i gaz rentgenowski znajdują się w równowadze hydrostatycznej, całkowita masa gromady szacowana jest na (3,1 ± 0,5) × 1014h-1M⊙ wewnątrz 1h-1 Mpc i (6,5 ± 2,5) × 1014h -1M⊙ wewnątrz 3h-1Mpc. Nawet w ograniczonym kontekście tych założeń jest to szeroki zakres. W przypadku określania masy gromady przy użyciu dynamiki galaktyk wynika to częściowo z nieznanej anizotropii orbit galaktyk (czy przy danym promieniu galaktyki znajdują się głównie na orbitach izotropowych, radialnych czy kołowych); w przypadku określania opartego na obserwacjach rentgenowskich niepewność leży w nieznanym rozkładzie temperatur. Istnieje również nieznany rozkład ciemnej materii, która dominuje w całkowitej masie gromady. Wszystkie obecne obserwacje są zgodne z modelem, w którym "światło śledzi masę" (tj. ciemna materia ma taki sam rozkład jak widzialna materia), galaktyki znajdują się na izotropowych orbitach, a gromada ma jednolitą temperaturę. Są one jednak również zgodne z modelami, które znacznie odbiegają od tego najprostszego przypadku. Najlepiej dopasowane modele sugerują, że ICM i galaktyki mają nieco bardziej rozciągnięte rozkłady niż ciemna materia. Podstawowe założenie wszystkich tych modeli, a mianowicie, że Coma znajduje się w równowadze hydrostatycznej, jest wyraźnie naruszone na pewnym poziomie. Zakres, w jakim obserwowana podstruktura unieważnia wnioski modeli równowagowych, nie jest jeszcze jasny, chociaż wczesne wskazówki wskazują, że szacunki masy są dość dokładne. Oszacowanie Zwicky′ego z 1933 r. dotyczące stosunku masy do światła (M/L) w paśmie V w gromadzie Coma wynosiło około 100 hM⊙ /L⊙; dzisiejsze szacunki masy odpowiadają wartościom w zakresie 300-400 hM⊙/L⊙. Przekracza to M/L dla pojedynczych galaktyk o czynnik 10 lub więcej, co oznacza, że w ciemnej materii jest około 10 razy więcej masy niż w galaktykach. Jednakże, M/L gromady jest znacznie poniżej M/L wszechświata o gęstości krytycznej (Ω=1), dla którego M/L ≈1600hM⊙ /L⊙. Stosunek jasnej masy barionowej (tj. masy w galaktykach i gazie rentgenowskim) do całkowitej masy gromady wynosi około 0,15 wewnątrz 1h-1 Mpc i 0,2-0,4 wewnątrz 3h-1 Mpc. Jest to znacznie więcej niż frakcja barionowa ΩBh2 = 0,012 ± 0,002 przewidywana przez nukleosyntezę Wielkiego Wybuchu dla wszechświata Ω = 1 (nawet dla h = 0,5). Jeśli przyjąć, że stosunek masy do światła i frakcja barionowa w Warkoczu wskazują na istnienie wszechświata o &Omegal-niskim poziomie promieniowania.
Kometa Hale′a-Boppa (C/1995 O1)
Kometa C/1995 O1 (Hale-Bopp) została odkryta jednocześnie przez dwóch amerykańskich astronomów amatorów Alana Hale′a i Thomasa Boppa 23 lipca 1995 r. W tym czasie znajdowała się w odległości 7,1 AU od Słońca i miała już całkowitą jasność wizualną 10, co jest ponad 100 razy jaśniejsze niż KOMETA HALLEYA w tej samej odległości. Przeszła przez peryhelium 1 kwietnia 1997 r. w odległości 0,91 AU od Słońca. Orbita komety Hale′a-Boppa jest nachylona pod kątem 89? względem ekliptyki. Jej okres orbitalny wynosił około 4200 lat przed wejściem do wewnętrznego układu słonecznego i zmienił się na 2400 lat po zaburzeniu grawitacyjnym przez Jowisza. Jest to zatem kometa długookresowa, prawdopodobnie pochodząca z OORT CLOUD. Gdy tylko odkryto kometę Hale′a-Boppa i wyznaczono jej orbitę, było jasne, że będzie ona bardzo jasnym obiektem w peryhelium, jedną z najjaśniejszych kiedykolwiek zarejestrowanych komet. Rzeczywiście, osiągnęła całkowitą jasność wizualną -1 w pobliżu peryhelium. Przy sprzyjających warunkach obserwacji była obiektem widocznym gołym okiem na półkuli północnej przez ponad 2 miesiące. W tym momencie produkcja gazu osiągnęła 1031 cząsteczek wody s-1 (około 300 t s-1, 10 razy więcej niż kometa Halleya). Można ją zatem zaliczyć do "Wielkich komet" naszej epoki.
Kampania obserwacji komety Hale′a-Boppa
Wczesne odkrycie komety Hale′a-Boppa dało mnóstwo czasu na zorganizowanie ogólnoświatowych obserwacji za pomocą głównych instrumentów. Komety Hyakutake i Hale′a-Boppa były pierwszymi kometami o wyjątkowej jasności (przewyższającej pojawienie się komety West w 1976 r. i komety P/Halley w 1986 r.), które zaobserwowano za pomocą potężnych środków astronomii pod koniec XX wieku: wszechstronnych możliwości obrazowania CCD, nowych spektroskopowych urządzeń naziemnych w zakresie podczerwieni, milimetrów i submilimetrów oraz obserwatoriów kosmicznych, takich jak Infrared Space Observatory (ISO), Hubble Space Telescope (HST) i satelitów rentgenowskich. Nic więc dziwnego, że pojawiło się mnóstwo nowych wyników. Wzory pyłu komy, obrót jądra i rozmiar W wewnętrznej komie zaobserwowano złożony wzór strumieni pyłu (do siedmiu). Strumienie te wykazywały albo spirale, albo wzór promieniowy, w zależności od geometrii obserwacji w danym momencie. Blisko peryhelium wzór rozszerzających się powłok był widoczny nawet
dla obserwatorów z przyrządami o skromnych rozmiarach. Zjawisko to śledzi nierównomierną aktywność powierzchni jądra: "obszary aktywne" są okresowo narażone na ogrzewanie słoneczne, gdy jądro komety obraca się. Obserwacja ewolucji czasowej wzoru strumienia (lub powłoki) pozwoliła na dokładne określenie okresu 11,4 h obrotu jądra i ocenę jego osi. Średnicę jądra wynoszącą 40-80 km określono na podstawie obserwacji za pomocą Kosmicznego Teleskopu Hubble′a, Podczerwonego Obserwatorium Kosmicznego i naziemnej radiometrii przy długościach fal milimetrowych. Jest to największe JĄDRO KOMETY spośród tych, których wielkość udało się oszacować (kometa P/Halley miała wydłużone jądro o wymiarach "zaledwie" 8 km × 8 km × 16 km).
Ogon sodowy
Jednym z najważniejszych wydarzeń obserwacji komety Hale-Bopp było wykrycie trzeciego rodzaju OGONA KOMETARYCZNEGO (oprócz ogonów pyłowych i jonowych): cienkiego, prostego ogona ujawnionego przez żółte linie D atomowego sodu przy 589 nm, który pojawia się pod kątem od drugiego prostego ogona jonowego i różni się od szerokiego, zakrzywionego ogona pyłowego. Emisję linii sodowych zaobserwowano już w wielu kometach, a w kilku z nich sugerowano wskazówki dotyczące ogona sodowego, ale po raz pierwszy obecność ogona sodowego była tak widoczna. Linie D sodu są emitowane przez fluorescencję: fotony ze Słońca są pochłaniane i ponownie emitowane izotropowo; następuje przeniesienie pędu, przyspieszając atomy sodu od Słońca z prędkościami, które mogą przekraczać 80 km s-1. Pochodzenie kometarnego sodu jest słabo poznane. Rozkład macierzystej cząsteczki w fazie gazowej wydaje się wykluczony. Sód jest raczej uwalniany z cząstek pyłu kometarnego.
Ewolucja z odległością heliocentryczną
Wczesne wykrycie komety pozwoliło obserwatorom na zbadanie ewolucji tej wyjątkowej komety na bardzo dużym obszarze odległości heliocentrycznych i zaobserwowanie "włączenia" sublimacji różnych cząsteczek z lodu jądra, gdy kometa zbliżała się do Słońca. Zaraz po odkryciu, w odległości 7 AU, zidentyfikowano już tlenek węgla (w zakresie fal radiowych) i rodnik CN (w widmie widzialnym). Woda (śledzona przez rodnik OH obserwowany w bliskim ultrafiolecie lub w zakresie fal radiowych) pojawiła się w odległości zaledwie 4,8 AU. Aktywność komety, która jest napędzana przez sublimację lodu wodnego w krótkich odległościach heliocentrycznych, jest regulowana przez sublimację bardziej lotnych związków, zwłaszcza tlenku węgla, w dużych odległościach. Gdy kometa zbliżyła się do Słońca, kolejno obserwowano pojawienie się metanolu (CH3OH), cyjanowodoru (HCN), siarkowodoru (H2S), formaldehydu (H2CO) i cyjanku metylu (CH3CN). Ten sam wzór obserwowano w odwrotnej kolejności, gdy różne cząsteczki "wyłączały się", gdy kometa oddalała się od Słońca. W 2001 roku, w odległości około 14 AU od Słońca, kometa Hale′a-Boppa była nadal obserwowana jako aktywna. Obrazy uzyskane za pomocą teleskopu MPG/ESO o średnicy 2,2 m w La Silla nadal pokazują widoczną, zakrzywioną strukturę przypominającą dżet w komie, którą zaobserwowano wcześniej, przy czym całkowity rozmiar komy wynosił około 2 milionów km. Tlenek węgla jest nadal silnie odgazowywany, co widać w obserwacjach radiospektroskopowych za pomocą radioteleskopu SEST o średnicy 15 m, również w La Silla.
Nowe cząsteczki
Rozległe badanie spektroskopowe komety Hale-Bopp na wszystkich długościach fal, przy użyciu najnowocześniejszych instrumentów, doprowadziło do wykrycia wielu nowych gatunków cząsteczek. Kometa Hale-Bopp jest zatem obecnie kometą, której skład chemiczny jest najlepiej znany. Lista cząsteczek kometarnych nie jest jednak zamknięta, ponieważ zaobserwowano wiele niezidentyfikowanych cech widmowych. Skład substancji lotnych w komecie Hale-Bopp jest uderzająco podobny do składu chemicznego lodów międzygwiazdowych (jak niedawno zaobserwowano za pomocą ISO) oraz do składu obserwowanego w międzygwiazdowych gorących rdzeniach molekularnych i dwubiegunowych wypływach wokół protogwiazd.
Obserwacje radiowe
Oprócz znanych już cząsteczek macierzystych komety (H2O, CO, CO2, CH3OH, H2CO, HCN, H2S) i tych dopiero co odkrytych w komecie Hyakutake (NH3, HNCO, CH3CN, HNC, OCS), kilka cząsteczek zostało zidentyfikowanych metodą radiospektroskopii: stosunkowo złożone cząsteczki organiczne kwas mrówkowy (HCOOH), aldehyd octowy (CH3CHO), mrówczan metylu (HCOOCH3) i formamid (NH2CHO), nitryl HC3N, tioformaldehyd (H2CS), wszystkie o zawartości rzędu 10-4 w stosunku do wody. Tlenki siarki SO i SO2 zostały zaobserwowane w zawartości około 0,3%, co czyni je ważnym repozytorium siarki. Odkryto rodnik NS, którego pochodzenie (z jądra lodu lub z nieznanej cząsteczki macierzystej) nadal pozostaje zagadką. Kilka jonów zaobserwowano również po raz pierwszy metodą radiospektroskopii: CO+, HCO+, H3O+. Deuterowaną wodę (HDO) zaobserwowano z jednego z jej submilimetrowych przejść, ze stosunkiem D/H wynoszącym 3 × 10-4, jak w kometach 1P/Halley i Hyakutake. Deuterowaną odmianę DCN cyjanku wodoru zaobserwowano również ze stosunkiem D/H wynoszącym 2,5 × 10-3. Jak omówiono w COMET HYAKUTAKE, wartości te są pośrednie między kosmicznym stosunkiem D/H a stosunkami obserwowanymi w cząsteczkach międzygwiazdowych i stanowią kluczowy test dla teorii formowania się Układu Słonecznego.
Obserwacje w podczerwieni
Naziemne obserwacje spektroskopowe w podczerwieni za pomocą kriogenicznego spektrometru Echelle (CSHELL) na teleskopie podczerwieni NASA (IRTF) w zakresie 2,8-4,8 μm pozwoliły na obserwację CO, CH4, C2H2, C2H6, OCS, NH3, kilku rodników przez ich podstawowe pasma drgań oraz wody przez pasma "gorące", na które nie wpływa absorpcja telluryczna. Pojawienie się komety Hale-Bopp zbiegło się również z działaniem Infrared Space Observatory, które po raz pierwszy mogło zabezpieczyć widmo komet w zakresie podczerwieni od 2,5 do 190 μm. Cząsteczkę wody, którą tak trudno zaobserwować z ziemi ze względu na absorpcję tellurową, można było zaobserwować w wielu szczegółach poprzez jej podstawowe pasma drgań przy długościach fal 2,7 i 6,5 μm oraz jej linie rotacyjne w dalekiej podczerwieni (180 μm). Dwutlenek węgla (CO2) zaobserwowano poprzez jego pasmo drgań przy 4,25 μm: była to druga kometa, w której tę cząsteczkę (której nie można badać z ziemi ze względu na silną absorpcję tellurową) zaobserwowano bezpośrednio, po P/Halley, gdzie zaobserwowano ją in situ za pomocą spektrometru podczerwieni na pokładzie sondy VEGA. Jej obfitość wynosiła około 20% w stosunku do wody (w odległości 2,9 AU od Słońca, gdy wykonywano obserwację ISO), co czyni ją głównym lotnym kometą
Rozproszone źródła cząsteczek
Przed obserwacjami komety Hale′a-Boppa wiadomo było już, że niektóre "macierzyste" cząsteczki nie pochodzą z sublimacji lodu jądra, ale z wciąż słabo znanego "rozproszonego źródła" w komie. Zostało to wykazane dla CO i H2CO, np. przez obserwacje in situ komety P/Halleya przez sondę kosmiczną Giotto. Spektroskopowe obserwacje komety Hale′a-Boppa w podczerwieni przy użyciu długiej szczeliny wykazały, że CO powstawało w połowie ze źródła rozproszonego, a w połowie z jądra, gdy kometa znajdowała się w odległości mniejszej niż 2 AU od Słońca. Znaleziono również rozproszone źródło OCS. Interferometr Institut de Radioastronomie Millimétrique (IRAM) na Plateau de Bure (Francja) oraz Berkeley Illinois Maryland Array (BIMA) i Owens Valley Radio Observatory (OVRO), oba w Kalifornii, mogły zmapować na falach radiowych milimetrowych emisję radiową niektórych cząsteczek, wykorzystując technikę z powodzeniem zastosowaną wcześniej w przypadku komety Hyakutake. Pozwoliło to na zbadanie rozkładu przestrzennego niektórych gatunków, takich jak CO, H
Charakterystyka pyłu kometarnego
Już wiadomo było, że pył kometarny zawiera krzemiany z obserwacji naziemnych ich charakterystycznego pasma około 10 μm i że część z nich może być krystaliczna w niektórych kometach. Zapis pełnego widma w podczerwieni komety Hale-Bopp przez ISO natychmiast ujawnił szereg dodatkowych cech widmowych przy 16, 19,5, 23,5, 27,5 i 33,5 μm, które zostały zidentyfikowane jako bogaty w magnez oliwin (forsteryt Mg2SiO4), specjalny rodzaj krzemianu . Bardziej ilościowa analiza naziemnych i ISO widm komety Hale-Bopp wykazała, że jej pył składał się zasadniczo z forsterytu, piroksenów (innej klasy krzemianów, takich jak MgSiO3), amorficznych krzemianów i materiału bez cech widmowych, który mógł być ziarnami pokrytymi powłoką organiczną, wcześniej zaobserwowanymi przez sondy kosmiczne, które badały kometę Halleya. Widmo komety Hale-Bopp w tej domenie widmowej jest bardzo podobne do widma dysków pyłowych wokół niektórych młodych lub nawet rozwiniętych gwiazd, takich jak HD 100546, gwiazda pośrednia między obiektami β Pictoris lub Vegalike a gwiazdami Herbig Ae-Be, które również zostały zaobserwowane przez ISO. Zatem pył zawarty w takich dyskach wydaje się być podobny do pyłu kometarnego. Natomiast pył międzygwiazdowy wykazuje tylko krzemiany, które są w fazie amorficznej. Przekształcenie krzemianów z fazy amorficznej w krystaliczną, według naszej wiedzy, może nastąpić jedynie poprzez proces wyżarzania w stosunkowo wysokiej temperaturze (>1000 K). Nadal musimy zrozumieć, w jaki sposób komety takie jak Hale-Bopp mogły włączyć pozornie nieprzetworzone międzygwiazdowe substancje lotne z jednej strony i rozwinięte, krystaliczne krzemiany z drugiej strony.
Kometa Halleya (1P/Halley)
Kometa Halleya jest prawdopodobnie najsłynniejszą kometą, jaka kiedykolwiek została odnotowana. Powodem jest to, że jest to jedyna jasna kometa, łatwo widoczna gołym okiem, która powraca tak często, mianowicie z częstotliwością, która nigdy nie różni się zbytnio od 76 lat. Ponieważ taka częstotliwość jest mniej więcej porównywalna z długością życia człowieka, dziadkowie opowiadają o niej wnukom, a tradycja ustna ugruntowała jej sławę.
Przelot komety Halleya w 1682 roku
Do czasu przelotu komety Halleya w 1682 roku, żadnego z poprzednich przelotów nie zidentyfikowano jako pochodzącego od tego samego obiektu. W tym czasie nie znano żadnej komety okresowej, a kształt trajektorii komet był nieznany. W szczególności Johannes Kepler założył, że są to linie proste. Jednak kilka lat przed przelotem komety Halleya, Sir Isaac Newton po raz pierwszy ustalił, że parabola pasuje do obserwowanej trajektorii Wielkiej Komety z 1680 roku znacznie lepiej niż linia prosta. Parabola została zasugerowana jako jedno z możliwych rozwiązań podanych przez jego nową teorię powszechnego ciążenia. W 1703 roku przyjaciel Isaaca Newtona, EDMOND HALLEY, podjął się obliczenia orbit parabolicznych dla tych 24 historycznych komet, dla których dostępne były wystarczająco dokładne dane. Spośród 24 parabol, trzy z nich nie tylko miały ten sam rozmiar, ale także nałożyły się na siebie w przestrzeni. Daty ich przejścia były oddzielone 75 i 76 latami. Doszedł do wniosku, że trzy parabole były w rzeczywistości krańcem niezwykle wydłużonej elipsy. Trzy anonimowe komety były zatem trzema przejściami tej samej komety powracającej okresowo. Halley, słusznie dumny ze swoich wyników, napisał (po łacinie): Jeśli zgodnie z naszymi przewidywaniami kometa ta powróci w 1758 roku, uczciwa potomność rozpozna, że jej powrót został po raz pierwszy przewidziany przez Anglika.
Powrót w 1759 roku
Kometę odnalazł w Boże Narodzenie 1758 roku niemiecki amator; minęła peryhelium w marcu 1759 roku. Ponieważ powrót przewidziany przez Halleya został zweryfikowany, dotychczas anonimowa kometa została nazwana po raz pierwszy kometą Halleya. Jej przejście w 1758 roku odegrało kluczową rolę w Europie kontynentalnej, przekonując ludzi, że prawo powszechnego ciążenia Newtona jest poprawne. Powodem jest to, że Alexis Clairaut, wykorzystując istnienie zaburzeń planetarnych do skorygowania orbity komety po raz pierwszy, przewidział przejście przez peryhelium w 1759 roku z dokładnością jednego miesiąca.
Powrót w 1835 roku
Podczas powrotu komety Halleya w 1835 roku, ulepszenia instrumentów optycznych ujawniły po raz pierwszy istnienie zjawisk fizycznych zachodzących w głowie komety. W szczególności rysunki Friedricha Bessela pokazują strumienie, promienie i wachlarze, które wydają się być wyrzucane w kierunku Słońca, zanim zostaną odrzucone od Słońca. Bessel zinterpretował swoje rysunki za pomocą swojego klasycznego już "modelu fontanny", sugerującego już parujące gazy odciągające pył w kierunku Słońca od jądra. Wyglądało to na potwierdzenie idei Laplace′a, napisanych w 1803 roku, na temat istnienia stałego zamrożonego jądra.
Powrót w 1910 r.
Fotografia i spektroskopia po raz pierwszy przyniosły bardzo dużą ilość danych. W 1931 r. Bobrovnikoff opublikował ważną monografię przelotu z 1910 r., w której wykorzystał 709 fotografii i kilkadziesiąt spektrogramów. Rodniki i jony, które zostały zidentyfikowane w głowach i ogonach dawnych komet, pochodziły tylko z trzech pierwiastków: węgla, azotu i tlenu. Przelot komety Halleya w 1910 r. dodał wodór do tej listy (pasmo Fortrat CH w pobliżu 4300 ?). Bobrovnikoff założył, że cztery zidentyfikowane pierwiastki (H, C, N, O) pochodziły z trzech "macierzystych" cząsteczek odparowujących z jądra, a mianowicie dwutlenku węgla CO2, amoniaku NH3 i wody H2O. Fragmentacja i jonizacja tych trzech cząsteczek były w stanie wyjaśnić wszystkie obserwowane widma: CN, C2, C3, CH, OH, NH, NH2 i jony CH+, OH+, N2+, CO+ i CO2>sup>+ (w tym późniejsze identyfikacje). Dane te stanowią podstawę, na której Fred Whipple zbudował swój lodowy model konglomeratu JĄDRA KOMETY w 1950 r. Potrzeba większej liczby cząsteczek macierzystych stała się oczywista dopiero później, ponieważ brak zderzeń molekularnych w większości komet nie był wcześniej obserwowany.
Powrót w 1986 r.: obfitość atomów
Dzięki misjom kosmicznym przejście komety Halleya w 1986 r. przyniosło bogactwo nowych danych, koordynowanych przez International Halley Watch i zachowanych na dyskach kompaktowych w Comet Halley Archives. Średnie stosunki liczby atomów lekkich pierwiastków znalezionych w lotnej frakcji komety Halleya wyniosły:
Stwierdzono, że stosunek masy pyłu do gazu wynosi M = 0,8±0,2 dla komety Halleya. Stwierdzono, że jej obfitość pierwiastków jest quasi-słoneczna dla 17 zmierzonych pierwiastków, z wyjątkiem wodoru, który został zubożony o czynnik około 500 w komecie w stosunku do Słońca. Występowała również mniejsza rozbieżność dla Si, dwukrotnie bardziej obfitego, i Fe, o połowę mniej obfitego w komecie niż w Słońcu, tak że stosunek Fe/Si jest czterokrotnie mniejszy w komecie Halleya niż w Słońcu. Ten anomalny stosunek przypomina ten sam typ anomalii w chondrytach węglistych, gdzie stosunek Fe/Si waha się od 25% do 75% słonecznego. Uważa się, że KOMETY i CHONDRYTY mają podobne pochodzenie, chociaż nieco inną historię termiczną (chondryty były bardziej nagrzewane niż komety). Skład planet skalistych sugeruje również, że w wewnętrznym układzie słonecznym występuje zmienny niedobór żelaza w stosunku do Słońca.
Powrót z 1986 r.: dane molekularne
Wszystkie gatunki chemiczne zidentyfikowane w poprzednich kometach, plus kilka innych, zostały zidentyfikowane w komecie Halleya podczas jej przejścia w 1986 r. Średni skład chemiczny pyłu w komecie Halleya został również ustalony w procentach masowych. Pył zawiera 33% substancji organicznych i 67% nieorganicznych. Frakcja organiczna składa się w połowie z nienasyconych węglowodorów i w połowie z bardziej złożonych cząsteczek zawierających również tlen, azot i siarkę. Frakcja nieorganiczna składa się w trzech czwartych z krzemianów, a resztę stanowią FeS, grafit i siarka; obie frakcje zawierają również wodę związaną, prawdopodobnie wodę hydratacyjną. Lotna frakcja komety Halleya zawierała (w liczbie atomów) około 78,5% H2O, 4,5% HCO-OH, 4,2% H2CO, 3,5% CO2, 1,0% CO; 2,5% N2, 1,0% HCN, 0,8% NH3, 0,8/ N2H4, 0,4% C4H4N2; 1,5% C2H2, 0,5% CH4,
0,2% C3H2; 0,1% H2S, 0,05% CS2 i 0,05% S2. Skład poszczególnych ziaren pyłu z komety Halleya wykazał duże rozproszenie obfitości pierwiastków od ziarna do ziarna, chociaż wydaje się możliwe sklasyfikowanie ich do czterech odrębnych rodzin:
Grupa A (bogata w węgiel) oznacza 54% C, 12% O, 10% metali (37 ziaren).
Grupa B (bogata w tlen) oznacza 54% O, 10% C, 15% metali (18 ziaren).
Grupa C (bogata w Mg-Si) oznacza 81% metali (ale 5% Fe), 2% C, 2% O (10 ziaren).
Grupa D (bogata w żelazo) oznacza 33% Fe, ale 9% Mg, 5% Si, 8% C, 4% O (11 ziaren).
Te submikroskopowe ziarna wydają się reprezentować ziarna pyłu międzygwiazdowego z czterech różnych źródeł, pochodzące początkowo z różnych środowisk gwiezdnych i które nigdy nie zostały poddane obróbce termicznej przed osadzeniem się razem w środkowej płaszczyźnie mgławicy protosłonecznej, przed akrecją w komety.
Halo parujących ziaren
Istnienie rozszerzonego halo parujących lodowych cząstek zostało wykryte wokół jądra komety Halleya, w szczególności poprzez produkcję CO, prawdopodobnie pochodzącego z fotodysocjacji przez światło słoneczne cząsteczek kwasu mrówkowego HCO-OH i formaldehydu H2CO, które zostały wykryte w organicznych ziarnach nazwanych przez astronomów CHON. Inne lodowe halo ziaren zostały wykryte wcześniej w innych kometach.
Stosunek izotopowy
Przed przejściem komety Halleya w 1986 r. jedynym stosunkiem izotopowym mierzonym w kometach był stosunek 12C/13C mierzony z widm rodnika C2. Widma były trudne do zmierzenia ze względu na mieszanie się pasma C2 z NH2. Przypuszczano, że przybliżone stosunki od 70 do 140 są zgodne ze stosunkiem ziemskim 89, a nie ze stosunkiem międzygwiazdowym 43±4. Jednak analiza linii widmowych 13CN w komecie Halleya wykazała stosunek izotopowy węgla w rodniku CN wynoszący 65±9. Ten stosunek izotopowy zależy od rozważanej cząsteczki, ponieważ pochodzi z różnych efektów frakcjonowania. Stosunek międzygwiazdowy również waha się od 40 do 90 w różnych cząsteczkach. Fakt, że niektóre ziarna pyłu w komecie Halleya miały różne stosunki izotopowe węgla, można interpretować jako wynik różnego pochodzenia tych ziaren w przestrzeni międzygwiazdowej, co potwierdza interpretację ich dużego rozproszenia w obfitościach pierwiastków, o której wspomniano wcześniej. Stosunek izotopów D/H został również zmierzony w komecie Halleya; pierwsze pomiary miały duże paski błędów, ale ostatnio zostały znacznie poprawione. Deuter daje obecnie 320 części na milion (ppm) w wodzie komety Halleya, co jest około dwa razy więcej niż stężenie deuteru w naszych oceanach (około 156 ppm). To duże wzbogacenie deuterem zostało potwierdzone w dwóch ostatnich jasnych kometach (Hyakutake i Hale-Bopp). w porównaniu z deuterem w atmosferze Jowisza, co stanowi uczciwą ocenę jego zawartości w pierwotnym gazie mgławicowym, wzbogacenie deuterem w cząsteczkach wody komety Halleya, jak również w dwóch innych jasnych kometach, wynosi czynnik 16, podczas gdy wzbogacenie w wodzie naszych oceanów wynosi czynnik 8.
Orbita komety Halleya
Obecna orbita komety Halleya jest ekstremalnie wydłużoną orbitą o mimośrodzie e = 0,967. Przy 76-letnim okresie, jej odległość peryhelium wynosząca 0,587 jednostek astronomicznych (AU) ustala jej aphelium na prawie 35 AU. Jej nachylenie do ekliptyki wynosi 17,8°, ale ponieważ orbituje w kierunku wstecznym, jej nachylenie zwykle określa się jako 162,2°. Ponad 30 poprzednich przejść zostało obliczonych wstecz z niezwykłą dokładnością, co pozwoliło na jednoznaczne odnalezienie 30 przejść w dokumentach historycznych. Jej okres wahał się nieregularnie od 79,6 lat (od 451 do 530 r. n.e.) do 74,4 lat (od 1835 do 1910 r.). Zmiany w jej okresie wynikają z różnych pozycji planet olbrzymów, których przyciąganie nieznacznie zmienia jej orbitę. Natomiast jej orientacja w przestrzeni prawie się nie zmienia.
Los komety Halleya
Wszystkie obserwowane komety żyją krótko, ponieważ wielokrotnie wpadają do wewnętrznego układu słonecznego, gdzie rozpadają się w cieple słonecznym; okresowe komety zwykle znikają po dwustu lub trzystu przejściach. Kometa Halleya nie jest wyjątkiem. Jej zamarznięte jądro odparowuje gazy, które unoszą pył; powoduje to te przejściowe zjawiska, z których komety są tak dobrze znane. Ich głowy i ogony, stale gubione w przestrzeni, są najlepszym dowodem ich rozpadu. Taki rozpad często kończy się rozszczepieniem jądra. Ostatecznie wszystkie komety stają się niewidzialne. Mniejsze fragmenty mogą pozostać na zawsze na swoich orbitach lub mogą rozpaść się na coraz drobniejszy pył, jeśli nie uderzą w którąś z planet. Ponieważ nadal widzimy komety miliardy lat po powstaniu Układu Słonecznego, musi istnieć stałe źródło nowych komet.
Źródła dziewiczych komet
Rzeczywiście, znaleziono dwa rezerwuary dziewiczych komet, w których pozostała duża liczba komet od początku istnienia Układu Słonecznego. Jednym z nich jest PAS KUIPERA, pierścień milionów komet na quasi-kołowych orbitach poza orbitą Neptuna; drugim jest OBŁOK OORT, gigantyczna kula skupiona na Słońcu, której średnica jest tysiąc razy większa od rozmiaru układu planetarnego; zawiera miliardy komet. Te dwa zbiorniki utrzymują komety w ich pierwotnym stanie w głębokim zimnie kosmosu. Pas Kuipera jest nieco zaburzony przez rezonanse z orbitą Neptuna; powoduje to KRÓTKOKRESOWE KOMETY (okresy od 3 do 30 lat), podczas gdy pływy galaktyczne i czasami działanie pobliskiej gwiazdy zaburzają Obłok Oorta i powodują DŁUGOOKRESOWE KOMETY (okresy ponad 200 lat). Kometa Halleya jest przypadkiem szczególnym: wraz z kilkoma innymi kometami jej okres leży w przerwie między kometami krótko- i długookresowymi; z tego powodu prawdopodobnie powinna być nazywana kometą "średniookresową". W związku z tym jej pochodzenie nie jest do końca pewne.
Pochodzenie komety Halleya
Sam fakt, że kometa Halleya znajduje się na orbicie wstecznej sprawia, że bardziej prawdopodobne jest, że została przechwycona z Obłoku Oorta. Powodem jest to, że wszystkie komety Pasa Kuipera obracają się w kierunku progradowym, podobnie jak wszystkie planety. Bliskie spotkanie z planetą, które drastycznie zmieniłoby swój kierunek, jest wysoce nieprawdopodobnym wydarzeniem. Jeśli kometa Halleya pochodziła z Obłoku Oorta kilka tysięcy lat temu, to miała wspólne pochodzenie ze wszystkimi innymi kometami z tego obłoku. Obłok Oorta powstał podczas akrecji planet olbrzymów. Wzrost tych bardzo masywnych obiektów wyrzucił dużą część lodowych PLANETOZYMALI, które powstały w ich strefach, do Obłoku Oorta. Uran i Neptun były najbardziej skuteczne; Jowisz i Saturn stały się zbyt masywne i rozwinęły pole grawitacyjne, które wyrzuciło większość lodowych ciał zbyt daleko w przestrzeń, aby mogły być utrzymane przez grawitację Słońca wewnątrz Obłoku Oorta. Tak więc ostateczne pochodzenie komety Halleya leży prawdopodobnie wśród lodowych planetozymali, które akreowały w strefach Urana i Neptuna. Liczne anomalie izotopowe wspomniane wcześniej w ziarnach pyłu komety Halleya potwierdzają, że ziarna międzygwiazdowe, które akreowały w taki lodowy planetozymal, nigdy wcześniej nie były podgrzewane; gdyby powstał w strefie Jowisza, wyższa temperatura PROTOPLANETARNEGO DYSKU (blisko 220 K) wywołałaby neutralne reakcje wymiany izotopowej z wodorem mgławicowym, co również zmniejszyłoby wzbogacenie jego wody deuterem z 16 do 6. Ponieważ tak nie było, wydaje się to najlepszym dowodem na ostateczne pochodzenie komety Halleya. Jego wzbogacenie deuterem odpowiada niezmodyfikowanym warunkom międzygwiazdowym. W zewnętrznym układzie słonecznym było zbyt zimno, aby reakcje wymiany izotopów neutralnych mogły działać.
Jądro komety Halleya
Choć bardzo małe, jądro komety jest jedyną stałą cechą komety. Głowa i ogon to zjawiska przejściowe, które pojawiają się tylko w pobliżu Słońca. Są to pozostałości rozpadu jądra na pył i gaz. Wiadomo było pośrednio, że jądra komet są obiektami o wielkości od kilku do kilkudziesięciu kilometrów, ale jądro komety Halleya jest pierwszym jądrem, które zostało sfotografowane z bliska. Zrobiono to w 1986 roku podczas przelotu statku kosmicznego GIOTTO (Europejska Agencja Kosmiczna). Zdjęcia ujawniły, że ma ono dość nieregularny kształt; 90% jego powierzchni pokrywa czarna skorupa, która prawdopodobnie składa się z ziaren krzemianu sklejonych czarnym materiałem organicznym wyglądającym jak sadza i wyraźnie zawierającym dużą ilość węgla. Utrata lodu wodnego i bardziej lotnych lodów w skorupie nie sięga zbyt głęboko; skorupa jest przebita wieloma otworami, które działają jak wybuchające kratery lub fontanny, z których odparowuje wewnętrzny śnieg. To, co teraz widzimy, jest wyraźnie wynikiem wielu przejść blisko Słońca, gdzie powierzchnia jądra została wystarczająco ogrzana, aby stracić swoje substancje lotne i zespawać swoje ziarna. Jednak przewodzenie ciepła przez skorupę pozwala pobliskim warstwom substancji lotnych na odparowanie podczas każdego przejścia do peryhelium, a ich ciśnienie musi stać się wystarczająco duże, aby utrzymać otwarte wiele "fontann", które zasilają komę i ogony, dopóki kometa nie ostygnie wystarczająco, oddalając się od ciepła słonecznego. Jądro komety Halleya jest wydłużonym ciałem o wymiarach około 8 na 15 km, które wydaje się być wynikiem dwóch mniej więcej kulistych lodowych planetozymali, które się ze sobą zlepiły. Przejście komety Halleya w 1986 r. odegrało ważną rolę w wyjaśnieniu wielu cech i właściwości komet, w tym ich pochodzenia. Obecnie wydaje się, że jest dość dobrze ugruntowane, że jądra komet powstały z lodowych ziaren międzygwiazdowych, które najpierw osiadły w środkowej płaszczyźnie mgławicy protosolarnej. Nadal istniejące komety są mniej lub bardziej dziewiczymi pozostałościami materiału, który nie został użyty do stworzenia planet.
Kometa Hyakutake (C/1996 B2)
Kometa C/1996 B2 (Hyakutake) została odkryta 30 stycznia 1996 roku przez japońskiego astronoma amatora Yuji Hyakutake. (Nie należy jej mylić z inną "kometą Hyakutake" odkrytą przez tę samą osobę 5 tygodni wcześniej, C/1995 Y1, która była znacznie mniej spektakularna). Wkrótce odkryto, że kometa Hyakutake miała zbliżyć się do Ziemi 25 marca 1996 roku, w odległości zaledwie 0,102 AU (15 300 000 km). Przeszła przez peryhelium 1 maja 1996 roku w odległości 0,230 AU od Słońca. To ciało niebieskie jest kometą długookresową (około 9000 lat) z płaszczyzną orbity nachyloną pod kątem 125? nad ekliptyką; przypuszczalnie pochodzi z OORT CLOUD.
Bliskie podejścia komet do Ziemi
Wiadomo, że kilka KOMET przeszło wyjątkowo blisko Ziemi. Spośród tych o dobrze znanych orbitach, najbliższe podejście miała kometa D/1770 L1 (Lexell) w 1770 r.: zaledwie 0,015 AU (tj. 2 400 000 km, siedem razy więcej niż odległość Księżyc-Ziemia). W XX wieku komety 7P/Pons-Winnecke minęły w odległości 0,039 AU w 1927 r., 73P/Schwassmann-Wachmann 3 w odległości 0,062 AU w 1930 r., C/1983 H1 (IRAS-Araki-Alcock) w odległości 0,031 AU i C/1983 J1 (Sugano-Saigusa-Fujikawa) w odległości 0,063 AU w 1983 r. Bliskie przejście komety Hyakutake w odległości 0,102 AU jest zatem rzadkie, ale nie wyjątkowe. Kometa ta jednak była stosunkowo wysoce produktywna, wyrzucając około 2 × 1029 cząsteczek wody s-1 (około 5 t s-1), gdy znajdowała się w odległości około 1 AU od Słońca: to nie mniej niż 1/5 produkcji KOMETY HALLEYA w tej samej odległości. To sprawiło, że kometa stała się bardzo jasnym obiektem pod koniec marca 1996 r., osiągając zerową całkowitą wielkość gwiazdową, gdy była najjaśniejsza. Była widocznym gołym okiem obiektem przez kilka dni z ogonem rozciągającym się do 90°.
Kampania obserwacji komety Hyakutake
Kampania obserwacji, w której wykorzystano większość dużych instrumentów astronomicznych, musiała zostać zorganizowana w krótkim czasie. Zebrano wiele nowych wyników dotyczących nauki o kometach, tuż przed równie udanymi obserwacjami komety C/1995 O1 (Hale-Bopp).
Jądro, rozmiar i obrót
Echo radarowe komety można było uzyskać za pomocą 70-metrowej anteny Goldstone w Kalifornii. Ponieważ sygnał radarowy jest proporcjonalny do Δ-4 (Δ jest odległością obserwatora od celu), można było zaobserwować tylko komety znajdujące się w bliskiej odległości, a do tej pory tylko garstka z nich mogła zostać wykryta za pomocą technik radarowych: 2P/Encke, 26P/Grigg-Skjellerup, C/1983 H1 (IRAS-Araki-Alcock) i 1P/Halley. Na podstawie tych obserwacji ustalono, że JĄDRO KOMETY komety Hyakutake ma średnicę 2-3 km. W porównaniu z wysokim poziomem aktywności komety, ten niewielki rozmiar wskazuje, że większość powierzchni jest pokryta odsłoniętym, sublimującym lodem. Pomimo niewielkiej odległości od obserwatorów, jądro było zbyt małe, aby można je było rozróżnić za pomocą środków optycznych. Okres rotacji jądra komety określono na około 6,3 godziny na podstawie obrazowania w pobliżu jądra i krzywej blasku komety. Kilka jąder wtórnych zaobserwowano na zdjęciach wykonanych tuż po bliskim zbliżeniu komety do Ziemi. Każdy fragment był otoczony własną komą. Cofały się w kierunku antysłonecznym z prędkością około 12 m s-1 i stopniowo znikały. Oczywiste jest, że nie były one spowodowane poważnym rozpadem jądra, takim jak te, które miały miejsce w przypadku komet C/1975 V1 (West) lub D/Shoemaker-Levy 9, ale raczej fragmentami zewnętrznej skorupy jądra oderwanymi przez aktywność kometarną. Prawdopodobnie takie zjawisko jest powszechne wśród aktywnych komet, ale można je zaobserwować tylko w przypadku bliskiego przelotu.
Nowe cząsteczki
Przed obserwacjami komety Hyakutake zidentyfikowano w niej tylko kilka cząsteczek macierzystych: H2O, CO, CO2, CH3OH, H2CO, HCN, H2S. Obserwacje spektroskopowe, głównie w zakresie radiowym i podczerwonym, pozwoliły na identyfikację wielu innych gatunków. Amoniak (NH3), podejrzewany o bycie prekursorem rodników NH i NH2, został zaobserwowany przez jego linie centymetrowe z obfitością w stosunku do wody wynoszącą około 0,7%. To czyni tę cząsteczkę głównym składowiskiem kometarnego azotu. Inne związki azotu zostały zaobserwowane jako drugorzędne gatunki przez ich milimetrowe linie radiowe: kwas izocyjanowy (HNCO), cyjanek metylu (CH3CN) i izocyjanian wodoru (HNC, izomer cyjanku wodoru HCN niestabilny w warunkach laboratoriów naziemnych). Za pomocą spektroskopii radiowej wykryto również cząsteczkę siarkowaną, siarczek karbonylu (OCS). Deuterowaną wodę (HDO) zaobserwowano przez jej linię radiową przy 465 GHz. Odpowiedni stosunek [D]/[H] wynosi 3 × 10-4, wartość zbliżona do tej obserwowanej przez spektrometry masowe Giotto podczas przelotu obok komety Halleya. Wartość ta pokazuje wzbogacenie około 10 razy większe od "kosmicznej" obfitości deuteru w pierwotnej mgławicy słonecznej ([D]/[H] = 2,5 × 10-5), gdzie deuter był zawarty głównie w cząsteczce HD. Nie jest jednak tak duże, jak obserwowane w niektórych cząsteczkach międzygwiazdowych ([D]/[H] = kilka 10-3). Wzbogacenie deuterem może być naturalnym wynikiem reakcji chemicznych w niskiej temperaturze, takich jak te zachodzące w ośrodku międzygwiazdowym. Wzbogacenie obserwowane w kometach sugeruje, że deuter nie został ponownie zrównoważony w wodzie kometarnej i że materiał kometarny zachował, przynajmniej częściowo, sygnaturę materii międzygwiazdowej. Pojawienie się komety Hyakutake dało również okazję do przeprowadzenia pierwszych udanych obserwacji interferometrycznych komety w milimetrowych długościach fal, wkrótce ocenionych przez dalsze obserwacje KOMETY HALE-BOPP. Obserwacje w podczerwieni wykorzystywały nową generację spektrometrów o wysokiej rozdzielczości i czułości, takich jak Cryogenic Echelle Spectrometer (CSHELL) w NASA Infrared Telescope Facility (IRTF). CO i HCN zostały zaobserwowane po raz pierwszy w podczerwieni i ujawniono kilka węglowodorów. Metan (CH4), podejrzewany od dawna o bycie cząsteczką macierzystą odpowiedzialną za obecność rodnika CH, ale nigdy jeszcze nie zidentyfikowany, został zaobserwowany w ilości około 1% w stosunku do wody. Etan (C2H6) został również zaobserwowany w prawie takiej samej ilości, a także acetylen (C2H2), który jest nienasyconym węglowodorem. Obecność zarówno nasyconych, jak i nienasyconych węglowodorów pokazuje, że cząsteczki komet nie są wynikiem chemii równowagowej. W podczerwieni wykryto również siarczek karbonylu (OCS). Obserwacje w ultrafiolecie za pomocą Teleskopu Kosmicznego Hubble′a ujawniły cząsteczkę S2, widzianą po raz drugi w komecie, pierwszą z nich była C/1983 H1 (IRAS-Araki-Alcock) podczas jej bardzo bliskiego zbliżenia do Ziemi. Oczywiste jest, że tę cząsteczkę, która ma bardzo krótki czas życia, można wykryć jedynie za pomocą obserwacji bliskich komet o wysokiej rozdzielczości przestrzennej. W jaki sposób ta cząsteczka mogłaby zostać włączona do materii kometarnej lub stworzona przez chemiczną obróbkę lodów kometarnych lub wewnątrz wewnętrznej komy, nie jest jeszcze jasne.
Obserwacje rentgenowskie
Całkowicie nieoczekiwanym rezultatem było wykrycie emisji rentgenowskiej z komety Hyakutake. Jest to wynik wykorzystania trzech satelitarnych obserwatoriów rentgenowskich, początkowo poświęconych obserwacji wysokoenergetycznych emisji ze Słońca lub źródeł galaktycznych i pozagalaktycznych: Röntgen X-ray Satellite (ROSAT), który dokonał pierwszego wykrycia komety, Rossi X-ray Timing Explorer (XTE) i satelity Extreme Ultraviolet Explorer .Odkrycie to zostało wkrótce potwierdzone w przypadku komety Hale-Bopp, a emisję kilku innych komet można było również odzyskać z danych archiwalnych satelitów rentgenowskich. Zjawisko to nie jest zatem rzadkie i można je było zaobserwować nawet w przypadku niektórych słabych komet. Otwiera ono zupełnie nowe perspektywy dla obserwacji komet, a jego interpretacja stanowi nowe wyzwanie dla fizyki komet. Wysokoenergetyczne promieniowanie, takie jak promienie rentgenowskie, nie może być emitowane przez kometę, która jest bezwładnym, zimnym ciałem. Emisja ta pochodzi raczej z interakcji materii kometarnej z wysokoenergetycznym promieniowaniem słonecznym lub cząsteczkami słonecznymi. Dokładna natura tej interakcji została niedawno wyjaśniona przez ponowne zbadanie danych EUVE dotyczących komety Hyakutake i niezależnych obserwacji komety C/1999 S4 (LINEAR) przez Obserwatorium Rentgenowskie Chandra, które pokazują linie emisyjne silnie wzbudzonych jonów. Przeniesienie ładunku z ciężkich jonów w wietrze słonecznym do atomów neutralnych w atmosferze komety wzbudza atomy komet do wysokich poziomów elektronowych, a ich deekscytacja skutkuje emisją promieni rentgenowskich. Wyklucza to inne proponowane mechanizmy, takie jak rozpraszanie emisji promieni rentgenowskich przez bardzo małe (attogramowe) ziarna komet.
Kometa Ikeya-Seki (C/1965 S1)
Spośród małych ciał Układu Słonecznego kometa Ikeya-Seki - Wielka Kometa 1965 roku - jest wyjątkowym obiektem z więcej niż jednego powodu. Należy do wyjątkowej klasy komet, grupy Kreutza sungrazing, zespołu tak nazwanego, ponieważ jej członkowie mają niezwykle małe odległości najbliższego podejścia, ocierając się tym samym o Słońce w peryhelium. Ikeya-Seki jest jednym z najjaśniejszych członków rodziny, z pewnością najjaśniejszym i najlepiej obserwowanym w naszej epoce. W bliskiej odległości od Słońca część ogniotrwałego składnika materiału komety ("pyłu") odparowuje z powodu bardzo intensywnego ciepła, dzięki czemu ciężkie, metaliczne pierwiastki, których nie widać z większych odległości, uwalniają się i można je wykryć. Liczne emisje spowodowane takimi pierwiastkami zostały rzeczywiście sfotografowane i zidentyfikowane szczegółowo po raz pierwszy w widmach optycznych komety Ikeya-Seki. Podobnie, to właśnie na tej komecie wykonano pierwsze obserwacje wielopasmowe w podczerwieni i wykorzystano je do uzyskania dalszych informacji na temat pyłu kometarnego. Ikeya-Seki zostanie również zapamiętana jako jedna z najbardziej spektakularnych komet tego stulecia, z jedną na początku (Wielka Kometa Dzienna ze stycznia 1910 r.) i drugą pod koniec (Hale-Bopp, Wielka Kometa z 1997 r.); te dwie ostatnie komety nie były muskającymi słońce kometami Kreutza, ale były dość jasne, szczególnie KOMETA HALE-BOPP.
Odkrycie: oznaczenia
Kometa Ikeya-Seki została odkryta 18 września 1965 roku, niezależnie przez dwóch japońskich astronomów amatorów, Kaoru Ikeya i Tsutomu Seki. Nosi więc imiona dwóch bardzo pracowitych i skutecznych "łowców komet", którzy systematycznie i cierpliwie badają niebo każdej bezchmurnej nocy w poszukiwaniu nowych, rozmytych, ruchomych obiektów. Do nazwy dodano oznaczenie roku. Tak więc kometa ta jest znana w literaturze jako Ikeya-Seki (1965f) lub (1965 VIII). Zgodnie z nowym systemem przyjętym niedawno jest ona również oznaczana jako C/1965 S1 (Ikeya-Seki). Należy zauważyć, że nasza słynna kometa nie powinna być mylona z inną kometą Ikeya-Seki odkrytą około dwa lata później, 1967n=1968 I=C/1967 Y1.
Orbita: znak pochodzenia
Zaledwie kilka dni po odkryciu zdano sobie sprawę, że kometa przejdzie bardzo blisko Słońca, a gdy nieco później zabezpieczono wystarczającą liczbę obserwacji, aby określić wiarygodną trajektorię, elementy orbity nie pozostawiły wątpliwości: w rzeczywistości nadchodził nowy członek rodziny sungrazerów. Był to właściwie ósmy członek, który był wówczas dość dobrze znany. Wszystkie te obiekty zbliżają się do wewnętrznego układu słonecznego z niemal dokładnie tego samego kierunku w przestrzeni i podążają niemal identycznymi ścieżkami, przy czym główną różnicą jest okres rewolucji (500-1100 lat, dla tych, które są znane), a zatem czas ich pojawienia się. Pomysł, że niektóre komety tworzą grupę lub rodzinę, oznacza, że uważa się, że istnieje fizyczny lub genetyczny związek między tymi pojedynczymi obiektami. Ta koncepcja zastosowana do szeregu komet o bardzo podobnych orbitach i niezwykle małych odległościach peryhelium sięga końca XIX wieku. KIRKWOOD, a po nim Kreutz, który jako pierwszy szczegółowo badał orbity komet muskających słońce, twierdził, że komety te powstały w wyniku rozpadu starożytnej, gigantycznej komety macierzystej. Rodzina komet muskających słońce była omawiana szerzej w XX wieku, szczególnie przez Marsdena i Öpika, po przejściu komety Ikeya-Seki. Niedawno Bailey i jego współpracownicy zaproponowali, że długoterminowe świeckie zaburzenia grawitacyjne w Układzie Słonecznym powodują stopniowe zmiany w elementach orbitalnych niektórych komet, co prowadzi do trajektorii muskających słońce; sugerują, że takie transformacje w fazę muskającą słońce nie są rzadkie w dynamicznej ewolucji komet długookresowych. Wspomnijmy tu pokrótce o szczególnym powiązaniu rodzicielskim między dwoma członkami rodziny: elementy orbitalne komety Ikeya-Seki są tak bardzo podobne do elementów Wielkiej Komety Wrześniowej z 1882 r. (1882 II lub C/1882 R1), na przykład ich odległości peryhelium różnią się tylko o 0,000 04 AU (1 AU, jedna jednostka astronomiczna, to średnia odległość Ziemi od Słońca), mniej niż 1% promienia słonecznego, że te komety prawdopodobnie narodziły się razem, gdy ich bezpośredni rodzic rozdzielił się w peryhelium (może to być Wielka Kometa z 1106 r., jak wskazuje Marsden). Tak więc 1882 II i 1965 VIII są siostrami bliźniaczkami - nie są jednak identycznymi bliźniaczkami, ponieważ pierwsza była zauważalnie większa i jaśniejsza od drugiej. Orbita samego Ikeya-Seki jest pokazana schematycznie na rysunku 1. Jest to niezwykle wydłużona elipsa, która przeprowadza kometę prosto przez koronę słoneczną w peryhelium: znajduje się ona wówczas w odległości od powierzchni Słońca wynoszącej zaledwie dwie trzecie promienia słonecznego, czyli nieco mniej niż 500 000 km, podczas gdy na drugim końcu orbity (w aphelium) jest oddalona o około 30 miliardów kilometrów. Kometa muskająca Słońce zazwyczaj składa nam błyskawiczną wizytę i stanowi uderzający przykład drugiego prawa Keplera, zgodnie z którym linia między Słońcem a orbitującym ciałem (wektor promienia) przebiega przez równe obszary w równych odstępach czasu (patrz PRAWA KEPLERA). Tak więc Ikeya-Seki wykonała pół obrotu wokół Słońca w mniej niż cztery godziny (jej prędkość w peryhelium wynosiła 480 km s-1), podczas gdy wykonanie pełnego obrotu zajmuje jej około 900 lat! Z jasności komety w chwili odkrycia i wkrótce potem przewidywano i szeroko ogłaszano, że Ikeya-Seki będzie imponującym widokiem, gdy znajdzie się blisko Słońca. Spektakularny był rzeczywiście, osiągając astronomiczną wielkość około -10 do -11 w najjaśniejszym momencie (tj. porównywalną jasnością do Księżyca, gdzieś pomiędzy kwadrą a pełnią Księżyca lub kilkaset razy jaśniejszy niż Wenus w momencie największej jasności) i ukazując wspaniały ogon (czasami o długości 30°) przez kilka tygodni wokół peryhelium . Niestety jednak kształt i orientacja orbity obiektu sungrazer sprawiają, że jego obserwacja jest dość trudna. Tak więc, ze względu na niewielką odległość kątową komety Ikeya-Seki od Słońca i jej położenie na niebie, zawsze na południe od równika niebieskiego, wspaniały pokaz, jaki dała, był zarezerwowany zasadniczo dla astronomów amatorów i profesjonalistów w uprzywilejowanych miejscach o bardzo czystym niebie, na niezbyt dużych szerokościach geograficznych. Była dobrze obserwowana w Japonii, Australii i Nowej Zelandii, Afryce Południowej, południowej Europie, Ameryce Południowej, Meksyku i południowo-zachodniej części Stanów Zjednoczonych. Podobnie jak wiele innych muskających słońce komet, Ikeya-Seki zniknęła dość szybko; była obserwowana przez mniej niż cztery miesiące po peryhelium.
Cechy fizyczne: rozmiar, struktura
Fragmentacja jest częstym zjawiskiem wśród obiektów muskających słońce. Na przykład zaobserwowano, że kometa 1882 II rozpadła się na ponad pięć części w pobliżu peryhelium; podobnie, kilka raportów wskazywało, że co najmniej trzy podjądra (jedno znacznie jaśniejsze od pozostałych) pojawiły się tuż po najbliższym zbliżeniu się Ikeya-Seki do Słońca. Obiekty muskające słońce powstają, jak sądzimy, w wieloetapowym procesie, który zaczyna się od rozpadu przodka, wiele stuleci lub tysiącleci wcześniej, a następnie rozbicia kolejnych potomków, gdy wracają w okolice Słońca. Najprawdopodobniej powoduje to bardzo dużą liczbę małych obiektów muskających słońce, co potwierdza obecne odkrycie coraz większej liczby takich "karłowatych" obiektów muskających słońce (jak ujął to J. E. Bortle) za pomocą koronografów na pokładzie Solar and Heliospheric Observatory (SOHO). Pytanie, które nasuwa się, gdy kometa muskająca słońce jest widziana przed peryhelium, brzmi: czy przetrwa? Krótko mówiąc, odpowiedź brzmi, że większe osobniki się rozpadną (nawet jeśli zostaną złamane), a pigmeje nie. Rozmiar i wewnętrzna wytrzymałość to czynniki decydujące o uniknięciu rozpadu lub całkowitego rozproszenia. Gdy przelatują tak blisko pieca słonecznego, komety te są poddawane bardzo intensywnym naprężeniom cieplnym, a mniej lub bardziej istotna część ich masy zostanie odparowana. Poza tym doświadczają innego fizycznego wpływu Słońca, efektu pływowego. Ponieważ centralne przyciąganie grawitacyjne jest odwrotnie proporcjonalne do kwadratu odległości, działanie Słońca jest silniejsze na części ciała przechodzącego najbliżej niego niż na części najbardziej odległe. Ta różnica może być znacząca, jeśli ciało stałe jest większe niż pewna granica krytyczna i dodatkowo nie jest wystarczająco silnie ustrukturyzowane, nie będzie w stanie oprzeć się różnicowej sile grawitacyjnej i rozszczepi się lub rozpadnie: nazywa się to rozerwaniem pływowym. Na podstawie argumentów dynamicznych, ewolucyjnych i statystycznych oraz wykorzystując dane obserwacyjne dotyczące najbardziej znanych komet muskających słońce, w szczególności Ikeya-Seki, kilku astronomów było w stanie wyciągnąć wnioski dotyczące pochodzenia i stabilności orbitalnej tej klasy komet, a także niektórych ich właściwości fizycznych. Rozważmy na przykład prędkości różnicowe uzyskane przez fragmenty komety muskającej słońce po przejściu przez peryhelium. Jeśli, jak zrobił to Öpik, przypiszemy te różnice różnicom w radialnym opóźnieniu lub "efektowi rakiety" wytwarzanym na podjądrach o różnych rozmiarach, gdy wyrzucają gazy w ogólnym kierunku słonecznym, możemy oszacować wymiary tych różnych fragmentów. Stosując tę metodę do Ikeya-Seki i wykorzystując obserwowane kolejne separacje dwóch głównych towarzyszy, można ustalić, że jaśniejszy z nich miał średnicę od 5 do 10 km, a słabszy był około dwa razy mniejszy. Wymiary te są zgodne z dolną granicą uzyskaną przez Sekaninę dla średnicy jądra macierzystego (3-5 km) na podstawie innego założenia, a mianowicie, że względne ruchy podjąder są przypisywane prędkości separacji nadanej przy rozpadzie (jest to utożsamiane z równikową prędkością obrotową komety macierzystej, obrót jest również możliwą przyczyną przyczyniającą się do rozerwania). Przy założonej gęstości 1 g cm-3 masa komety Ikeya-Seki mogła być rzędu 1014 kg (około pięć razy mniej niż masa KOMETY HALLEYA). Masa siostry bliźniaczki 1882 II była prawdopodobnie 100 razy większa, masa "gigantycznego" przodka sungrazerów była jeszcze o około dwa rzędy wielkości większa, tj. masa powiedzmy 1018 kg. Tę ogromną liczbę należy umieścić w perspektywie astronomicznej: stanowi ona zaledwie około jedną dziesięciomilionową masy Ziemi! Ponieważ siła spójności i rozmiar są ściśle powiązane w rozpadzie pływowym, wiedza o tym drugim (w danej odległości od ciała centralnego) może być wykorzystana do wyprowadzenia pewnych informacji dotyczących tego pierwszego. Mimo że wywnioskowane wartości są przybliżone, są one raczej pouczające. Za pomocą uproszczonego modelu (nieobrotowego, jednorodnego, kulistego jądra), zastosowanego do danych dostępnych dla Ikeya-Seki i niektórych innych członków jego rodziny, Öpik wykazał, że siły spójności, które Ponieważ siła spójności i rozmiar są ściśle powiązane w rozpadzie pływowym, wiedza o tym drugim (w danej odległości od ciała centralnego) może być wykorzystana do wyprowadzenia pewnych informacji dotyczących tego pierwszego. Mimo że wywnioskowane wartości są przybliżone, są one raczej pouczające. Za pomocą uproszczonego modelu (nieobrotowego, jednorodnego, kulistego jądra), zastosowanego do danych dostępnych dla Ikea-Seki i niektórych innych członków tej rodziny, Öpik wykazał, że siły spójności, które utrzymują te ciała razem, są znacznie słabsze niż siły spójności wszelkich znanych materiałów (takich jak skały ziemskie lub rodzice meteorytów), z wyjątkiem meteorycznych "kul pyłu" (luźno związanych zespołów ziaren pyłu obserwowanych jako meteoryty, gdy wchodzą w naszą atmosferę), które charakteryzują się wytrzymałością na zgniatanie rzędu 104 dyn cm-2, około cztery (odpowiednio pięć) rzędów wielkości niższą niż wytrzymałość na rozciąganie (odpowiednio na ściskanie) skał. Odkrycia te są zasadniczo zgodne z modelem komet WHIPPLE′A, który opisuje jądro jako luźny, porowaty agregat materii lodowej i mineralnej. Niska wytrzymałość kohezyjna jest również zgodna z faktem, że fragmentacja komet jest często obserwowana nawet w dużej odległości od masywnego ciała, takiego jak Słońce lub Jowisz, a zatem przy braku jakiegokolwiek działania pływowego. Na koniec warto przypomnieć, że chociaż dość kruche, jądra komet są jednak wystarczająco odporne, aby przetrwać muskające podejście do Słońca, przy czym większe z nich są w każdym przypadku obserwowane w formie kilku trwałych komponentów po ich doświadczeniu rozszczepienia.
Wskazówki dotyczące natury i składu pyłu kometarnego
Pomimo wielkich trudności związanych z obserwacją obiektu znajdującego się zaledwie kilka stopni od Słońca na niebie, poświęcono znaczne wysiłki na uzyskanie danych na temat komety Ikeya-Seki w okolicach peryhelium, w szczególności danych spektroskopowych. Silna zachęta wynikała z faktu, że ten obiekt muskający słońce oferował bardzo rzadką - jak dotąd wyjątkową - okazję do uzyskania bezpośrednich dowodów na skład pyłu kometarnego za pomocą zdalnych obserwacji. Nasza bardzo ograniczona wiedza na temat względnej obfitości ciężkich pierwiastków w kometach pochodzi w zasadzie z badania meteoroidów pochodzenia kometarnego lub z pomiarów in situ (do tej pory możliwe tylko w przypadku komety Halleya). W ten sposób całkiem sporo widm Ikeya-Seki zostało zabezpieczonych 20 i 21 października 1965 r. w kilku obserwatoriach (Ratcliffe, Republika Południowej Afryki; Sacramento Peak, Nowy Meksyk; Lick, Kalifornia; Kitt Peak, Arizona; Haute-Provence, Francja). Parowanie (a raczej sublimacja) nielotnych substancji, które stanowią pył kometarny, wymaga stosunkowo wysokich temperatur, powyżej około 1000 K, osiąganych tylko wtedy, gdy kometa znajduje się wystarczająco blisko Słońca. Huebner badał sublimację składników ogniotrwałych pod wpływem promieniowania słonecznego i określił szybkość parowania i czas życia cząstek pyłu jako funkcję ich wielkości, ciepła utajonego ich materiałów składowych i odległości heliocentrycznej (r). Jest oczywiste, że pierwiastki metaliczne, które są chemicznie związane w materiale "skalnym", w postaci krzemianów lub tlenków, mogą zostać uwolnione tylko wtedy, gdy r jest mniejsze niż 0,1-0,2 AU. Kilka fragmentów tych niezwykłych widm komety Ikeya-Seki zilustrowano na rycinach 4 i 5. Zaobserwowano liczne linie emisyjne, głównie z powodu neutralnych atomów grupy żelaza, V, Cr, Mn, Fe, Co, Ni i Cu, ale także K, Ca i Ca+, oprócz Na, który pojawia się po raz pierwszy w pobliżu 1 AU od Słońca. Potwierdziło to w szczególności obecność kilku linii żelaza i niklu, o których donieśli Copeland i Lohse po ich obserwacjach komety 1882 II za pomocą wizualnego spektroskopu. Ta identyfikacja została w międzyczasie zakwestionowana na podstawie bezpodstawnej krytyki ignorującej szczególne warunki fizyczne panujące w atmosferze komety, ośrodku o niskiej gęstości bardzo dalekim od równowagi termodynamicznej, powszechnie występującej w eksperymentach laboratoryjnych. Obserwowane emisje atomowe powstają, podobnie jak emisje molekularne widziane dalej od Słońca, poprzez rezonans-fluorescencję (absorpcję promieniowania słonecznego przez atomy lub cząsteczki, a następnie emisję różnych możliwych przejść pochodzących z wyższych stanów energetycznych wzbudzonych w ten sposób). Analizując szereg widm Ikeya-Seki, Arpigny wykorzystał zmierzone natężenia linii do oszacowania względnych obfitości różnych atomów. Godnym uwagi wynikiem było to, że niektóre pierwiastki, zwłaszcza Al, Si, Ca i Ti, okazały się być zauważalnie niedoborowe w odniesieniu do Fe i w porównaniu z obfitością w Układzie Słonecznym. Mg był przypadkiem marginalnym. Ponieważ te pierwiastki są atomami składowymi kondensatów wysokotemperaturowych (np. korund, perowskit, melilit, rdzeń), możliwą interpretacją niedociągnięć jest to, że temperatura w komie Ikeya-Seki nie była wystarczająco wysoka, gdy analizowane widma zostały pobrane (około 14 promieni słonecznych lub 0,065 AU od Słońca), aby takie oporne materiały uległy rozkładowi w jakimkolwiek znaczącym stopniu. Nie przeprowadzono żadnych rzeczywistych pomiarów temperatury pyłu, Td, w tej odległości heliocentrycznej ani bliżej peryhelium, ale pośrednie dowody sugerują, że Td prawdopodobnie mieściło się w zakresie 1000-1500 K w pobliżu 0,065 AU. Można zauważyć, że bogate w Mg oliwiny i pirokseny, ostatnio uważane za ważne składniki krzemianowe ziaren pyłu kometarnego, również zawierają niektóre z niedoborowych pierwiastków. Niestety, nie udało się uzyskać bardziej szczegółowych wartości ilościowych, gdyż dostępne dane były niewystarczające. Mimo to można było bezpiecznie wyciągnąć wniosek, że skład pierwiastkowy pyłu w komecie był podobny do składu Słońca i meteorytów chondrytowych. Z drugiej strony, przestrzenne rozszerzenie emisji Na D na duże odległości od środka komety , pomimo bardzo krótkiego czasu życia sodu w obliczu jonizacji (rzędu 50 s przy r = 0,04 AU lub 8,6 promienia słonecznego) wskazuje, jak wskazali Spinrad i Miner oraz Huebner, że atomy Na muszą być osadzone w związku (lub związkach) o wysokim utajonym cieple parowania i w związku z tym być wytwarzane w rozproszonym źródle, a nie bezpośrednio z jądra. Z badania pola prędkości sodu wywnioskowano również, że ziarna pyłu prekursorowego musiały być dość duże, o promieniu ponad 20 μm. Jednocześnie wydaje się, że kometarny sód widziany w pobliżu 0,5-1 AU koniecznie pochodzi z cząstek o innej naturze, zawierających mniej opornych substancji bogatych w Na. Oprócz tych obserwacji spektroskopowych, pierwsze obserwacje komety w podczerwieni zostały przeprowadzone na Ikeya-Seki przez Becklina i Westphala, którzy wykryli emisję cieplną z ziaren pyłu i śledzili jej ewolucję jako funkcję r, od 0,2 do 0,5 AU zarówno przed, jak i po peryhelium. Na podstawie rozkładu energii przy 1,6, 2,0, 3,4 i 10 μm autorzy ci odkryli, że temperatura ziaren była wyższa niż temperatura, którą osiągnęłoby szare lub czarne ciało w równowadze z promieniowaniem słonecznym w odległości heliocentrycznej komety; wywnioskowali również pewne informacje na temat zależności długości fali emisyjności materiału ziarna, która okazała się znacznie niższa w podczerwieni niż w świetle widzialnym. Odkrycia te zostały potwierdzone w wielu późniejszych kometach. Obecnie ustalono, że cząstki odpowiedzialne za emisję cieplną to bardzo małe (rozmiaru submikronowego do mikronowego) ziarna wykonane z krzemianów zmieszanych z materiałami pochłaniającymi (prawdopodobnie węglowymi). Te maleńkie cząstki Y skutecznie pochłaniają silne widzialne promieniowanie słoneczne, ale nie mogą łatwo promieniować w podczerwieni; są więc przegrzane. Pomiary polaryzacji zostały wykonane w ogonie komety, ujawniając nagłą zmianę stopnia polaryzacji, odwrócenie od +20% do ?40%, co zostało zinterpretowane jako spowodowane segregacją według wielkości ziaren wzdłuż ogona, ziarna były prawdopodobnie złożone z lekko absorbujących krzemianów. Podejmowano próby obserwacji komety Ikeya-Seki w ultrafiolecie z rakiet, a także w długościach fal radiowych, ale niestety z różnych powodów się to nie udało.
Wniosek
Zaczęliśmy od stwierdzenia, że kometa Ikeya-Seki była wyjątkowym obiektem, co jest prawdą pod pewnymi ważnymi względami, ale jednocześnie mamy powody, aby sądzić, że wykazuje ona wyraźne podobieństwo do innych komet niemuskających Słońca. Oprócz obecności bardzo małych, gorących ziaren pyłu, o których właśnie wspomniano i które można znaleźć w wielu kometach, zauważamy również, że poza r = 0,4 AU, jego widmo wykazywało zwykłe pasma emisji cząsteczkowej spowodowane CN, C3, CH, C2 itd. Stąd niektóre z jego właściwości fizycznych i chemicznych można uznać za typowe dla komet w ogóle. Aby poznać te wspólne cechy znacznie bardziej szczegółowo, zwłaszcza w odniesieniu do obfitości ciężkich pierwiastków i składu chemicznego pyłu, oczekujemy pojawienia się kolejnego jasnego członka grupy muskającej słońce Kreutza. Będziemy wtedy jeszcze lepiej przygotowani, dzięki dzisiejszym wysoce wydajnym instrumentom, do badania muskającego słońce obiektu, w szczególności za pomocą wielodługościowych, dobrze skalibrowanych pomiarów, obserwując gościa w zakresie ultrafioletowym, optycznym, podczerwonym i radiowym, gdy znajduje się blisko Słońca i z daleka. W fazie bliskiej peryhelium niezwykle ważne będzie zaplanowanie dość ścisłych sekwencji czasowych i przygotowanie się na badanie rozkładu przestrzennego różnych emisji: wszystkie te obserwacje trzeba będzie przeprowadzić w przeciągu kilku godzin!
Promienie kosmiczne: propagacja w heliosferze
Promienie kosmiczne składają się głównie z jąder atomowych pozbawionych elektronów, z niewielką domieszką, rzędu 1%, elektronów i pozytonów. Ich energie wahają się od kilku MeV do ponad 1020 eV, ale tylko promienie kosmiczne o energiach poniżej kilku 10 GeV są znacząco dotknięte procesami heliosferycznymi. Ponieważ wszystkie promienie kosmiczne niosą ładunek elektryczny, propagacja promieni kosmicznych w heliosferze jest kontrolowana przez ich interakcję z międzyplanetarnym polem magnetycznym. Gdyby nie było pola magnetycznego, promienie kosmiczne przechodziłyby przez układ słoneczny bez przeszkód. Procesy, które wpływają na propagację promieni kosmicznych przez pole to (1) wirowanie wokół linii sił pola magnetycznego, (2) rozpraszanie z powodu nieregularności pola, (3) ruchy dryftowe narzucone przez gradienty na dużą skalę i krzywiznę pola oraz (4) adiabatyczne zwalnianie, które powstaje w wyniku ich sprzężenia przez pole z ekspansją promieniowo wypływającego WIATRU SŁONECZNEGO. Ruch wirowy pozwala cząstkom
na łatwą propagację wzdłuż linii pola, która odpowiada tak zwanemu środkowi przewodniemu ruchu cząstki, ale zapobiega znacznemu przepływowi prostopadłemu do pola. Rozpraszanie spowalnia ruch wzdłuż pól, ale może również powodować transport prostopadły do pola poprzez zmianę środka przewodniego cząstki z jednej linii pola na sąsiednią. Dryfty są określane przez globalną geometrię pola międzyplanetarnego i zapewniają zorganizowane, w przeciwieństwie do dyfuzyjnych, przepływy poprzeczne. Adiabatyczne spowolnienie zmienia energię cząstek w wietrze słonecznym i jest głównym źródłem strumienia cząstek obserwowanych przy energiach poniżej kilkuset MeV/nukleon w wewnętrznej heliosferze. Ponieważ cząstki o tych niskich energiach w ośrodku międzygwiazdowym są wykluczane z wewnętrznej heliosfery przez wiatr słoneczny i międzyplanetarne pole magnetyczne, niskoenergetyczne promienie kosmiczne obserwowane w pobliżu Ziemi weszły do heliosfery przy wyższych energiach i zostały spowolnione do obserwowanych energii. Promień
kosmiczny może stracić kilkaset MeV na adiabatyczne spowolnienie podczas propagacji z granicy heliosfery na orbitę Ziemi, przy szerokim rozkładzie strat energii zależnym od rzeczywistej ścieżki obranej przez poszczególne cząstki. Kompleksowy opis obecnego stanu teorii i obserwacji propagacji promieni kosmicznych w heliosferze można znaleźć w książce "Cosmic Rays in the Heliosphere". Ten krótki artykuł może jedynie podsumować najważniejsze punkty. Międzyplanetarne pole magnetyczne, które kontroluje propagację, ma swój początek w Słońcu i jest przenoszone na zewnątrz przez przewodzącą elektryczność plazmę wiatru słonecznego. Ponieważ źródłem heliosferycznego pola magnetycznego jest pole słoneczne, ogólna struktura magnetyczna heliosfery jest determinowana przez strukturę magnetyczną Słońca. Struktura ta nie jest statyczna, ale ulega drastycznym zmianom w trakcie 11-letniego cyklu aktywności słonecznej. Zmiany te silnie wpływają na propagację promieni kosmicznych. W minimum słonecznym ogólne pole słoneczne
jest głównie polem dipola z niewielkim nachyleniem, rzędu 10° lub podobnym, od osi obrotu Słońca. Jak omówiono w artykule na temat pola magnetycznego wiatru słonecznego, linie pola z otwartych polarnych dziur koronalnych rozszerzają się w pobliżu Słońca i są rozciągane przez wiatr słoneczny, aby wypełnić każdą półkulę heliosfery. Tak więc międzyplanetarne pola magnetyczne w północnej i południowej półkuli heliosfery mają przeciwną biegunowość magnetyczną. Przeciwne bieguny są rozdzielone cienką, prawie równikową warstwą prądu. W wyniku obrotu Słońca pod wpływem promieniowo rozszerzającego się wiatru słonecznego, poszczególne linie pola wyznaczają spirale Archimedesa w przestrzeni międzyplanetarnej. Wiatr słoneczny ma typowe prędkości ∿400 km/s-1 w pobliżu równika i 800 km/s-1 na dużych szerokościach geograficznych. Szybkość obrotu Słońca około 13,8° dzień-1 w pobliżu równika i prędkość wiatru słonecznego Vsw określają kąt Φ spirali do kierunku
promieniowego poprzez zależność
Φ=tan-1(r cosθΩ/Vsw
gdzie r jest promieniem, a θ szerokością geograficzną. W pobliżu ekliptyki kąt ten wynosi około 45° na orbicie Ziemi i wzrasta do ∿80° w pobliżu orbity Jowisza. Ponieważ heliosfera najprawdopodobniej ma promień rzędu 100 AU, pole jest zasadniczo styczne przez większość heliosfery. Gdyby promienie kosmiczne podążały za polem, ich długość ścieżki od szoku końcowego wiatru słonecznego w odległości około 100 AU do Ziemi w odległości 1 AU mogłaby wynosić nawet ∿5000 AU. W rzeczywistości promienie kosmiczne ulegają rozpraszaniu z powodu nieregularności pola podczas propagacji, a skutki rozpraszania i ciągłej konwekcji pola na zewnątrz przez wiatr słoneczny powodują znaczną redukcję intensywności promieni kosmicznych w wewnętrznej heliosferze w porównaniu z pobliską przestrzenią międzygwiazdową. Ta redukcja intensywności nazywana jest modulacją słoneczną i jest skuteczna przez cały czas, nawet w minimum słonecznym. W trakcie CYKLU SŁONECZNEGO, efektywne nachylenie pola dipola słonecznego wzrasta wraz ze wzrostem aktywności słonecznej, a duże lokalne pola związane z aktywnymi regionami zaczynają wnosić znaczący wkład do ogólnego pola, w efekcie zwiększając znaczenie multipoli wyższego rzędu w polu. W maksimum słonecznym składnik dipolowy nie jest już dominującym składnikiem, a pole przy Słońcu i, co za tym idzie, w przestrzeni międzyplanetarnej, staje się bardzo skomplikowane. Ponadto, zwiększona aktywność słoneczna powoduje zwiększone generowanie przejściowych zaburzeń, takich jak WYRZUT MASY KORONALNEJ SŁONECZNEJ, w wietrze słonecznym, które dodatkowo zniekształcają pole magnetyczne. W odpowiedzi na ten wzrost złożoności pola, intensywność promieniowania kosmicznego w całej heliosferze jest wyraźnie zmniejszona w stosunku do poziomów minimum słonecznego. W miarę jak aktywność maleje po maksimum słonecznym, pole zaczyna się upraszczać i, gdy minimum słoneczne zbliża się do nowego składnika dipola, ze znakiem przeciwnym do znaku poprzedniego minimum słonecznego, staje się dominujący. Tak więc pole słoneczne, a wraz z nim pole heliosferyczne, odwracają znak co 11 lat. W przypadku promieni kosmicznych wynikiem tej ewolucji jest obserwowana 11-letnia zmiana intensywności promieni kosmicznych, znana jako modulacja cyklu słonecznego. Jako przykład, rysunek 1 pokazuje efekty tej modulacji mierzonej na Ziemi i na PIONEER 10 do odległości przekraczających 60 AU od Słońca podczas dwóch cykli aktywności słonecznej. Rozprzestrzenianie się zmian modulacji na zewnątrz, reprezentujące konwekcję zmienionej struktury magnetycznej przez wiatr słoneczny, jest wyraźnie widoczne, szczególnie w przypadku krótkiego minimum słonecznego w 1987 r., kiedy modulacja na Ziemi zaczęła wzrastać, nawet gdy nadal spadała na Pioneer 10. Ponieważ średnia prędkość wiatru słonecznego w pobliżu ekliptyki wynosi około 400 km s-1, czyli 0,23 AU dzień-1, zmiany obserwowane w odległości 1 AU mogą nie być obserwowane przez wiele miesięcy później w zewnętrznej heliosferze. Wzrost wynika z radialnego gradientu intensywności promieniowania kosmicznego, odzwierciedlając fakt, że promienie kosmiczne w zewnętrznej heliosferze podlegają mniejszej modulacji niż te w wewnętrznej heliosferze. Wielkość gradientu wynosi kilka procent na AU, w zależności od energii cząstek i gatunku, i jest największa w wewnętrznej heliosferze. Największe zaobserwowane gradienty, aż do 15-20% AU-1 w wewnętrznej heliosferze, dotyczą niskoenergetycznych anomalnych składników, które są przyspieszane w szoku końcowym wiatru słonecznego. Badanie modulacji cyklu słonecznego dostarcza nam niektórych z naszych najlepszych informacji dotyczących propagacji promieni kosmicznych w heliosferze. Również widoczne jest stopniowo zwiększający się strumień mierzony w Pioneer 10 w porównaniu z tym w IMP-8. Ten wzrost wynika z radialnego gradientu intensywności promieniowania kosmicznego, odzwierciedlając fakt, że promienie kosmiczne w zewnętrznej heliosferze podlegają mniejszej modulacji niż te w wewnętrznej heliosferze. Wielkość gradientu wynosi kilka procent na AU, w zależności od energii cząstek i gatunku, i jest największa w wewnętrznej heliosferze. Największe zaobserwowane gradienty, aż do 15-20% AU-1 w wewnętrznej heliosferze, dotyczą składowych normalnych o niskiej energii, które są przyspieszane w szoku końcowym wiatru słonecznego. Badanie modulacji cyklu słonecznego dostarcza niektórych z naszych najlepszych informacji dotyczących propagacji promieni kosmicznych w heliosferze. Inne informacje, które mają kluczowe znaczenie dla określenia natury transportu naładowanych cząstek w heliosferze, pochodzą z badania zdarzeń z energetycznymi cząstkami słonecznymi, tak zwanych słonecznych promieni kosmicznych. Ten aspekt został dokładnie przeanalizowany przez Kunowa (1990). Podczas początku zdarzenia cząstek słonecznych, pierwsze przybywające cząstki zazwyczaj przybywają w bardzo anizotropowym przepływie wzdłuż kierunku pola magnetycznego. Profil czasowy przybywających cząstek dostarcza informacji dotyczących właściwości rozpraszania międzyplanetarnego pola magnetycznego. Rysunek 2 przedstawia profil czasowo-intensywny dla jednego z największych zdarzeń cząstek energetycznych słonecznych, jakie kiedykolwiek zarejestrowano, które zostało zaobserwowane przez naziemne detektory promieniowania atmosferycznego wywołanego przez promienie kosmiczne w lutym 1956 r.
Zdarzenie to ma cechy typowe dla wielu zdarzeń cząstek słonecznych. Szybki początek oznacza, że cząstki wstrzyknięte w wybuchu do Słońca przybywają z niewielkim rozproszeniem między Słońcem a Ziemią, co sugeruje średnią swobodną ścieżkę między rozproszeniami rzędu 1AU. Wolniejszy wykładniczy rozpad oznacza istnienie znacznego rozproszenia poza orbitą Ziemi, co działa w celu ograniczenia cząstek w heliosferze i opóźnienia ich ucieczki do ośrodka międzygwiazdowego. Obserwacje odtworzone tutaj w rzeczywistości dostarczyły pierwszego dowodu na istnienie heliosfery. Przy wysokich energiach, takich jak pokazano na rysunku, skala czasowa typowego zdarzenia wynosi godziny. Przy niższych energiach rzędu kilku MeV, które można obserwować tylko z kosmosu, skala czasowa zdarzenia od początku do powrotu do normalnych, spokojnych natężeń czasu może wynosić wiele dni, a nawet tygodni w przypadku dużych zdarzeń. Rozpraszanie promieni kosmicznych przez międzyplanetarne pole magnetyczne jest wynikiem oddziaływania między naładowanymi cząstkami spiralnie poruszającymi się wzdłuż linii pola i nieregularnościami w polu. Jeśli nieregularności są reprezentowane przez widmo fal przez transformatę Fouriera, najsilniejsze rozpraszanie jest wytwarzane przez fale, których długość fali jest rezonansowa ze spiralnym ruchem cząstek, gdy poruszają się wzdłuż pola. Tak więc efekt rozpraszania zależy od energii i kąta pochylenia (kąta wektora prędkości względem pola magnetycznego) cząstek oraz od średniej siły pola. Efektem rozpraszania jest modyfikacja kąta pochylenia i/lub przesunięcie środka prowadzącego ruchu obrotowego cząstki prostopadle do pola, średnio o około jeden promień żyroskopu. Istnieje obszerna literatura dotycząca prób wyprowadzenia właściwości rozpraszania cząstek pola z obserwacji widma nieregularności w polu. Niestety, wysiłki te nadal nie zakończyły się pełnym sukcesem. Podczas modelowania efektów rozpraszania na modulację promieni kosmicznych i propagację energetycznych cząstek słonecznych, zwykle opisuje się rozpraszanie poprzez wprowadzenie współczynnika dyfuzji, ?, który można rozbić na składowe κ|| równoległe do pola i κ⊥ prostopadłe do pola. W szczególności modele obliczeniowe do modulacji promieni kosmicznych zazwyczaj wykorzystują współczynnik dyfuzji radialnej.

jako parametr, gdzie Φ jest kątem spiralnym pola międzyplanetarnego względem promienia wektora od Słońca. Przez większą część heliosfery cos2Φ jest w przybliżeniu równe zeru, tak że wartości współczynnika dyfuzji odzwierciedlają przede wszystkim dyfuzję w średnim polu. Typowe formy współczynnika dyfuzji to κ = AβPα(B0/B), gdzie β jest prędkością cząstki jako ułamkiem prędkości światła, P jest sztywnością magnetyczną cząstki lub pędem na jednostkę ładunku, A jest stałą, a B jest natężeniem pola magnetycznego odniesionym do pola odniesienia B0. Wartość wykładnika α mieści się w zakresie 0-1, a wartości κτ znalezione w celu dopasowania obserwacji wynoszą zazwyczaj kilka razy 1022 cm2 s-1 na orbicie Ziemi dla protonów o energiach około 1 GeV. Wartości rosną wraz z promieniem w wyniku spadku B, który, gdy pole staje się prawie styczne, maleje jako 1/r. Wywnioskowane wartości κrr stanowią szczególne wyzwanie dla teorii propagacji, ponieważ trudno było osiągnąć wystarczająco szybki transport przez kierunek średniego pola, aby dopasować się do obserwacji. W przypadku propagacji przez pole spowodowanej jedynie rozpraszaniem, przybliżona górna granica współczynnika dyfuzji prostopadłej wynika z założenia translacji o jeden promień gyro w okresie jednego gyracji wokół pola. Dla cząstek ∿1 GeV w pobliżu orbity Ziemi granica ta wynosi około 1020 cm2 s-1, czyli mniej niż 1% rozmiaru współczynnika dyfuzji wywnioskowanego z obserwacji. Bezpośrednie obserwacje wyraźnie wymagają również znacznie bardziej wydajnego transportu. Jako przykład obserwacji, które wymagają szybkiego transportu szerokości geograficznej, rysunek
pokazuje trwałość na szerokościach heliosferycznych ∿70°-80° zmian intensywności promieniowania kosmicznego z 26-dniowym okresem obrotu Słońca, które zostały wywołane przez interakcje strumieni wiatru słonecznego w pobliżu równika. Jak pokazano na rysunku, szybki wiatr słoneczny wyprzedzający wolny wiatr wytwarza obszar skompresowanego pola, co daje obniżony współczynnik dyfuzji, który lokalnie zwiększa siłę modulacji promieni kosmicznych. Ponadto, wstrząsy, które przyspieszają cząstki do energii kilku MeV, mogą tworzyć się na krawędziach wiodących i spływowych obszaru interakcji. Ponieważ strumienie są zakorzenione w Słońcu, cała struktura obraca się wraz ze Słońcem, co dało początek nazwie współobrotowych obszarów interakcji (CIR). W pobliżu minimum słonecznego CIR-y ograniczają się głównie do heliosferycznej strefy równikowej, gdzie szybki wiatr na wysokich szerokościach geograficznych i powolny wiatr równikowy mogą oddziaływać na siebie. Obserwacja zmian intensywności promieniowania kosmicznego spowodowanych przez CIR-y na wysokich szerokościach geograficznych wymaga, aby transport przez pole miał miejsce w czasie krótkim w porównaniu z 26-dniowym okresem obrotu Słońca. W przeciwnym razie zmiany zostałyby wymazane. Wymaga to współczynników dyfuzji przez pole rzędu 10-20% wielkości współczynników dyfuzji równoległych do pola lub więcej niż czynnik 10 większy niż ten, który można wyjaśnić teorią rozpraszania. Przy niższych energiach kilku MeV, powtarzające się wzrosty przypisywane cząstkom przyspieszanym w szokach CIR były również obserwowane na wysokich szerokościach geograficznych, co jeszcze bardziej utrudnia teorię transportu. Transport przez średnie pole może być znacznie wzmocniony przez systematyczne ruchy linii pola względem kierunku średniego pola. Zidentyfikowano dwa mechanizmy, które mogą znacząco przyczyniać się do propagacji energetycznych cząstek przez pole. Pierwszy, rozpoznany po raz pierwszy przez Jokipii i Parkera (1969), polega na tym, że pole magnetyczne Słońca jest ciągnięte po powierzchni Słońca przez wielkoskalowe ruchy konwekcyjne, które tworzą sieć supergranulacji. Ponieważ pole międzyplanetarne jest zakorzenione w polu słonecznym, ruchy poprzeczne narzucone przez tę konwekcyjną turbulencję są przenoszone do ośrodka międzyplanetarnego. W rezultacie linie pola międzyplanetarnego same w sobie podlegają losowemu spacerowi zarówno pod względem długości, jak i szerokości geograficznej. To splatanie się linii pola międzyplanetarnego zapewnia następnie skuteczny sposób zwiększania efektu rozpraszania w transporcie cząstek przez pole średnie, ponieważ pojedyncze rozproszenie może przenieść środek prowadzący cząstki na linię pola, która szybko odbiega od linii pola pierwotnego. Bardziej uporządkowany ruch linii pola został zasugerowany przez Fiska (1996), który rozważał implikacje dla linii pola obserwacji, że (a) oś magnetyczna Słońca jest nachylona do osi obrotu i, w koronie, wydaje się obracać sztywno z równikową prędkością obrotu Słońca i (b) fotosfera, w której zakorzenione są poszczególne linie pola, wykazuje różnicową rotację, obracając się znacznie wolniej na szerokościach biegunowych niż na równiku. Rezultatem jest znaczące mieszanie się linii pola na szerokości geograficznej, zapewniające bezpośrednie połączenia magnetyczne między równikowymi i biegunowymi regionami heliosfery w promieniowym zakresie rzędu 15 AU. Mieszanie wzdłużne byłoby również oczekiwane, ale model został zaproponowany i został najdokładniej zbadany jako sposób wyjaśnienia szybkiego transportu cząstek na szerokości geograficznej, który wydaje się być wymagany przez obserwacje Ulyssesa. Mimo wielu lat pracy, nadal nie udało się uzyskać przekonującego zrozumienia transportu dyfuzyjnego między polami. W szczególności bardzo trudno jest przeprowadzić testy eksperymentalne w celu wyizolowania efektów losowego spaceru linii pola lub mieszania napędzanego przez rotację różnicową. Pewne jest tylko to, że cząstki, choć kierowane przez linie pola, wykazują zaskakującą zdolność do dyfuzji również w kierunku prostopadłym do średniego pola. Bardziej systematyczny ruch w polu jest wytwarzany przez gradient i dryft krzywizny w heliosferycznym polu magnetycznym. Spiralna natura średniego pola międzyplanetarnego zapewnia krzywiznę w skali globalnej, a postępujące osłabienie pola, gdy wiatr słoneczny przenosi je na zewnątrz przez heliosferę, zapewnia globalny gradient w polu. Zatem, dzięki podstawowej fizyce ruchu cząstek naładowanych w polu niejednorodnym, generowany jest globalnie zorganizowany dryf promieni kosmicznych przez heliosferę. Sens dryfu jest taki, że gdy biegun północny Słońca jest dodatnim biegunem magnetycznym, dodatnio naładowane promienie kosmiczne (nukleony) dryfują z obszarów polarnych heliosfery w kierunku równika, a następnie szybko na zewnątrz wzdłuż równikowej warstwy prądowej. Elektrony z drugiej strony dryfują do wewnątrz wzdłuż warstwy prądowej i w kierunku biegunów powyżej i poniżej warstwy prądowej. 11 lat później, gdy bieguny magnetyczne Słońca mają odwrotną biegunowość, wzory dryfu również ulegają odwróceniu. Prędkości dryfu mogą być znaczne. W przypadku cząstek o sztywności magnetycznej P, ładunku q i prędkości β, prędkość dryfu jest podana przez
gdzie B jest wektorowym polem międzyplanetarnym. Dla protonów o masie 0,1 GeV w pobliżu orbity Ziemi w idealnym polu spiralnym Parkera prędkość ta wynosi około 300 km s-1, co jest porównywalne z prędkością wiatru słonecznego. Przy wyższych energiach idealna prędkość dryfu może znacznie przekraczać prędkość wiatru słonecznego w większości heliosfery. Jednak prędkości te są skierowane, a nie dyfuzyjne. Tak więc, ponieważ w okresie pokazanym na rysunku 3 prędkości dryfu protonów były skierowane od biegunów w stronę równika, trudno byłoby powoływać się na dryfy, aby wyjaśnić obserwację zmian intensywności na dużych szerokościach geograficznych wywieranych przez CIR na małych szerokościach geograficznych. Wpływ dryfów jest znacznie zmniejszony w rzeczywistym polu heliosfery przez nieregularności w polu narzucone zarówno przez Słońce, jak i przez ewolucję struktur w wietrze słonecznym. CIR-y, wyrzuty masy koronalnej, przepływy ścinające w wietrze słonecznym, fale i turbulencje w przepływie wiatru słonecznego i wiele innych nierównomierności zniekształcają pola i przerywają przepływ dryfu. Na niskich szerokościach geograficznych zmienne nachylenie równika heliomagnetycznego przekłada się na falistość heliosferycznej równikowej warstwy prądu, gdy Słońce obraca się, a pole jest przenoszone na zewnątrz. Ta falistość, która zmienia się w trakcie cyklu słonecznego, zwiększa długość ścieżki dryfu wzdłuż warstwy, a także prawdopodobieństwo utraty cząstek z obszaru warstwy prądu. Na wysokich szerokościach geograficznych, gdzie z równania (1) można by oczekiwać prawie radialnych pól, gdy cos θ zbliża się do 0, wpływ małych poprzecznych fluktuacji narzuconych przez ruchy konwekcyjne na Słońcu niszczy spójność pola niezbędną do pełnego efektu dryfu. Jak zauważyli Jokipii i Kota (1989), fluktuacje wytwarzają poprzeczne składowe w polu, które zmieniają się wraz z promieniem o 1/r, podczas gdy składowe radialne zmieniają się o 1/r2. Tak więc poza kilkoma AU od Słońca dominują poprzeczne składowe, a pole jest zasadniczo styczne. W rezultacie promieniom kosmicznym równie trudno jest przeniknąć do obszarów polarnych heliosfery, jak i do obszarów równikowych. Potwierdziły to obserwacje z misji Ulysses, które pokazują zarówno poprzeczne fluktuacje w polu, jak i zmianę intensywności promieni kosmicznych o mniej niż czynnik 2 od równika do bieguna w pobliżu minimum słonecznego. Niemniej jednak wpływ dryftów, choć ograniczony, został wykazany przez obserwację zmian w modulacji zależnych od znaku ładunku cząstki, na które wszystkie główne procesy modulacji, z wyjątkiem dryftów, są niewrażliwe, oraz przez potwierdzenie wielu przewidywań modeli dryftu, które są trudne do zrozumienia w przypadku braku dryftów, takich jak naprzemienne szerokie i wąskie kształty profili intensywności promieniowania kosmicznego przy kolejnych minimach słonecznych, odzwierciedlające zmianę ścieżek dryftu przez heliosferę narzuconą przez odwrócenie pola dipola słonecznego. Obecny stan zrozumienia propagacji cząstek naładowanych w heliosferze jest mieszany. Ważne procesy zostały scharakteryzowane w kategoriach ogólnych, a modele zostały opracowane, które przy użyciu szeregu regulowanych lub zdefiniowanych obserwacyjnie parametrów, dają rozsądne i spójne opisy obserwowanych zjawisk. Jednak szczegółowe fizyczne zrozumienie cech propagacji pozostaje w toku.
Standardowy Model Kosmologii
KOSMOLOGIA we współczesnym rozumieniu ilościowego badania wielkoskalowych właściwości wszechświata jest zaskakująco nowym zjawiskiem. Pierwsza galaktyka PRĘDKOŚĆ RADIALNA (przesunięcie ku fioletowi, jak się okazało) została zmierzona dopiero w 1912 roku przez Sliphera. Dopiero w 1924 roku Hubble był w stanie udowodnić, że "mgławice" były rzeczywiście dużymi układami gwiazd w ogromnych odległościach, w którym to czasie stało się jasne, że prawie wszystkie galaktyki miały linie widmowe przesunięte do dłuższych długości fal. Późniejsze obserwacje coraz bardziej potwierdzały liniową zależność Hubble′a (1929) między odległością d a prędkością recesji wywnioskowaną, jeśli przesunięcie ku czerwieni zinterpretowano jako przesunięcie Dopplera:
v= Hd
Teoretyczne podstawy opisu wszechświata za pomocą OGÓLNEJ TEORII WZGLĘDNOŚCI były już gotowe w połowie lat dwudziestych XX wieku, więc nie minęło dużo czasu, zanim podstawowy fakt obserwacyjny rozszerzającego się wszechświata mógł zostać poddany stosunkowo standardowej interpretacji. Główne niepewności obserwacyjne i teoretyczne w tej interpretacji dotyczą zawartości materii i energii we wszechświecie. Różne możliwości tej zawartości generują bardzo różne MODELE KOSMOLOGICZNE. Celem tego artykułu jest nakreślenie kluczowych pojęć i praktycznych wzorów ważnych dla zrozumienia tych modeli oraz pokazanie, jak stosować je do obserwacji astronomicznych.
Izotropowa czasoprzestrzeń
Nowoczesna kosmologia obserwacyjna wykazała, że rzeczywisty wszechświat jest wysoce symetryczny w swoich właściwościach na dużą skalę, ale w każdym razie sensowne byłoby rozpoczęcie od rozważenia najprostszego możliwego rozkładu masy: takiego, którego właściwości są jednorodne (równomierna gęstość) i izotropowe (takie same we wszystkich kierunkach). Następnym krokiem jest rozwiązanie równań pola grawitacyjnego w celu znalezienia odpowiadającej metryki. Wiele cech metryki można wywnioskować z samej symetrii - i rzeczywiście będą miały zastosowanie nawet jeśli równania Einsteina zostaną zastąpione czymś bardziej skomplikowanym. Te ogólne argumenty zostały przedstawione niezależnie przez H.P. Robertsona i A.G. Walkera w 1936 roku. Rozważmy zbiór "fundamentalnych obserwatorów" w różnych lokalizacjach, z których wszyscy są w spoczynku względem materii w ich pobliżu. Możemy sobie wyobrazić, że każda z nich znajduje się w innej galaktyce, a zatem oddala się od siebie wraz z ogólną ekspansją (chociaż rzeczywiste galaktyki mają dodatkowo losowe prędkości rzędu 100 km s-1, a zatem nie są ściśle fundamentalnymi obserwatorami). Globalna współrzędna czasu t jest dostarczana przez czas mierzony zegarami tych obserwatorów - tj. t jest właściwym czasem mierzonym przez obserwatora w spoczynku względem lokalnego rozkładu materii. Współrzędna jest przydatna globalnie, a nie lokalnie, ponieważ zegary można zsynchronizować poprzez wymianę sygnałów świetlnych między obserwatorami, którzy zgadzają się ustawić swoje zegary na czas standardowy, gdy na przykład uniwersalna jednorodna gęstość osiągnie pewną daną wartość. Korzystając z tej współrzędnej czasu plus izotropii, mamy już wystarczająco dużo informacji, aby wywnioskować, że metryka musi przyjąć następującą formę:

Tutaj zastosowaliśmy zasadę równoważności, aby stwierdzić, że właściwy przedział czasu dτ między dwoma odległymi zdarzeniami wyglądałby lokalnie jak szczególna teoria względności dla fundamentalnego obserwatora na miejscu: dla nich c2 dτ2 = c2 dt2 - dx2 - dy2 - dz2. Ponieważ używamy tej samej współrzędnej czasu co oni, nasza jedyna trudność dotyczy przestrzennej części metryki: powiązania ich dx itd. ze współrzędnymi przestrzennymi, których środkiem jest my. Odległości zostały rozłożone na iloczyn zależnego od czasu współczynnika skali R(t) i niezależnej od czasu współporuszającej się współrzędnej r. Oczywiste jest, że ta metryka dobrze uwzględnia ideę równomiernie rozszerzającego się modelu bez środka. W przypadku małych separacji, gdzie przestrzeń jest euklidesowa, mamy proste skalowanie separacji wektorowych: x(t) :R(t) x(t0). To samo prawo obowiązuje niezależnie od wybranego przez nas początku: x1(t) - x2(t) :R(t) [x1(t0) - x2(t0)], więc każdy obserwator wywnioskuje v = H r Ze względu na symetrię sferyczną część przestrzenną metryki można rozłożyć na część radialną i poprzeczną (w biegunach sferycznych kąt na niebie między dwoma zdarzeniami wynosi dΨ2 = dθ2 + sin2θ dΦ2). Funkcje f i g są dowolne; możemy jednak wybrać naszą współrzędną radialną tak, aby f = 1 lub g = r2, aby wszystko wyglądało jak najbardziej jak przestrzeń euklidesowa. Ponadto pozostała funkcja jest określana przez argumenty symetrii. Rozważmy najpierw prosty przypadek metryki na powierzchni kuli. Nadmuchanie balonu jest powszechną popularną analogią dla rozszerzającego się wszechświata i posłuży jako dwuwymiarowy przykład przestrzeni o stałej krzywiźnie. Jeżeli kąt biegunowy w biegunach sferycznych nazwiemy r zamiast bardziej powszechnego ?, to element długości d? na powierzchni kuli o promieniu R jest
dσ2 = R2(dr2 + sin2rdΦ2
Można to przekształcić na metrykę dla przestrzeni 2-wymiarowej o stałej ujemnej krzywiźnie, stosując metodę rozważenia urojonego promienia krzywizny, R→iR. Jeżeli jednocześnie pozwolimy r→ir, otrzymamy
dσ2 = R2(dr2 + sinh2rdΦ2
Te dwie formy można połączyć, definiując nową współrzędną radialną, która sprawi, że poprzeczna część metryki będzie wyglądać jak euklidesowa:
gdzie k = +1 dla dodatniej krzywizny i k = -1 dla ujemnej krzywizny. Jest to w rzeczywistości ogólna postać przestrzennej części metryki Robertsona-Walkera. Aby udowodnić to w 3D, rozważmy 3-sferę osadzoną w czterowymiarowej przestrzeni euklidesowej, która jest zdefiniowana za pomocą relacji współrzędnych x2 + y2 + z2 + w2 = R2. Teraz zdefiniuj odpowiednik sferycznych biegunów i zapisz w = R cos α, z = R sin α cos β, γ = R sin α sin β cos γ, x = R sin α sin β sin γ, gdzie α, β i γ to trzy dowolne kąty. Różniczkowanie względem kątów daje czterowymiarowy wektor (dx, dy, dz, dw) i jest to proste ćwiczenie, aby pokazać, że kwadratowa długość tego wektora
która jest metryką Robertsona-Walkera dla przypadku dodatniej krzywizny przestrzennej. Ta metryka k = +1 opisuje zamknięty wszechświat, w którym podróżnik, który wyrusza wzdłuż trajektorii ustalonych β i γ, ostatecznie powróci do punktu początkowego (gdy α = 2π). Pod tym względem dodatnio zakrzywiony wszechświat 3D jest identyczny z przypadkiem powierzchni kuli: jest skończony, ale nieograniczony. Natomiast metryka k = -1 opisuje otwarty wszechświat o nieskończonym zasięgu; jak poprzednio, zmiana na ujemną krzywiznę przestrzenną zastępuje sin α sinh α, a α można uczynić tak dużym, jak chcemy, bez powrotu do punktu początkowego. Model k = 0 opisuje płaski wszechświat, który jest również nieskończony w zasięgu. Można to postrzegać jako granicę każdego z przypadków k = ±1, w których skala krzywizny R dąży do nieskończoności. Metrykę Robertsona-Walkera można zapisać na wiele różnych sposobów. Najbardziej zwarte formy to te, w których współporuszające się współrzędne są bezwymiarowe. Pod względem funkcji
metrykę można zapisać jako
Najbardziej powszechną alternatywą jest użycie innej definicji współporuszającej się odległości, Sk(r)→r, tak aby metryka przybrała postać
Oczywiście powinny istnieć dwa różne symbole dla różnych współporuszających się promieni, ale każdy z nich jest często nazywany r w literaturze. Wreszcie, powszechną alternatywną formą współczynnika skali jest taka, w której jego wartość bieżąca jest ustawiona na t)\equiv
a(t) ≡ R(t) / R0
Przesunięcie ku czerwieni
Jak ta dyskusja odnosi się do PRAWA HUBBLE′A: v = Hr? Współrzędne współporuszające się są niezależne od czasu, więc właściwe rozdzielenie dwóch fundamentalnych obserwatorów to po prostu R(t) dr, a różniczkowanie daje prawo Hubble′a, v = H(R dr), z
Przy małych odstępach prędkość recesji powoduje przesunięcie Dopplera
Definiuje to REDSHIFT z w kategoriach przesunięcia linii widmowych. Jaki jest odpowiednik tej relacji na większych odległościach? Ponieważ fotony poruszają się po zerowych geodezyjnych o zerowym czasie właściwym, widzimy bezpośrednio z metryki, że
Współporuszająca się odległość jest stała, podczas gdy dziedzina całkowania w czasie rozciąga się od temit do tobs; są to czasy emisji i odbioru fotonu. Fotony emitowane w późniejszych momentach będą odbierane w późniejszych momentach, ale te zmiany wtemit i tobs nie mogą zmienić całki, ponieważ r jest wielkością współporuszającą się. Wymaga to warunku dtemit / dtobs = R(temit) / R(tobs), co oznacza, że zdarzenia w odległych galaktykach rozszerzają się w czasie w zależności od tego, jak bardzo wszechświat rozszerzył się od czasu wyemitowania fotonów, które teraz widzimy. Oczywiste jest (pomyśl o zdarzeniach oddzielonych jednym okresem), że to rozszerzenie dotyczy również częstotliwości, dlatego otrzymujemy
W odniesieniu do znormalizowanego współczynnika skali a(t) a(t) = (1 + z)-1. Długości fal fotonów rozciągają się zatem wraz z wszechświatem, co jest intuicyjnie rozsądne.
Znaczenie przesunięcia ku czerwieni
W przypadku małych przesunięć ku czerwieni interpretacja przesunięcia ku czerwieni jako przesunięcia Dopplera (z = v/c) jest całkiem jasna. Nie jest jednak tak jasne, co zrobić, gdy przesunięcie ku czerwieni stanie się duże. Częstym, ale niepoprawnym podejściem jest użycie specjalnego wzoru Dopplera relatywistycznego i zapisanie
To jest błędne w ogólności, ale zbyt często się zdarza, że najnowszy KWAZAR o dużym przesunięciu ku czerwieni odczytuje się jako "oddalający się z prędkością 95% prędkości światła". Powodem, dla którego przesunięcia ku czerwieni nie można interpretować w ten sposób, jest to, że gęstość masy różna od zera musi powodować przesunięcia ku czerwieni grawitacyjne. Chociaż przesunięcia ku czerwieni nie można uważać za globalne przesunięcie Dopplera, to jednak lepiej jest postrzegać ten efekt jako akumulację nieskończenie małych przesunięć Dopplera spowodowanych przez fotony przechodzące między fundamentalnymi obserwatorami oddalonymi od siebie o niewielką odległość:
(gdzie δ… jest radialnym przyrostem właściwej odległości). To wyrażenie można zweryfikować, zastępując standardowe wyrażenia dla H(z) i d…/dz. Fajne w tym sposobie patrzenia na wynik jest to, że podkreśla on, że to pęd jest przesunięty ku czerwieni; długości fal cząstek de Broglie′a skalują się zatem wraz z ekspansją, co jest wynikiem niezależnym od tego, czy ich masa spoczynkowa jest różna od zera. Niezdolność dostrzeżenia, że ekspansja jest lokalnie tylko kinematyczna, leży również u podstaw być może najgorszego nieporozumienia dotyczącego TEORII WIELKIEGO WYBUCHU. Wiele półpopularnych opisów kosmologii zawiera stwierdzenia, że "sama przestrzeń puchnie", powodując rozdzielanie się galaktyk. W rzeczywistości obiekty rozdzielają się teraz tylko dlatego, że zrobiły to w przeszłości; para bezmasowych obiektów ustawiona w stanie spoczynku względem siebie w jednolitym modelu nie będzie wykazywać tendencji do rozdzielania się (w rzeczywistości siła grawitacyjna masy leżącej między nimi spowoduje względne przyspieszenie do wewnątrz). W powszechnym, podstawowym przedstawieniu rozszerzania się za pomocą nadmuchania balonu, galaktyki powinny być reprezentowane przez naklejone monety, a nie rysunki tuszem (które będą fałszywie rozszerzać się wraz z wszechświatem).
Dynamika ekspansji
Równanie ruchu dla współczynnika skali można uzyskać w sposób quasi-newtonowski. Rozważmy sferę wokół dowolnego punktu i niech promień będzie R(trr), gdzie r jest dowolny. Ruch punktu na krawędzi sfery będzie, w grawitacji newtonowskiej, pod wpływem tylko masy wewnętrznej. Możemy zatem najwyraźniej natychmiast zapisać równanie różniczkowe (równanie Friedmanna), które wyraża zasadę zachowania energii: (Rr)2/2-GM/Rr = constant. W rzeczywistości równanie to naprawdę wymaga ogólnej teorii względności: grawitacja z powłok masowych na dużych odległościach nie jest newtonowska, ponieważ przestrzeń jest zakrzywiona, więc nie możemy zastosować zwykłego argumentu o ich zerowym wpływie. Niemniej jednak wynik, że pole grawitacyjne wewnątrz jednolitej powłoki jest równe zero, obowiązuje w ogólnej teorii względności i jest znany jako twierdzenie Birkhoffa. Ogólna teoria względności staje się jeszcze ważniejsza, podając stałą całkowania w równaniu Friedmanna:
Należy zauważyć, że równanie to obejmuje wszystkie wkłady do ρ, tj. te pochodzące z materii, promieniowania i próżni; jest ono niezależne od równania stanu. Czasami wygodnie jest pracować z pochodną czasową równania Friedmanna, z tego samego powodu, dla którego argumenty dotyczące przyspieszenia w dynamice są czasami bardziej przejrzyste niż argumenty dotyczące energii. Różniczkowanie względem czasu wymaga znajomości ρ ., ale można to wyeliminować za pomocą zasady zachowania energii:
d(ρc2R3) = -ρ d(R3). Następnie otrzymujemy
Zarówno to równanie, jak i równanie Friedmanna w rzeczywistości powstają jako niezależne równania z różnych składników równań Einsteina dla metryki Robertsona-Walkera. Równanie Friedmanna zostało tak nazwane, ponieważ FRIEDMANN jako pierwszy w 1922 r. zauważył, że równania Einsteina dopuszczają rozwiązania kosmologiczne zawierające wyłącznie materię (chociaż to Lemaître w 1927 r. zarówno uzyskał rozwiązanie, jak i docenił, że prowadzi ono do liniowej relacji odległość-przesunięcie ku czerwieni). Termin model Friedmanna jest zatem często używany do wskazania kosmologii zawierającej wyłącznie materię, mimo że jego równanie obejmuje wkłady ze wszystkich równań stanu. Częstym skrótem dla relatywistycznych modeli kosmologicznych, które są opisywane przez metrykę Robertsona-Walkera i które podlegają równaniu Friedmanna, jest mówienie o modelach FRW.
Parametry gęstości itp.
Zgodnie z równaniem Friedmanna, "płaski" wszechświat z k = 0 powstaje dla określonej gęstości krytycznej. W związku z tym jesteśmy skłonni zdefiniować parametr gęstości jako stosunek gęstości do gęstości krytycznej:
Ponieważ ρ i H zmieniają się w czasie, definiuje to zależny od epoki parametr gęstości. Bieżąca wartość parametru powinna być ściśle oznaczona przez Ω0. Ponieważ jest to tak powszechny symbol, normalne jest zachowanie przejrzystości formuł poprzez normalne pominięcie indeksu dolnego; parametr gęstości w innych epokach będzie oznaczany przez Ωz. Jeśli teraz zdefiniujemy również bezwymiarowy (bieżący) parametr Hubble′a jako
h ≡ H0 / 100 km s-1Mpc-1
wówczas gęstość prądu we wszechświecie można wyrazić jako
Potężny przybliżony model zawartości energii we wszechświecie polega na podzieleniu jej na materię bez ciśnienia (ρ :R-3), promieniowanie (ρ :R-4) i energię próżni (ρ niezależną od czasu - tj. istnieje niezerowa stała kosmologiczna). Pierwsze dwie relacje mówią po prostu, że gęstość liczbowa cząstek jest rozcieńczana przez ekspansję, a fotony również mają swoją energię zmniejszoną przez przesunięcie ku czerwieni; trzecia relacja dotyczy stałej kosmologicznej Einsteina. W kategoriach obserwowalnych oznacza to, że gęstość jest zapisywana jako (gdzie znormalizowany współczynnik skali wynosi a = R/R0).
Pod względem parametru opóźnienia
forma równania Friedmanna mówi, że
q = Ωm / 2 + Ωr = Ωv
Na koniec często konieczna jest znajomość wartości obecnej współczynnika skali, którą można odczytać bezpośrednio z równania Friedmanna:
Stała Hubble′a ustala zatem długość krzywizny, która staje się nieskończenie duża, gdy Ω zbliża się do jedności z obu kierunków. Tylko w granicy zerowej gęstości długość ta staje się równa innej powszechnej mierze rozmiaru wszechświata - długości Hubble′a, c/H0.
Rozwiązania równania Friedmanna
Równanie Friedmanna można rozwiązać najprościej w formie "parametrycznej", przekształcając je w zależności od czasu konforemnego d? = c dt/R (oznaczając pochodne względem η liczbami pierwszymi):
Ponieważ H02R02 = kc2/(Ω01), równanie Friedmanna przyjmuje postać
co jest proste do zintegrowania pod warunkiem, że Ωv = 0. Rozwiązanie równania Friedmanna dla R(t) w ten sposób jest ważne dla określenia globalnych wielkości, takich jak obecny wiek wszechświata, a jawne rozwiązania dla konkretnych przypadków są rozważane poniżej. Jednak z punktu widzenia obserwacji, a w szczególności relacji odległość-przesunięcie ku czerwieni, nie jest konieczne postępowanie bezpośrednią drogą określania R(t). Dla obserwatora ewolucja współczynnika skali jest najbardziej bezpośrednio charakteryzowana przez zmianę wraz z przesunięciem ku czerwieni parametru Hubble′a i parametru gęstości; ewolucja H(z) i Ω(z) jest dana bezpośrednio przez równanie Friedmanna w postaci H2 = 8πGρ/3-kc2/R2. Wstawienie zależności modelu ρ od a daje
To jest kluczowe równanie, które można wykorzystać do uzyskania relacji między przesunięciem ku czerwieni a odległością współporuszającą się. Radialne równanie ruchu fotonu to R dr = c dt = c dR/R.= c dR/RH. Przy R = R0/(1+z) daje to
Ta relacja jest prawdopodobnie najważniejszym równaniem w kosmologii, ponieważ pokazuje, jak powiązać odległość współporuszającą się z obserwowalnymi parametrami przesunięcia ku czerwieni, stałej Hubble′a i gęstości. Odległość współporuszająca się określa pozorną jasność odległych obiektów, a element objętości współporuszającej się określa liczbę obserwowanych obiektów. Te aspekty kosmologii obserwacyjnej omówiono bardziej szczegółowo poniżej. Na koniec, użycie wyrażenia dla H(z) z Ω(a)-1 =kc2/H2R2 daje zależność przesunięcia ku czerwieni parametru całkowitej gęstości:
To ostatnie równanie jest bardzo ważne. Mówi nam, że przy dużym przesunięciu ku czerwieni wszystkie wszechświaty modelowe, poza tymi z energią próżni, będą miały tendencję do wyglądania jak model Ω = 1. Nie jest to zaskakujące, biorąc pod uwagę formę równania Friedmanna: pod warunkiem, że ρR2 →∞, gdy R→0, człon krzywizny -kc2 stanie się nieistotny we wczesnych czasach. Jeśli Ω≠1, to w odległej przeszłości Ω(z) musiało różnić się od jedności o niewielką wartość: gęstość i tempo ekspansji musiały być dokładnie zrównoważone, aby wszechświat mógł się rozszerzać do chwili obecnej. To dostrojenie warunków początkowych nazywa się problemem płaskości i jest jedną z motywacji do zastosowań teorii kwantowej we wczesnym wszechświecie.
Wszechświat zdominowany przez materię
Z obserwowanej temperatury mikrofalowego promieniowania tła (2,73 K) i założenia trzech gatunków neutrin w nieco niższej temperaturze, wnioskujemy, że całkowity parametr gęstości relatywistycznej wynosi Ωrh2 ≈ 4,2-10-5, więc obecnie dobrym przybliżeniem powinno być zignorowanie promieniowania. Jednak różne zależności gęstości materii i promieniowania od przesunięcia ku czerwieni oznaczają, że założenie to zawodzi we wczesnych czasach: ρmr : (1 + z)-1. Jedną z krytycznych epok w kosmologii jest zatem punkt, w którym te wkłady były równe: równość przesunięcia ku czerwieni materii i promieniowania
Przy przesunięciach ku czerwieni wyższych niż to, dynamika uniwersalna była zdominowana przez zawartość cząstek relatywistycznych. Ciekawym zbiegiem okoliczności, epoka ta jest bliska innemu ważnemu wydarzeniu w historii kosmologicznej: rekombinacji. Gdy temperatura spadnie poniżej ≈ 104 K, zjonizowany materiał może utworzyć neutralny wodór. Astronomia obserwacyjna jest możliwa dopiero od tego momentu, ponieważ rozpraszanie Thomsona elektronów w zjonizowanym materiale zapobiega rozprzestrzenianiu się fotonów. W praktyce ogranicza to maksymalne przesunięcie ku czerwieni będące przedmiotem zainteresowania obserwacyjnego do około 1100; chyba że Ω jest bardzo niskie lub energia próżni jest ważna, model zdominowany przez materię jest zatem dobrym przybliżeniem rzeczywistości. Poprzez zachowanie materii możemy wprowadzić charakterystyczną masę M*, a z niej charakterystyczny promień R*:
gdzie w pierwszym kroku użyliśmy wyrażenia dla R0. Gdy obecna jest tylko materia, wersja równania Friedmanna w czasie konforemnym jest prosta do zintegrowania dla R(η), a integracja dt = dη/R daje t(η):
Ewolucję R(t) w tym rozwiązaniu przedstawiono na rysunku 1. Należy zwrócić szczególną uwagę na to, że zachowanie we wczesnych momentach jest zawsze takie samo: energia potencjalna i kinetyczna znacznie przekraczają całkowitą energię i zawsze mamy postać k = 0 R:t2/3.
Wszechświat zdominowany przez promieniowanie
Przy wystarczająco dużych przesunięciach ku czerwieni prawo R:t2/3 zawiedzie, ponieważ ciśnienie promieniowania stanie się ważne. Przy tych przesunięciach ku czerwieni doskonałym przybliżeniem jest zignorowanie efektów krzywizny przestrzennej, tak że równanie Friedmanna dla mieszanki materii i promieniowania jest
Można to zintegrować, aby uzyskać czas jako funkcję współczynnika skali:
co idzie do 2/3a3/2 dla modelu tylko materii i do a2/2 dla samego promieniowania. We wczesnych czasach współczynnik skali rośnie w miarę jak R: t1/2. Innym sposobem przedstawienia zależności modelu od czasu jest gęstość. Postępując zgodnie z powyższym, łatwo pokazać, że
Modele z energią próżni
Rozwiązanie równania Friedmanna staje się bardziej skomplikowane, jeśli dopuścimy znaczący wkład energii próżni - tj. stałą kosmologiczną różną od zera. Samo równanie Friedmanna jest niezależne od równania stanu i po prostu mówi H2R2 = kc2/(Ω-1), niezależnie od formy wkładów do Ω. Jeśli chodzi o samą stałą kosmologiczną, mamy
Powodem, dla którego stała kosmologiczna została po raz pierwszy wprowadzona przez Einsteina, nie było po prostu to, że nie było ogólnego powodu, aby oczekiwać, że pusta przestrzeń będzie miała gęstość zerową, ale to, że pozwala ona na skonstruowanie kosmologii nierozszerzającej się. Być może nie jest to tak oczywiste w przypadku niektórych form równania Friedmanna, ponieważ teraz H = 0 i Ω = ∞; jeśli rzucimy równanie w jego pierwotnej formie bez definiowania tych parametrów, wówczas zerowe rozszerzenie implikuje
ρ = 3kc2 / 8πGR2
Ponieważ Λ może mieć dowolny znak, wydaje się, że nie ogranicza to k. Jednak chcemy również uzyskać zerowe przyspieszenie dla tego modelu, a zatem potrzebujemy pochodnej czasowej równania Friedmanna: Dalszym warunkiem dla modelu statycznego jest zatem to, że
ρ = -3p
Ponieważ ρ = -p dla energii próżni, a jest to jedyne źródło ciśnienia, jeśli zignorujemy promieniowanie, mówi nam to, że ρ = 3ρvac, a zatem gęstość masy jest dwukrotnie większa od gęstości próżni. Całkowita gęstość jest zatem dodatnia, a k = 1; mamy zamknięty model. Zauważ, że to oznacza, że dodatnia energia próżni działa w sposób odpychający, równoważąc przyciąganie normalnej materii. Pokazuje to, że model statyczny nie może być stabilny: jeśli zaburzymy współczynnik skali o niewielką dodatnią wartość, odpychanie próżni pozostaje niezmienione, podczas gdy "normalne" przyciąganie grawitacyjne zostaje zmniejszone, tak że model będzie miał tendencję do dalszego rozszerzania się (lub kurczenia, jeśli początkowe zaburzenie było ujemne).
Przestrzeń de Sittera
Punkt końcowy zewnętrznego zaburzenia statycznego modelu Einsteina został po raz pierwszy zbadany przez DE SITTERA. Ten wszechświat jest całkowicie zdominowany przez energię próżni i jest wyraźnie granicą niestabilnej ekspansji, ponieważ gęstość materii przesuwa się ku czerwieni do zera, podczas gdy energia próżni pozostaje stała. Rozważmy ponownie równanie Friedmanna w jego ogólnej formie : ponieważ gęstość jest stała, a R będzie rosło bez ograniczeń, dwa człony po lewej stronie muszą ostatecznie stać się niemal dokładnie równe, a człon krzywizny po prawej stronie będzie pomijalny. Tak więc, nawet jeśli k≠0, wszechświat będzie miał gęstość różniącą się tylko nieskończenie mało od krytycznej, tak że możemy rozwiązać równanie, ustawiając k = 0, w którym to przypadku
Ciekawą interpretację tego zachowania promował na początku kosmologii Eddington: stała kosmologiczna jest tym, co spowodowało ekspansję. W modelach bez Λ ekspansja jest jedynie warunkiem początkowym: każdy, kto pyta, dlaczego wszechświat rozszerza się w danej epoce, otrzymuje niezadowalającą odpowiedź, że dzieje się tak, ponieważ rozszerzał się w jakimś wcześniejszym czasie. Bardziej satysfakcjonujące byłoby posiadanie jakiegoś mechanizmu, który wprawia ekspansję w ruch, a to właśnie zapewnia odpychanie próżni. Ta tendencja modeli z dodatnim ? do przechodzenia w fazę wykładniczą ekspansji (a co więcej, modelu z Ω = 1) jest dokładnie tym, co jest wykorzystywane w kosmologii inflacyjnej do generowania warunków początkowych dla Wielkiego Wybuchu.
Model stanu stacjonarnego
Zachowanie przestrzeni de Sittera przypomina pod pewnymi względami wszechświat stanu stacjonarnego, który był popularny w latach 60-tych ta TEORIA STANU STAŁEGO czerpała swoją motywację z problemów filozoficznych modeli Wielkiego Wybuchu - które zaczynają się w osobliwości przy t = 0 i dla których wcześniejsze czasy nie mają znaczenia. Zamiast tego Hoyle, Bondi i Gold zasugerowali doskonałą zasadę kosmologiczną, w której wszechświat jest jednorodny nie tylko w przestrzeni, ale także w czasie: poza lokalnymi fluktuacjami wszechświat wydaje się taki sam dla wszystkich obserwatorów w każdym czasie. Mówi nam to, że stała Hubble&prome;a jest naprawdę stała, a zatem model koniecznie ma ekspansję wykładniczą, R : exp (Ht), dokładnie tak jak w przypadku przestrzeni de Sittera. Rzeczywiście, przestrzeń de Sittera jest wszechświatem stanu stacjonarnego: zawiera stałą gęstość energii próżni i ma nieskończony wiek, pozbawiony jakiejkolwiek osobliwości Wielkiego Wybuchu. Jednak przestrzeń de Sittera jest raczej nieciekawym modelem, ponieważ nie zawiera materii. Wprowadzenie materii do wszechświata stanu stacjonarnego narusza zasadę zachowania energii, ponieważ materia nie ma równania stanu p = -ρc2, które pozwala, aby gęstość pozostała stała. To jest najbardziej radykalny aspekt modeli stanu stacjonarnego: wymagają one ciągłego tworzenia materii. Energia do osiągnięcia tego musi pochodzić skądś, a równania Einsteina są modyfikowane przez dodanie pewnego terminu "tworzenia" lub "pola C" do tensora energii-pędu:
T′μv = Tμv + Cμv T′μvv = 0
Efektem tego dodatkowego członu musi być anulowanie gęstości materii i ciśnienia, pozostawiając jedynie ogólną efektywną formę tensora próżni, która jest wymagana do wytworzenia przestrzeni de Sittera i wykładniczej ekspansji. To pole ad hoc i brak jakiejkolwiek fizycznej motywacji dla niego poza kosmologicznym problemem, który zostało zaprojektowane, aby rozwiązać, zawsze było najbardziej niezadowalającą cechą modelu stanu stacjonarnego i może wyjaśniać silne reakcje generowane przez teorię.
Modele odbijające się i krążące
Powracając do ogólnego przypadku modeli z mieszanką energii w próżni i normalnych składników, musimy rozróżnić trzy przypadki. W przypadku modeli, które zaczynają się od wielkiego wybuchu (w którym to przypadku promieniowanie całkowicie dominuje w najwcześniejszych czasach), wszechświat albo ponownie się zapadnie, albo rozszerzy na zawsze. Ten drugi wynik staje się bardziej prawdopodobny w przypadku niskich gęstości materii i promieniowania, ale wysokiej gęstości próżni. Możliwe są jednak również modele, w których nie ma Wielkiego Wybuchu: wszechświat zapadał się w odległej przeszłości, ale został spowolniony przez odpychanie dodatniego członu Λ i przeszedł "odbicie", aby osiągnąć obecny stan ekspansji. Obliczenie warunków dla tych różnych zdarzeń jest kwestią zintegrowania równania Friedmanna. W przypadku dodawania ? można to zrobić tylko numerycznie. Możemy jednak znaleźć warunki dla różnych zachowań opisanych powyżej analitycznie, przynajmniej jeśli uprościmy rzeczy, ignorując
promieniowanie. Równanie w postaci zależnego od czasu parametru Hubble′a wygląda następująco:
i interesują nas warunki, w których lhs znika, definiując punkt zwrotny w rozwinięciu. Ustawienie rhs na zero daje równanie sześcienne i możliwe jest podanie warunków, w których ma ono rozwiązanie, które są następujące.
(1) Po pierwsze, ujemne Λ zawsze implikuje ponowne zapadnięcie, co jest intuicyjnie rozsądne (albo masa powoduje ponowne zapadnięcie zanim Λ zacznie dominować, albo gęstość jest wystarczająco niska, że Λ zaczyna dominować, co nie może prowadzić do nieskończonej ekspansji, chyba że Λ jest dodatnie).
(2) Jeśli Λ jest dodatnie i Ωm < 1, model zawsze rozszerza się do nieskończoności.
(3) Jeśli Ωm > 1, ponowne zapadnięcie jest unikane tylko wtedy, gdy Ωv przekroczy wartość krytyczną.
(4) Jeśli Λ jest wystarczająco duże, punkt stacjonarny ekspansji znajduje się w a < 1 i mamy kosmologię odbicia. Ta krytyczna wartość to
gdzie funkcja f jest cosh jeśli Ωm < 0,5, w przeciwnym wypadku cos. Jeśli wszechświat leży dokładnie na linii krytycznej, odbicie następuje w nieskończenie wczesnych momentach i mamy rozwiązanie, które jest wynikiem zaburzenia statycznego modelu Einsteina. W rzeczywistości modele odbicia można wykluczyć dość mocno. Te same równania sześcienne, które definiują krytyczne warunki odbicia, dają również nierówność dla maksymalnego możliwego przesunięcia ku czerwieni (odbicia):
Rozsądny dolny limit dla Ωm wynoszący 0,1 wyklucza odbicie, gdy obiekty są widoczne przy z>2. Ponieważ gęstość promieniowania jest obecnie bardzo mała, głównym zadaniem kosmologii relatywistycznej jest ustalenie, gdzie na płaszczyźnie Ωmateria-Ωpróżnia leży prawdziwy wszechświat. Istnienie obiektów o dużym przesunięciu ku czerwieni wyklucza modele odbicia, więc nie można uniknąć idei gorącego wielkiego wybuchu. W tym momencie odtworzyliśmy jeden z wielkich wniosków kosmologii relatywistycznej: wszechświat ma skończony wiek i swój początek miał w osobliwości matematycznej, w której współczynnik skali osiągnął zero, co doprowadziło do rozbieżnej krzywizny czasoprzestrzeni. Ponieważ zerowy współczynnik skali oznacza również nieskończoną gęstość (i temperaturę), wywnioskowany obraz wczesnego wszechświata to obraz niewyobrażalnej przemocy. Termin wielki wybuch został ukuty przez FREDA HOYLE′A, aby opisać ten początek, chociaż miał on nieco krytyczny wydźwięk. Problem z osobliwością polega na tym, że oznacza ona załamanie się praw fizyki; nie możemy ekstrapolować rozwiązania dla R(t) do t<0, więc początek ekspansji staje się niewyjaśnionym warunkiem brzegowym. Dopiero po około 1980 r. pojawił się spójny zbiór idei na sposoby uniknięcia tej bariery w postaci kosmologii inflacyjnej.
Płaski wszechświat
Najważniejszym modelem w badaniach kosmologicznych jest ten, w którym k = 0 ⇒ Ωtotal = 1; gdy dominuje materia, jest on często nazywany modelem Einsteina-de Sittera. Paradoksalnie, znaczenie to wynika z faktu, że jest to stan niestabilny: jak widzieliśmy wcześniej, wszechświat będzie ewoluował od Ω = 1, przy niewielkim zaburzeniu. To, że wszechświat rozszerzył się o tak wiele e-fałdowań (czynników ekspansji e), a mimo to nadal miał Ωd1, oznacza, że był bardzo blisko bycia przestrzennie płaskim w dawnych czasach. Wielu badaczy przypuszczało zatem, że byłoby to sztuczne, gdyby ta płaskość była inna niż doskonała. Alternatywny model k = 0 o większym zainteresowaniu obserwacyjnym ma znaczącą stałą kosmologiczną, tak że Ωm + Ωv = 1 (promieniowanie jest pomijane dla uproszczenia). Może się to wydawać sztuczne, ale gdy k = 0 zostanie ustalone, nie może się zmienić: indywidualne wkłady do Ω muszą się dostosować, aby zachować równowagę. Zaletą tego modelu jest to, że jest to jedyny sposób na zachowanie teoretycznej atrakcyjności k = 0 przy jednoczesnej zmianie wieku wszechświata z relacji H0t0 = 2/3, która charakteryzuje model Einsteina-de Sittera. Ponieważ wiele dowodów obserwacyjnych wskazuje, że H0t0 ⋍ 1, model ten wzbudził w ostatnich latach duże zainteresowanie. W tym przypadku równanie Friedmanna jest
Relacja odległość-przesunięcie ku czerwieni
Ogólna relacja między współporuszającą się odległością a przesunięciem ku czerwieni została podana wcześniej jako
W przypadku modelu Friedmanna zdominowanego przez materię oznacza to, że odległość obiektu, z którego dzisiaj odbieramy fotony, wynosi
Całki tej formy często pojawiają się podczas manipulowania modelami Friedmanna; zazwyczaj można je rozwiązać przez podstawienie u2 = k(Ω-1)/Ω(1+z). To podstawienie daje wzór Mattiga, który jest jednym z najbardziej użytecznych równań w kosmologii, jeśli chodzi o obserwatorów:
Nie ma takiego zwartego wyrażenia, jeśli chcemy uwzględnić również energię próżni. Współporuszającą się odległość należy uzyskać przez numeryczną integrację podstawowego dr/dz, nawet w przypadku k = 0. Jednak dla wszystkich form wkładu do zawartości energetycznej wszechświata relacja odległości-przesunięcia ku czerwieni drugiego rzędu jest identyczna i zależy tylko od parametru deceleracji:
Rozmiary i gęstości strumienia obiektów przy umiarkowanym przesunięciu ku czerwieni określają zatem geometrię wszechświata tylko wtedy, gdy założymy równanie stanu, tak że q0 i Ω0 mogą być powiązane. Przy większych przesunięciach ku czerwieni ta degeneracja jest przerwana, a dokładne pomiary relacji odległość-przesunięcie ku czerwieni mogą w zasadzie niezależnie określić parametry Ωm, Ωv itd.
Ostatnie obserwacje
Satelita Far Ultraviolet Spectroscopic Explorer (FUSE) NASA dał astronomom wgląd w upiorną pajęczynę gazu helowego pozostałego po Wielkim Wybuchu, który leży u podstaw struktury wszechświata. Hel nie występuje w galaktykach ani gwiazdach, ale jest rozproszony cienko w przestrzeni. Obserwacje pomagają potwierdzić teoretyczne modele tego, w jaki sposób materia w rozszerzającym się wszechświecie skondensowała się w strukturę przypominającą sieć, przenikającą całą przestrzeń między galaktykami. Hel śledzi architekturę wszechświata aż do bardzo wczesnych czasów. Ta struktura powstała z małych niestabilności grawitacyjnych zasianych w chaosie tuż po Wielkim Wybuchu.
Nierozstrzygnięte kwestie
Jak opisano powyżej, podstawowe izotropowe modele kosmologii relatywistycznej zależą od czterech głównych parametrów: obecnego tempa ekspansji i obecnych wkładów do całkowitej gęstości materii nierelatywistycznej, materii ultrarelatywistycznej i próżni. Pojawienie się odległych obiektów zależy od tych liczb, więc w zasadzie możliwe jest określenie tych parametrów, a także zbadanie najsłabszej klasy niestandardowych kosmologii - w których mogą istnieć dodatkowe wkłady do gęstości, z bardziej egzotycznymi równaniami stanu. Wszystkie takie możliwości można zbadać empirycznie w ramach modeli FRW. Głębszym problemem jest pytanie, czy podstawowe założenie izotropii i jednorodności jest słuszne, a jeśli tak, to dlaczego tak powinno być. Badania struktury na dużą skalę i anizotropii w mikrofalowym promieniowaniu tła sugerują, że odchylenia od metryki Robertsona-Walkera są ograniczone do ułamkowych zaburzeń na poziomie około 10-5, więc podstawowa metryka wydaje się dobrym modelem zerowego rzędu. Jednak istnienie horyzontu cząsteczkowego, który jest mały w początkowych czasach, oznacza, że jest wielkim zaskoczeniem odkrycie, że wszechświat jest niemal jednorodny w regionach, które dopiero niedawno weszły w kontakt przyczynowy. Jest to jedna z wielu osobliwości w modelu standardowym, które domagają się wyjaśnienia: podobnie jak podstawowy fakt ekspansji i niemal idealna płaskość, są to zagadki warunków początkowych, które wymagają wyjaśnienia przez bardziej kompletną teorię, taką jak INFLACJA. Na koniec, istnieje wiele osobliwych cech, które odnoszą się do naszego statusu jako obserwatorów. Jeśli Ω = 1, żyjemy w pobliżu szczególnego czasu - w którym wkład do równania Friedmanna z krzywizny przestrzennej lub energii próżni jest porównywalny z wkładem materii nierelatywistycznej. Istnieje zbiór idei pod nagłówkiem "ZASADY ANTROPOICZNEJ", które próbują określić ilościowo efekty selekcji narzucone przez potrzebę inteligentnych obserwatorów. W niektórych przypadkach argumenty te są stosunkowo bezsporne: nie powinniśmy być zaskoczeni, że wszechświat jest obecnie mniej więcej tak stary, jak typowa gwiazda, ponieważ gwiazdy są potrzebne do tworzenia ciężkich jąder potrzebnych do interesującej chemii. To, czy takie rozumowanie wyjaśnia wszystkie cechy obserwowanego wszechświata, prawdopodobnie pozostanie kwestią sporną. Jednak na poziomie praktycznym standardowe izotropowe modele kosmologiczne zapewniają kontekst, w którym tę trudną debatę można przynajmniej przeprowadzić z pewnością.
Kosmologia: krótka historia
Kosmologia to gałąź astronomii, która zajmuje się badaniem wielkoskalowej struktury wszechświata. Obserwacyjnie wymaga danych o najbardziej odległych obiektach, podczas gdy teoretycznie wymaga możliwie największych ekstrapolacji podstawowych praw fizyki. Pomimo tych poważnych ograniczeń, kosmologia ostatnio wyłoniła się jako bardzo ważna gałąź nauki, w której można formułować i testować przewidywania. Kiedy rozpoczęła się współczesna kosmologia? Rzeczywiście, należy cofnąć się do Isaaca NEWTONA i jego korespondencji z Richardem Bentleyem od 10 grudnia 1692 r. do 17 stycznia 1693 r. Interesujące jest czytanie prób Newtona skonstruowania modelu jednorodnego i izotropowego, ale statycznego wszechświata oraz jego uświadomienie sobie, że jest on niestabilny. Późniejsze próby w ramach teorii Newtona, zanim na horyzoncie pojawiła się teoria względności, były podejmowane przez C. Neumanna i H. Seeliger w latach 1895-1896. W 1934 r. W. H. McCrea i E. A. Milne wykazali, w jaki sposób idee Newtona dotyczące grawitacji i dynamiki mogą być odpowiednio dostosowane do standardowych modeli teorii względności. Pojawienie się OGÓLNEJ TEORII WZGLĘDNOŚCI w 1915 r. oferowało możliwe rozwiązanie konfliktów, które zaczynały się pojawiać między prawami dynamiki i grawitacji Newtona a SZCZEGÓLNĄ TEORIĄ WZGLĘDNOŚCI. Ogólna teoria względności wiązała zjawisko grawitacji z geometrią przestrzeni i czasu. Zaledwie 2 lata po tym, jak zaproponował teorię, ALBERT EINSTEIN podjął śmiałą próbę zastosowania jej do skonstruowania modelu całego wszechświata. Podobnie jak Newton, Einstein również odkrył, że jego równania względności z 1915 r. nie dopuszczają modelu statycznego i wprowadził tzw. STAŁĄ KOSMOLOGICZNĄ, λ, która implikowała (w przybliżeniu Newtona) siłę odpychającą, która zmieniała się bezpośrednio wraz z odległością. Statyczny model, który się wyłonił, wymagał, aby wszechświat był zamknięty. Einstein uważał, że pojawienie się takiego modelu było demonstracją unikalnej i spójnej relacji między geometrią czasoprzestrzeni a zawartością materii we wszechświecie. Jednak artykuł W. DE SITTERA z tego samego roku wykazał, że model ten nie był unikalny. De Sitter znalazł model wszechświata, który był pusty, ale rozszerzał się. Chociaż w tamtym czasie uważano go za ezoteryczny, model ten odegrał kluczową rolę w kosmologii przy wielu późniejszych okazjach. W drugiej dekadzie tego stulecia nie było systematycznych badań galaktyk, chociaż do 1914 roku obserwatorzy mgławic rozproszonych, tacy jak V.M.Slipher, zgłaszali przesunięcia mgławicowe, głównie przesunięcia ku czerwieni, które wskazywały na radialny ruch recesyjny tych mgławic. Jednak pomimo tych odkryć, ogólna wiara w statyczny wszechświat była dość silna, a rozwiązanie de Sittera traktowano bardziej jako ciekawostkę. Rzeczywiście, w latach 1922-1924 A. Friedmann, a później w 1927 roku (niezależnie) Abbé Lema Ître uzyskali modele rozszerzającego się wszechświata, dla których stała kosmologiczna nie była wymagana, ale zostały one również zignorowane przez Einsteina i innych. Tymczasem zrozumienie wszechświata na froncie obserwacyjnym również rosło. W 1924 roku E. P. HUBBLE ustalił, poprzez wykorzystanie gwiazd zmiennych cefeid, że Mgławica Andromedy jest tak daleko, że musi być pozagalaktyczna. Rzeczywiście w ciągu kilku następnych lat zaczęto ustalać istnienie pozagalaktycznych mgławic jako galaktyk samych w sobie. Jednak to ogłoszenie przez Hubble′a w 1929 r. relacji prędkości do odległości tych mgławic zmieniło bieg wydarzeń na korzyść tych modeli. Po dokładnej analizie danych na temat przesunięć ku czerwieni mgławic, Hubble doszedł do tego, co dziś znane jest jako "PRAWO HUBBLE′A", a mianowicie, że prędkość radialna typowej galaktyki oddalonej od nas jest proporcjonalna do jej odległości od nas. Dokładniej rzecz biorąc, dane pokazują, że przesunięcie ku czerwieni galaktyki wzrasta wraz z jej osłabieniem. Jeśli przesunięcie ku czerwieni zinterpretujemy jako przesunięcie Dopplera, a osłabienie jako wynik odległości, wówczas prawo Hubble′a będzie obowiązywać. Chociaż mogą istnieć inne interpretacje danych, wszystkie modele kosmologiczne musiały uwzględniać ten podstawowy fakt dotyczący wszechświata. Rzeczywiście później zdano sobie sprawę, że w swojej pracy z 1927 r. LemaÎtre przewidział liniową relację prędkości i odległości tego rodzaju. Tak więc wkrótce po zaakceptowaniu prawa Hubble′a Einstein dostrzegł, że statyczny model jest nierealny i porzucił stałą kosmologiczną jako "największy błąd" w swoim życiu. Byli jednak inni, którzy myśleli inaczej i nawet dzisiaj ta stała nadal pojawia się w literaturze kosmologicznej. Czytelnik zainteresowany wiedzą, kto co zrobił i kiedy w tamtych wczesnych dniach, może chcieć zobaczyć historyczne sprawozdanie Northa (1965).
Modele Wielkiego Wybuchu
Założenie jednorodności i izotropii pozwala kosmologowi zdefiniować "czas kosmiczny". Przekroje przestrzenne w danym czasie kosmicznym powinny być jednorodne i izotropowe. H.P. Robertson w 1935 r. i A.G. Walker w 1936 r. niezależnie opracowali najbardziej ogólny element linii opisujący taką czasoprzestrzeń. Przyjmując dowolnego obserwatora jako lokalny początek sferycznych współrzędnych biegunowych (r, θ, Φ) i t dla czasu kosmicznego, element linii Robertsona-Walkera jest dany przez
Funkcja S(t) jest wspomnianym wcześniej współczynnikiem skali: jej wzrost w czasie oznacza ekspansję wszechświata. Stała k w powyższym równaniu jest parametrem określającym, czy przestrzeń t = constant ma dodatnią (k = +1), ujemną (k = ?1) czy zerową (k = 0) krzywiznę. Najprostszym modelem FRIEDMANNA jest model Einsteina-de Sittera wspólnie propagowany przez Einsteina i de Sittera (1932), który ma k = 0. W przypadku materii wolnej od ciśnienia (często nazywanej pyłem) model ten ma S ∝ t2/3. To, że cechy geometryczne modelu są powiązane z jego zawartością materii fizycznej, jest wykazane przez różne zachowanie tych modeli dla różnych gęstości materii ρ. Definiujemy zatem następujące wielkości:
jako STAŁĄ HUBBLE′A i gęstość krytyczną w epoce t. Ich wartości w obecnej epoce t0 będziemy oznaczać sufiksem zero. Parametr gęstości jest zdefiniowany przez
Ω = ρ/ ρc
Następnie dla rozwiązań Friedmanna mamy następujący wynik: wszechświat jest zamknięty dla Ω0 > 1 i otwarty w przeciwnym razie (k = 0,?1). W rzeczywistości przypadek k = 0 jest przypadkiem marginalnie otwartym, gdzie 0 = 1; jeśli gęstość przekracza ρc, wszechświat jest typu zamkniętego. Dlatego gęstość ρc nazywana jest gęstością domknięcia lub gęstością krytyczną. We wszystkich modelach współczynnik skali wynosił zero w pewnej epoce w przeszłości, powszechnie zwanej epoką Wielkiego Wybuchu. W tej epoce krzywizna czasoprzestrzeni była nieskończona, podobnie jak gęstość materii i promieniowania we wszechświecie. A co z przyszłym zachowaniem wszechświata? Tutaj odpowiedź zależy od geometrii przestrzeni. W modelach otwartych wszechświat rozszerza się w nieskończoność, a współczynnik skali dąży do nieskończoności. W modelach zamkniętych współczynnik skali osiąga wartość maksymalną, zanim zmniejszy się z powrotem do zera. W powyższym argumencie zakłada się, że materia we wszechświecie ma postać pyłu. Jest to rozsądne przybliżenie w chwili obecnej, gdy ciśnienia są małe, a gęstość materii znacznie przekracza gęstość promieniowania. Można jednak wykazać, że
tak, że w wystarczająco wczesnej epoce, gdy S było wystarczająco małe, człon promieniowania dominował nad członem materii. To oczywiście nie zmienia wcześniejszego wniosku o istnieniu epoki Wielkiego Wybuchu; w rzeczywistości teraz dochodzimy do wniosku, że wszechświat był nieskończenie gorący w tej epoce. W czasoprzestrzeniach Robertsona-Walkera przesunięcie ku czerwieni jest po prostu związane z czynnikiem skali. Obliczenia pokazują, że źródło z przesunięciem ku czerwieni z jest obserwowane w epoce, gdy czynnik skali wszechświata wynosił (1+z) ?1 razy jego obecną wartość. Obserwacje w obecnej epoce wskazują, że gęstość materii jest co najmniej ∿103 razy większa od gęstości promieniowania. Tak więc możemy oszacować, że wszechświat był zdominowany przez promieniowanie w epokach poprzedzających przesunięcie ku czerwieni ∿103. Mając świadomość, że podstawowe modele Friedmanna dają odpowiedni opis rozszerzającego się wszechświata, w ciągu ostatnich pięciu dekad nastąpiło wiele odkryć w kosmologii, które opierają się na tych modelach. Te osiągnięcia można ogólnie podzielić na badania (a) struktury na dużą skalę, poprzez obserwacje źródeł dyskretnych, (b) wczesnej historii wszechświata, poprzez obserwacje reliktów, (c) ewolucji wszechświata od cząstek do galaktyk, (d) podstawowych praw fizycznych działających w ekstremalnych warunkach kilka chwil po Wielkim Wybuchu i (e) alternatywnych kosmologii. Krótko przedstawimy kilka historycznych wyników.
Obserwacje dyskretnych źródeł
Relatywistyczny model kosmologiczny wykorzystuje zakrzywioną czasoprzestrzeń i jako taki istnieją efekty nieeuklidesowych geometrii, które w zasadzie mogą być obserwowalne. To było oczekiwanie, które skłoniło astronomów optycznych i radioastronomów lat 50. i 60. do wykorzystania swoich możliwości obserwacyjnych do granic możliwości. Obserwując rozkłady populacji dyskretnych źródeł (galaktyk, kwazarów, źródeł radiowych, źródeł rentgenowskich itp.) kosmolodzy mieli nadzieję znaleźć, który z różnych modeli teoretycznych jest najbliższy rzeczywistości. Testy obserwacyjne obejmowały (i) pomiar stałej Hubble′a, (ii) rozszerzenie prawa Hubble′a na galaktyki o dużych przesunięciach ku czerwieni, (iii) zliczenia galaktyk i źródeł radiowych na coraz większe odległości, (iv) zależność średnicy kątowej od przesunięcia ku czerwieni oraz (v) zależność jasności powierzchniowej galaktyki od jej przesunięcia ku czerwieni. Szczegóły tych testów kosmologicznych można znaleźć w niedawnych podręcznikach i artykułach przeglądowych, np. Sandage (1988) i Narlikar (1993). Jednak tendencja takich badań przesunęła się z określania geometrii wszechświata na określanie ewolucji dyskretnych źródeł. Oczekuje się, że badania te powiedzą nam o ewolucji środowiska fizycznego wszechświata, ale jak dotąd nie wyłonił się żaden jasny obraz pośród serii ćwiczeń dopasowywania parametrów. Kluczowym pomiarem, który nadal budzi kontrowersje, jest stała Hubble′a. Hubble pierwotnie uzyskał wartość 530 km s-1 Mpc-1, ale patrząc wstecz, odkrywamy, że w jego pomiarach było kilka błędów systematycznych. Przez długi czas, gdy wartość stałej stale spadała, trwały kontrowersje co do jej prawdziwej wartości, która, jak sądzono, mieściła się w przedziale od 50 do 100 km s-1 Mpc-1. Nawet dzisiaj istnieje kilka problemów z kalibracją. Jednak dopiero teraz zaczyna się wyraźniej rozumieć różne kwestie praktyczne, a różne podejścia zaczynają zbiegać się w kierunku wartości H0 wynoszącej pomiędzy 55 a 70 km s-1 Mpc-1.
Relikty wczesnego wszechświata
TEORIA WIELKIEGO WYBUCHU opiera się na fakcie, że w czasie t = 0 wszechświat powstał w pojedynczym zdarzeniu. Zatem nie jest możliwy żaden fizyczny opis pierwotnego zdarzenia, chociaż teorie fizyczne mogą badać późniejsze zachowanie wszechświata. Jedną z pierwszych prób zbliżenia się do epoki Wielkiego Wybuchu podjął pod koniec lat 40. XX wieku GEORGE GAMOW, który docenił fakt, że wczesny wszechświat był zdominowany przez promieniowanie, to znaczy, że jego zawartość składała się z fotonów i innych cząstek, które były w większości relatywistyczne pod względem energii. Zatem można było przybliżyć równanie stanu za pomocą ciśnienia p = 1/3ρ, przy czym zarówno p, jak i ρ były zależne od temperatury jako czwartej potęgi, tak jak w przypadku promieniowania w równowadze termicznej. Gamow i jego współpracownicy Ralph Alpher i Robert Herman opracowali fizykę wszechświata, gdy miał on około 1-200 s. (Artykuł z 1948 roku autorstwa Alphera, H. Bethego i Gamowa na ten temat doprowadził do nazwania go teorią "α-β-γ"!) Gamow miał nadzieję wykazać, że w wysokich temperaturach panujących w tej epoce cząstki takie jak neutrony i protony będą syntetyzowane w cięższe jądra, determinując w ten sposób skład chemiczny wszechświata. Ostatecznie praca ta odniosła częściowy sukces, ponieważ lekkie jądra, takie jak deuter, hel itp. mogły powstawać w pierwotnej zupie, ale nie cięższe, takie jak węgiel, tlen i metale. Później stało się jasne z ważnej pracy Burbidge′a, Burbidge′a, Fowlera i Hoyle′a z 1957 roku (nazywanej teorią B2FH), że te jądra powstają w gwiazdach. Niemniej jednak liczebności lekkich jąder obliczone zgodnie ze współczesną wersją pionierskiej próby Gamowa wykazują szeroką zgodność z obserwowanymi. Dalszą weryfikacją scenariusza wczesnego gorącego wszechświata było odkrycie w 1965 r. COSMIC MICROWAVE BACKGROUND przez Penziasa i Wilsona. Gamow, Alpher i Herman przewidzieli takie tło jako relikt wczesnej ery, chociaż odkrywcy nie byli świadomi tych wyników. W swojej pracy z 1948 r. Alpher i Herman przewidzieli reliktowe tło o szacowanej temperaturze 5 K. Obecne obliczenia Wielkiego Wybuchu nie mogą jednak oszacować temperatury tła: należy ją traktować jako parametr określony przez obserwacje. Należy wspomnieć, że na początku lat 60. R. H. Dicke i jego współpracownicy niezależnie doszli do prognozy Gamowa-Alphera-Hermana dotyczącej promieniowania reliktowego i ustawiali detektor dla tego promieniowania, gdy przewidzieli je Penzias i Wilson. Najbardziej spektakularnym osiągnięciem ostatnich lat był sukces satelity COBE w pomiarze widma (w 1990 r.) i anizotropii na małą skalę (w 1994 r.) mikrofalowego promieniowania tła. Tło wykazuje temperaturę ciała doskonale czarnego 2,7 K i jest wysoce jednorodne, z wahaniami temperatury ΔT/T ∿ 6 × 10-6. Obfitość lekkich jąder i mikrofalowe promieniowanie tła, jego widmo i anizotropia dostarczyły mocnego prima facie wsparcia dla scenariusza Wielkiego Wybuchu. Były też ograniczenia i wyzwania.
Ewolucja struktury we wszechświecie
Głównym wyzwaniem kosmologii było wykazanie, w jaki sposób w standardowym modelu Wielkiego Wybuchu pierwsze nukleony i leptony ewoluowały z bardziej pierwotnych cząstek, a z nich ostatecznie uformowały się struktury na dużą skalę we wszechświecie; wszystko to w sposób zgodny z fluktuacjami promieniowania odkrytymi przez COBE. Szczególnie interesująca w tej pracy jest rola fazy inflacyjnej, po raz pierwszy omówiona niezależnie przez A. Gutha, K. Sato i D. Kazanasa w latach 1980-1981. Podstawowy pomysł jest następujący. Wszechświat Wielkiego Wybuchu był nieskończenie gorący przy t = 0, ale jego temperatura spadała z czasem zgodnie z t-1/2. W tym procesie materia w nim zawarta przeszła przemianę fazową, a jej efektem było, przez bardzo krótki okres, nadmuchanie wszechświata w tempie wykładniczym, podobnie jak w przypadku starego wszechświata de Sittera. Zmiany w próżni czasoprzestrzennej generują siłę, która symuluje stałą kosmologiczną wprowadzoną po raz pierwszy przez Einsteina. To jest siła, która "napędza" wszechświat tak szybko, z wykładniczym wzrostem w skali czasu około 10-36 s. Większość teorii formowania się struktur opiera się na początkowych fluktuacjach, gdy ewoluują one poprzez INFLACJĘ i ich późniejszy wzrost. Ten ostatni odbywa się poprzez oddziaływanie grawitacyjne i klastrowanie. Tutaj należy wziąć pod uwagę oddziaływanie rosnących brył niejednorodności nie tylko z widoczną materią, ale także z CIEMNĄ MATERIĄ. W szczególności wyniki są wrażliwe na rodzaj ciemnej materii, "zimną" lub "gorącą" lub mieszankę obu. Ciemna materia to nazwa nadana materii, która normalnie nie jest widoczna w żadnym paśmie fal promieniowania elektromagnetycznego. To FRITZ ZWICKY w 1933 roku jako pierwszy wskazał na możliwe istnienie "brakującej masy" w gromadach galaktyk. Jednak społeczność astronomiczna potrzebowała prawie czterech dekad, aby go dogonić! W latach 70. badania ruchów chmur neutralnego wodoru wykazały, że poruszają się one z niemal stałą prędkością obrotową wokół typowej galaktyki spiralnej, nawet jeśli znajdują się w stopniowo większych odległościach poza widoczną masą galaktyki. Te płaskie krzywe rotacji wskazywały, że masa M(R) galaktyki do odległości R od jej środka wzrasta w przybliżeniu proporcjonalnie do R, nawet jeśli R znacznie przekracza widoczną granicę galaktyki. Podobnie oczekiwania Zwicky′ego dotyczące ukrytej masy w gromadach zostały potwierdzone przez odkrycia, że galaktyki w typowej gromadzie poruszają się z tak dużą prędkością, że jeśli zastosuje się twierdzenie wirialne dla zrelaksowanego klastra 2T + Φ = constant , gdzie T jest energią kinetyczną, a energią potencjalną grawitacyjną, to potrzeba dużo ukrytej masy, aby zrekompensować tę ostatnią. Z czego składa się ta ciemna materia i ile jej jest we wszechświecie? To ważne pytanie było gorąco dyskutowane, ale pozostaje bez odpowiedzi. Obecne budowanie modelu kosmologicznego musi uwzględniać różne ograniczenia, a w ramach koncepcji Wielkiego Wybuchu potrzeba wskrzeszenia stałej kosmologicznej jest silnie odczuwalna. Prawdą jest jednak, że ćwiczenie budowania modelu musi jeszcze ustalić dobrze akceptowany zestaw parametrów, w tym wartość tej stałej.
Alternatywne kosmologie
Od czasu do czasu proponowano alternatywy dla kosmologii Wielkiego Wybuchu, chociaż większość kosmologów zawsze wierzyła w słuszność tej drugiej. TEORIA STANU STAŁEGO zaproponowana w 1948 roku przez H. Bondiego, T. Golda i F. Hoyle′a ożywiła scenariusz kosmologiczny, oferując wyraźnie sprawdzalną alternatywę. Ta kosmologia miała geometrię czasoprzestrzeni opisaną przez model zaproponowany przez de Sittera w 1917 roku, chociaż fizyczne uzasadnienie było inne. Odkrycie mikrofalowego promieniowania tła w 1965 roku pozbawiło teorię dużej części jej wiarygodności. Inne ważne inicjatywy w tej dziedzinie to kosmologia Bransa-Dickego zaproponowana przez C. Bransa i R. H. Dicke′a w 1961 roku jako teoria mająca swoje korzenie w zasadzie Macha oraz kosmologia zaproponowana przez P. A. M. Diraca w 1973 roku, oparta na próbach wyjaśnienia bardzo dużych liczb bezwymiarowych, które pojawiają się w kosmologii i mikrofizyce. Ostatnio, w 1993 roku, teoria stanu stacjonarnego została przywrócona do życia w
zmodyfikowanej formie zwanej kosmologią stanu quasi-stacjonarnego (QSSC) przez F. Hoyle′a, G. Burbidge′a i J. V. Narlikara.
Wnioski
W miarę jak szczegóły obserwacyjne dotyczące wszechświata stają się coraz bardziej szczegółowe, kosmologia Wielkiego Wybuchu staje się coraz bardziej ograniczona. Na przykład, jedna długotrwała rozbieżność nie została jeszcze rozwiązana: wiek gwiazd w niektórych bardzo starych gromadach kulistych mieści się w zakresie 12-15 miliardów lat, co jest wartością większą niż przedział czasowy modelu standardowego! To kolejny powód, dla którego przywrócono termin λ, ponieważ jego uwzględnienie może zwiększyć wiek wszechświata. Ostatecznie to, jaka teoria kosmologiczna przetrwa, będzie zależało od tego, w jaki sposób zostaną spełnione wyzwania obserwacyjne. W przeciwieństwie do sytuacji na początku tego stulecia, kiedy prawie nie było żadnych parametrów kosmologicznych ograniczających teorię, teraz cierpimy z powodu zakłopotania bogactwem. Niech przetrwa najsilniejsza teoria.
Kratery
Kratery to miskowate wnęki, które powstały w wyniku eksplozji. Na ciałach planetarnych, nieliczne przykłady przeszłego lub obecnego wulkanizmu (Mars, Wenus, Io) nie są typu wybuchowego. Dlatego też, niemal wszystkie kratery na POWIERZCHNIACH PLANETARNYCH są wynikiem uderzenia METEORIDU z bardzo dużą prędkością (dziesiątki km s-1). PLANETARY EXPLORATION wykazało, że kratery uderzeniowe są wszechobecnymi cechami geologii stałych ciał Układu Słonecznego. W przypadku większości obiektów, wewnętrznie napędzana ewolucja (tektonika, wulkanizm) zatrzymuje się po kilku milionach do kilkuset milionach lat. Kratery uderzeniowe na wszystkich skalach były zatem głównym czynnikiem ewolucji powierzchni planetarnych. Najpierw zostanie narysowany portret rodzinny kraterów w całym Układzie Słonecznym, z ich uderzającymi podobieństwami i intrygującymi różnicami. Przedstawimy wczesne kontrowersje dotyczące kraterów księżycowych, jedynych takich cech planetarnych, które można zobaczyć gołym okiem, oraz dowody, na podstawie których kratery księżycowe, a także niemal wszystkie inne kratery w Układzie Słonecznym, są obecnie uznawane za cechy uderzeniowe, a nie kratery wulkaniczne. W dalszej części omówione zostanie pochodzenie ciał uderzających. Ewolucja tempa uderzeń w czasie jest ściśle związana z procesem formowania się Układu Słonecznego. Nasze zrozumienie procesów zderzeń w Układzie Słonecznym ostatnio znacznie się poprawiło wraz z pojawieniem się chaotycznych modeli dynamicznych. Następnie omówimy fizykę kraterów uderzeniowych. Formowanie się kraterów jest regulowane przez stosunkowo proste prawa skalowania w niezwykle szerokim zakresie mas uderzających. Ewolucja dużych kraterów jest silnie uzależniona od grawitacji. W wyższym zakresie rozmiarów relaksacja skorupy planetarnej modyfikuje kształt krateru. Zrozumienie tych procesów formowania się i ewolucji kraterów jest niezbędne przy próbie wyprowadzenia wieku powierzchni Układu Słonecznego z zapisu kraterów. Na koniec zostaną zbadane konsekwencje powstawania kraterów we wszystkich skalach na ewolucję powierzchni planety. Obejmują one od powstawania dużych basenów uderzeniowych o średnicy kilku tysięcy kilometrów do gruntownej modyfikacji mineralogii i tekstury gleb powierzchniowych (lub regolitów). Być może najbardziej dramatycznym wydarzeniem kraterowym ze wszystkich było gigantyczne uderzenie ciała wielkości Marsa w Ziemię, które obecnie uważa się za początek powstania Księżyca.
Kratery w Układzie Słonecznym
Najbardziej bezpośrednim dowodem na to, że obiekty o dużej prędkości uderzają w ciała planetarne, jest obserwacja spadającej gwiazdy, która świeci jasno ze względu na swoją bardzo wysoką temperaturę po wejściu w atmosferę. Typowa masa tych cząstek wynosi kilka miligramów. W XIX wieku METEORYTY o masie od kilkuset gramów do kilku ton zostały zidentyfikowane jako obiekty pozaziemskie. Inny ciąg dowodów można prześledzić wstecz do obserwacji przez GALILEO okrągłych formacji we wszystkich skalach na powierzchni Księżyca, kraterów księżycowych i basenów. Meteor Crater, w pobliżu Flagstaff w północnej Arizonie, jest najmłodszym i najlepiej zachowanym dużym kraterem uderzeniowym na Ziemi, o wielkości 2 km. Powstał w wyniku uderzenia meteorytu żelaznego o średnicy kilkudziesięciu metrów. Podobieństwo do kraterów powstałych w wyniku eksplozji jest uderzające, z kształtem misy i podniesioną krawędzią. W połowie XX wieku pochodzenie tych cech było kontrowersyjne, ponieważ przypisywano je albo aktywności wulkanicznej, albo procesom uderzeniowym. Sprawa została ostatecznie zakończona wraz z programem Apollo. W międzyczasie najlepiej zachowany krater uderzeniowy na Ziemi został odkryty w północnej Arizonie (oczywiście, był znany od wieków Navajo): METEOR CRATER, o średnicy 2 km i głębokości ponad 300 m, jest bardzo młodym obiektem powstałym 40 000 lat temu. Wykazuje uderzające podobieństwo do kraterów po bombach, z kształtem misy i lekko podniesioną krawędzią. Rzeczywiście, kratery uderzeniowe i powstałe w wyniku eksplozji są ze sobą ściśle powiązane. Wiele dowiedziano się o fizyce kraterów podczas prób nuklearnych przeprowadzanych w pobliżu powierzchni Ziemi w latach 50. i na początku lat 60. XX wieku. Nadzwyczajna przygoda eksploracji planet w ciągu ostatnich 40 lat pokazała wszechobecny charakter kraterów uderzeniowych w Układzie Słonecznym. Rzeczywiście, pierwsze wrażenie wywołane pierwszymi przelotami obok Marsa było takie, że był on, co nieco rozczarowujące, po prostu większą wersją Księżyca. Obserwacje te przypadkowo objęły starszą, południową półkulę planety, na której rzeczywiście dominują kratery uderzeniowe. Kiedy orbiter Mariner 9 w końcu uzyskał globalny zasięg, ujawnił ogromne wulkany i kaniony, które charakteryzują region Tharsis. Duże jamy na szczycie tych wulkanów powstały w wyniku zapadnięcia się, a nie eksplozji, i dlatego są kalderami, a nie kraterami. MISJE PIONEER i VOYAGER do układów planet zewnętrznych zaobserwowały ogromne cechy uderzeniowe, takie jak basen Valhalla na GANYMEDE. Na drugim końcu Układu Słonecznego MERKURY okazał się bliskim bliźniakiem naszego Księżyca, którego powierzchnia była usiana kraterami o różnych rozmiarach. Sfotografowano tylko 50% powierzchni Merkurego, więc nie można wykluczyć niespodzianek, gdy obserwuje się drugą półkulę. Niedawno bliskie obserwacje ASTEROID wykazały kratery o rozmiarach do 30% średnicy ciała. Bogactwo obserwacji z misji planetarnych pokazało również, że kilka ciał planetarnych wykazuje znacznie mniejsze zagęszczenie kraterów uderzeniowych. Dotyczy to Wenus, Io, Europy i lodowych satelitów, takich jak Enceladus (satelita Saturna) lub Miranda (satelita Urana). Przykład Ziemi sugeruje, że sytuacja ta powstaje, gdy procesy odnawiania powierzchni wymazują wszystkie kratery uderzeniowe z wyjątkiem najnowszych, tj. gdy powierzchnia ma mniej niż kilkaset milionów lat. Zapis kraterów jest zatem wyraźnie powiązany z wiekiem powierzchni, co prowadzi do dyskusji na temat pochodzenia uderzeń w Układzie Słonecznym.
Historia i charakterystyka uderzeń w Układzie Słonecznym
Wiele z tego, co wiemy o ewolucji kraterów w czasie, pochodzi z badań próbek księżycowych zebranych przez programy Apollo i Luna na początku lat 70. Radioizotopowy chronometr potasowo-argonowy jest resetowany przez wstrząsy, ponieważ produkt pochodny, argon, jest gazem szlachetnym, który jest wydalany pod wysokim ciśnieniem. Analizy te dostarczyły pierwszych bezwzględnych danych o wieku głównych uderzeń na Księżycu, takich jak to, które utworzyło BASENY IMBRIUM 3,8 miliarda lat temu. Wiek księżycowego morza, które dostarczyło czystych płyt do rejestrowania uderzeń od 4 do 3 miliardów lat temu, można było określić na podstawie wieku formowania się skał bazaltów księżycowych (chronometry uranowo-ołowiowe i rubidowo-strontowe). Od 1970 roku pojawienie się dynamiki chaotycznej znacznie poprawiło naszą wiedzę na temat ewolucji rojów protoplanetarnych podczas formowania się Układu Słonecznego. Te teorie dostarczyły również zadowalającego modelu transferu asteroid lub fragmentów asteroid do wewnętrznego układu słonecznego przez perturbacje planetarne. Na podstawie tych różnych źródeł informacji istnieje obecnie szeroki konsensus co do następującego scenariusza:
(a) Kondensacja mgławicy słonecznej doprowadziła do powstania bardzo dużej liczby małych ciał, planetozymali w wewnętrznym układzie słonecznym i kometymali w zewnętrznym układzie słonecznym.
(b) Zarodki planetarne najpierw rosły w wyniku bezpośrednich zderzeń, co spowodowało kilka milionów lat niezwykle intensywnego bombardowania.
(c) Gdy strefy bezpośredniego żerowania zostały oczyszczone, zaburzenia grawitacyjne wywołały dalsze zderzenia lub bliskie spotkania między ocalałymi obiektami. Pozostała pierwotna populacja małych ciał została następnie stopniowo oczyszczona przez zderzenia z planetami lub wyrzucenie w OBŁOKU OORTA. Ta faza, ogon akrecyjny, trwała ponad 500 milionów lat według wieku basenów księżycowych. Pozostawił trzy główne rezerwuary: obłok Oorta, odpowiadający kometom wyrzucanym na duże odległości przez planety olbrzymy, główny pas asteroid, gdzie akrecja planety została uniemożliwiona przez bliskość proto-Jowisza, oraz PAS KUIPERA kometomali, gdzie gęstość była zbyt niska, aby utworzyć planetę.
(d) W ciągu pozostałych 4 miliardów lat zderzenia w głównym pasie, zaburzenia planetarne i gwiezdne spowodowały stały strumień obiektów wtórnych, reprezentowanych obecnie przez planetoidy bliskie Ziemi (z głównego pasa), komety krótkookresowe (z pasa Kuipera) i komety długookresowe (z obłoku Oorta). Względny udział komet i asteroid w tempie uderzeń jest wysoce niepewny. Oczekuje się, że będzie on zależał od odległości do Słońca, przy czym komety będą stanowić do jednej trzeciej uderzeń w Ziemię i Księżyc. Na Księżycu ta stała częstotliwość uderzeń odpowiada powstaniu krateru o wielkości kilometra co 30 000 lat. Na Ziemi jest ona podwojona, ponieważ uderzające obiekty są skupiane przez silne pole grawitacyjne, ale to również sprawia, że kratery są mniejsze. Krater Meteorytowy o szerokości 2 km, powstały 40 000 lat temu, jest zatem dość typowy, biorąc pod uwagę dużą część powierzchni pokrytą oceanami.
Prędkości uderzenia zależą w dużym stopniu od odległości do Słońca i regionu źródłowego. Jako prostą zasadę, względna prędkość obiektu uderzającego z ciałem planetarnym stanowi znaczną część jego prędkości orbitalnej, przy czym komety długookresowe mają największą prędkość uderzenia. W przypadku układu Ziemia-Księżyc, z jego prędkością orbitalną 29,8 km s-1, typowa prędkość uderzenia wynosi 20 km s-1. W przypadku Merkurego (prędkość orbitalna 50 km s-1) prawdopodobnie będzie to ponad 30 km s-1. W głównym pasie, głównym regionie źródłowym, względne prędkości są mniejsze niż 10 km s?1 dla fragmentów asteroid i większe niż 10 kms -1 s-1 dla komet, które mają znacznie większy mimośród. Prędkość planetocentryczna satelitów (1 km s-1 dla Księżyca) staje się czynnikiem tylko dla wewnętrznych satelitów Jowisza (Io: 17 km s-1). Rozkład masy uderzających ciał nie jest modyfikowany przez zaburzenia grawitacyjne. Dlatego oczekuje się, że będzie bardzo podobny dla obiektów z tego samego regionu źródłowego w całym Układzie Słonecznym. Jako proste przybliżenie, strumień obiektów powyżej danej masy jest odwrotnie proporcjonalny do masy, ze stromszą zależnością przy małych masach i bardziej płaską zależnością przy dużych masach. Zależność wkładu kometarnego i asteroidalnego od odległości heliocentrycznej jest nadal niepewna.
Fizyka krateru uderzeniowego
Proces krateru uderzeniowego jest ściśle związany z powstawaniem kraterów w wyniku eksplozji. Zależność tę można wywnioskować z porównania prędkości uderzenia (5 do 30 km s-1) i najwyższej prędkości detonacji materiałów wybuchowych (7 km s-1). Dlatego też obiekt uderzający dostarcza energię na kilogram, która mieści się w zakresie energii rozpraszanej przez materiały wybuchowe o dużej mocy. Wszystkie uderzenia inne niż muśnięcie są niezwykle nieelastyczne, tworząc bańkę gazu o początkowej temperaturze kilku 10 000 K. Przy tych bardzo wysokich prędkościach to ekspansja tej bańki gazu powoduje powstanie krateru, ponownie bardzo podobnie do eksplozji chemicznej lub jądrowej. W miarę rozszerzania się fali uderzeniowej, włącza ona rosnącą masę materiału, co spowalnia jej prędkość. Początkowa prędkość ekspansji jest związana z prędkością uderzenia, a zatem jest wyższa niż prędkość dźwięku. Podczas tej fazy hipersonicznej fala uderzeniowa znajduje się na zewnętrznej krawędzi rozszerzającej się wnęki. Gdy ekspansja zwolni poniżej prędkości dźwięku, fala kompresji rozszerza się szybciej niż krawędź wnęki. Te fale P ostatecznie rozprzestrzeniają się daleko od uderzeń. Zdarzenia uderzeniowe są zatem źródłem aktywności sejsmicznej o niskiej magnitudzie. Przy danej prędkości uderzenia odległość, przy której konkretna energia na kilogram spada poniżej danej wartości, jest proporcjonalna do promienia obiektu uderzającego. Na przykład w odległości 10 promieni od uderzenia wnęka odpowiada 500-krotności objętości uderzenia, stąd średnia rozproszona energia wynosi 1/500 energii uderzenia, niezależnie od skali. Zakładając prosty ekwipartycjoner między energią kinetyczną i cieplną, rozszerzająca się i zwalniająca fala uderzeniowa definiuje cztery główne strefy:
(a) Bardzo blisko uderzenia, energia na kilogram jest wyższa niż energia parowania materiału. Masa utworzonego gazu jest podobna do masy impaktora przy prędkościach 20 km s-1.
(b) W dalszej odległości energia na kilogram jest wyższa niż energia topnienia. Masa cieczy jest zazwyczaj 10 do 20 razy większa od masy impaktora przy 20 km s-1.
(c) W odległości od uderzenia, która jest proporcjonalna do rozmiaru impaktora i zależy od konkretnej energii spójności materiału, fala uderzeniowa nie jest w stanie rozdrobnić materiału. Odległość ta definiuje promień RS przejściowej wnęki, tzw. "krateru wytrzymałościowego", w którym materiał zostaje oderwany od podłoża.
(d) Poza przejściową wnęką rozprzestrzeniająca się fala uderzeniowa może generować nieniszczące pęknięcia i skutki ciśnienia uderzeniowego.
Na każdym etapie ekspansji prędkość wyrzutu powinna być podobna do prędkości fali uderzeniowej. Najwolniejszy wyrzut, wychodzący z krawędzi przejściowej wnęki, powinien zatem wyjść z prędkością VS, która jest proporcjonalna do pierwiastka kwadratowego energii spójności materiału. To proste prawo skalowania prędkości wyrzutu zostało przetestowane eksperymentalnie dla materiałów tak różnych jak bazalt i piasek pumeksowy. Paraboliczna trajektoria wyrzutu jest następnie określana przez grawitację powierzchniową ciała, które uderzyło. W przypadku najwolniejszego wyrzutu przebyta odległość wynosi V2S/g, co definiuje promień grawitacyjny Rg. Jeśli promień wytrzymałości RS jest mniejszy niż Rg, większość wyrzutu kończy daleko od krateru. Jego ostateczna morfologia jest wtedy morfologią przejściowej wnęki. W przypadku takich "kraterów siły" obserwowany stosunek głębokości do średnicy wynosi około 0,4, co jest wartością bliską wartości 0,5, która odpowiadałaby naszemu uproszczonemu modelowi sferycznie rozszerzającej się fali uderzeniowej (różnica wynika ze zwiększonego rozerwania materiału w pobliżu swobodnej powierzchni). Ostateczny kształt większych kraterów jest zdominowany przez grawitację. Gdy RS jest większe niż Rg, wyrzuty są wciągane z powrotem do podniesionych krawędzi typowych dla dużych kraterów księżycowych i częściowo wypełniają wnękę uderzeniową. Większość energii jest teraz wydatkowana jako energia potencjalna grawitacyjna, tak że rozmiar kraterów grawitacyjnych nie zależy od spójności materiału. Przejście następuje w bardzo małej skali dla materiału niespójnego w silnym polu grawitacyjnym. Na przykład Rg wynosi tylko 1 m dla regolitu księżycowego. W przypadku skalistego podłoża lub ciał o niskiej grawitacji, takich jak asteroidy, przejście to ma skalę kilometrową. Ponieważ materiał opada z powrotem do przejściowej jamy, nie jest zaskakujące, że kratery grawitacyjne są znacznie płytsze niż kratery siłowe, a stosunek głębokości do średnicy wynosi zaledwie jeden do pięciu. Ponadto boczny transport luźnego materiału krawędzi ma tendencję do powrotu do krateru, tak że kratery grawitacyjne stopniowo zanikają z czasem życia proporcjonalnym do kwadratu ich rozmiaru. W przypadku największych kraterów (ponad 20 km średnicy na Księżycu) litosfera nie jest w stanie utrzymać pierwotnej topografii krateru wbrew siłom grawitacyjnym. Częściowe zapadnięcia prowadzą do powstawania złożonych kraterów, charakteryzujących się uskokami, zapadniętymi ścianami i tarasami. Przed tymi długotrwałymi procesami relaksacji odbicie w litosferze tworzy centralny szczyt. Jest to podobne do uderzenia kropli deszczu w kałużę, po czym mała kropla zostaje wystrzelona z powrotem. W skalach powyżej kilkuset kilometrów kratery uderzeniowe nazywane są basenami, wokół których rozprzestrzeniająca się fala uderzeniowa generuje koncentryczne pierścienie. Przekształcenia skorupy wyjaśniają stosunkowo niewielki pionowy zasięg bardzo dużych struktur uderzeniowych (do 10 km dla basenów księżycowych, jeszcze mniej dla basenów na lodowych satelitach). Północne regiony MARS-a stanowią bardzo specyficzny przypadek, ponieważ występują tam duże ilości lodu podpowierzchniowego na coraz większych głębokościach w kierunku południa. Upłynnione wyrzuty z kraterów o odpowiednim zakresie rozmiarów generują "kratery rozbryzgowe" charakteryzujące się ostrą zewnętrzną granicą płatowej osłony wyrzutów. W górnym zakresie rozmiarów, główne zdarzenia kraterowe mogą wystąpić w skali podobnej do rozmiaru samego ciała uderzonego. Propagacja fali uderzeniowej nie może być już rozpatrywana w nieskończonym przybliżeniu powierzchni płaskiej, ale musi być analizowana w trzech wymiarach, biorąc pod uwagę możliwe odbicia na powierzchni. Skupienie fali uderzeniowej może być odpowiedzialne za nieregularne tereny obserwowane w regionach przeciwległych do głównych uderzeń w kilka ciał Układu Słonecznego, takich jak Merkury. Symulacje eksperymentalne zostały przeprowadzone w skali mniejszej niż 10 cm, co wykazało, że maksymalny rozmiar krateru, powyżej którego następuje całkowita fragmentacja, wynosi około 40% rozmiaru ciała uderzonego. Zapis powstawania kraterów w Układzie Słonecznym jest niezwykłym dowodem na słuszność praw skalowania dla kraterów uderzeniowych: kratery podkrytyczne rzeczywiście zaobserwowano dla szerokiego zakresu ciał Układu Słonecznego, w szczególności Fobosa (25 km), największego z dwóch satelitów Marsa, z jego dużym kraterem Stickney (9 km średnicy), ale także asteroid, takich jak Ida i Mathilde, oraz lodowych satelitów, takich jak Mimas. W przypadku Fobosa liniowe rowki pochodzące ze Stickneya i rozprzestrzeniające się na całej powierzchni sugerują, że nastąpiło globalne pęknięcie, zatrzymując się tuż przed fragmentacją. Modele pokazują, że w głównym pasie asteroid wszystkie obiekty mniejsze niż około 200 km mają czas życia krótszy niż wiek Układu Słonecznego. Fragmentacja niekoniecznie oznacza zniszczenie: jeśli ciało jest duże i/lub słabe, jego energia grawitacyjna jest znacznie większa niż energia spójności. W takim przypadku fragmenty ponownie złożą się w "stosy gruzu" o równowagowym kształcie elipsoidalnym, jeśli ciało obraca się. Oczekuje się, że te obiekty będą stanowić znaczną część asteroid o średnich rozmiarach. Najbardziej dramatycznym wydarzeniem kraterowym w wewnętrznym układzie słonecznym było prawdopodobnie gigantyczne uderzenie ciała wielkości Marsa w Ziemię, które jest obecnie powszechnie uważane za odpowiedzialne za powstanie Księżyca. Proste proporcjonalne skalowanie między rozmiarem uderzającego ciała a rozmiarem krateru w zakresie siły jest bardzo dobrze uzasadnione eksperymentami. Zależność od prędkości uderzenia jest znacznie bardziej złożona. Analogia z kraterami eksplozji doprowadziła do hipotezy, że objętość krateru jest po prostu proporcjonalna do energii uderzenia, a zatem kwadratu prędkości uderzenia. Zakłada to prawidłowo, że powstawanie pęcherzyka gazu można uznać za źródło punktowe w porównaniu z rozmiarem krateru. To założenie "skalowania energii" wydawało się zgodne z ekstremalnie nieelastycznym charakterem procesu powstawania kraterów. Wyniki eksperymentów w słabo spoistym materiale sugerowały zależność od pędu, a nie energii, stąd objętość, która jest proporcjonalna do prędkości uderzenia. Wszystkie ostatnie wyniki mieszczą się w zakresie między tymi dwoma modelami. Zależna od modelu zmienność prędkości stanowi poważny problem przy próbie dostosowania dobrze skalibrowanej krzywej produkcji księżycowej do określenia bezwzględnych wskaźników produkcji kraterów na innych ciałach Układu Słonecznego: jak widzieliśmy, prędkości uderzenia mogą być znacznie wyższe (Merkury) lub niższe (asteroidy, lodowe satelity) niż na Księżycu. Po utworzeniu na powierzchni ciała Układu Słonecznego kratery nie są wieczne. Procesy geologiczne i erozja mogą wymazać zapis kraterowania. Na Ziemi większość powierzchni odnawia się w skali milionów lat. Na Marsie istnieje uderzająca różnica w zakresie zapisu kraterowania między starą półkulą południową a półkulą północną, która pozostawała geologicznie aktywna przez ponad 3 miliardy lat. Nawet na nieaktywnych ciałach pozbawionych atmosfery, takich jak Księżyc lub Merkury, zachodzą dwa główne procesy zewnętrzne: zacieranie uderzeniowe i erozja uderzeniowa. Zacieranie występuje, gdy powstanie nowego krateru niszczy cały lub część wcześniej istniejącego krateru. Czas życia przed zatarciem wydłuża się w przypadku dużych kraterów, które przetrwają wszystkie uderzenia lokalne oprócz największych. Proces ten dominował podczas ogona akrecyjnego, gdy strumień uderzeń był bardzo duży. Erozja uderzeniowa jest wynikiem postępującej modyfikacji kształtu krateru przez małe uderzenia, których jest bardzo dużo (zwykle 1000 razy więcej dla rozmiaru, który jest 10 razy mniejszy od pierwotnego obiektu uderzającego). Procesy erozji są silnie zależne od grawitacji: w środowiskach o niskiej grawitacji, takich jak małe satelity lub asteroidy, wyrzuty z małych uderzeń zostaną usunięte z okolic krateru, co prowadzi do prostego procesu erozji "piaskowania". W znaczącym polu grawitacyjnym takie wyrzuty przemieszczają się preferencyjnie w dół zbocza, z szybkością proporcjonalną do kąta nachylenia i odwrotnie proporcjonalną do grawitacji. Wzniesienia (krawędź) i obniżenia (dno krateru) mają tendencję do relaksacji w kierunku poziomym, podobnie jak rozpraszanie impulsu cieplnego, dlatego czas życia jest proporcjonalny do kwadratu średnicy krateru. Te stare kratery o stonowanej topografii są widoczne w pobliżu terminatora, gdzie nasycają powierzchnię.
Kratery jako chronometr powierzchni ciał Układu Słonecznego
Ponieważ małe kratery mają krótsze czasy życia, rozkład częstości występowania kraterów na powierzchni przedstawia dwie domeny: obszar nasycenia, przy małych rozmiarach, gdzie kratery są w stanie ustalonym, oraz obszar produkcji, charakteryzujący się bardziej stromą zależnością od rozmiaru, odpowiadający dużym kraterom, które generalnie przetrwały od momentu powstania. Tylko ten ostatni jest interesujący przy próbie wykorzystania zapisu powstawania kraterów do określenia wieku powierzchni. Rozkład wielkości w obszarze produkcji jest mniej więcej podobny dla powierzchni w całym Układzie Słonecznym, od Merkurego do satelitów Jowisza . Uważa się, że jest to konsekwencja rozproszenia uderzeń w Układzie Słonecznym przez zaburzenia grawitacyjne, które nie modyfikują rozkładu masy populacji. Nie ma kontrowersji, jeśli trzymamy się względnych wieków: na danym ciele obszar z niewielką liczbą dużych kraterów jest młodszy niż inny obszar o większej gęstości takich cech. Jeśli wiek jest mniejszy niż 4 miliardy lat, w domenie stanu stacjonarnego wtórnych ciał uderzających, oczekuje się, że będzie proporcjonalny do gęstości dużych kraterów. Ponadto, gwałtowny wzrost strumienia oznacza, że różnice wieku rzędu kilku 100 milionów lat mogą skutkować bardzo różną gęstością kraterów. Ponieważ ogólna szybkość jest inna dla każdego regionu Układu Słonecznego, określenie bezwzględnego wieku na podstawie zapisu kraterów jest w dużej mierze zależne od modelu. Na przykład wiek wyprowadzony dla starych terenów Marsa może różnić się o ponad miliard lat, a podobne kontrowersje narastają w przypadku EUROPA, satelity Jowisza. Jego wysoce kulista powierzchnia mogłaby zostać odnowiona w krótkich skalach czasowych, zgodnie z poglądami zwolenników globalnego oceanu znajdującego się kilka 10 km pod powierzchnią. Księżyc stanowi jak dotąd wyjątkową sytuację: próbki pobrane przez misje APOLLO i LUNA dostarczają bezwzględnego wieku dla dziewięciu regionów, dwóch na wyżynach i siedmiu na morzu, które obejmują ponad 1,2 miliarda lat. Tak więc próbki księżycowe zapewniają kalibrację dla wieku kraterów z dokładnością do kilku 10 milionów lat. Kontrowersje dotyczące wieku powierzchni innych planet zostaną rozwiązane, gdy tylko będzie dostępnych kilka próbek. Powrót próbki z Marsa może nastąpić w ciągu następnych 10 lat. Nawet pojedyncze określenie wieku absolutnego mocno ograniczy wiek wszystkich jednostek powierzchniowych na planecie poprzez kalibrację krzywej produkcji kraterów. Alternatywnie można rozważyć określenie wieku radioizotopowego in situ, ale nadal stanowi to ogromne wyzwanie.
Efekty kraterów uderzeniowych na dużą skalę
Kraterowanie uderzeniowe jest głównym procesem ewolucji powierzchni ciał Układu Słonecznego. Jego rolę można omówić jako funkcję wieku powierzchni. Niewiele ciał zachowało wysoki poziom aktywności wewnętrznej do tej pory. Oprócz naszej Ziemi, tylko WENUS i Mars miały znaczące epizody magmowe w ciągu ostatnich dwóch miliardów lat. Ogrzewanie pływowe nadal napędza rozległe procesy wewnętrzne dla dwóch najbardziej wewnętrznych satelitów Galileusza, IO i Europy. Podobne procesy miały miejsce na DIONE i ENCELADUSIE, dwóch satelitach Saturna, a także na MIRANDZIE, satelicie Urana. Na Ganimedesie zmiany fazowe lodu odgrywają główną rolę, a powierzchnia jąder komet jest ablacji przez sublimację substancji lotnych. Erozja może być głównym czynnikiem dla stałych ciał planetarnych z atmosferą (Ziemia, Mars, Wenus i TYTAN). W przypadku powierzchni młodszych niż kilkaset milionów lat, kraterowanie jest rzadkim, katastrofalnym zdarzeniem, które odgrywa niewielką rolę w lokalnej topografii. Na drugim końcu skali,
powierzchnie asteroid, małych lodowych satelitów, CALLISTO i wyżyn Merkurego i Księżyca mają ponad 4 miliardy lat. Były świadkami okresu wysokiego strumienia akrecyjnego ogona. Ich znakiem rozpoznawczym jest nasycenie kraterami o wszystkich rozmiarach. Te bardzo wysokie strumienie popękały skorupę na przestrzeni kilkudziesięciu kilometrów. Ta pęknięta warstwa nazywana jest megaregolitem. W przypadku asteroid średniej wielkości, megaregolit może rozciągać się do środka, co skutkuje strukturą stosu gruzu. Pęknięcia wywołane przez największe baseny rozciągają się do podstawy skorupy planetarnej. Kilkaset milionów lat później, ciepło z rozpadu długowiecznych radionuklidów wyzwala epizody magmowe w płaszczu. Lawa unosi się na powierzchnię w regionach pęknięć i zalewa przede wszystkim duże baseny. Proces ten jest przyczyną powstawania morza na Księżycu i Merkurym. Ostatnie postępy w astronomii planetarnej (Kosmiczny Teleskop Hubble′a, optyka adaptacyjna) umożliwiły identyfikację takich regionów bazaltowych na VESTA. Ten sam cykl wystąpił zatem na zróżnicowanych asteroidach, ale w znacznie krótszej skali czasowej, biorąc pod uwagę znacznie mniejszy rozmiar tych ciał. Źródło ciepła jest nadal przedmiotem debaty. Na Ziemi tektonika płyt całkowicie zatarła ślady wczesnych dużych uderzeń. Osłabienie skorupy ziemskiej na dużą skalę z powodu uderzeń mogło jednak odegrać rolę we wczesnych stadiach tektoniki płyt. Mars stanowi interesujący przypadek pośredni: półkula południowa jest podobna do księżycowej, z dwoma dużymi basenami Hellas i Argyre, podczas gdy półkula północna (z rozszerzeniem na południe nad regionem Tharsis) jest zdominowana przez procesy tektoniczne i wulkaniczne. W ciągu ostatnich 4 miliardów lat częstotliwość uderzeń była znacznie niższa, a skala efektów kraterowania odpowiednio mniejsza. Tu i ówdzie kilka dużych uderzeń nadal tworzyło duże kratery (Kopernik i Tycho to największe kratery tego typu na Księżycu). Stały deszcz małych uderzeń spowodował powstanie warstw gruzu o grubości od kilku do kilkudziesięciu metrów, REGOLITH. Regality są wszechobecnymi cechami powierzchni ciał bezatmosferycznych w całym Układzie Słonecznym. Techniki teledetekcji, które badają najwyższe warstwy, nie dają bezpośrednich informacji o podłożu skalnym, ale o leżącej nad nim warstwie pyłu i fragmentów skalnych. Na szczęście w takiej sytuacji transport boczny może być wywołany tylko przez uderzenia, stąd ma bardzo nieefektywne zachowanie losowego spaceru. Skala mieszania bocznego wynosi kilkaset metrów na dużych ciałach, takich jak Merkury, Księżyc lub duże lodowe satelity. Jest ona odwrotnie proporcjonalna do grawitacji, co wyjaśnia względną jednorodność powierzchni małych planetoid obserwowanych przez Galileusza (Gasprę i Idę) oraz Neara (Mathilde).
Efekty kraterów uderzeniowych na małą skalę
Zdumiewające podobieństwo kraterów uderzeniowych sięga rozmiarów mikroskopijnych. Niewielkie uderzenie w pojedynczą skałę lub ziarno na powierzchni planety tworzy mikrokrater , który podlega tym samym regułom skalowania, co kratery o sile makroskopowej w podłożu skalnym. Powyżej średnicy w zakresie 40% rozmiaru skały lub ziarna następuje fragmentacja. W rezultacie rozmiar cząstek regolitu powoli zmniejsza się od grubego świeżego EJECTA do bardzo drobnego pyłu (zwykle o rozmiarze 50 μm). Proces ten powinien być dość podobny na ciałach skalistych i lodowych, ponieważ lód ma zachowanie mechaniczne podobne do skały w bardzo niskich temperaturach zewnętrznego układu słonecznego. Na ciałach skalistych dwa procesy związane z uderzeniem mają tendencję do zwiększania rozmiaru cząstek. Powłoka z rozprysków cieczy lub osadów parowych odgrywa stosunkowo niewielką rolę. Frakcja płynna z uderzeń o wielkości centymetra może zespawać ziarna, tworząc szkliste aglutynaty lub krzepnąć w locie, tworząc szklane kuleczki. Udział szklanych cząstek wzrasta w funkcji czasu ekspozycji próbki na przestrzeń, który jest zdefiniowany przez lokalną historię kraterów wielkości metra. Badanie próbek księżycowych pokazuje, że na Księżycu po kilku dziesięciu milionach lat w najwyższym centymetrze osiągany jest stan ustalony w ewolucji rozkładu wielkości: aglutynacja dokładnie kompensuje fragmentację, podczas gdy udział szklanych cząstek nadal wzrasta, osiągając ponad 50% w najbardziej odsłoniętych glebach księżycowych. Ta ewolucja próbki gleby z grubej, krystalicznej świeżej EJECTA do drobnoziarnistej, bogatej w szkło gleby nazywana jest dojrzałością. Obejmuje ona również ekspozycję na cząstki wiatru słonecznego i promienie kosmiczne. Jej najbardziej dramatycznym efektem jest obniżenie albedo o ponad 30%, ponieważ szklane cząstki są ciemniejsze niż oryginalne ziarna krystaliczne. Świeże wyrzuty tworzą jasne promienie rozciągające się promieniście od młodszych dużych kraterów. Wraz ze wzrostem dojrzałości promienie te stopniowo zanikają w tle. Dojrzałość to równowaga między kraterowaniem na dużą skalę, które kontroluje szybkość, z jaką świeży materiał jest wynoszony na powierzchnię, a uderzeniami o wielkości poniżej centymetra, które kontrolują szybkość formowania się szklistych cząstek. Trudno jest ekstrapolować dobrze znaną sytuację księżycową na inne ciała skaliste. Jednak na Merkurym prędkości uderzeń są zwykle dwa razy większe, generując więcej materiału płynnego, a regolit powinien być bardziej dojrzały niż na Księżycu. Sytuacja na ciałach lodowych jest trudniejsza do oceny. Można oczekiwać, że kropelki wody w stanie ciekłym powstające podczas uderzeń będą odgrywać podobną rolę w spawaniu ziaren lodu w "lodowe aglutynaty" i krzepnięciu w locie, tworząc lodowe kuleczki, ale ewolucja czasowa lodowych regolitów jest nadal wysoce spekulatywna
Cygnus X-1
Cygnus X-1 jest jednym z najsilniejszych źródeł promieniowania rentgenowskiego. Jest to pierwszy obiekt niebieski, dla którego mieliśmy dość przekonujące dowody, że jest CZARNĄ DZIURĄ. Jego właściwości rentgenowskie obejmują ultramiękkie widmo, w porównaniu do masywnych rentgenowskich układów podwójnych zawierających gwiazdę neutronową, szybkie (∿ 1 s) migotanie i wysokie/niskie stany strumienia o różnych charakterystykach widmowych. W 1971 r. ŹRÓDŁO RADIOWE pojawiło się w momencie przejścia między dwoma stanami strumienia. Źródło to pokrywa się z superolbrzymem O9.7Iab HDE226868. Odkryto, że ta gwiazda jest jednoliniową spektroskopową gwiazdą podwójną i elipsoidalną zmienną o okresie orbitalnym 5,6 dnia. Późniejsze obserwacje rentgenowskie wykazały, że strumień promieniowania rentgenowskiego zmienia się wraz z okresem orbitalnym i innym okresem znalezionym na krzywej blasku, potwierdzając tym samym, że Cygnus X-1 jest masywnym UKŁADEM PODWÓJNYM PROMIENIOWANIA RENTGENOWSKIEGO. Prędkości radialne linii emisyjnych H i He II w widmach optycznych pokazują, że masa przepływa z HDE226868 w kierunku Cygnus X-1. Profile linii emisyjnych sugerują, że masa jest przenoszona przez skupiony wiatr gwiazdowy. Ponieważ Cygnus X-1 nie jest układem podwójnym zaćmieniowym, nie możemy precyzyjnie określić masy źródła promieniowania rentgenowskiego. Możemy jednak nałożyć silne ograniczenia na krytyczne parametry systemu, używając programu syntezy krzywej blasku do modelowania elipsoidalnych zmian światła i szerokości linii absorpcyjnych HDE22686. Modele są dodatkowo ograniczone przez efektywną temperaturę gwiazdy, krzywą prędkości radialnej linii absorpcyjnej i odległość oszacowaną na podstawie wzrostu różnych efektów ośrodka międzygwiazdowego, przy czym odległość jest określana poprzez pomiar gwiazd w polu wokół HDE226868. Na szczęście wyniki modelowania nie są wrażliwe na założenia, które muszą zostać poczynione w trakcie procesu. Ta analiza daje silne dolne ograniczenie masy Cygnusa X-1, Mx > 7M⊙ . Jest to ponad dwukrotność górnej granicy masy gwiazdy neutronowej, Mns < 3,2M , zgodnie z teorią OGÓLNEJ WZGLĘDNOŚCI. Cygnus X-1 był pierwszym obiektem, dla którego istniał przekonujący argument, że jest czarną dziurą. Minęła prawie dekada od pierwszego rozpoznania, że Cygnus X-1 musi być czarną dziurą, zanim odkryto kolejny przykład.
Źródło promieniowania rentgenowskiego
Silne źródło promieniowania rentgenowskiego Cygnus X-1 zostało po raz pierwszy odkryte przez rakietowy detektor promieniowania rentgenowskiego w 1964 roku. Jest jednym z pięciu najsilniejszych źródeł promieniowania rentgenowskiego w zakresie energii 2-10 keV. Ma dwa odrębne "stany" promieniowania rentgenowskiego, pierwotnie oznaczone jako wysoki i niski. Widmo promieniowania rentgenowskiego jest twardsze, to znaczy ma większy udział fotonów o wysokiej energii, w stanie niskim, nie tylko z powodu spadku strumienia promieniowania rentgenowskiego o niskiej energii, ale również dlatego, że strumień promieniowania rentgenowskiego dla energii większych niż 10 keV wzrasta w tym samym czasie. Podobnie strumień o wysokiej energii spada, gdy strumień o niskiej energii wzrasta. W rezultacie powszechną praktyką jest obecnie oznaczanie "stanów" odpowiednio jako miękki i twardy. Długoterminowe monitorowanie Cygnus X-1 wykazało, że różne stany mogą trwać od tygodni do lat. Nie ma charakterystycznych skal czasowych dla dwóch stanów. Co więcej, zaobserwowano co najmniej dwa inne "stany" przynajmniej raz. Stany te muszą odzwierciedlać zmiany w tempie akrecji lub strukturze DYSK AKRECYJNY, ale jak dotąd nikt nie zaproponował modelu, który wyjaśniałby wszystkie obserwacje. Zmiany strumienia promieniowania rentgenowskiego nie ograniczają się do zmian stanu. W rzeczywistości strumień promieniowania rentgenowskiego zmienia się w skalach czasowych od ∿1 ms do co najmniej skal czasowych związanych ze zmianami stanu. Obejmują one zmiany strumienia, które są modulowane okresem orbitalnym i zmiennym, dłuższym okresem, który może być okresem precesji pewnej struktury w układzie. Są one nałożone na tło szumu śrutowego i okazjonalnych rozbłysków. 5,6-dniowa zmiana strumienia promieniowania rentgenowskiego jest najłatwiejsza do zrozumienia. Minima trwają 27% okresu orbitalnego i są skoncentrowane dokładnie wokół czasu górnej koniunkcji czarnej dziury z gwiazdą O. Minima są głębsze w niższych pasmach energetycznych. Faza i kształt widmowy minimów wskazują, że zmiana jest spowodowana absorpcją fotoelektryczną przez skupiony wiatr gwiazdowy z gwiazdy O. Zmiany te są obserwowane tylko w stanie twardym. Antykorelacja szerokości równoważnika linii emisyjnej H? z miękkim strumieniem promieniowania rentgenowskiego w stanie miękkim w 1996 roku wspiera tę ideę. Monitorowanie strumienia 3-12 keV Cygnus X-1 w latach 1969-1980 wykazało, że średni strumień zmienia się z okresem P = 294±4 dni. Strumień promieniowania rentgenowskiego jest na poziomie maksymalnym przez około 40% okresu 294 dni. Spadek do minimalnego strumienia, który stanowi około 75% maksymalnego strumienia, trwa o połowę krócej niż powrót do maksymalnego strumienia. Od sierpnia 1996 do września 1998, podczas stanu twardego następującego po stanie miękkim z 1996 roku, zarówno strumień 2-10 keV, jak i 20-100 keV zmieniał się z okresem 142 ± 7 dni. Amplituda w paśmie 2-10 keV była prawie dwukrotnie większa od obserwowanej wcześniej, a kształt krzywej strumienia był niemal lustrzanym odbiciem tej dla okresu 294 dni. Pozostaje pytanie, czy osobliwy związek między okresami i krzywymi blasku jest czymś więcej niż niezwykłym zbiegiem okoliczności. Krótkoterminowe zmiany strumienia promieniowania rentgenowskiego można opisać za pomocą szumu śrutowego, rodzaju szumu wynikającego z superpozycji dużej liczby zaburzeń (strzałów), które występują losowo. Strzały mają charakterystyczną skalę czasową około 20 ms, ale ich cechy zmieniają się w złożony sposób wraz z energią i stanem promieniowania rentgenowskiego. Wszystkie strzały narastają wolniej do szczytowej intensywności niż opadają. Szczyty ujęć w wyższych energiach są węższe i bardziej asymetryczne niż te w pasmach o niskiej energii. Podczas stanów twardych i przejściowych średnia twardość ujęć jest niższa niż emisja stacjonarna. Podczas stanu miękkiego średnia twardość ujęć jest większa niż emisja stacjonarna. Twarde ujęcia rentgenowskie pozostają w tyle za miękkimi ujęciami rentgenowskimi o wartość, która jest funkcją energii. To opóźnienie jest najmniejsze dla stanu twardego i nieznacznie większe niż dla stanu miękkiego, a znacznie większe dla stanu przejściowego. Oddzielne badanie opóźnienia czasowego Fouriera, opóźnienia czasowego między tą samą fazą w dwóch różnych szeregach czasowych, doprowadziło do podobnych wniosków przy użyciu danych rentgenowskich twardego stanu. Oznacza to, że prawie wszystkie twarde i miękkie zmiany strumienia występują jednocześnie. Jednocześnie szeregi czasowe w różnych kanałach energetycznych wykazują prawie całkowitą spójność do ≈0,02 Hz i po niewielkiej utracie spójności w pobliżu 10-2 Hz, powracają do prawie jedności przy 0,005 Hz. Trudno to zrozumieć, jeśli zmiany strumienia twardego i miękkiego powstają niemal jednocześnie, ponieważ twarde fotony są rozpraszane znacznie częściej niż fotony miękkie. Widmo stanu twardego Cygnusa X-1 można przedstawić jako sumę miękkiego składnika termicznego i twardego, nietermicznego składnika potęgowego z odcięciem wysokiej energii w pobliżu 150 keV. Widmo potęgowe jest modyfikowane przez ponowne przetwarzanie cech, w szczególności słabej linii fluorescencji żelaza przy 6,4 keV i prawdopodobnie garbu odbicia Comptona w pobliżu 30 keV. W stanie miękkim miękki składnik termiczny zwiększa się o współczynnik kilku, podczas gdy twardy, nietermiczny składnik potęgowy spada o 10-20%. Wszystkie cztery składniki widmowe są zwykle wyjaśniane w kontekście modeli korony dysku akrecyjnego, w których promieniowanie cieplne pochodzi z dysku akrecyjnego i jest komptonizowane w gorącej plazmie, "koronie dysku akrecyjnego". Modele te mogą skutecznie odtworzyć widmowe zmiany między stanem miękkim i twardym, jeśli dysk akrecyjny rozciąga się do wewnątrz do ostatniej stabilnej orbity wokół czarnej dziury, a centralna korona wypełnia niewielką objętość w stanie miękkim, a wewnętrzna krawędź dysku jest znacznie dalej od czarnej dziury, a centralna korona jest znacznie większa w stanie twardym. Nie ma jednak powszechnie akceptowanego modelu geometrii lub dynamiki układu dysku akrecyjnego/koron dysku akrecyjnego. W tej chwili nie jest jasne, czy którykolwiek z modeli odniósł sukces w odtworzeniu czegokolwiek więcej niż widma rentgenowskiego. Próby wyjaśnienia zmienności w krótkiej skali czasowej odniosły co najwyżej ograniczony sukces, a precesję traktowano jakościowo jako oddzielny problem.
Krzywe jasności optycznej
Aby określić masy gwiazd w UKŁADACH PODWÓJNYCH, musimy określić nachylenie orbity i, gdzie i jest kątem między płaszczyzną orbity a płaszczyzną nieba. Zasadniczo, gdy nie ma zaćmień i nie można rozróżnić układu podwójnego, najlepszą metodą określenia i jest polarymetria optyczna. Jednak HDE226868 jest tak słaby, że błędy fotometryczne sprawiają, że wynik polarymetryczny, 25° < i < 65°, jest zasadniczo bezużyteczny do określenia i. Ze względu na charakter transferu masy w układzie Cygnus X-1, spodziewamy się, że HDE226868 będzie bardzo blisko wypełnienia swojego ROCHELOBE. Oznacza to, że gwiazda zostanie silnie zniekształcona w kształt mniej więcej elipsoidalny, przy czym długa oś elipsoidy będzie wyrównana z linią między gwiazdą a czarną dziurą, a koniec elipsoidy skierowany w stronę czarnej dziury zostanie rozciągnięty w punkt. Obszary gwiazdy, które są dalej od środka, będą miały niższą jasność powierzchniową niż te, które są bliżej środka. Nazywa się to przyciemnieniem grawitacyjnym lub rozjaśnieniem grawitacyjnym. Jeśli nie ma innych źródeł światła i oglądamy gwiazdę zniekształconą pływowo z kierunku płaszczyzny orbity, tj. i = 90°, krzywa blasku będzie miała płytsze, zaokrąglone minimum przy fazie orbitalnej Φ = 0,0, koniunkcji górnej czarnej dziury, ostrzejsze, głębsze minimum przy ? = 0,5, koniunkcji dolnej czarnej dziury i szerokie równe maksimum między minimami. Strumień świetlny jest mniejszy w koniunkcjach, ponieważ obszary gwiazdy rzutowane na niebo są mniejsze, jasności powierzchniowe tych obszarów są niższe z powodu efektów przyciemnienia grawitacyjnego. Głębokości minimów zależą od temperatury. W tym przypadku głębokości będą rosły wraz ze zmniejszaniem się długości fali z powodu wysokiej efektywnej temperatury HDE226868. W bardziej ogólnym przypadku amplituda zmiany światła zależy od stosunku mas q = Mx/Mopt, gdzie Mx jest masą czarnej dziury, a Mopt jest masą HDE226868, współczynnika wypełnienia ρ, stosunku promienia objętości gwiazdy (tj. promienia kuli o objętości równoważnej do objętości gwiazdy) do promienia kuli o objętości równoważnej objętości płata Roche′a i kąta nachylenia orbity i. Większe q i ρ zwiększą zniekształcenie pływowe gwiazdy, a tym samym zwiększą amplitudę krzywej blasku. Gdy i zmniejsza się od 90°, amplituda krzywej blasku zmniejsza się, a różnice w amplitudzie i kształcie między dwoma minimami stopniowo zanikają. Ponadto przy niskich nachyleniach efekty przyciemnienia grawitacyjnego stają się tak małe, że amplituda krzywych blasku jest niezależna od długości fali przynajmniej w obszarze optycznym. Krzywe światła optycznego HDE226868 obserwowane w stanie twardym źródła promieniowania rentgenowskiego wyglądają mniej więcej tak, jak oczekiwano dla układu o niskim nachyleniu. Amplitudy krzywych światła U, B i V wynoszą około 0,025 mag. Krzywa światła jest fazowana zgodnie z oczekiwaniami w stosunku do krzywej prędkości radialnej. Jeśli HDE226868 wypełnia swój płat Roche′a, półamplituda krzywej światła jest prawie niezależna od stosunku mas i można jej użyć do ustalenia dolnej granicy kąta nachylenia orbity i ≥ 27°.Istnieją dwa problemy, które utrudniają pracę z krzywymi światła. Po pierwsze, rozrzut średniokwadratowy wokół krzywej światła wynosi 0,022 mag, co stanowi prawie połowę amplitudy zmienności wewnętrznej. Jest to porównywalne ze zmiennością widoczną w fotometrii pojedynczych, jasnych gwiazd OB i prawdopodobnie wynika z tej samej przyczyny - albo niejednorodności gęstości w ich wiatrach, albo wielookresowych nieradialnych pulsacji. Niestety, ta dodatkowa wewnętrzna zmienność oznacza, że musimy uśredniać obserwacje z kilku lat, aby uzyskać wiarygodne elipsoidalne krzywe blasku. Po drugie, dodatkowy składnik rozproszenia na elipsoidalnych krzywych blasku wynika z okresowych zmian w kształcie krzywej blasku. Po odjęciu 5,6-dniowych elipsoidalnych krzywych blasku od strumieni świetlnych w pasmach U i B uzyskanych w czasie twardego stanu rentgenowskiego między 1972 a 1983 rokiem, mają one krzywe blasku z P = 294 i tym samym kształtem i fazowaniem co strumień rentgenowski w danych pobranych między 1972 a 1983 rokiem. Zmienność jest największa, 0,0061 ą 0,0012 mag, w paśmie U, mniejsza w paśmie B i statystycznie niewykrywalna w paśmie V. Porównanie 5,6-dniowych krzywych jasności uzyskanych podczas jasnych i słabych faz rentgenowskich okresu 294 dni pokazuje, że gdy źródło promieni rentgenowskich jest jaśniejsze, krzywe jasności optycznej są jaśniejsze we wszystkich fazach, z wyjątkiem czasu dolnej koniunkcji źródła promieni rentgenowskich. Faza i względna amplituda krzywych jasności optycznej sugerują, że zmiany optyczne są spowodowane gorącym źródłem między źródłem promieni rentgenowskich a HDE226868. Nie zaproponowano żadnych modeli wyjaśniających, dlaczego strumienie optyczne i rentgenowskie zmieniają się w fazie. Orbitalna modulacja krzywych jasności optycznej zanikła w stanie miękkiego promieniowania rentgenowskiego w 1996 r., podczas gdy 142-dniowa długoterminowa modulacja trwała. Modulacja orbitalna powróciła do normy, gdy źródło promieni rentgenowskich powróciło do stanu twardego. Oczywiste jest, że wyniki te podnoszą poważne pytania dotyczące standardowych założeń, które są przyjmowane w różnych schematach wyprowadzania masy czarnej dziury w Cygnus X-1. Dokładna inspekcja wielu średnich krzywych światła nie jest zachęcająca. Żadna z nich nie pasuje do standardowego modelu elipsoidalnej krzywej światła.
HDE226868: obserwacje spektroskopowe
Widmo optyczne HDE226868 zostało sklasyfikowane jako O9.7Iab(p-var), gdzie osobliwość dotyczy słabej, zmiennej emisji w linii He II ?468,6 nm. Słaba zmienna emisja występuje również w liniach H?, H? i H?. Widmo linii absorpcyjnych jest bardzo podobne do widma porównywalnych nadolbrzymów, ale atmosfera gwiazdy może być przepełniona He i C. PRĘDKOŚCI RADIALNE mierzone z linii absorpcyjnych pokazują, że HDE226868 jest pojedynczym układem spektroskopowym podwójnym o okresie orbitalnym P = 5,5998 dni i półamplitudzie prędkości radialnej Kopt = 74,7 km s-1. Daje to funkcję masy
Pomiary prędkości radialnych linii emisyjnych dają krzywą prędkości, gdzie maksymalna prędkość jest przesunięta o około 0,75P od maksymalnej prędkości radialnej linii absorpcyjnych. Wskazuje to, że linie emisyjne powstają w gazie, który leży na lub w pobliżu linii łączącej dwie gwiazdy i płynie od widocznej gwiazdy do źródła promieniowania rentgenowskiego. Pokazuje to, że widoczna gwiazda musi wypełnić lub prawie wypełnić swój płat Roche′a. Szczegółowe analizy profili emisji pokazują, że są one mieszanką dwóch składników, profilu P Cygni, który podąża za krzywą prędkości radialnej linii absorpcyjnej i szerokiej, mniej więcej symetrycznej, cechy emisji, która jest przesunięta o 0,86P względem krzywej prędkości linii absorpcyjnej. Analizy te wskazują, że linie emisyjne powstają w obszarze mniejszym niż 0,1Ropt nad powierzchnią HDE226868, gdzie Ropt jest promieniem gwiazdy. Średnia prędkość przepływu w tym obszarze jest mniejsza niż 100 km s-1. Szerokość cech emisji, FWHM < 400 km s-1 jest zgodna z gradientem prędkości oczekiwanym w skoncentrowanym wietrze gwiazdowym. Prędkość przepływu i gradient prędkości w strumieniu gazu raczej nie będą tak duże tak blisko gwiazdy. Emisja z wypływu nie jest zakryta. Jeśli gwiazda wypełnia 90% swojego płatu Roche′a i bierzemy rozsądny margines błędu w położeniu, w którym powstaje emisja, oznacza to, że i < 55°. Limit ten jest znacznie zmniejszony, jeśli gwiazda wypełnia większą część swojego płatu Roche′a. Górny limit intensywności szczytowej emisji H? z dysku akrecyjnego wynosi 3% strumienia kontinuum z HDE226868. Nie jest to zaskakujące, ponieważ oczekuje się, że dysk akrecyjny będzie znacznie słabszy niż HDE226868.
Masa obiektu kompaktowego
Krzywe światła i prędkości HDE22686 nie dostarczają informacji wymaganych do rozwiązania krytycznych parametrów układu podwójnego, zwłaszcza masy źródła promieni rentgenowskich. Możliwe jest jednak uzyskanie znaczących ograniczeń ważnych parametrów poprzez połączenie informacji uzyskanych z tych krzywych z innymi danymi. Jeśli wektory momentu pędu spinu i orbity są wyrównane, stosunek rzutowanej prędkości obrotowej V sin i do półamplitudy krzywej prędkości linii absorpcyjnej opt jest niezależny od kąta nachylenia orbity
gdzie Ω jest stosunkiem prędkości kątowej wirowania gwiazdy do jej prędkości kątowej orbity, q jest stosunkiem mas, a Φ(Ω, q) jest promieniem objętości płata Roche′a podzielonym przez separację układu. Zależność tę można wykorzystać do wyprowadzenia q dla siatki ρ i Ω. Obliczenia teoretyczne pokazują, że nastąpi katastrofalne przepełnienie płata Roche′a, które stłumi źródło promieniowania rentgenowskiego, jeśli ρ = 1. Ponadto obliczenia teoretyczne profili linii emisyjnych dla modeli wiatru skupionego pokazują, że dla ρ < 0,9 gęstość wiatru nie jest wystarczająco wysoka wzdłuż linii łączącej gwiazdy, aby wytworzyć obserwowaną emisję. Kołowość orbity sugeruje, że siły pływowe miały wystarczająco dużo czasu, aby wprowadzić gwiazdę na orbitę prawie synchroniczną, więc rozsądne jest ograniczenie naszej siatki do wartości bliskich jedności. Amplituda krzywej blasku zależy od q, ρ, Ω i i. Kształt gwiazdy jest modelowany za pomocą potencjału, który obejmuje
efekty ciśnienia promieniowania zarówno z gwiazdy, jak i źródła promieniowania rentgenowskiego oraz asynchroniczny obrót, do pierwszego rzędu. Proces modelowania rozpoczyna się od zgadywania wartości q i i, a następnie są one wykorzystywane do uzyskania mas składowych, promienia i grawitacji powierzchniowej widocznej gwiazdy. Wielkość V i wygaszenie mogą być wykorzystane do powiązania promienia widocznej gwiazdy z jej odległością d w kpc, Ropt = (9,7 ± 0,9)d. Odległość może być następnie wykorzystana do obliczenia jasności widocznej gwiazdy i źródła promieniowania rentgenowskiego, które są wymagane do oszacowania stosunku przyspieszenia radiacyjnego do grawitacyjnego, które są wymagane przy uwzględnieniu efektów promieniowania w obliczaniu potencjałów. Strumienie i profile intensywności właściwej są obliczane przy użyciu kodu atmosfery modelu. Profile intensywności właściwej są obliczane dla Teff = 27 500 K i grawitacji powierzchniowej, która jest odpowiednia dla wybranych
parametrów. Dane te są wprowadzane do kodu syntezy krzywej blasku, gdzie są integrowane na powierzchni gwiazdy, biorąc pod uwagę efekty ściemnienia grawitacyjnego i ściemnienia krawędzi. Jeśli FWHM profilu linii strumienia i amplituda krzywej blasku nie pasują do obserwacji, q i i są dostosowywane, a proces jest powtarzany aż do uzyskania dopasowania. Ponieważ amplituda krzywej blasku jest najbardziej wrażliwa na i, a FWHM zależy całkowicie od q, wybór dostosowania jest stosunkowo łatwy, a proces zbiega się w ciągu kilku iteracji. Krzywa blasku V z lat 1972-1983 została użyta w tym celu, ponieważ wydawała się najmniej dotknięta zaburzeniami odnotowanymi wcześniej. Na szczęście wyniki tego ćwiczenia są niewrażliwe na założenia poczynione podczas obliczeń. Obejmują one wartość prędkości makroturbulentnej użytej do obliczenia teoretycznych profili linii, uwzględnienie lub pominięcie efektów ciśnienia promieniowania i koliniowość wektorów momentu pędu. W przypadku niemal synchronicznego obrotu i dużego
uwzględnienia niepewności, Mopt = 33 ± 9 M⊙ i Mx = 16 ± 5 M⊙. Wartości te są zgodne z szacunkami odległości opartymi na ultrafiolecie i kolorach optycznych HDE226868 oraz badaniami absorpcji międzygwiazdowej jako funkcji odległości dla gwiazd w otaczającym polu. Absolutny dolny limit odległości oparty na tych danych wynosi d > 1,7 kpc. Odpowiada to Mopt = 20 M⊙ i Mx = 7 M⊙. Alternatywna analiza oparta na zunifikowanych modelach atmosfery i wiatru dopasowanych do widm HDE226868 uzyskała nieco niższe wartości, Mopt = 18 M⊙ i Mx = 10 M⊙. Wynik ten zależy również niejawnie od krzywych blasku w celu uzyskania nachylenia, choć w mniejszym stopniu niż pierwsza metoda, i nie podano żadnych szacunków błędów. Gdyby tak było, prawdopodobnie błędy dla obu metod by się nakładały.
Ciemna materia w galaktykach
Ciemna materia w galaktykach spiralnych
GALAKTYKI SPIRALNE to płaskie, obracające się układy. Gwiazdy i gaz w dysku poruszają się po niemal kołowych orbitach, a pole grawitacyjne galaktyki zapewnia przyspieszenie do wewnątrz wymagane do ruchu kołowego. Obrót tych galaktyk zwykle nie jest taki jak ciała stałego: prędkość kątowa obrotu zwykle maleje wraz z promieniem. W przybliżeniu, zakładając grawitację Newtona, prędkość obrotowa V(r) przy promieniu r jest związana z całkowitą masą M(r) w promieniu r za pomocą równania V 2(r) = GM(r)/r, gdzie G jest stałą grawitacyjną. Radialną zmianę prędkości obrotowej (krzywą obrotu) najłatwiej zmierzyć z gazu w dyskach. Linie emisyjne zjonizowanego gazu w obszarach wewnętrznych mierzy się za pomocą spektrografów optycznych. Za pomocą teleskopów radiosyntezy krzywe rotacji można mierzyć z neutralnego wodoru (H I), który emituje wąską linię widmową przy 1420 MHz (długość fali 21 cm). Zainteresowanie pomiarem krzywych rotacji galaktyk spiralnych polega na tym, że dają one bezpośredni pomiar radialnego rozkładu całkowitej masy grawitującej. Do początku lat 70. większość danych dotyczących rotacji spirali pochodziła z obserwacji optycznych, które nie wykraczały poza jasne obszary wewnętrzne. W tym czasie krzywe rotacji optycznej wydawały się zgodne z rozkładem świetlistej materii. Dzięki budowie RADIOTELESKOPÓW, takich jak Teleskop Radiosyntezy Westerbork w Holandii, stało się możliwe zmierzenie rozkładu i rotacji H I w galaktykach spiralnych. Wkrótce odkryto, że H I w wielu spiralach rozciąga się daleko poza światło gwiazd i że krzywe rotacji H I w takich galaktykach często wykazywały niemal stałą prędkość obrotową aż do radialnych granic danych. Było to nieoczekiwane, ponieważ płaska krzywa rotacji oznacza, że całkowita masa spirali w pewnym promieniu r wzrasta liniowo wraz z r, podczas gdy całkowita jasność zbliża się do skończonej granicy asymptotycznej wraz ze wzrostem r. Szybko stało się jasne, że do wyjaśnienia tych płaskich krzywych rotacji potrzebna jest duża ilość niewidzialnej masy grawitacyjnej (ponad 90% całkowitej masy w niektórych przykładach). Problem zilustrowano na rysunku .

Krzywa rotacji pochodzi z obserwacji H I dobrze zbadanej galaktyki spiralnej, NGC 3198. Krzywa oznaczona jako dysk to krzywa rotacji, której można by się spodziewać, gdyby gęstość masy powierzchniowej w tej galaktyce była proporcjonalna do rozkładu światła pokazanego na górnym panelu. W tej analizie stała proporcjonalności (stosunek masy do światła) została sprowadzona do możliwie największej wartości, przy założeniu, że całkowita oczekiwana krzywa rotacji nie powinna przekraczać zaobserwowanej krzywej rotacji. Gaz w galaktyce również przyczynia się do oczekiwanej krzywej rotacji, jak pokazano na krzywej oznaczonej jako gaz. Wkład gwiazd i gazu do oczekiwanej krzywej rotacji musi zostać dodany w kwadraturze, aby uzyskać całkowitą oczekiwaną krzywą rotacji. Z krzywych na tym rysunku nie wynika, aby gwiazdy i gaz razem mogły wytworzyć płaską obserwowaną krzywą rotacji. Potrzebny jest dodatkowy masywny i rozciągnięty rozkład ciemnej materii. Wkład rotacji dla prostego modelu ciemnego halo pokazano na rysunku:
model jest tak dobrany, aby ciemne halo plus dysk plus gaz razem dawały krzywą rotacji, która przechodzi przez większość obserwowanych punktów na rysunku. Na radialnym limicie danych ciemne halo zapewnia większość całkowitego pola grawitacyjnego. Model halo na rysunku jest minimalnym halo, w tym sensie, że wkład dysku do krzywej rotacji został wykonany tak duży, jak to możliwe. Gdyby dla dysku przyjęto niższy stosunek masy do światła (M/L), wówczas potrzebne byłoby bardziej centralnie skoncentrowane halo, aby zrekompensować większą rozbieżność między obserwowanymi a oczekiwanymi krzywymi rotacji. Trudno jest zmierzyć stosunek M/L dla dysków niezależnie od samej krzywej rotacji i nadal istnieje wiele kontrowersji co do poprawności podejścia maksymalnego dysku, jak pokazano na rysunku. Sytuacja pokazana na rysunku jest typowa dla prawie wszystkich ALAKSYCZNOŚCI DYSKU, które mają rozszerzone rozkłady H I, w tym małych KARŁOWYCH NIEREGULARNYCH GALAKTYK, które są również w równowadze rotacyjnej. W prawie każdym
przykładzie, masywne ciemne halo, które dominuje nad zamkniętą masą M(r) przy dużym r, jest potrzebne do wyjaśnienia obserwowanych krzywych rotacji. Natura tej ciemnej materii pozostaje nieznana i jest jednym z wielkich problemów współczesnej astrofizyki. W przypadku rozkładów pokazanych na rysunku ciemne halo jest często modelowane dla uproszczenia jako układ sferyczny z radialnym rozkładem gęstości objętościowej w postaci ρ(r) = ρ(0)/(1 + r2/a2), gdzie a jest długością skali, a ρ(0) gęstością centralną. Ten konkretny rozkład został wybrany, ponieważ generuje płaską krzywą obrotu przy dużym promieniu. Sferyczny kształt jest po prostu założeniem. Okazuje się, że bardzo trudno jest zmierzyć kształty ciemnych halo. Obserwuje się, że cienka warstwa neutralnego wodoru w spiralach krawędziowych rozszerza się poza krawędzią dysku gwiezdnego, gdzie pionowa siła przywracająca dysku jest zmniejszona. Zakres tego rozszerzania się można wykorzystać do oszacowania spłaszczenia ciemnego
halo (płaskie halo prowadziłoby do mniejszego rozszerzania się). Innym pomysłem jest badanie GALAKTYK POLARNYCH, w których materiał obraca się w dwóch ortogonalnych płaszczyznach, dzięki czemu można zmierzyć pole grawitacyjne w obu płaszczyznach. Oba te podejścia są niepewne, ale sugerują, że ciemne halo mogą być znacząco spłaszczone. Na rysunku 1 łagodnie wznoszące się krzywe rotacji dla halo i dla gazu mają mniej więcej podobny kształt aż do radialnej granicy obserwacji. Jest to znowu typowe dla galaktyk dyskowych z rozszerzonymi rozkładami H I i sugeruje, że rozkłady gazu i ciemnej materii są w jakiś sposób blisko powiązane. Niektórzy autorzy twierdzili, że ciemna materia może mieć postać zimnego gazu, ale pozostaje to kwestią sporną.
Ciemna materia w naszej Galaktyce
Chociaż nasze położenie w dysku Galaktyki utrudnia pomiar jej krzywej rotacji w dużym promieniu, w tej sytuacji możliwe stają się inne, mniej pewne szacowania masy. Na przykład prędkości gwiazd halo w odległości do 100 kpc od Słońca można wykorzystać do oszacowania całkowitej masy galaktycznej. Niektóre gwiazdy halo przechodzą przez sąsiedztwo Słońca z prędkościami przekraczającymi 600 km/s?1. Jeśli te gwiazdy są związane z Galaktyką, to dostarczają kolejnego szacowania masy. GALAKTYKA ANDROMEDY, w odległości 770 kpc, zbliża się do Drogi Mlecznej z prędkością około 120 km/s-1, co dostarcza kolejnego szacowania masy, zakładając, że łączna masa obu galaktyk jest wystarczająca, aby odwrócić ich początkową ekspansję w ciągu życia wszechświata. Wszystkie te estymatory razem wskazują, że zamknięta masa Drogi Mlecznej wzrasta liniowo wraz z promieniem do co najmniej 150 kpc, a jej całkowita masa wynosi około 15 × 1011M⊙. Masa jasna
prawdopodobnie nie przekroczy 1,2 × 1011M⊙, więc masa naszej Galaktyki jest prawdopodobnie w ponad 90% ciemna. Jeśli ciemna materia ma postać zwartych obiektów o masie gwiazdowej lub podgwiazdowej (np. jowisze, białe lub brązowe karły, gwiazdy neutronowe), to ciemne obiekty halo przechodzące między obserwatorem a odległą gwiazdą powodują rozjaśnienie odległej gwiazdy podczas przejścia, poprzez GRAWITACYJNE ZJAWISKO. Czas trwania rozjaśnienia zależy od masy i prędkości soczewki oraz geometrii zdarzenia. W przypadku gwiazd w OBŁOKACH MAGELLANICZNYCH typowy czas trwania rozjaśnienia wyniósłby kilka miesięcy dla ciemnych obiektów halo o masie słonecznej. Kilka grup próbowało wykryć ciemne obiekty w ten sposób. Eksperyment MACHO monitorował jasność kilku milionów gwiazd w LMC przez okres około 7 lat i wykrył około 15 zdarzeń soczewkowania. Jeśli te obiekty soczewkujące znajdują się w galaktycznym halo, to dostarczają około połowy całkowitej ciemnej materii, a ich indywidualne masy wynoszą około 0,5 M⊙. Masa ta jest typowa dla białych karłów i sugeruje, że te ciemne obiekty mogą być starymi BIAŁYMI KARŁAMI, być może pozostałościami bardzo wczesnego i bardzo masywnego wybuchu formowania się gwiazd. Nie ma dowodów na znaczną populację jasnych gwiazd związanych z ciemnym halo, więc do wytworzenia dużej liczby starych białych karłów bez wytworzenia jeszcze większej liczby starych jasnych gwiazd potrzebna byłaby dość specjalna funkcja masy gwiazdowej. Nadal możliwe jest, że soczewki nie znajdują się w galaktycznym halo. Na przykład, jeśli LMC jest wystarczająco rozciągnięty wzdłuż linii wzroku, soczewki mogą być obiektami w LMC soczewkującymi inne obiekty w LMC.
Ciemna materia w galaktykach eliptycznych
Dowody na istnienie ciemnej materii w galaktykach dyskowych są pewne, ponieważ ich dynamika jest tak prosta. GALAKTYKI ELIPTYCZNE nie są wspierane przez rotację, więc krzywych rotacji nie można użyć do zbadania zawartości ciemnej materii. Potrzebne są inne wskaźniki masy dynamicznej. Niektóre z największych galaktyk eliptycznych są osadzone w otoczce gorącego gazu emitującego promienie rentgenowskie. Jeśli znany jest radialny rozkład temperatury tego gorącego gazu, jego równowaga hydrostatyczna może zostać wykorzystana do zmierzenia całkowitej masy macierzystej galaktyki eliptycznej. Ruchy gwiazd, gromad kulistych i mgławic planetarnych w zewnętrznych regionach galaktyk eliptycznych mogą również zostać wykorzystane do oszacowania ich mas, chociaż wymaga to pewnych założeń dotyczących orbit tych obiektów śledzących. Słabe soczewkowanie grawitacyjne galaktyk tła zapewnia interesujący i niezależny statystyczny sposób pomiaru zawartości ciemnej materii w galaktykach eliptycznych i dyskowych. Dowody wskazują, że największe galaktyki eliptyczne zawierają znaczne ilości ciemnej materii. Możemy użyć stosunku masy do światła jako użytecznej miary zawartości ciemnej materii w galaktyce. Stara populacja gwiazd bez ciemnej materii ma stosunek masy do światła (M/L) wynoszący około 5 w jednostkach słonecznych, w zależności od jej metaliczności. Galaktyki dyskowe i eliptyczne mogą mieć stosunki M/L sięgające nawet ∿80. Niektóre z najmniejszych galaktyk eliptycznych, karłowate sferoidalne towarzyszki Drogi Mlecznej, wykazują bardzo wysoką zawartość ciemnej materii, ze stosunkami M/L wynoszącymi ∿100. W przypadku tych układów masy są szacowane na podstawie prędkości mierzonych dla wielu pojedynczych gwiazd. Ponownie, potrzebne są pewne założenia dotyczące orbit gwiazd.
Powstawanie ciemnych halo
Na obecnym obrazie GALAXY FORMATION, skupiska ciemnej materii zmieszanej z barionami łączą się, tworząc galaktykę. Natura ciemnej materii jest nieznana, ale uważa się, że jest niedysypatywna. Ciemne halo stopniowo budują się w słabo spłaszczone struktury sferoidalne, podczas gdy w galaktykach dyskowych wirujące bariony rozpraszają się w płaskie dyski w ruchu zbliżonym do kołowego w swoich ciemnych halo. Obecnie istnieje wystarczająco dużo danych na temat ciemnych halo, aby określić, jak ich właściwości zmieniają się wraz z jasnością widocznej galaktyki. Okazuje się, że najsłabsze galaktyki mają najgęstsze ciemne halo, około 1000 razy gęstsze niż ciemne halo najjaśniejszych galaktyk. Wskazuje to, że halo o najniższej masie wyłoniły się jako pierwsze z rozszerzającego się wszechświata, gdy gęstość wszechświata była wysoka, jak oczekiwano na podstawie argumentów teoretycznych.
Ciemna materia: jej natura
Co stanowi większość masy we wszechświecie? Odpowiedź na to proste pytanie jest daleka od oczywistej i w rzeczywistości stanowi jedną z największych nierozwiązanych tajemnic astrofizyki, kosmologii i fizyki cząstek elementarnych. Za pomocą konwencjonalnych metod astronomicznych można zobaczyć tylko "świetlistą materię", zwłaszcza w postaci gwiazd, która ujawnia swoją obecność poprzez emisję światła. Z drugiej strony można określić masę grawitacyjną różnych układów, takich jak galaktyki spiralne lub gromady galaktyk, na podstawie ich właściwości dynamicznych i można znaleźć ogromną rozbieżność w stosunku do świetlistej materii. Zakładając zwykłe prawo grawitacji, można dojść do wniosku, że istnieją duże ilości "ciemnej materii", terminu wprowadzonego po raz pierwszy przez FRITZ ZWICKY′EGO w jego przełomowym artykule z 1933 r., w którym badał dynamikę GROMAD GALAKTYK. Właściwości fizyczne ciemnej materii mogą być ograniczone przez kilka silnych argumentów astrofizycznych i kosmologicznych, które nie faworyzują "materii barionowej" jako głównego składnika. Termin ten odnosi się do wodoru, helu i cięższych pierwiastków, które oprócz elektronów składają się z protonów i neutronów, wpadając w kategorię "barionową" CZĄSTEK ELEMENTARNYCH. Ale jakaś nowa forma materii wydaje się trzymać galaktyki i gromady galaktyk grawitacyjnie razem! Najpopularniejszym wyjaśnieniem jest "cząstkowa ciemna materia", która sięga Cowsika i McClellanda, którzy w 1973 r. spekulowali, że neutrina mogą odgrywać tę rolę. Jednak podczas gdy ostatnie eksperymenty wskazują, że neutrina mają masę - co było otwartym pytaniem przez dziesięciolecia - wydaje się niemożliwe przypisanie całej ciemnej materii tym słabo oddziałującym cząstkom. Prowadzi to do postulowania dotychczas niewykrytych cząstek elementarnych dla kosmologicznej ciemnej materii. Z drugiej strony istnieją już niezależne motywacje teorii cząstek dla pewnych nowych cząstek, które mogłyby odegrać tę rolę. Problem ciemnej materii stanowi jedno z kilku połączeń między fizyką cząstek a kosmologią; jest kluczowym składnikiem "astrofizyki cząstek" lub alternatywnie "ASTROFIZYKI CZĄSTEK". Prawa mikrokosmosu cząstek elementarnych i makrokosmosu największych struktur we wszechświecie, przestrzeni wewnętrznej i zewnętrznej, są ściśle ze sobą powiązane! Być może najbardziej niezwykłym rozwojem lat 90. jest to, że fizyka ciemnej materii stała się prawdziwie eksperymentalną nauką. Jeśli którakolwiek z popularnych spekulacji na temat natury ciemnej materii jest prawidłowa, ta tajemnicza substancja może pojawić się w jednym z obecnych lub niedalekiej przyszłości eksperymentów bezpośredniego poszukiwania. W dalszej części omówiona zostanie astrofizyczna motywacja dla rzeczywistości ciemnej materii i najważniejsze astrofizyczne ograniczenia jej natury. Następnie zostaną przejrzane dobrze zmotywowane kandydatury, obecne strategie poszukiwań i wstępne wyniki.
Dowody dynamiczne
Krzywe rotacji galaktyk spiralnych
Dlaczego astronomowie są tak pewni, że w całym wszechświecie kryją się duże skupiska ciemnej materii? Płaskie krzywe rotacji GALAKTYK SPIRALNYCH dostarczają prawdopodobnie najbardziej imponujących dowodów. Systemy te składają się z centralnego wybrzuszenia i cienkiego wirującego dysku. Naturalne jest mierzenie prędkości orbitalnej jako funkcji promienia galaktocentrycznego na podstawie przesunięć Dopplera linii widmowych. Dyski galaktyk mają tendencję do zawierania neutralnego wodoru, który można zaobserwować na podstawie emisji linii 21 cm, co pozwala mierzyć krzywe rotacji w znacznie większych promieniach niż w przypadku znaczników optycznych. Przykład na rysunku 1 ilustruje ogólne zachowanie krzywych rotacji. Prędkość orbitalna wzrasta od środka na zewnątrz, aż osiągnie wartość rzędu 100 km s-1, gdzie pozostaje stała aż do największego zmierzonego promienia, co jest systematycznym trendem zdiagnozowanym już przez Freemana w 1970 r. To zachowanie jest całkowicie nieoczekiwane, ponieważ jasność powierzchniowa dysku spada wykładniczo wraz z promieniem, co oznacza, że masa M materii świecącej, głównie gwiazd, jest skoncentrowana wokół centrum galaktyki. Tak więc można oczekiwać keplerowskiego spadku prędkości orbitalnej, vrot = (GNM/r)1/2 (stała Newtona GN, promień r), w analogii do ruchów planet w Układzie Słonecznym - patrz linia przerywana na rysunku. Różnica między oczekiwaną a zmierzoną krzywą rotacji jest przypisywana efektowi grawitacyjnemu ciemnej materii. Wiele argumentów sugeruje, że ten materiał nie jest częścią samego dysku galaktycznego. Po pierwsze, w naszej galaktyce pionowy rozkład gwiazd wraz z ich dyspersją prędkości ujawnia, że nie ma znaczącej ilości ciemnej materii dysku. Po drugie, cienki samograwitujący dysk jest dynamicznie niestabilny. Po trzecie, wodór jest pionowo bardziej rozciągnięty, niż można by się spodziewać, gdyby cała grawitująca materia znajdowała się w dysku, szczególnie przy dużych promieniach ("rozbłyski wodoru"). Wyłania się ogólny obraz galaktyk spiralnych, w których wybrzuszenie i dysk są dynamicznie subdominującymi składnikami zanurzonymi w ogromnym halo ciemnej materii. Nie jest kluczowe, aby to halo było ściśle kuliste; może być nieco spłaszczone lub nawet trójosiowe. lub bezpośredniego wykrycia ciemnej materii, nasza własna Droga Mleczna jest najciekawszą galaktyką. Jej krzywa rotacji jest zgodna ze standardowym obrazem z przybliżoną wartością plateau dla prędkości rotacji 220 km s-1. Gęstość ciemnej materii w otoczeniu Słońca, sugerowana przez modele halo, wynosi 300MeVcm-3 w przybliżeniu z czynnikiem dwóch, tj. mniej więcej równoważnik masy atomu wodoru na 3 cm3. (Należy zauważyć, że jednostka masy atomowej odpowiada 931,5 MeV.)
Wkład gęstości kosmicznej
Wkład ρ danego składnika materii do całkowitej gęstości wszechświata jest zwykle wyrażony w kategoriach "parametru omega" Ω=ρ/ρcrit. Tutaj ρcrit = 3H20/(8πGN) = h2 1,88A-10-29 g cm-3 jest gęstością krytyczną, przy czym H0 jest obecnym parametrem ekspansji kosmicznej ("stała Hubble′a"). Zwykle jest zapisywana jako H0 = h 100 km s-1 Mpc-1; różne pomiary obejmują przybliżony zakres h = 0,5-0,8. W ramach zwykłej kosmologii Friedmanna-Lemaître′a-Robertsona-Walkera geometria przestrzenna wszechświata jest euklidesowa dla Ω = 1 ("płaski wszechświat"), krzywizna przestrzenna jest ujemna dla Ω < 1 ("otwarty wszechświat") i dodatnia dla Ω > 1 ("zamknięty wszechświat"). Wkład gęstości kosmicznej galaktyk jest związany ze zmierzoną gęstością jasności wszechświata, (1,7 ± 0,6)-108 h Ló Mpc-3 w paśmie widma widzialnego (jasność słoneczna Ló ). Większość światła jest wytwarzana przez gwiazdy; w ten sposób pomnożenie przez stosunek masy do światła dla typowej populacji gwiazdowej kilku Mó /Ló daje nam gęstość materii świetlnej. Można znaleźć
Ωlumh = 0.002 - 0.006
co może być spójnym zakresem. Dlatego sama jasna materia jest daleka od gęstości krytycznej. Typowe stosunki masy do światła halo galaktycznych wynoszą co najmniej około 30 h, jeśli chodzi o zmierzone krzywe rotacji, co daje kosmiczną gęstość . Krzywe rotacji mają tendencję do pozostawania płaskimi do największych zmierzonych promieni, a zatem prawdziwy rozmiar halo ciemnej materii nie jest znany. Oszacowanie ich zasięgu na podstawie dynamiki satelitów galaktycznych daje Ωgalh = 0,2-0,5.
Gromady galaktyk
Gromady galaktyk są największymi grawitacyjnie związanymi układami we wszechświecie. Zwicky po raz pierwszy zauważył w 1933 r., że prędkości galaktyk członkowskich mają tendencję do bycia tak dużymi, że do ich grawitacyjnego związania potrzebne są ogromne ilości ciemnej materii. Przyjmując stosunek masy gromady do światła wynoszący około 300 Mó/ó jako reprezentatywne dla wszechświata prowadzi do gęstości materii kosmicznej ΩM = 0,1-0,4. Ostatnio stało się możliwe zmierzenie mas gromad na podstawie zniekształcenia obrazu galaktyk tła spowodowanego przez grawitacyjne ugięcie światła gromady ("słabe soczewkowanie grawitacyjne"). Wykorzystuje się rozkład statystyczny tych "łuków" do rekonstrukcji pola ścinania zniekształceń obrazu grawitacyjnego i na tej podstawie można wyprowadzić rozkłady mas gromad. Potwierdzają one duże stosunki masy do światła wywnioskowane metodą Zwicky′ego. Kiedy w połowie lat 60. XX wieku pojawiły się TELESKOPY RENTGENOWSKIE, odkryto, że gromady galaktyk są najsilniejszymi źródłami promieniowania rentgenowskiego na niebie. Emisja rozciąga się na cały gromadę, co ujawnia obecność dużych ilości gorącego gazu (T = 107-108 K), w którym promienie rentgenowskie są wytwarzane przez promieniowanie hamowania elektronów. Masa w tym "gazie rentgenowskim" wynosi zazwyczaj 10-20% całości, tzn. gromady zawierają więcej masy w gorącym gazie niż w gwiazdach. Szczegółowe badania ujawniają frakcję barionów gromady wynoszącą zazwyczaj fBh3/2 = 0,03-0,08.
Przepływy na dużą skalę
W dużej skali ruch galaktyk jest zdominowany przez ogólną ekspansję kosmiczną. Mimo to wykazują one "osobliwe prędkości" w stosunku do ogólnego przepływu kosmicznego; nasza grupa galaktyk porusza się z prędkością 627±22 km s-1 w stosunku do układu odniesienia określonego przez mikrofalowe promieniowanie tła kosmicznego. Ruchy te przypisuje się działaniu grawitacji w ciągu wieku wszechświata, spowodowanemu niejednorodnością gęstości materii. Zaobserwowane pola prędkości na dużą skalę, wraz z zaobserwowanymi rozkładami galaktyk, są następnie tłumaczone na miarę gęstości materii potrzebną do wyjaśnienia przepływów na dużą skalę. Znajduje się
ΩM > 0.3
i jeszcze większe wartości za pomocą powiązanych metod, które są bardziej zależne od modelu.
Płaski wszechświat
Wartość krytyczna Ωtot = 1 dla gęstości masy i energii kosmicznej, odpowiadająca ogólnej euklidesowej (płaskiej) geometrii przestrzennej, jest preferowana, aby uniknąć dokładnego dostrajania początkowych warunków kosmicznych. W rozszerzającym się wszechświecie Ωtot szybko ewoluuje od 1 w kierunku 0 lub ∞, tak że niemal płaska natura obecnego wszechświata sugeruje Ωtot = 1 jako dokładną tożsamość. Co więcej, "modele inflacyjne" wczesnego wszechświata generycznie wytwarzają płaską geometrię, mimo że można skonstruować wyspecjalizowane modele, które omijają ten wynik. Krytyczna gęstość przekracza masę świetlną o około dwa rzędy wielkości, tak że wszechświat, jeśli jest płaski, zawiera ponad 99% ciemnej materii.
Ograniczenia astrofizyczne
Nukleosynteza Wielkiego Wybuchu
Pierwszym pytaniem dotyczącym natury ciemnej materii jest to, czy nie mogłaby ona składać się ze zwykłego materiału w jakiejś nieświecącej formie, być może pozostałości gwiazd, takich jak gwiazdy neutronowe lub obłoki wodoru cząsteczkowego, które są trudne do zaobserwowania. Jednak ogólna obfitość barionów jest poważnie ograniczona przez NUKLEOSYNTEZĘ Wielkiego Wybuchu. Kiedy wszechświat miał około trzech minut, początkowe protony i neutrony utworzyły hel o ułamku masowym około 22-25%, wraz z pewnymi śladami deuteru (D lub 2H), 3He i 7Li. W standardowym obrazie Wielkiego Wybuchu te pierwotne obfitości pierwiastków lekkich zależą tylko od gęstości barionów kosmicznych . Obfitość najbardziej wrażliwa na ΩBh2 to obfitość deuteru. Jego pomiar w międzygalaktycznych obłokach wodoru stał się niedawno możliwy dzięki obserwacji linii absorpcyjnych kwazara. Chociaż to nowatorskie podejście daje duże nadzieje na precyzyjne określenie pierwotnej obfitości deuteru, obecnie obserwuje się zarówno wysokie, jak i niskie wartości D/H ≑ 2-10-4 i 2-10-5, odpowiednio, które są wzajemnie niespójne, chyba że rozkład barionów jest bardzo niejednorodny na dużą skalę. Obejmują one zakres mniej więcej odpowiadający
ΩBh2 = 0.005-0.024
co jest zgodne z obserwacjami helu i litu. Bardziej preferowana niska wartość deuteru odpowiada wysokiej zawartości barionów. Ten zakres dla ΩB jest przedstawiony na rysunku jako funkcja parametru ekspansji Hubble′a wraz z gęstością masy świetlnej (1) i dolną granicą masy dynamicznej (2).

Obecnie preferowany zakres dla H0 wynosi 50-80 km s-1 Mpc-1, co oznacza lukę między gęstością kosmicznego barionu a gęstością materii świetlnej i dynamicznej. Najwyraźniej istnieje znacząca część "ciemnych barionów", które nigdy nie przedostały się do galaktyk i gwiazd, a co ważniejsze, wiele niezidentyfikowanej niebarionowej ciemnej materii. Widoczna luka między barionami a gęstością masy dynamicznej dobrze odpowiada frakcji barionów sugerowanej przez gaz rentgenowski w gromadach galaktyk omówionych wcześniej
Formowanie się struktur
Standardowa teoria formowania się struktur kosmicznych zakłada, że w pewnym wczesnym czasie wszechświat był niemal idealnie jednorodny, poza drobnymi modulacjami gęstości, które zostały wzmocnione przez działanie grawitacji w miarę upływu czasu, co doprowadziło do formowania się galaktyk, gromad i spójnych struktur na dużą skalę. Często twierdzi się, że pierwotne zmiany gęstości pochodziły z fluktuacji kwantowych we wczesnym wszechświecie, które zostały wzmocnione do skal makroskopowych podczas fazy ekspansji wykładniczej . Amplituda fluktuacji gęstości w epoce, w której promieniowanie KOSMICZNEGO MIKROFALOWEGO TŁA oddzieliło się od otaczającej plazmy, została obecnie wywnioskowana z kilku eksperymentów, w szczególności z satelity COBE, który zmierzył fluktuacje temperatury na niebie. Amplituda widma fluktuacji zgodna z tymi pomiarami jest zbyt mała, aby umożliwić utworzenie się obserwowanych struktur, jeśli ośrodek składa się wyłącznie z barionów i promieniowania. Słabo oddziałujące cząstki radzą sobie lepiej, ponieważ nie są podtrzymywane przez ciśnienie fotonów ("wzmocnienie ciemnej materii"). Jest to ogólny argument przeciwko ciemnej materii barionowej, chociaż mogą istnieć możliwości jego obejścia. Materia, z której składa się kosmiczny "płyn", może dyfundować, wymazując część początkowych fluktuacji gęstości. Efekt ten jest szczególnie ważny dla słabo oddziałujących cząstek, które mogą dyfundować daleko, dopóki ich pęd nie zostanie wystarczająco przesunięty ku czerwieni przez kosmiczną ekspansję; wymazują one pierwotne widmo fluktuacji do skali, która jest większa dla cząstek o mniejszej masie. Mówi się o "gorącej ciemnej materii", jeśli fluktuacje są wymazywane poniżej skal, które później odpowiadają galaktykom, podczas gdy "zimna ciemna materia" ma ten efekt tylko w skalach subgalaktycznych. Linia podziału ("ciepła ciemna materia") odpowiada masie cząstki w zakresie keV. Obecnie panuje niemal powszechna zgoda co do tego, że pewien wariant scenariusza zimnej ciemnej materii prawdopodobnie jest sposobem działania naszego wszechświata, w którym struktura tworzy się za pomocą mechanizmu niestabilności grawitacyjnej z niemal niezmiennego w skali widma pierwotnych fluktuacji gęstości. Zdecydowanie nie sprzyja ona barionom i cząstkom o małej masie, takim jak masywne neutrina, jako głównym składnikom koktajlu materii kosmicznej.
Kosmiczne mikrofalowe promieniowanie tła
Promieniowanie tła mikrofalowego zawiera bogactwo informacji kosmologicznych. Jego obecność i niesamowicie precyzyjna natura ciała doskonale czarnego są najbardziej uderzającymi dowodami na kosmogonię gorącego Wielkiego Wybuchu. Satelita COBE i nowsze eksperymenty naziemne zmierzyły niewielkie kątowe zmiany temperatury o amplitudzie typowo 10 μK, co już zapewnia ścisłe ograniczenia teorii formowania się struktur, a tym samym natury ciemnej materii. Najważniejsze informacje są zawarte w widmie mocy mapy nieba temperaturowego. Chociaż w danych nadal występuje duży rozrzut, wydają się one już potwierdzać pojawienie się cech znanych jako "szczyty akustyczne" lub "szczyty Dopplera". Ich skala kątowa i amplituda dostarczają bezcennych informacji na temat właściwości wszechświata podczas odsprzęgania promieniowania. oto dwie zatwierdzone misje satelitarne, NASA Microwave Anisotropy Probe (MAP), która ma zostać wystrzelona w 2001 r., oraz ESA PLANCK, która ma zostać wystrzelona około 2007 r., które wykonają mapy temperatur całego nieba przy drobnych rozdzielczościach kątowych. Uważa się, że te eksperymenty ostatecznie będą w stanie określić najważniejsze parametry kosmologiczne na poziomie 1%, w szczególności frakcję barionów i całkowitą zawartość ciemnej materii. Pozostają jednak degeneracje między różnymi kombinacjami parametrów, które trzeba będzie przełamać innymi metodami.
Kandydaci i poszukiwania
Neutrina
Obecność dużych ilości ciemnej materii we wszechświecie jest niemal bezsporna, a argument przeciwko barionom jako głównemu składnikowi jest dość przekonujący, pozostawiając nam cząstkową ciemną materię (PDM) jako jedno z możliwych rozwiązań. Cząstki kandydackie musiałyby być reliktami z wczesnego wszechświata, gdzie zostałyby wytworzone termicznie w gorącej i gęstej plazmie lub w wyniku jakiegoś procesu nierównowagowego. Minimalna wymagana gęstość reliktu to
, jeśli użyjemy (2) i uwzględnimy znaczną frakcję barionów. Obserwowany wiek wszechświata wraz ze zmierzoną szybkością ekspansji daje
, więc ΩPDMk2 = 0.05 - 0.4
gdzie
zostało użyte. Spośród znanych cząstek, neutrina są jedynymi kandydatami. Ich gęstość reliktowa jako funkcja założonej masy jest pokazana na rysunku .

W przybliżeniu jest tyle samo neutrin tła we wszechświecie, ile jest fotonów mikrofalowych. Mnożąc tę liczbę przez m? wyjaśniamy rosnącą gałąź rysunku 4 i otrzymujemy Ω?h2 = Σm?/93 eV, skąd wymagana masa neutrina wynosi 4-40 eV. Istnieje drugie rozwiązanie dla masy neutrina kilku GeV na malejącej gałęzi; liczba neutrin reliktowych jest redukowana przez anihilację dla
, gdzie nadal znajdują się w równowadze termicznej, gdy temperatura kosmiczna spada poniżej ich masy. Laboratoryjna granica około 20 MeV dla ?v i znacznie mniej dla ?μ i ?e wyklucza rozwiązanie o dużej masie wśród znanych rodzin neutrin. Rozwiązanie o małej masie jest jednak problematyczne z perspektywy formowania się struktury, ponieważ reprezentują one "gorącą ciemną materię". Ponadto istnieje problem z neutrinami wypełniającymi halo ciemnej materii galaktyk, ponieważ nie mogą być one dowolnie gęsto upakowane w przestrzeni fazowej. Ten "argument Tremaine′a-Gunna" wymaga
dla typowych galaktyk spiralnych i kilku 100 eV dla galaktyk karłowatych, tak że neutrina nie mogłyby być ciemną materią we wszystkich skalach. Na koniec, pozytywne dowody na masy neutrin z ostatnich eksperymentów oscylacyjnych wskazują na różnice masy poniżej eV między trzema zapachami, tak że ich masy musiałyby być znacznie większe niż ich różnice ("masy zdegenerowane"), gdyby miały być ciemną materią. Największa kosmologicznie dopuszczalna masa wynosząca około 40 eV rozdziela się następnie między trzy rodziny, tak że każda z nich musi być lżejsza niż około 13 eV, co pogarsza problem Tremaine′a-Gunna.
Słabo oddziałujące masywne cząstki (WIMP)
Neutrina na malejącej gałęzi na rysunku powyżej odgrywałyby rolę zimnej ciemnej materii i są zatem faworyzowane przez kosmologię, ale w tym zakresie mas nie istnieją. Postuluje się zatem nowe słabo oddziałujące masywne cząstki, aby wypełnić lukę. Z drugiej strony, z perspektywy teoretycznej postuluje się "SUPERSYMETRIĘ", która przewiduje nowego partnera dla każdej znanej cząstki. Najlżejsza supersymetryczna cząstka w postaci "neutralino" mogłaby równie dobrze odgrywać rolę WIMP. Niezależnie od problemu ciemnej materii, poszukiwanie supersymetrii jest jednym z głównych celów najbardziej ambitnego akceleratora cząstek, jaki kiedykolwiek powstał, Wielkiego Zderzacza Hadronów (LHC), który jest obecnie budowany w Genewie w laboratorium CERN. Jeśli ciemna materia składa się z jakiejś formy WIMP-ów, to nasza galaktyka Droga Mleczna powinna być wypełniona "gazem" tych niemal bezkolizyjnych cząstek, który przenikałby wszystko, w tym nasze laboratoria. Eksperymentalne poszukiwania galaktycznych WIMP-ów przekształciły się w całą gałąź fizyki cząstek bezakceleratorowych, z licznymi grupami montującymi coraz bardziej czułe detektory. Zazwyczaj próbuje się zmierzyć maleńkie osady energii spowodowane rzadkim zderzeniem galaktycznego WIMP-a z jądrem w krysztale. W kryształach półprzewodnikowych, zwłaszcza germanu, poszukuje się powstałego sygnału elektronicznego, w kryształach jodku sodu światła scyntylacyjnego lub można schłodzić kryształ do bardzo niskich temperatur i poszukiwać maleńkiego ogrzewania spowodowanego zderzeniami WIMP-ów; przykład takiego kriogenicznego układu pokazano na rysunku.

Głównym problemem eksperymentalnym jest niezwykle niska oczekiwana szybkość sygnału. Szczegółowo zależy ona od zakładanych właściwości WIMP i materiału docelowego, ale typowa liczba jest poniżej 1 zdarzenia kg-1d-1. Aby zmniejszyć naturalne skażenia radioaktywne, należy używać niezwykle czystych substancji, a tło promieniowania kosmicznego wymaga lokalizacji głęboko pod ziemią, na przykład w głębokich kopalniach. Istnieją inne "pośrednie" metody wyszukiwania. Na przykład WIMP-y przemierzające Słońce lub Ziemię będą czasami zderzać się z jądrem, tracić wystarczająco dużo energii, aby zostać uwięzionymi, a ostatecznie anihilować z innymi uwięzionymi WIMP-ami. Powstałe wysokoenergetyczne neutrina ze Słońca i centrum Ziemi mogą pojawić się w istniejących i przyszłych teleskopach neutrinowych. Podczas gdy modele supersymetryczne są dość elastyczne w swoich przewidywaniach, obecna runda eksperymentów osiągnęła czułość, na której można zacząć mieć nadzieję na znalezienie tych nieuchwytnych kandydatów na ciemną materię.
Aksjony
Kandydatem na zimną ciemną materię sui generis są aksjony, bozony o małej masie, które są postulowane w ramach chromodynamiki kwantowej, teorii silnego oddziaływania między kwarkami. Oprócz neutrin i WIMP-ów, cząstki te powstałyby w procesie nietermicznym we wczesnym wszechświecie, wytwarzając zasadniczo kondensat Bosego, tj. silnie obsadzone, quasi-klasyczne oscylacje pola aksjonów. Masa aksjonów mieściłaby się w zakresie 10-5 eV, co odpowiadałoby częstotliwościom oscylacji pola aksjonów wynoszącym GHz. Aksjony miałyby niewielkie oddziaływania elektromagnetyczne, co oznacza, że galaktyczne aksjony ciemnej materii napędzałyby wnękę mikrofalową, pod warunkiem, że zostałaby umieszczona w silnym polu magnetycznym. Dwa takie eksperymenty są obecnie w toku, jeden w Livermore w Kalifornii (US Axion Search), a drugi w Kioto w Japonii (CARRACK). Ich czułość jest wystarczająca, aby wykryć słaby sygnał wyjściowy mikrofalowej wnęki, indukowany przez galaktyczne ciemne aksjony materii. Ponownie, w ciągu kilku następnych lat będziemy mieli realną szansę na wykrycie ciemnej materii, jeśli podstawowa hipoteza istnienia aksjonów jest poprawna.
Ciemne gwiazdy (MACHO)
Dopóki nie zostanie odkryta cząsteczkowa ciemna materia, można nadal spekulować, że argumenty przeciwko barionom są błędne i że galaktyczne halo składają się ze zwykłej materii w jakiejś nieświecącej formie. Oczywistymi kandydatami są słabe gwiazdy, które zostały nazwane masywnymi astrofizycznymi zwartymi obiektami halo (MACHO) jako celowa gra słów na hipotezie WIMP. Fizyczną naturą MACHO mogą być gwiazdy, które są zbyt małe, aby świecić jasno (brązowe karły lub karły M) lub wypalone pozostałości gwiazd (BIAŁE KARŁY, GWIAZDY NEUTRONOWE, CZARNE DZIURY). Oczywiście, pozostałości gwiazdowe wydają się nieprawdopodobne, między innymi dlatego, że musiałyby powstać z dużej populacji normalnych gwiazd, których nie ma śladu w halo. Praktyczna metoda poszukiwań obejmuje grawitacyjne odchylenie światła spowodowane przez galaktyczne MACHO, które przypadkowo przechodzi w pobliżu linii wzroku gwiazdy tła. Podczas gdy efekt jest zbyt słaby, aby wytworzyć kilka rozdzielonych obrazów gwiazdy docelowej, jej pozorna jasność tymczasowo wzrośnie, ponieważ pole grawitacyjne MACHO skutecznie skupia więcej światła w teleskopie (tzw. "mikrosoczewkowanie grawitacyjne"). Takie zdarzenia są rzadkie, więc trzeba monitorować miliony gwiazd jednocześnie, aby uzyskać rozsądną częstotliwość zdarzeń. Wielki i Mały Obłok Magellana jako obszary docelowe mają wystarczająco jasnych gwiazd w odpowiedniej odległości i były używane od początku lat 90. przez współpracę MACHO i EROS w celu znalezienia nieświecących gwiazd tworzących halo Drogi Mlecznej. Czas trwania tymczasowej zmiany jasności gwiazdy soczewkowanej zależy od względnych odległości między obserwatorem, soczewką i gwiazdą docelową oraz od masy soczewki. Brak obserwacji krótkotrwałych zdarzeń pozwolił tym eksperymentom wykluczyć MACHO w szerokim zakresie mas jako dominujący składnik halo, ale nie wyklucza jeszcze brązowych karłów jako możliwości. Z drugiej strony, pojawiło się około tuzina pozytywnych zdarzeń, które, jeśli przypisać je MACHO, wskazywałyby na masę około 0,5 Mó. Jednak wczesne podekscytowanie pozornym odkryciem części lub całości galaktycznej ciemnej materii ustąpiło miejsca bardziej sceptycznej ocenie - pozorny zakres mas obserwowanych zdarzeń po prostu wydaje się nie mieć sensu. Być może najmniej niepokojącą interpretacją jest to, że nie widzimy MACHO, ale normalne gwiazdy jako soczewki, co jest możliwe, jeśli istnieje nierozpoznana populacja gwiazd między nami a Wielkim Obłokiem Magellana, lub nawet przez gwiazdy w samych Obłokach Magellana, jeśli ich rozkład jest inny niż sądzono. Tak więc, podczas gdy obserwowane zdarzenia MIKROSOCZEWANIA są bez wątpienia rzeczywiste, pytanie, gdzie i czym są soczewki, pozostaje na razie szeroko otwarte.
Pierwotne czarne dziury
Chociaż pozostałości gwiazd wydają się nieprawdopodobne, czarnych dziur, które powstały we wczesnym wszechświecie, nie można wykluczyć jako kandydatów na ciemną materię. Z perspektywy formowania się struktury, reprezentują one zimną ciemną materię; z perspektywy poszukiwań, mogą być MACHO. Głównym zarzutem jest brak prawdopodobnego mechanizmu produkcji we wczesnym wszechświecie. Z pewnością, dopóki cząsteczkowa ciemna materia pozostaje nieodkryta, a obserwowane zdarzenia mikrosoczewkowania pozostają niewyjaśnione, pierwotnych czarnych dziur nie należy odrzucać.
Stała kosmologiczna (energia próżni)
Możliwe jest, a w istocie wynika to z teorii fizyki cząstek elementarnych, że energia grawitacyjna jest związana ze stanem podstawowym pól kwantowych, tj. z próżnią. W równaniach ogólnej teorii względności odgrywałaby ona rolę "STAŁEJ KOSMOLOGICZNEJ", opcjonalnego terminu dozwolonego przez symetrie równań, ale niemotywowanego przez granicę Newtona. Energia próżni tworzyłaby idealnie jednorodne tło i w związku z tym nie może wyjaśnić krzywych rotacji galaktyk ani ciemnej materii w gromadach galaktyk. Z drugiej strony mogłaby dobrze wyjaśnić lukę między miarami dynamicznymi ciemnej materii a gęstością krytyczną. Moglibyśmy mieć wszechświat euklidesowy, nawet jeśli "rzeczywista materia" wnosi jedynie podkrytyczną gęstość masy. Najbardziej kontrintuicyjną właściwością energii próżni jest to, że nie jest ona rozcieńczana przez ekspansję kosmiczną, ale staje się coraz bardziej dominująca w stosunku do normalnej materii w miarę upływu czasu. Nie można jej zmierzyć lokalnie; modyfikacja kosmologicznego związku przesunięcia ku czerwieni-odległości jest główną obserwowalną konsekwencją. SUPERNOWE typu Ia jako standardowe świece w odległościach kosmologicznych niedawno dostarczyły pewnych ekscytujących dowodów na stałą kosmologiczną. Choć dalekie od definitywnych, sugeruje, że wszechświat może być euklidesowy z czymś w rodzaju 70% gęstości krytycznej w energii próżni i 30% w materii. Ten scenariusz bez wysiłku uwzględnia bezwzględne i względne ilości materii barionowej i niebarionowej wynikające z nukleosyntezy Wielkiego Wybuchu, gaz rentgenowski w gromadach galaktyk, wskaźniki dynamiczne ciemnej materii i płaską geometrię wszechświata.
Zmodyfikowana grawitacja
Hipoteza ciemnej materii cząsteczkowej wymaga nietrywialnych i być może zaskakujących rozszerzeń standardowego modelu fizyki cząstek. Dopóki natura ciemnej materii nie zostanie pozytywnie zidentyfikowana, może się wydawać, że modyfikacja ogólnej teorii względności w taki sposób, aby nie było potrzeby ciemnej materii, nie jest bardziej radykalna. Czasami argumentowano, że hipoteza ciemnej materii jest jedynie parametryzacją naszej niewiedzy na temat praw fizycznych, które obowiązują w dużych skalach astrofizycznych, gdzie nie istnieją niezależne testy ważności ogólnej teorii względności. W jednym podejściu fenomenologicznym znanym jako zmodyfikowana dynamika Newtona (MOND), przyspieszenia grawitacyjne a poniżej pewnej granicy a0 są podane przez a2/a0 = GNM/r2 (stała Newtona GN). Przy a0 ≈ 10-10 m s-2 podejście to jest zaskakująco skuteczne w wyjaśnianiu szerokiego zakresu zjawisk ciemnej materii związanych z galaktykami karłowatymi, galaktykami spiralnymi i gromadami galaktyk. Niestety, MOND nie ma relatywistycznej formuły, więc nie można go stosować w prawdziwie kosmologicznym sensie. Zanim modyfikacje ogólnej teorii względności można będzie traktować poważnie, muszą one przejść testy relatywistyczne. Ważnym przypadkiem są gromady galaktyk, w których duże ilości ciemnej materii są wskazywane przez nierelatywistyczne metody à la Zwicky (twierdzenie wirialne), jak również przez relatywistyczne wskaźniki (soczewkowanie grawitacyjne). Ponieważ masy wirialne i soczewkujące wydają się dobrze zgadzać w kilku przypadkach, rozszerzenia skalarno-tensorowe ogólnej teorii względności są w poważnych tarapatach, jeśli nie całkowicie wykluczone. Nie podjęto żadnej poważnej próby omówienia prawdziwie kosmologicznych zjawisk, takich jak formowanie się struktur i wahania temperatury tła mikrofalowego w ramach alternatywnych teorii grawitacji. Obecnie nie jest znana żadna kowariantna teoria grawitacji, która mogłaby wyjaśnić problemy ciemnej materii we wszystkich skalach.
Wnioski
W ciągu ostatniej dekady niemal powszechny stał się pogląd, że większość materii we wszechświecie składa się z materii niebarionowej, być może w formie neutralin lub aksjonów, które w fizyce cząstek elementarnych są motywowane niezależnymi powodami. Mimo to pozostaje to radykalnym przypuszczeniem, które często porównywano do rewolucji kopernikańskiej, kiedy Ziemia, a wraz z nią Człowiek, zostali przeniesieni z centrum stworzenia na jakąś mało spektakularną pozycję średnią. Prawdopodobnie kolejnym dużym krokiem w tej drugiej rewolucji kopernikańskiej będą precyzyjne pomiary kątowych fluktuacji temperatury mikrofalowego promieniowania tła, które mają potwierdzić lub obalić pozorną rozbieżność między zawartością barionów we wszechświecie a jego dynamiczną gęstością masy. Jednak nawet wtedy druga rewolucja nie będzie kompletna bez bezpośredniej i pozytywnej identyfikacji cząstek lub obiektów ciemnej materii. Dopóki to się nie stanie, być może w wyniku jednego z trwających eksperymentalnych poszukiwań, należy
zachować otwarty umysł. Prawdziwe rozwiązanie problemu ciemnej materii mogło jeszcze nie zostać wymyślone.
Pulsujące gwiazdy DB
Pulsujące BIAŁE KARŁY z niemal czystymi atmosferami helowymi występują w wąskim zakresie temperatur około 25 000 K. Znanych jest osiem takich gwiazd. Łącznie występują pod dwiema nazwami: gwiazdy V777 Her, nazwane na cześć oznaczenia VARIABLE STAR pierwszej znanej gwiazdy w tej klasie, oraz bardziej pouczająca nazwa, gwiazdy DBV. Nazwa DBV jest zgodna ze standardową konwencją dla białych karłów i mówi nam, że są one typu widmowego DB, co wskazuje na niemal czystą atmosferę helową, a sufiks V wskazuje, że są to gwiazdy zmienne tej klasy spektroskopowej; tak będziemy się do nich odnosić. PULSACJE GWIAZDOWE w gwiazdach DBV mają charakter globalny; ich badanie zapewnia okno do głębokich wnętrz tych gęstych gwiazd, a tym samym szansę na poznanie fizyki materii w ekstremalnych warunkach gęstości i temperatury niedostępnych w laboratoriach naziemnych. Gwiazdy, które zaczynają swoje życie z masą całkowitą poniżej około 10M, czyli ponad 90% wszystkich gwiazd, kończą swoje życie jako białe karły. Z nich około 30% stanie się białymi karłami DB. Ponieważ gwiazdy DBV są poza tym normalne, wszystko, czego dowiadujemy się o ich wewnętrznej strukturze, dotyczy również innych gwiazd DB. Badania gwiazd DBV służą zatem ograniczeniu naszego zrozumienia jednego z dwóch najważniejszych punktów końcowych EWOLUCJI GWIAZD. Ma to coraz większe znaczenie, ponieważ uczymy się używać obliczeń wieku chłodnych białych karłów jako chronometrów do pomiaru wieku różnych POPULACJI GWIAZD w galaktyce. Gwiazdy DBV są szczególnie istotne dla ponad 300-letniej nauki o pulsujących gwiazdach zmiennych, ponieważ stanowią pierwszą klasę pulsujących gwiazd zmiennych, których istnienie zostało przewidziane teoretycznie przed ich odkryciem. Niedawno pulsujące podkarły B dołączyły do gwiazd DBV w wyróżnieniu przewidzenia ich przed odkryciem. Razem wskazują na szybkie postępy w naszej wiedzy na temat pulsujących gwiazd zmiennych.
Co wiemy o pulsatorach DB
Gwiazdy DBV mają zestaw wspólnych obserwowanych właściwości z innymi klasami pulsujących białych karłów i gwiazd przedbiałych karłów, gwiazdami DOV (PG 1159-035, GW Vir), gwiazdami PNNV i gwiazdami DAV (ZZ Ceti). Obserwowane pulsacje występują w skalach czasowych 100-1000 s i są wynikiem modulacji całkowitej intensywności światła gwiazd. Amplitudy wahają się od granic wykrywalności na poziomie lub w pobliżu 1 części na 10 000 do 30%. Typowe amplitudy zmian międzyszczytowych na krzywych blasku są rzędu 10% i wydają się być modulowane w skalach czasowych od dni do lat. Wszystkie obiekty są wielookresowe ze złożonymi krzywymi blasku. Górny panel na rysunku 1 jest częścią typowej krzywej blasku prototypu DBV, GD 358 (V777 Her). Podobieństwa w obserwowanych właściwościach wszystkich pulsujących białych karłów i gwiazd przed-białych karłów znajdują odzwierciedlenie w podobieństwach interpretacji teoretycznych. Najwyższe częstotliwości amplitudy obecne na krzywych blasku to normalne mody oscylacji gwiazdy. Częstotliwości normalnych modów są zgodne tylko z klasą nieradialnych modów pulsacji znanych jako mody g. Mody te mają grawitację jako siłę przywracającą i charakteryzują się płynnymi ruchami gwiazdy głównie wzdłuż powierzchni ekwipotencjalnych grawitacyjnych. Mody o stosunkowo małych przemieszczeniach radialnych są energetycznie bardziej korzystne dla obiektów o dużej grawitacji, takich jak białe karły. Duża grawitacja w połączeniu ze stosunkowo wolnymi prędkościami rotacji i brakiem silnych pól magnetycznych sprawia, że gwiazdy są prawie całkowicie kuliste. Podobnie jak we wszystkich problemach sferycznych potencjału w fizyce, takich jak znany opis kwantowo-mechaniczny atomu, harmoniczne sferyczne zapewniają odpowiednią reprezentację normalnych trybów oscylacji w białych karłach. We wszystkich nieradialnych gwiazdach pulsujących, podobnie jak poziomy energii w atomie, częstotliwość każdego obserwowanego trybu jest powiązana z trzema skwantowanymi liczbami, k, l i m:
σ = σk,l,m
Pierwsza z kwantowanych liczb, k, odpowiada w przybliżeniu liczbie węzłów radialnych w funkcji własnej, druga stopniowi (czasami określanemu jako rząd) harmonicznej sferycznej, a trzecia jest liczbą kwantową azymutalną. W przypadku całkowicie sferycznego układu częstotliwości modów są zdegenerowane względem m. W rzeczywistej gwieździe degeneracja ta prawdopodobnie zostanie złamana przez obrót różny od zera lub ewentualnie pole magnetyczne. Możemy zwizualizować stopień jako liczbę okręgów węzłowych przechodzących wokół gwiazdy. W fotosferze dzieli to gwiazdę na naprzemienne jasne i ciemne obszary, które powodują obserwowane zmiany intensywności światła. Ponieważ obserwujemy cały dysk, naprzemienne obszary są uśredniane na dysku. Powoduje to geometryczne zniesienie jasnych i ciemnych obszarów, co utrudnia lub uniemożliwia obserwację zmian intensywności dla l ≥ 5 za pomocą obecnych detektorów. Zauważamy, że spektroskopowe techniki mapowania Dopplera stosowane w innych jasnych pulsatorach nieradialnych nie są tutaj możliwe, ponieważ białe karły są słabsze i mają szerokie linie. Jest to jeszcze bardziej dotkliwe w przypadku gwiazd DBV, ponieważ linie helu nie mają ostrego rdzenia NLTE, który obserwujemy w liniach wodoru w gwiazdach DAV. Teoretyczne obliczenia pochodzenia obserwowanych modów sugerują, że są one samowzbudzane lub wzmacniane przez małe zaburzenia zawsze obecne w gwieździe, a proces fizyczny odpowiedzialny za samowzbudzenie jest związany z częściową jonizacją helu w warstwach powierzchniowych. Natura tego wzbudzenia i jego związek z konwekcją związaną z częściową jonizacją to trudne problemy, które są obecnie badane. Nasze zrozumienie tego procesu jest w powijakach
Asterosejsmologia pulsatorów białych karłów DB
Teoretyczne obliczenia częstotliwości własnych dla modeli gwiazd DBV, podobnie jak dla innych pulsatorów białych karłów i pre-białych karłów, można przeprowadzić ze znaczną dokładnością w przybliżeniu adiabatycznym. Pomija to zmianę energii modu i jest w większości niezależne od szczegółowej struktury strefy częściowej jonizacji i wszelkich procesów dynamicznych zachodzących w niej. Ponieważ czas jest wielkością, którą możemy zmierzyć najdokładniej w nauce, częstotliwości są również najbardziej wiarygodnymi wielkościami, które mierzymy obserwacyjnie dla pulsujących gwiazd zmiennych. Dokładność zarówno pomiaru, jak i obliczenia częstotliwości nadaje się do ich porównywania jako sposobu na poznanie wewnętrznej struktury i ewolucji gwiazd. Proces ten nazywa się asterosejsmologią. Stosując techniki asterosejsmologii poczyniliśmy znaczne postępy w pomiarze całkowitej masy, struktury warstwy powierzchniowej, prędkości obrotowej i prawa obrotu, natężenia pola magnetycznego i absolutnej jasności gwiazd DBV. To ostatnie daje nam ważną miarę odległości asterosejsmologicznej. Nasze oczekiwania, oparte na teorii liniowej, są takie, że dla każdego stopnia, l, powinniśmy znaleźć serię multipletów, odpowiadających różnym radialnym alikwotom, każdy z 2l+1 składowymi. Separacja między różnymi modami multipletów jest związana z prędkością obrotową gwiazdy i jest słabą funkcją l. Powinno to dać nam niezależny pomiar prędkości obrotowej gwiazdy dla każdego obserwowanego l. Odstęp między okresami multipletów o różnych radialnych alikwotach jest ustalony, jak można się spodziewać po naturze siły przywracającej dla modów g, przez częstotliwość wyporu uśrednioną dla gwiazdy, ważoną przez funkcje własne. Ten odstęp jest mniej więcej jednolity pod względem okresu, a średnia wartość zapewnia czułe określenie masy gwiazdy. Odchylenia w odstępach kolejnych modów od średniej wartości są spowodowane sposobem, w jaki funkcje własne próbkują gwiazdę. Jest to silnie uwarunkowane warstwowaniem składowym gwiazdy, które powstało w wyniku jej wcześniejszej historii spalania jądrowego, wzmocnionej przez dyfuzję hemiczną w silnym polu grawitacyjnym. To rozwarstwienie powoduje pułapkowanie modów rezonansowych, które pozostawia swój podpis w okresowych zmianach odstępów modów od średniej globalnej. Ten wzór w
rozkładzie częstotliwości nazywany jest cyklem pułapkowania, a jego określenie umożliwia dokładny pomiar rozwarstwienia chemicznego warstwy powierzchniowej. Analiza asterosejsmologiczna zależy od dokładnych pomiarów wszystkich częstotliwości obecnych w gwieździe. Im więcej częstotliwości obecnych, tym większy potencjalny zwrot naukowy. Na szczęście większość gwiazd DBV jest dość bogata w obserwowane częstotliwości; jednak to bogactwo ma swoją cenę. Aby rozplątać wiele blisko rozmieszczonych częstotliwości, konieczne jest obserwowanie z jak najmniejszą liczbą przerw w danych przez okres wystarczająco długi, aby rozdzielić multiplety. Aby wykonać to zadanie dla pulsujących białych karłów i powiązanych obiektów, sieć WHOLE EARTH TELESCOPE (WET) została utworzona pod koniec lat 80. i obecnie działa. Sieć ta wykorzystuje wiele urządzeń optycznych na całym świecie, aby zapewnić zasadniczo ciągłe pokrycie wybranego celu. Ograniczenia przydziału czasu teleskopu i faza Księżyca zwykle określają całkowitą długość tych przebiegów obserwacyjnych - wymagany jest nów Księżyca, ponieważ białe karły są zwykle dość słabe. Koncepcja polega na pokonaniu wtargnięcia światła dziennego przy każdym widoku: rodzaj anty-imperium brytyjskiego, w którym powiedzielibyśmy "Słońce nigdy nie wschodzi na Whole Earth Telescope". Do tej pory najpowszechniej obserwowaną gwiazdą DBV jest gwiazda prototypowa, GD 358 (V777 Her). Prawie 150 godzin ciągłych obserwacji WET umożliwiło dokładne określenie całkowitej masy gwiazdowej, masy powierzchniowej warstwy He, jasności i odległości do GD 358. Najlepiej dopasowane wartości to (0,61±0,3)M⊙ dla całkowitej masy gwiazdowej, ?5,70 (+0,18 ? 0,30) dla logarytmu ułamkowej masy warstwy He, log(L/L⊙ ) = ?1,3 (+0,09 ? 0,12) dla jasności i odległości 42±3 pc. Dla GD 358 mamy również zaobserwowaną wartość paralaksy 36 ±ą 4 pc. Na razie mamy te imponujące wyniki tylko dla jednego DBV, ale wyniki oparte na obserwacjach większej liczby gwiazd DBV z WET powinny pojawić się w ciągu najbliższych kilku lat.
Tajemnice przyszłości
Pomimo wszystkich postępów w zrozumieniu częstotliwości i ich rozkładu w gwiazdach DBV, poczyniliśmy bardzo niewielkie postępy w zrozumieniu kształtów impulsów na krzywych blasku. Wszystkie, oprócz jednej, znane obecnie mają kształt impulsu z ostrymi maksimami i szerokimi płaskimi minimami . Impulsy te są bardzo asymetryczne względem średniego poziomu światła, a także niesinusoidalne. Wiele liniowych częstotliwości kombinacji (w większości pierwsze sumy i różnice, przy czym sumy mają najwyższe amplitudy) często występuje z dużo większą amplitudą niż rzeczywiste harmoniczne modów. Przyczyna, jeśli uda nam się ją znaleźć, daje nam wskazówkę co do fizyki pulsacji, a w szczególności ich wzbudzenia. Zaobserwowaliśmy również zmiany rzędu wielkości lub więcej we względnych amplitudach poszczególnych modów. Być może najbardziej dramatyczny przypadek tego miał miejsce podczas równoczesnych obserwacji GD 358 przez Kosmiczny Teleskop Hubble′a i naziemną bazę, gdy pojedynczy mod wzrósł do amplitudy 30% i przyjął
całkowicie sinusoidalny kształt impulsu. Skala czasowa, w której to nastąpiło, była rzędu dnia, a skala czasowa powrotu do bardziej normalnej wielookresowej krzywej blasku była tego samego rzędu. Część krzywej blasku po wznowieniu bardziej normalnego zachowania jest pokazana na dolnym panelu na rysunku 1. Jaka jest przyczyna tych dramatycznych zmian? Czy są one okresowe? Po prostu jeszcze nie wiemy, ale odpowiedź powinna okazać się ekscytująca. Jednym z najbardziej irytujących problemów w gwiazdach DBV jest rola konwekcji w określaniu właściwości pulsacji. Szacuje się, że czasy obrotu konwekcyjnego w pobliżu szczytu strefy konwekcyjnej są rzędu 1 s, bardzo krótkie w porównaniu ze skalami czasowymi pulsacji. Jednak większość badań teoretycznych zakłada, że strumień konwekcyjny jest zamrażany podczas pulsacji. Ten trudny problem jest obecnie badany. Jedną z bardzo interesujących perspektyw jest próba zidentyfikowania częstotliwości, które są bardzo stabilne zarówno pod względem okresu, jak i amplitudy, aby
spróbować zmierzyć zmiany okresu ewolucyjnego poprzez monitorowanie tempa zmian faz pulsacji. Jeśli można to zrobić, co wydaje się możliwe do tej pory w przypadku gwiazd DAV (które były badane przez prawie dwa razy dłuższy czas), możemy zmierzyć skale czasowe ewolucji w tych gwiazdach i skalibrować obliczenia chłodzenia białych karłów niezbędne do wykorzystania białych karłów jako galaktycznych chronometrów. Być może największą tajemnicą białych karłów DB jest ich pochodzenie. Czym różni się przodek białego karła DB od tego, który wytworzy białego karła DA? Jest to szczególnie zagadkowe, biorąc pod uwagę, że średnie masy gwiazd DA i DB wydają się być mniej więcej takie same. Ponadto, wzdłuż ścieżki chłodzenia białego karła, obiekty bogate w He znikają około 40 000 K i nie pojawiają się ponownie aż do temperatury tuż powyżej gwiazd DBV w pobliżu 30 000 K. Zrozumienie tych kwestii ewolucyjnych zostanie znacznie poprawione, jeśli będziemy mieli dokładne pomiary masy warstwy powierzchniowej dla znacznej liczby
białych karłów DB, a także masy warstwy He w białych karłach DA. Kuszące wyniki dla GD 358 ilustrują potencjał asterosejsmologii do pomiaru masy warstwy powierzchniowej He, ale rodzą również zagadkowe pytanie: dlaczego masa jest tak cienka? Standardowa teoria ewolucji sugeruje, że logarytm masy warstwy ułamkowej powinien być bliższy -2 lub -3. Jednym z możliwych wyjaśnień jest to, że obserwowana wartość nie jest miarą rzeczywistej całkowitej masy He, ale granicą dyfuzji, gdy He przesiąka z dołu. Możliwe jest również, że ta granica nie jest podstawą warstwy He, ale raczej granicą między stosunkowo lżejszym 3He i cięższym 4He. Jeśli tak jest, całkowita masa warstwy może być w przybliżeniu wartością oczekiwaną z teorii ewolucji. Intrygująca możliwość tego rozdzielenia izotopowego może mieć również inne astrofizyczne konsekwencje. Być może jest możliwe, że GD 358 nie jest typowa dla innych gwiazd DB z jakiegoś powodu. Tylko obszerne obserwacje w stylu WET większej liczby gwiazd DBV
powiedzą to.
Wykrywanie słabych obiektów
Aby wykryć słaby obiekt na tle nieba, obiekt musi mieć poziom sygnału w sąsiadujących pikselach, który jest powyżej określonego progu. W związku z tym limit wykrywania jest ustalany przez próg ograniczający izofotalny i minimalny obszar obiektu. Obszar ten jest zwykle obszarem dysku WIDZĄCEGO, tj. obszarem obrazu gwiazdowego. Izofot ograniczający jest zwykle 2 razy większy od wahań tła pojedynczych pikseli. Parametry te można zoptymalizować, próbując wykryć obrazy negatywne, które będą w całości spowodowane szumem, a następnie dostosowując minimalny obszar i ograniczający izofot do momentu, aż liczba obrazów z szumem zostanie zredukowana do akceptowalnej liczby.
Tło nieba
Określenie tła nieba opiera się na założeniu, że większość pikseli na obrazie to pomiary poziomu nieba, który zmienia się tylko powoli na całym obrazie. Zwykłą procedurą jest podzielenie obrazu na kafelki, określenie wartości tła nieba w każdym kafelku, a następnie płynna interpolacja wartości tła w każdym pikselu na obrazie. Izofota ograniczająca jest odnoszona do tego gładkiego tła. Rozmiar wybrany dla kafelków jest kompromisem między użyciem małych kafelków do śledzenia zmian nieba a użyciem dużych kafelków w celu zapewnienia, że większość pikseli w dowolnym kafelku to piksele nieba, a nie obrazu. Intensywność nieba przypisana do każdego kafelka powinna być wartością intensywności, która występuje najczęściej w danym kafelku. Uśrednienie wartości wszystkich pikseli w kafelku spowodowałoby zbyt duże odchylenie tła z powodu wysokich wartości pikseli obrazu, które byłyby uwzględnione w średniej. Znacznie lepszym oszacowaniem tła nieba niż wartość średnia jest wartość mediany uzyskana przez posortowanie pikseli według wartości intensywności i pobranie wartości intensywności z piksela znajdującego się w połowie drogi między pierwszym a ostatnim po sortowaniu. Zazwyczaj używana jest wartość mediany, chociaż czasami używane są bardziej kosztowne obliczeniowo metody szacowania wartości modalnej, wartości intensywności, która występuje najczęściej. Obejmują one wygładzenie histogramu wartości pikseli i pobranie wartości intensywności odpowiadającej szczytowi wygładzonego histogramu. Wygładzanie powinno być wykonane przez splot histogramu z rozkładem Gaussa o szerokości podobnej do szerokości histogramu. Używanie szczytu niewygładzonego histogramu jest zbyt niestabilne. Histogram musi rozwiązywać rozkład intensywności wokół szczytu histogramu.
Stosunek sygnału do szumu
Dokładność pomiaru strumienia wykrycia pojedynczego obiektu jest podana ilościowo przez stosunek sygnału do szumu, R. Błąd ułamkowy wynosi 1/R. Niech S będzie wykrytą szybkością FOTONU w zliczeniach na sekundę z obiektu. Sygnał, s, jest liczbą fotonów wykrytych w czasie integracji, t; zatem s = St. Szum, n, jest fluktuacją liczby wykrytych fotonów, oszacowaną na podstawie statystyki Poissona jako n = s1/2. Zatem R = s/n = (St)1/2 w przypadku, gdy jedynym źródłem szumu jest sam sygnał. Nowoczesne obrazy astronomiczne uzyskuje się za pomocą KAMER CCD, które mają szum odczytu, N, równoważny sygnałowi szumu N2, skojarzony z każdym pikselem. Dodatkowymi źródłami szumu są szum tła nieba w liczbach s-1/piksel, B, i ciemny prąd w liczbach s-1/piksel, D. Jeśli a jest liczbą pikseli objętych obrazem, całkowity szum w obrazie jest szumem z sumy źródła, tła, ciemnego prądu i szumu odczytu,
n = (St + Bta + Dta + N2a)1/2 (1),
a stosunek sygnału do szumu jest podany przez

Zatem czas integracji t wymagany do uzyskania danego stosunku sygnału do szumu R wynosi

Na przykład rozważmy czas integracji wymagany do wykrycia galaktyki o magnitudzie 22,0 w paśmie V, przy stosunku sygnału do szumu wynoszącym 10, za pomocą teleskopu 48 cali, używającego termoelektrycznie chłodzonego, podświetlanego od tyłu detektora CCD, gdy Księżyc ma 7 dni. Załóżmy, że rozmiar piksela wynosi 1,1 sekundy łuku × 1,1 sekundy łuku, obraz galaktyki będzie rozłożony na 4 piksele, a chłodnica działa w temperaturze ?35°C.
Tabela podaje przybliżoną jasność nieba w różnych pasmach długości fal jako funkcję wieku Księżyca. Tło nieba w paśmie V z 7-dniowego Księżyca ma jasność powierzchniową około 21,4 magnitudo arcsec-2. Obszar galaktyki pokrywający 4 piksele wynosi a = 4 × 1,1 × 1,1 = 4,84 arcsec2. Tabela 2 podaje odpowiedź CCD w kategoriach wykrytych fotonów na sekundę z gwiazdy o magnitudo 20,0 obserwowanej przez teleskop 1 m (39,4 cala) i szum odczytu na piksel. Z tabeli 2 wynika, że N = 7 zliczeń/piksel. W przypadku teleskopu 48 cali liczba zliczeń na sekundę w tabeli 2

musi zostać zwiększona o współczynnik (48/39,4)2 = 1,48. Sygnał z galaktyki V = 22,0 jest podany jako S = 1,48 × 23 × 10-0,4(22,0?20,0) = 5,39 zliczeń s-1, a tło nieba jest podane jako aB = 4,84 × 1,48 × 23 × 10-0,4(21,4-20,0) = 45,8 zliczeń s-1.
Tabela 3 przedstawia liczbę ciemnych zliczeń na piksel na sekundę jako funkcję temperatury dla cieńszej matrycy CCD pracującej w trybie MPP, typowo urządzeń o 46,0 pAcm-2 przy 293 K. W przypadku chłodnicy pracującej w temperaturze -35°C i galaktyki obejmującej 4 piksele, aD = 4×2,14 = 8,56 zliczeń s-1.

Podstawienie wartości do równania (3) daje t = 209 s, co pozwala na uzyskanie stosunku sygnału do szumu R = 10 dla galaktyki o jasności V = 22,0.
Detektory: Fotografia
Fotografia ma długą i produktywną współpracę z astronomią, która obecnie dobiega końca. Chociaż praktyczna fotografia pojawiła się w 1837 r., a fotografia słoneczna była dobrze rozwinięta w latach 60. XIX wieku, minęło prawie 50 lat, zanim technologia rozwinęła się na tyle, aby można ją było poważnie wykorzystać do obrazowania nocnego nieba. Po pierwszych demonstracjach jej wartości jako detektora niewidzialnego w latach 1882-1883, do 1890 r. w dużej mierze wyparła ludzkie oko jako główny detektor astronomiczny, z pewnością w przypadku obiektów spoza Układu Słonecznego. Ten postęp umożliwił nową naukę astrofizyki. Do 1900 r. fotografia zrewolucjonizowała sposób uprawiania astronomii i w ciągu 30 lat całkowicie zmieniła postrzeganie naszego miejsca we wszechświecie. Miała również głęboki wpływ na konstrukcję teleskopów i instrumentów astronomicznych. Dopiero pod koniec lat 70. XIX wieku stały się możliwe długie ekspozycje niezbędne do głębokiej fotografii astronomicznej. Wcześniej emulsje fotograficzne były albo zbyt nieczułe, aby były użyteczne, albo (w przypadku emulsji mokrego kolodionu) wysychały i stawały się nieczułe podczas koniecznie długiej ekspozycji. Wprowadzenie procesu "suchej żelatyny" zmieniło to i po raz pierwszy materiały fotograficzne można było przygotować na długo przed ekspozycją. Przetwarzanie można było podobnie opóźnić, a wynalezienie suchej płyty zapoczątkowało przemysł, który usunął mistykę i praktyczne trudności z procesu fotograficznego, czyniąc go szeroko dostępnym. W tym kontekście odkryto, że fotografia o długiej ekspozycji może ujawnić gwiazdy, które były niewidoczne dla ludzkiego oka, gdy zastosowano ją do tego samego teleskopu. Do 1890 roku fotografia ujawniała niewidzialny wszechświat słabych gwiazd, mgławic i galaktyk, co pozwoliło rozkwitnąć rozwijającej się nauce astrofizyki.
Fotografia jako detektor astronomiczny
W astronomii fotografia łączy zupełnie różne role detektora i nośnika zapisu. Jako detektor pozostaje użyteczna ze względu na niemal nieograniczony obszar czułości, wysoką rozdzielczość i stosunek sygnału do szumu, doskonałą jednorodność, łatwą dostępność i niski koszt. Jest również bardzo wydajnym, stabilnym i kompaktowym nośnikiem zapisu, z tą zaletą, że obrazy można łatwo badać za pomocą prostego stołu świetlnego. Jednak detektor jest rejestratorem nieliniowym, a zapisy analogowe nie są łatwe do przeszukiwania, renderowania ilościowego lub duplikowania, a sam detektor nie jest łatwy do przekształcenia w narzędzie ilościowe. Chociaż obecnie w dużej mierze wyparta przez elektroniczne wykrywanie obrazów, fotografia nadal odgrywa ważną rolę we współczesnej astronomii, szczególnie w pracach pomiarowych i patrolowych oraz w wykrywaniu słabego światła z rozciągniętych obiektów. Światłoczuła warstwa wszystkich powszechnych materiałów fotograficznych to cienka powłoka żelatyny na odpowiednim podłożu, zwykle szkle lub przezroczystej folii w przypadku negatywów, papierze lub plastiku do odbitek. W żelatynie rozproszone są drobne kryształy halogenków srebra, zwykle bromku srebra lub bromo-jodku srebra w przypadku emulsji stosowanych w astronomii. Mogą być one poddawane działaniu barwników podczas produkcji, aby rozszerzyć naturalną czułość na niebieskie promieniowanie UV soli srebra na dłuższe fale lub zwiększyć czułość na określone części widma, takie jak linia wodoru alfa o długości 656 nm. Wytworzono emulsje o użytecznej (choć niskiej) czułości na długości fal do 1,2 μm. Fotografia astronomiczna jest bardzo trudną sytuacją dla fotochemika. Ponieważ poziomy światła są zwykle bardzo niskie, emulsja musi być bardzo czuła. Jednak jeśli zostanie osiągnięta dobra czułość, wszechobecny blask nocnego nieba maskuje sygnały ze słabych źródeł niebieskich. Głównym celem we wczesnych dniach fotografii astronomicznej było posiadanie detektora tak czułego na słabe światło, jak to możliwe, innymi słowy, o wysokiej wydajności kwantowej. Ta właściwość interesowała zarówno komercyjnego producenta, jak i astronomów, a astronomowie mieli szczęście, że C. E. Kenneth Mees, dyrektor założyciel laboratoriów badawczych Eastman Kodak, interesował się astronomią. Doprowadziło to do wprowadzenia niezwykle czułych "płyt spektroskopowych" Kodaka w latach 30. XX wieku. Były to materiały zaprojektowane tak, aby miały wysoką czułość na słabe światło, gdzie czasy ekspozycji były koniecznie długie. Były używane do rejestrowania widm astronomicznych, a także do bezpośredniego obrazowania słabego światła. Chociaż ostatecznie zdano sobie sprawę, że te zadania często były zupełnie innymi problemami z rejestrowaniem obrazu, te szybkie, gruboziarniste produkty o niskiej rozdzielczości były szeroko stosowane w społeczności astronomicznej do około 1990 roku. Chociaż niska rozdzielczość i wysoka ziarnistość nie były zbyt ważne w przypadku teleskopów o długim ogniskowaniu z dużymi skalami płyt, nie było to idealne połączenie do rejestrowania słabych, drobno ustrukturyzowanych widm przy braku światła tła niebędącego obrazem, ani do rejestrowania jakiegokolwiek rodzaju obrazu, w którym obiekt zainteresowania był słabszy niż naturalna poświata nocnego nieba. Wprowadzenie szybkich teleskopów typu Schmidta w latach 30. XX wieku, z ich szczegółowymi obrazami i małą skalą obrazu, służyło podkreśleniu słabych właściwości obrazowania wczesnych materiałów. Ostatecznie (pod koniec lat 60. XX wieku) szybkie, ziarniste materiały zostały wyparte przez nowe produkty zaprojektowane do wykrywania słabych obiektów, a nie do dużej prędkości. Stopniowo zdawano sobie sprawę, że ważnym czynnikiem w wykrywaniu obrazu była detekcyjna wydajność kwantowa (DQE), a nie prosta wydajność kwantowa:

DQE jest zwykle wyrażane w procentach, gdzie

gdzie γ jest kontrastem lub nachyleniem charakterystycznej krzywej (H&D) materiału fotograficznego przy gęstości tła nieba, a σD jest średniokwadratowym szumem gęstości rozproszonej. Rozważane w ten sposób starsze, wysoce czułe typy emulsji (np. Kodak Type 103a) miały DQE wynoszące w najlepszym przypadku około 0,1%, podczas gdy typy Kodak IIIa, które je zastąpiły, mają DQE wynoszące 3-5%. Nowszy wynalazek, Tech Pan firmy Eastman Kodak, ma jeszcze wyższy DQE. Rezultatem tych rozważań było to, że producenci uczynili emulsje bardziej kontrastowymi (aby odróżnić słabe sygnały w szumie) i drobniejszymi (aby poprawić statystyki sygnału). Jednak chociaż drobniejsze ziarna dają znacznie lepsze właściwości obrazowania, zawsze dawały mniej czułe emulsje. Ten związek został zerwany na początku lat 70., kiedy odkryto, że wypiekanie emulsji tuż przed ekspozycją zapewniało znacznie lepsze działanie przy długiej ekspozycji, głównie poprzez wyeliminowanie awarii wzajemności o niskiej intensywności (LIRF). LIRF odzwierciedlało nieefektywności elektroniczne w procesie wykrywania światła, które są ważne przy niskich szybkościach przybycia fotonów występujących w astronomii. Procesy przeciwdziałające tym nieefektywnościom są ogólnie znane jako "nadwrażliwość" (hiper-sensytyzacja). Nie poprawiają one w dużym stopniu czułości "migawki" lub krótkiej ekspozycji danych produktów, ale mogą poprawić czułość dla ekspozycji trwających wiele minut o współczynnik 30 w niektórych przypadkach. Dalsze postępy, zwłaszcza zastosowanie wodoru jako redukującego środka uwrażliwiającego w 1974 r. oraz ekspozycja na teleskopie materiału nadwrażliwego w atmosferze obojętnej, umożliwiły stosowanie materiałów o bardzo drobnej ziarnistości we wszystkich teleskopach z czasami ekspozycji porównywalnymi z wcześniejszą generacją emulsji gruboziarnistych. Drobnoziarniste emulsje i wykorzystanie wodoru miały swój początek w laboratoriach badawczych Eastman Kodak, ale wielu astronomów-praktyków nabyło umiejętności w zakresie złożonych procesów hiperprzestrzennych, często obróbki gazowej, co uczyniło wykorzystanie nowych materiałów praktyczną możliwością. Opracowali również własne odmiany tych procesów, umiejętności, które były szczególnie ważne w przypadku instrumentów typu Schmidt specjalizujących się w pracach geodezyjnych.
Rozważania praktyczne
Wysokokontrastowa natura nowoczesnych emulsji fotograficznych sprawiła, że są one znacznie trudniejsze w obsłudze, co pogłębia hiperinflacja. Ogólnie rzecz biorąc, wysoki kontrast oznacza, że szerokość ekspozycji jest bardzo ograniczona. Ponadto wkrótce odkryto, że poziom ekspozycji był znacznie bardziej krytyczny w przypadku kontrastowych emulsji niż w przypadku ich stosunkowo niskokontrastowych poprzedników. Idealną sytuacją było dostosowanie ekspozycji tak, aby gęstość wytwarzana przez nocne niebo AIRGLOW była rozwinięta o około 1,0 powyżej chemicznej mgły płyty. Zapewniało to, że minimalna gęstość na płycie była bliska maksymalnemu kontrastowi emulsji, maksymalizując w ten sposób sygnał wyjściowy do szumu. Jednak wymagało to dostosowania efektywnej ekspozycji w zakresie około 10%, co stanowi znacznie węższą tolerancję niż zwykle w fotografii. To z kolei oznaczało znajomość (zmiennej) jasności nocnego nieba i efektywnej czułości materiału, która została znacznie zwiększona przez hiperinflację. Wpływ tych zmiennych jest redukowany przez regularne pomiary jasności nocnego nieba i rozległy program testowania efektów hipersensybilizacji. Dalszą trudnością związaną z emulsjami o wysokim kontraście była ich ekstremalna wrażliwość na zmiany przetwarzania i niewłaściwe obchodzenie się z nimi, zwłaszcza po hipersensybilizacji. Ogólnym efektem nowszych emulsji było wymuszenie szybkich ulepszeń w technice fotograficznej, co znalazło odzwierciedlenie w jakości niedawno ukończonych przeglądów nieba, a także pozytywnie wpłynęło na ostatnie kilka lat obserwacji fotograficznych na dużych reflektorach.
Fotografia jako medium zapisu
To w teleskopach Schmidta najlepiej wykorzystuje się dużą powierzchnię czułości i wysoką rozdzielczość przestrzenną nowoczesnych emulsji fotograficznych, i nie jest przypadkiem, że teleskopy Schmidta są nadal głównymi użytkownikami fotografii. Instrumenty te mają szybkie ogniskowe, zwykle między F/1 a F/3 i obejmują szerokie kąty nieba, często o wielu stopniach szerokości. Ich ciągłe używanie fotografii nie jest konserwatyzmem; raczej jest to uznanie, że wysoka zawartość informacji w obrazach szerokokątnych uchwyconych przez te teleskopy jest najefektywniej rejestrowana za pomocą nowoczesnych, hiperczułych emulsji fotograficznych. Ponadto obserwatoria na świecie mają obszerne archiwa fotograficzne z większych teleskopów, które są cennym zasobem. Brytyjski teleskop Schmidta w Siding Spring w Australii i jego północny odpowiednik, Oschin Schmidt w Mt Palomar w Kalifornii, mają płaszczyzny ogniskowe o wymiarach 356 mm kwadratowych, pokrywające 6,6? × 6,6? nieba (patrz MOUNT STROMLO I SIDING SPRING OBSERVATORIES, PALOMAR OBSERVATORY). Wyposażone w nadwrażliwe Panfilm Tech mają detektor z efektywnymi 5 ?mpikselami działający przy DQE znacznie lepszym niż 5%. Chociaż jest to rząd wielkości mniej czuły niż URZĄDZENIE ZE SPRZĘŻENIEM ŁADUNKOWYM (CCD), CCD są nadal ograniczone do znacznie mniejszych pól i pikseli, które są efektywnie 2 lub 3 razy większe, więc całkowita wydajność obserwacji może być nadal wyższa w przypadku fotografii. Nie przeszkodziło to w bardzo efektywnym wykorzystaniu CCD w teleskopach Schmidta. Chociaż podstawowe mechanizmy fotodetekcji w stanie stałym w matrycach CCD i płytach fotograficznych są podobne, na tym podobieństwo się kończy. Po naświetleniu utajone obrazy na płytach fotograficznych i filmie są wywoływane przez zanurzenie materiału w morzu elektronów, chemicznym środku redukującym (wywoływaczu), który wzmacnia efekt fotoelektryczny fotonów około miliarda razy. Po usunięciu nienaświetlonego halogenku srebra ("fiksacja") końcowym rezultatem jest matryca metalicznych cząstek srebra zawieszonych w cienkiej, przejrzystej warstwie żelatyny. To jest negatyw fotograficzny, a w wielu zastosowaniach jest to końcowy etap fotograficzny. Jednak ten negatyw można kopiować, aby wytworzyć dużą liczbę identycznie wyglądających duplikatów lub jego części można fotograficznie ulepszyć na różne sposoby, aby wydobyć w inny sposób ukryte informacje. Duże pola są również przydatne do tworzenia kolorowych obrazów nieba. Znacznie częściej obecnie oryginalne negatywy są digitalizowane za pomocą specjalistycznych maszyn skanujących, aby przekształcić 105-106 obrazów analogowych ukrytych w ziarnach srebra w formę cyfrową. Umożliwia to cyfrowe "układanie" wielu płyt tego samego pola, co skutecznie poprawia (S/N)out o współczynnik zbliżony do N1/2, gdzie N jest liczbą płyt. Należy jednak zauważyć, że nawet najnowocześniejsze obecne maszyny pomiarowe, takie jak SuperCOSMOS w Edynburgu, które skanują w krokach co 10 μm, mogą nie być w stanie wyodrębnić wszystkich przydatnych informacji z ekspozycji o wrodzonej rozdzielczości około 5 μm. Wielokrotne ekspozycje można również łączyć fotograficznie, co daje świetny efekt, a metody obrazowania fotograficznego, takie jak maskowanie nieostre, są nadal przydatne w przypadku oryginalnych płyt, gdzie maksymalna gęstość fotograficzna w dobrze naświetlonych obszarach może być znacznie wyższa niż gęstość, którą można zbadać za pomocą maszyn digitalizujących. Niemniej jednak z tych baz danych można uzyskać dokładne pozycje, paralaksy i ruchy własne (poprzeczne prędkości kątowe) gwiazd, a także informacje o GWIAZDACH ZMIENNYCH. W przypadku obiektów rozciągłych można zmierzyć kąty położenia i liczbę GALAKTYK (na przykład), a wykrywanie słabych, niezwykle rozciągniętych galaktyk, które zwykle są niewykrywalne przez inspekcję wizualną, jest uproszczone. Bardziej wyrafinowane manipulacje na zestawach płyt, zwłaszcza pomiary koloru obiektów, prowadzą do dużych katalogów KWAZARÓW o dużym przesunięciu ku czerwieni i innych niezwykłych obiektów, a ostatnio do wykrycia dużej galaktyki w trakcie łączenia się z Drogą Mleczną. Wydaje się prawdopodobne, że wysoka czułość i doskonała pojemność pamięci płyt fotograficznych będą nadal ekonomicznym i wygodnym sposobem gromadzenia i przechowywania danych przez jakiś czas, chociaż dane te będą coraz częściej analizowane i rozpowszechniane w formie cyfrowej.
Detektory: Nadprzewodzące urządzenia złączy tunelowych
Absorbcja fotonu o długości fali λ(nm) w nadprzewodniku jest poprzedzona serią szybkich procesów, które obejmują rozbijanie par Coopera przez energetyczne fonony tworzone przez gorące elektrony wytwarzane, gdy atom relaksuje się po początkowej fotoabsorpcji. Rezultatem tej kaskady jest zasadniczo to, że energia fotonów jest przekształcana w populację swobodnych nośników ładunku znanych jako kwazicząstki w nadmiarze w stosunku do jakiejkolwiek populacji termicznej. W przypadku typowych metali przejściowych ten proces konwersji trwa od nanosekund (niob) do mikrosekund (hafn). W wystarczająco niskich temperaturach (zwykle o rząd wielkości niższych od krytycznej temperatury nadprzewodnika Tc) gęstość nośników cieplnych jest bardzo mała, podczas gdy średnia liczba nadmiarowych nośników N0 utworzonych w wyniku procesu fotoabsorpcji może być zapisana jako

Tutaj długość fali jest wyrażona w nm, a zależna od temperatury przerwa energetyczna Δ(T /Tc) jest w meV. Tak więc w nadprzewodniku, takim jak tantal o T << Tc (4,5 K), początkowa średnia liczba utworzonych swobodnych nośników ładunku N0(λ) wynosi &sin;103 eV-1. Wariancja N0(λ) zależy od wariancji w podziale energii fotonów między produktywnymi fononami (fonony o energii Ω > 2Δ , które mogą rozbijać pary Coopera) i fononami, które są zasadniczo tracone z układu ( Ω < 2Δ ). Populacja Ω < 2Δ fononów ewoluuje z czasem, ponieważ średnia energia rosnącej populacji kwazicząstek relaksuje się, poprzez emisję fononów kwazicząstek, w kierunku przerwy energetycznej. Wariancja

Wyrażając tę wariancję w kategoriach rozdzielczości długości fali, mamy

Wykazano, że F &sin; 0,2 dla nadprzewodników elementarnych, takich jak niob i cyna . Stanowi to zatem podstawową rozdzielczość Fano ograniczoną dla dowolnego nadprzewodnika. Tak więc nadprzewodnik, taki jak tantal z T << Tc napromieniowany fotonami o długościach fal obejmujących promieniowanie rentgenowskie do bliskiej podczerwieni λ &sin; 1, 10, 100 i 1000 nm, następnie dλF &sin; 0,001, 0,033, 1,07 i 34 nm odpowiednio. Kwazicząstki wytworzone przez fotoabsorpcję można wykryć, przykładając potencjał stały do dwóch takich filmów oddzielonych cienką barierą izolacyjną, tworząc nadprzewodzące złącze tunelowe (STJ). To potencjalne odchylenie sprzyja przenoszeniu kwazicząstek z jednej warstwy do drugiej poprzez tunelowanie kwantowo-mechaniczne przez barierę. Sygnał detektora jest zatem reprezentowany przez prąd wytworzony przez ten proces tunelowania. Po początkowym tunelowaniu kwazicząstka może tunelować z powrotem, przyczyniając się w ten sposób wielokrotnie do całkowitego sygnału. Średnio każda kwazicząstka będzie przyczyniać się

dla przypadku, gdy n ≥ 2. Rysunek

ilustruje tę ograniczoną rozdzielczość złącza tunelowego dla szeregu nadprzewodników elementarnych w oparciu o parametry podsumowane w tabeli . Należy zauważyć, że to wyrażenie dla ograniczonej rozdzielczości tunelowej dλT można dalej uogólnić na dowolny związek nadprzewodzący lub zbliżoną warstwę dwuwarstwową poprzez zastosowanie przybliżonej relacji BCS w granicy słabego sprzężenia 2Δ = 3,5kTc, gdzie k jest stałą Boltzmanna. Odchylenia od tej relacji są niewielkie nawet dla silnie sprzężonych nadprzewodników, takich jak niob, i są również podsumowane w tabeli.

Tak więc w odniesieniu do temperatury krytycznej możemy zapisać

Zwykle n jest rzędu 10-100 i zależy od rozmiaru i charakteru STJ.
Uzasadnienie astrofizyczne
Po ustaleniu granicznej rozdzielczości długości fali dλT STJ warto rozważyć zastosowania takiej rozdzielczości w takich dziedzinach jak astrofizyka.
Długości fal rentgenowskich
Każda PLAZMA w temperaturze powyżej &sin;106 K emituje większość swojej energii w postaci promieni rentgenowskich z kolizyjnych emisji linii wzbudzenia i procesów termicznych hamowania. W niskich temperaturach (< 107 K) większość tej emisji fotonów ma postać linii emisyjnych emitowanych w miękkim paśmie rentgenowskim (SXB) z λ > 0,5 nm (&sin;2 keV), podczas gdy w wyższych temperaturach dominują procesy emisji ciągłej. Dzieje się tak tylko dlatego, że w wyższych temperaturach większość jonów o niskiej liczbie atomowej jest całkowicie pozbawiona elektronów, podczas gdy pozostałe jony to wodorowe lub helowe gatunki siarki i żelaza. Wysokorozdzielcza spektroskopia rentgenowska umożliwia określenie temperatur elektronów i jonów, gęstości elektronów i względnej obfitości pierwiastków, a także ustalenie stopnia równowagi termicznej i jonizacji. Podczas gdy pomiar intensywności linii wodorowych i helowych z tego samego pierwiastka jest ważnym wskaźnikiem temperatury jonów, to właśnie zdolność do rozdzielenia linii satelitarnych, np. linii rezonansowych, wzbronionych i interkombinacyjnych, z gatunków helowych może określić kluczowe cechy plazmy emitującej promieniowanie rentgenowskie w sposób niezależny od modelu. Oczywiste jest, że taki STJ, pod warunkiem, że może osiągnąć zmierzoną rozdzielczość zbliżoną do dλT, powinien być w stanie rozdzielić te kluczowe przejścia. Aby zilustrować ten punkt, rysunek

pokazuje odpowiedź tantalowego STJ na duży kompleks linii (kompleks Fe-L) około 1 nm, który ma być emitowany z optycznie cienkiej plazmy o temperaturze ?107 K. W tym przykładzie przyjęto OBFITOŚĆ SŁONECZNĄ i równowagę jonizacji, a dla przejrzystości stłumiono emisję ciągłą. Większość linii jest łatwo rozdzielana za pomocą takiego tantalowego STJ, co umożliwia jednoznaczne określenie temperatury poprzez pomiar względnej intensywności linii z tego samego jonu. Ponadto poprzez względną intensywność linii z różnych pierwiastków, takich jak Fe i Ne, można ustalić względne obfitości. Należy zauważyć, że stosunek intensywności linii rezonansowych z różnych jonów tego samego pierwiastka wraz z centroidami linii pozwala wywnioskować albo stopień równowagi jonizacji, albo ewentualnie odległość do obiektu, poprzez określenie PRZESUNIĘCIA KU CZERWONO z. Nie trzeba dodawać, że do takich obserwacji wymagana jest wysoka rozdzielczość widmowa. Tę rozdzielczość można uzyskać, używając tunelowego, ograniczonego tantalowego STJ, ale jest to całkowicie niemożliwe w przypadku konwencjonalnych urządzeń półprzewodnikowych. Aby zilustrować wysoki stopień wrażliwości różnych natężeń linii emisyjnych na temperaturę plazmy, rysunek przedstawia symulowaną odpowiedź tantalowego STJ na widma linii emisyjnych z gorącej, obfitej w Słońce optycznie cienkiej plazmy w równowadze nad obszarem długości fal pokrytym przez linie tlenu wodorowego i helowego &sin;2 nm.

Ponownie dla przejrzystości kontinuum zostało stłumione. Temperaturę jonu T przyjęto jako logT &sin; odpowiednio 6,4 i 6,8. Temperaturę tę można ustalić bezpośrednio z natężeń linii bez odwoływania się do modelowania podstawowego widma hamowania kontinuum, które i tak zapewnia tylko miarę temperatury swobodnych elektronów.
Długości fal UV/optycznych
W spektroskopii optycznej i UV wysoka rozdzielczość zwykle oznacza zdolność rozdzielczą ?/dλ? > 104. Z rysunku jasno wynika, że żaden z klasycznych nadprzewodników stanowiących podstawę obecnie rozwijanych STJ (opartych na Nb, Ta, Al, Mo lub Hf) nie mógłby osiągnąć takiej zdolności rozdzielczej. W rzeczywistości krytyczna temperatura nadprzewodnictwa Tc << 100 μK jest sugerowana do osiągnięcia zdolności rozdzielczej 104, co prowadzi do rozwoju STJ opartych na takich elementarnych nadprzewodnikach jak rod. Oczywiście sprawy nie są takie proste, ponieważ charakterystyki czasowe związane z produkcją wolnych nośników ładunku nadmiarowego są funkcją temperatury krytycznej , podczas gdy fonony o Ω > 2Δ mają długości fal znacznie większe niż grubość filmu. Tak więc takie niskotemperaturowe nadprzewodniki mogą być znacznie wolniejsze w swojej ogólnej reakcji. Biorąc pod uwagę, że rozdzielczość typowego STJ opartego na tantalu nie jest odpowiednia do spektroskopii o wysokiej lub nawet średniej rozdzielczości, jakie są alternatywne kluczowe atrybuty, które takie urządzenie może wnieść do dziedzin ASTRONOMII OPTYCZNEJ/ULTRAFIOLETOWEJ? Ważne są dwie cechy: (a) Charakterystyka czasowa (?10 μs) połączona z szerokopasmową zdolnością widmową może uczynić go idealnym spektrofotometrem: obiekty takie jak pulsary i gwiazdy rozbłyskowe mogą być idealnymi obiektami do obserwacji za pomocą małych, wąskich matryc. (b) Wydajność przy długościach fal UV, która po połączeniu z matrycą dużego formatu (detektorem panoramicznym) może umożliwić opracowanie wydajnego, szerokopasmowego spektrometru obrazowego, za pomocą którego można określić widma o niskiej rozdzielczości bardzo słabych obiektów, umożliwiając badania w bardzo głębokim polu. Takie badania mogłyby umożliwić określenie w pojedynczej ekspozycji widm szerokopasmowych, a zatem prawdopodobnie przesunięcia ku czerwieni z (a zatem wieku) wszystkich obiektów w polu poprzez pomiar krawędzi Lymana i linii emisyjnych Lymana - lasu Lymana. Należy zauważyć, że obserwowana długość fali λo = λR(z+1), gdzie λR jest długością fali spoczynkowej. Tak więc klasyczna krawędź Lymana pojawiłaby się przy &sin;400 nm przy z &sin; 3. Jest to bliskie optymalnej wydajności dla STJ na bazie tantalu, gdzie ma on wydajność &sin;70% i rozdzielczość &sin;20 nm. Jest jednak jasne, że urządzenia STJ oparte na nadprzewodnikach o niższej temperaturze, takich jak hafn, umożliwiłyby wyraźną ocenę przesunięcia ku czerwieni.
Bieżąca wydajność STJ
Kluczowe czynniki opisane w tej sekcji obejmują podstawową wydajność STJ na bazie tantalu, opartą na wcześniejszych pracach nad niobem. Walidacja podstawowych równań omówionych wcześniej, odnoszących się zarówno do N0, jak i dλT, zarówno w przypadku urządzeń tantalowych, jak i niobowych, daje pewność co do ostatecznego powodzenia rozwoju nadprzewodzących złącz tunelowych o niższej temperaturze, takich jak te oparte na hafnie
Długości fal rentgenowskich
Sprawność każdego detektora jest ważnym parametrem przy rozważaniu praktycznych zastosowań. Rysunek 4 ilustruje wydajność STJ na bazie tantalu jako funkcję długości fali fotonu w przypadku, gdy jako główny element detekcyjny użyto jednej warstwy o grubości około 100 nm.

Dla porównania pokazano również wydajność warstwy hafnu. Istnieje niewielka różnica między takimi warstwami, biorąc pod uwagę ich podobne liczby atomowe, chociaż ich ograniczona rozdzielczość tunelowa powinna być bardzo różna. Przy długości fali 2 nm wydajność wynosi &sin;75%; jednak sytuacja szybko pogarsza się przy krótszych długościach fal, przy wydajności wynoszącej tylko 5% przy 0,2 nm. Chociaż grubość tych warstw można niewątpliwie zwiększyć do 200-300 nm, poza tym różne mechanizmy strat mogą stać się ważne, tak że rozdzielczość widmowa może ulec pogorszeniu. Oczywiście w praktyce wydajność przy dłuższych długościach fal będzie niższa niż ta wskazana na rysunku 4, ze względu na fakt, że w przeciwieństwie do optycznego/UV, gdzie oświetlenie tylne jest trybem działania, przy długościach fal rentgenowskich foton wchodzi do detektora przez przód (oświetlenie przednie). Oznacza to, że pewna część promieni rentgenowskich o długich długościach fal jest absorbowana w górnej warstwie tlenku filmu, a także w górnej warstwie, jeśli dolna warstwa jest używana jako główna warstwa detekcyjna, a także w górnym kontakcie. Ten ostatni punkt jest ważny przy rozważaniu tablic, w których wymagana jest znaczna ilość okablowania górnego kontaktu wraz z warstwą izolacyjną SiOx. Podczas gdy rozdzielczość w średnim paśmie rentgenowskim (MXB &sin; 0,1-0,5 nm) nie osiągnęła jeszcze granic tunelowych wskazanych na rysunku , sytuacja w miękkim paśmie rentgenowskim (SXB &sin; 0,5-10 nm) jest bliska. Rysunek ilustruje zmierzone widma z tantalowego STJ stanowiącego część układu 6 × 6 elementów oświetlonego monochromatycznym promieniowaniem o różnych długościach fal w SXB

Każde urządzenie miało 25 × 25 μm i składało się z dwóch filmów, każdy o grubości 100 nm. Tutaj pokazano tylko te fotony pochłonięte przez film bazowy, które są oddzielone od zdarzeń w filmie górnym i podłożu przez ich odrębny czas narastania sygnału. Typowe rozdzielczości dλ &sin; 0,015 nm (3,5 eV) przy λ &sin; 2,4 nm (&sin;500 eV) zostały zmierzone i są wskazane na rysunku . Chociaż dane te nie osiągnęły jeszcze rozdzielczości ograniczonej tunelem (dλT &sin; 0,01 przy λ &sin; 2,4 nm), przyczyną jest określona jako przestrzenna zmienność wzmocnienia detektora, która zapewnia dodatkową wariancję zależną od kwadratu energii fotonów i która przyczynia się do ogólnej wariancji.
Długości fal UV/optycznych
Przy długościach fal optycznych i UV, gdzie energia fotonów jest bardzo mała, efekty przestrzenne na rozdzielczość nie mają znaczenia. Tutaj chodzi raczej o to, że sygnał jest niski, tak że stosunek sygnału do szumu jest dominującym czynnikiem rządzącym mierzoną rozdzielczością. Przy tych długościach fal fotony wchodzą do detektora przez podłoże, które może być szafirem lub fluorkiem magnezu, w zależności od wymaganego odcięcia krótkiej długości fali . Teoretyczna wydajność urządzenia tantalowego osadzonego na podłożu szafirowym przy tym trybie oświetlenia jest bardzo wysoka. Wszystkie fotony są pochłaniane w wysokiej jakości epitaksjalnej warstwie bazowej tantalu. Oczekuje się, że wydajności &sin;70% od 200 do 600 nm są ograniczone przy krótkiej długości średniej przez odcięcie podłoża szafirowego. Takie wydajności zostały potwierdzone eksperymentalnie. Aby zilustrować szerokopasmową odpowiedź tego typu spektroskopowego detektora zliczającego fotony, rysunek 6 przedstawia widmo ładunku z pojedynczego urządzenia na bazie tantalu, oświetlonego światłem optycznym za pomocą monochromatora kratowego.

Ta odpowiedź kratowa obejmuje cztery rzędy od 296 nm do 1183 nm, tj. od UV do NIR. Nie tylko różne rzędy są dobrze rozdzielone, ale ładunek wyjściowy jako funkcja długości fali może być precyzyjnie określony, co prowadzi do liniowości długości fali, która jest bardzo wysoka. Tego typu pomiary umożliwiają określenie rozdzielczości długości fali w szerokim paśmie fal i są pokazane zarówno dla urządzeń na bazie tantalu, jak i niobu na rysunku.
Wniosek
STJ oparty obecnie na tantalu lub niobie został obecnie rozwinięty do etapu, w którym wyprodukowano praktyczne tablice małego formatu (3 × 3 i 6 × 6 pikseli), które zapewniają podobną wydajność jak zoptymalizowane pojedyncze urządzenia. Takie tablice są już rozwijane w instrumenty do naziemnej astronomii optycznej. Wydajność tych tablic przy długościach fal UV i SXB jest taka, że praktyczne urządzenia można teraz rozważyć do zastosowań kosmicznych. Kluczowe konkretne punkty, które zostały eksperymentalnie zademonstrowane, można podsumować jako:
(a) Osiągnięto ograniczoną rozdzielczość tunelową przy długościach fal optycznych i UV.
(b) Wykazano wysoką wydajność przy długościach fal UV.
(c) Rozdzielczość mieści się w czynniku dwóch rozdzielczości tunelowej w SXB.
(d) Zrealizowano szybkie zliczanie fotonów (10 kHz).
Obszary, w których nadal wymagany jest rozwój podstawowego urządzenia tantalowego, można podsumować jako:
(a) Zmniejszenie udziału przestrzennego w rozdzielczości, umożliwiające zademonstrowanie ograniczonej rozdzielczości tunelowej w MXB.
(b) Poprawa wydajności urządzenia w MXB
(c) Zmniejszenie różnych materiałów absorbujących (kontakty, SiOx itp.), które zmniejszają wydajność w SXB.
(d) Produkcja tablic o bardzo dużym formacie.
(e) Rozwój elektroniki odczytowej przeznaczonej do zastosowań wielkoformatowych
Rozproszone pasma międzygwiazdowe
W 1922 roku Mary Lea Heger, studentka Berkeley/Lick Observatory, umieściła dwie niezidentyfikowane cechy na opublikowanej liście "stacjonarnych" linii absorpcyjnych widocznych w widmach odległych gwiazd podwójnych. Linie widmowe gwiazd w układzie podwójnym przesuwają się tam i z powrotem w długości fali z powodu efektu Dopplera, podczas gdy tajemnicze linie nie. Astronomowie szybko zdali sobie sprawę, że "stacjonarne" linie powstają w przestrzeni międzygwiazdowej i w związku z tym nie dzielą ruchu gwiazd w układzie orbitalnym - ale dwie cechy odkryte przez Hegera pozostały niezidentyfikowane. Ponad dekadę później Paul Merrill, który poszedł w ślady Hegera jako student studiów podyplomowych w Berkeley/Lick, zbadał nieznane cechy i odkrył około 10 kolejnych. Merrill nazwała je rozproszonymi pasmami międzygwiazdowymi (DIB) ze względu na ich duże szerokości (w porównaniu z międzygwiazdowymi liniami widmowymi atomów i jonów). Teraz, 80 lat po pierwszym zgłoszeniu Hegera na temat DIB, odkryto ponad 200 cech - i nie zidentyfikowano ani jednej. Zachowanie DIB jest zgodne z międzygwiazdowym pochodzeniem, ponieważ rosną w siłę wraz z odległością i całkowitą obfitością gazu, ale ich długości fal i szerokości nie pasują do cech widmowych żadnego znanego atomu, jonu lub cząsteczki.
Rozwój historyczny
Niemal natychmiast po początkowej pracy Merrilla nad DIB w połowie lat 30. XX wieku kilku wybitnych astronomów zasugerowało, że odpowiedzialne mogą być cząsteczki w kosmosie, ponieważ mniej więcej w tym samym czasie odkryto pierwsze proste (dwuatomowe) cząsteczki międzygwiazdowe. Jednak nieznane pasma były bardzo szerokie, nie składały się z oddzielnych, ostrych linii, jakich można by oczekiwać od małych cząsteczek. Trudniejszym wyzwaniem dla hipotezy molekularnej było to, że gęstość gazu w przestrzeni międzygwiazdowej jest bardzo niska, pozornie zbyt niska, aby umożliwić tworzenie złożonych cząsteczek. Astronomowie zwrócili uwagę na inną hipotezę: że DIB-y są tworzone przez stałe cząstki w przestrzeni, znane jako ziarna pyłu międzygwiazdowego. Stałe cząstki mogą absorbować fale o określonych długościach, tworząc pasma podobne do DIB-ów, jeśli cząstki zawierają atomy zanieczyszczeń lub przyłączone atomy lub cząsteczki na swoich powierzchniach. Przez około trzy dekady, począwszy od lat 50. XX wieku, hipoteza ziaren pyłu była preferowana przez większość badaczy, ale ponownie nie udało się zidentyfikować żadnych konkretnych substancji ani cząstek z żadnym z DIB-ów. Co więcej, dokładne badanie konkretnych DIB-ów nie ujawniło niektórych właściwości oczekiwanych od stałych absorberów, takich jak zmiany szerokości pasma i profilu przy różnych rozmiarach ziaren lub polaryzacja w obrębie pasm. Tak więc hipoteza pyłowa była już w tarapatach, gdy począwszy od lat 70. XX wieku kilka czynników zaczęło wskazywać na molekularne pochodzenie DIB-ów. Pierwszym znaczącym osiągnięciem było odkrycie wielu nowych i coraz bardziej złożonych cząsteczek w ciemnych obłokach międzygwiazdowych, gdzie cząsteczki emitują fale radiowe, uwalniając energię uzyskaną w zderzeniach ze sobą. Stało się oczywiste, że cząsteczki mogą tworzyć się i przetrwać w przestrzeni międzygwiazdowej, przynajmniej w najgęstszych obłokach, jeśli nie w bardziej rozproszonych regionach, w których powstają DIB. Następnie seria artykułów opublikowanych pod koniec lat 70. pokazała, w jaki sposób cząsteczki, nawet stosunkowo małe, mogą tworzyć szerokie, pozbawione cech pasma widmowe podobne do DIB. Jednak najsilniejszy impuls dla hipotezy molekularnej pojawił się w 1984 r. wraz z odkryciem, że duże cząsteczki organiczne występują obficie w przestrzeni, nawet w rozproszonych regionach. W tym roku francuscy naukowcy Jean Puget i Alain Léger wykazali, że pewne cechy międzygwiazdowe widoczne w podczerwieni można przypisać dużym cząsteczkom węglowodorów, w szczególności klasie znanej jako wielopierścieniowe węglowodory aromatyczne (WWA). Prawie natychmiast kilku astronomów zasugerowało, że WWA lub, co bardziej prawdopodobne, ich jony (po utracie jednego elektronu) mogą wytwarzać DIB. Ta hipoteza pozostaje wykonalna, podobnie jak inne klasy cząsteczek, takie jak łańcuchy węglowe, które występują obficie w gęstych obłokach. Od połowy lat 80. postęp był szybki, co najmniej z dwóch powodów: (1) dostępność bardzo dokładnych pomiarów astronomicznych DIB, wykorzystujących zalety nowej technologii w teleskopach i urządzeniach do wykrywania światła, takich jak detektory sprzężone ładunkowo; (2) zaangażowanie w badania DIB naukowców, takich jak chemicy, z dziedzin innych niż astronomia.
Właściwości DIB
Obecnie znaleziono ponad 200 DIB, a dodatkowe słabe pojawiają się niemal za każdym razem, gdy w obserwacjach osiągany jest nowy poziom czułości. Wszystkie DIB korelują mniej więcej z parametrami międzygwiazdowymi, takimi jak całkowita gęstość kolumny gazu lub wygaszenie światła gwiazd z powodu pyłu międzygwiazdowego - ale żaden nie koreluje idealnie z tymi wielkościami ani ze sobą nawzajem. Stwierdzono, że podgrupy DIB korelują wewnętrznie lepiej niż pasma jako całość, co prowadzi do identyfikacji "rodzin", które mogą mieć wspólne pochodzenie. W każdym razie stało się jasne, że muszą być zaangażowani liczni nosiciele, biorąc pod uwagę czasami bardzo różne zachowanie różnych DIB. Ogólnie rzecz biorąc, DIB są najsilniejsze w rozproszonych obszarach międzygwiazdowych, a nie w ciemnych, gęstych chmurach, w których obserwuje się cząsteczki emitujące fale radiowe. W rzeczywistości DIB stają się słabsze wraz ze wzrostem gęstości chmur, co sugeruje, że mogą być tworzone przez zjonizowane gatunki, które stają się neutralne i zmieniają swoje widma w gęstszych środowiskach. Szerokości DIB wahają się od mniej niż 0,1 nm do prawie 3 nm. Większość leży między około 400 a 800 nm, z większą koncentracją cech w kierunku dłuższych fal. Cechy pojawiają się również w bliskiej podczerwieni części widma, chociaż obserwacje tam stają się trudne ze względu na zakłócenia atmosferyczne. Nie wiadomo, czy DIB występują w ultrafiolecie z powodu ograniczeń obserwacyjnych utrudniających ich wykrywanie. Długości fal i profile DIB są, w granicach obserwacji, stałe. Niewielkie zmiany profilu można zobaczyć z jednej linii widzenia na drugą, ale zwykle są one przypisywane przesunięciom Dopplera w oddzielnych obłokach międzygwiazdowych, które przyczyniają się do absorpcji. Kilka węższych DIB-ów wykazuje podstrukturę w swoich profilach, co zwykle jest interpretowane jako spowodowane rotacyjno-wibracyjnymi widmami cząsteczek, chociaż zaproponowano inne interpretacje, takie jak przesunięcia izotopowe. Najszersze DIB-y, które mają tendencję do kładzenia się w kierunku krótszych długości fal niż większość wąskich, wydają się nie mieć żadnej wykrywalnej drobnej struktury. Szerokości i profile tych pasm przypisano naturalnemu poszerzeniu (tłumieniu) w cząsteczkach o bardzo krótkotrwałych stanach górnych. W bardzo niewielu przypadkach niektóre DIB-y były widoczne w emisji, a nie absorpcji. Najlepiej znanym obszarem, w którym zaobserwowano taką emisję, jest bogata w węgiel mgławica refleksyjna zwana Czerwonym Prostokątem. W tej mgławicy przesunięcia długości fali w pasmach emisyjnych DIB zmieniają się wraz z odległością od wzbudzającej gwiazdy w sposób, który wydaje się zgodny ze zmianami w rotacyjnym wzbudzeniu cząsteczek. Oszacowanie rzędu wielkości ilości cząsteczek potrzebnych do wytworzenia wszystkich obserwowanych DIB-ów nakłada ograniczenia na pierwiastki, które mogą być za to odpowiedzialne. Tylko powszechnie występujące gatunki, takie jak wodór, węgiel, azot, tlen i kilka innych, są żywotne; inne pierwiastki są zbyt rzadkie. Zatem węglowodory lub łańcuchy węglowe, a także inne rodzaje cząsteczek organicznych, spełniają ograniczenie obfitości i są zatem prawdopodobne na tych podstawach, jak również ze względu na właściwości spektroskopowe wymienione powyżej.
Obecny stan i przyszłe perspektywy
Ostatecznym celem jest stworzenie i zmierzenie w laboratorium cząstek, które wytwarzają DIB. Tylko wtedy, gdy zostaną znalezione gatunki, których widma dokładnie odpowiadają obserwowanym pasmom międzygwiazdowym (bez przewidywania cech, które powinny być widoczne w kosmosie, ale nie są), będziemy mogli twierdzić, że zostały zidentyfikowane. Osiągnięcie tego celu jest zniechęcającym zadaniem, biorąc pod uwagę ogromną różnorodność żywotnych gatunków, z których każdy ma swoje własne unikalne widmo, a także biorąc pod uwagę praktyczne trudności związane z badaniami laboratoryjnymi dużych cząsteczek, zwłaszcza jonów cząsteczkowych, które są preferowane przez wielu badaczy jako najbardziej prawdopodobni kandydaci na nośniki DIB. Pomimo przeszkód, kilka grup badawczych na całym świecie zajmuje się DIB-ami, w laboratorium i przy teleskopie. Było już kilka bliskich trafień, tj. gatunków wykazujących wystarczająco dużo wymaganych właściwości, aby wzbudzić nadzieję, ale jak dotąd wszystkie zostały odrzucone. Jednak biorąc pod uwagę bezprecedensowy obecny poziom zainteresowania i intensywność wysiłków w celu rozwiązania problemu, istnieje powód do optymizmu, że przynajmniej niektóre DIB-y mogą zostać wkrótce zidentyfikowane. Kiedy to nastąpi, astronomowie będą mieli nowe narzędzie do badania fizyki i chemii przestrzeni międzygwiazdowej, prawdopodobnie uzyskując również nowe informacje na temat liczebności i rodzajów gatunków organicznych, które były obecne w kosmosie na długo przed powstaniem życia na Ziemi.
Galaktyki dyskowe
Gwiezdne dyski są głównymi cechami strukturalnymi galaktyk dyskowych, które dzielimy na spiralne, S0 i nieregularne klasy morfologiczne. Dyski są silnie spłaszczone, o przybliżonej symetrii kołowej. W galaktykach spiralnych i nieregularnych dysk zawiera gaz, a także gwiazdy, a drobna struktura jest powszechna, w tym ramiona spiralne, które definiują tę klasę. Nasza najbliższa galaktyka dyskowa to nasza własna DROGA MLECZNA, galaktyka spiralna; Słońce leży w płaszczyźnie dysku, około 8 kpc od jego środka. Gwiazdy i gaz dysku galaktyki podążają prawie kołowymi orbitami wokół środka, w płaszczyźnie dysku. Dysk nie obraca się sztywno jak gramofon, ale różnicowo: gwiazdy w regionach zewnętrznych potrzebują więcej czasu, aby ukończyć orbitę niż te blisko środka. Ruch orbitalny gwiazd i gazu chroni dysk przed zapadnięciem się pod wpływem grawitacji. Zorganizowany obrót dominuje nad wszystkimi innymi ruchami; losowe prędkości odpowiadają za bardzo mało energii kinetycznej, więc dyski są dynamicznie "zimne" lub przynajmniej "chłodne". W Drodze Mlecznej gwiazdy dyskowe w pobliżu Słońca poruszają się z prędkością około 200 km s-1, co zajmuje około 250 milionów lat, aby ukończyć orbitę, ale ich losowe ruchy wynoszą zazwyczaj tylko 30 km s-1. Ponieważ dyski są chłodne, mają tendencję do bycia niestabilnymi w tworzeniu wewnętrznych podstruktur, takich jak pręty i ramiona spiralne. Olbrzymie galaktyki dyskowe, o jasnościach większych niż około 6109Ló. (nasza Droga Mleczna jest mniej więcej trzy razy jaśniejsza), są układami złożonymi. Okrągłe wewnętrzne wybrzuszenie jest znacznie gęstsze niż dysk i "gorętsze"; gwiazdy mają duże losowe ruchy. Wewnątrz wybrzuszenia znajduje się jeszcze gęstsza gromada gwiazd, jądro galaktyki; niektóre jądra zawierają masywne czarne dziury w swoich centrach. Olbrzymie galaktyki podążają za sekwencją morfologiczną, nazwaną na cześć swojego twórcy, Edwina Hubble′a. Galaktyki S0 mają duże centralne wybrzuszenia lub sferoidy i gładki dysk gwiezdny; ramiona spiralne, gaz i formowanie się gwiazd są zwykle nieobecne. Wzdłuż sekwencji od Sa przez Sb do Sc, centralne wybrzuszenie staje się mniejsze, podczas gdy wyeksponowanie ramion spiralnych wzrasta, wraz z frakcją gazu i nowo powstałych gwiazd. Galaktyki karłowate są mniejsze, mniej jasne i mniej masywne niż galaktyki olbrzymy. Są również bardziej rozproszone, ze zmniejszoną gęstością gwiazd i gazu i nie mają gęstych, okrągłych centralnych wybrzuszeń. Na granicy między galaktykami karłowatymi i olbrzymami znajdują się galaktyki Sd, z bardzo cienkimi dyskami gwiezdnymi i jedynie szczątkową strukturą spiralną. Trend w kierunku mniej zorganizowanej struktury optycznej trwa przez klasę nieregularnych galaktyk magellańskich Sm do nieregularnych galaktyk karłowatych (dIrr), które są najmniej masywne i najmniej jasne, z niebieskimi jasnościami poniżej 108 Ló. Wszystkie te klasy galaktyk dyskowych karłowatych są bogate w gaz i mają stosunkowo duży wkład młodych gwiazd.
Struktury dysków galaktycznych
Dyski gwiezdne
Droga Mleczna jest jedyną galaktyką, której trójwymiarowa struktura jest dobrze znana; w innych miejscach widzimy tylko dwuwymiarowe projekcje galaktyk. Obserwując wiele galaktyk, losowo rozmieszczonych pod wszystkimi możliwymi kątami obserwacji, wywnioskowujemy średnie trójwymiarowe struktury różnych klas. W galaktykach dyskowych, które oglądamy niemal z przodu, prostopadle do płaszczyzny zawierającej dysk, rzutowana jasność światła gwiazdowego spada płynnie wraz z promieniem. Przy danej długości fali λ przebieg natężenia Iλ(r) z promieniem r od środka dysku jest mniej więcej wykładniczy: Iλ(r) ≈ I(0)e-r/hr. Długość skali radialnej hr jest długością e-fałdowania dla światła gwiazdowego zintegrowanego pionowo przez dysk. W większości galaktyk spiralnych hr wynosi 1-5 kpc; karły mogą mieć hr < 1 kpc, podczas gdy w niektórych osobliwych galaktykach olbrzymich hr > 10 kpc. W większości galaktyk dyskowych, w pobliżu środka, gdzie r < hr jasność wzrasta powyżej wewnętrznej ekstrapolacji prawa wykładniczego opisującego główny dysk. Możemy zdefiniować centralną jasność dysku Iλ(0) poprzez rozszerzenie modelu dysku do r=0; całkowita jasność dysku to po prostu Lλ=2πhr2I?(0). Zmierzone wartości jasności centralnego dysku są powszechnie w okolicach I?*(0) ≈ 150 Ló pc-2 w świetle niebieskim; to jest szczyt Freemana. Obecnie uznaje się, że wartość Freemana odzwierciedla przybliżoną górną granicę jasności powierzchni dysku. Podczas gdy niewiele dysków galaktycznych ma jaśniejsze centra, istnieją dyski o niższej jasności powierzchni, sięgającej kilku procent gęstości jasności Freemana. Są to galaktyki o niskiej jasności powierzchni. Jedno ostrzeżenie: chociaż zwykle ekstrapoluje się prawo wykładnicze w ten sposób, nie jest jasne, czy dyski gwiazdowe rzeczywiście rozciągają się do centralnej galaktyki. Widzimy naszą własną galaktykę, Drogę Mleczną, jako świetlistą ścieżkę na niebie w ciemną noc; Słońce znajduje się blisko środkowej płaszczyzny naszego dysku, więc obserwujemy dysk gwiazdowy w projekcji z wnętrza. Dyski innych galaktyk również wydają się wąskimi pasmami światła, gdy widzimy je krawędzią. Jeśli dysk krawędzią zawiera tylko gwiazdy, bez materii międzygwiazdowej blokującej światło, możemy użyć map jasności, aby wyprowadzić rozkład gęstości gwiazd "powyżej" środkowej płaszczyzny w kierunku z. Dyski gwiazdowe mają skomplikowane struktury pionowe. W naszej Drodze Mlecznej najmłodsze gwiazdy są skoncentrowane w pobliżu środkowej płaszczyzny dysku, z wysokościami skali wykładniczej hz <0,1-0,2 kpc . Starsze gwiazdy tworzą "gruby dysk" o wysokości skali hz ≈ 1 kpc. Wysokość skali pionowej każdego składnika dysku gwiazdowego zależy od jego dyspersji prędkości prostopadłej do dysku; wyższe prędkości dają grubsze dyski, ponieważ gwiazdy mogą przemieszczać się dalej od środkowej płaszczyzny. Młode gwiazdy rodzą się z obłoków gazu, które są dynamicznie "zimne"; mają małą pionową energię kinetyczną i są ograniczone blisko płaszczyzny środkowej. Podczas orbitowania gwiazdy odczuwają siły grawitacyjne dużych brył gazu i gwiazd, które są obecne w ramionach spiralnych. Powtarzające się szarpnięcia "nagrzewają" je, zwiększając ich losowe ruchy zarówno w pionie, jak i w płaszczyźnie dysku: patrz rysunek 1. W galaktykach zewnętrznych rozkład światła w pionie jest często niemal wykładniczy przy dużym z, ale spłaszcza się w pobliżu płaszczyzny id. Średnie wysokości skali pionowej uzyskane z dopasowań do profili jasności olbrzymich dysków są mniejsze niż długości skali radialnej, zwykle o czynniki ≈5-10. Niektóre "supercienkie" galaktyki Sd mają jeszcze większe stosunki, podczas gdy galaktyki nieregularne są zwykle puszyste. Kiedy obserwujemy dysk galaktyczny z boku, pojawia się dodatkowa komplikacja polegająca na tym, że integrujemy światło w zakresie promieni. Przewidywany rozkład światła wzdłuż środkowej płaszczyzny z = 0 nie jest proporcjonalny do jasności powierzchniowej Iλ(r), którą zmierzylibyśmy, gdybyśmy oglądali galaktykę z przodu. Na przykład, profil jasności promieniowej dysku wykładniczego, który jest widziany z boku, zostanie dopasowany przez zmodyfikowane funkcje Bessela, które mają płytszy spadek promienia niż rozkład wykładniczy.
Dyski gazowe
Z wyjątkiem galaktyk S0, dysk zawiera zarówno gaz, jak i gwiazdy. Ośrodek międzygwiazdowy galaktyki dyskowej, takiej jak Droga Mleczna, jest bogaty w zróżnicowanie. Obejmuje fazy od kompleksów obłoków molekularnych o gęstości ~102 cząstek cm-3, do rozproszonego, silnie zjonizowanego gazu o gęstości ∿10-2 cm-3 i temperaturach >106 K. Gaz jest również przeplatany energetycznie znaczącymi polami magnetycznymi i skąpany w promieniach kosmicznych uwięzionych przez pole. Materię międzygwiazdową najłatwiej zobaczyć jako ciemne chmury lub pasma, gdzie ziarna pyłu związane z gazem blokują nam widok na gwiazdy znajdujące się za nimi. W południowej i północnej Drodze Mlecznej pył jest widoczny jako pojedyncze ciemne chmury, takie jak "worki węglowe", wzdłuż płaszczyzny jasnego dysku. Na zdjęciach optycznych galaktyk dyskowych widzianych z boku, pył w dysku powoduje charakterystyczny ciemny pas na środkowej płaszczyźnie. Ziarna pyłu międzygwiazdowego pochłaniają i rozpraszają światło gwiazd na długościach fal od bliskiej podczerwieni do miękkich promieni rentgenowskich. Ziarna pyłu międzygwiazdowego są małe - większość ma średnicę od 0,001 μm do 1 μm - a nieprzezroczystość pyłu szybko rośnie wraz ze zmniejszającą się długością fali. Najlepsze widoki rozkładu gwiazd w galaktykach spiralnych w podczerwonym obszarze widmowym uzyskujemy przy λ∿2 μm, najdłuższych długościach fal, na których bezpośrednie promieniowanie gwiazdowe jest nadal ważne. W obszarze podczerwieni termicznej, przy długościach fal 5-300 μm, widzimy promieniowanie pochodzące z samych ziaren pyłu, ogrzanych przez światło gwiazd, które pochłonęły; większość mocy znajduje się w dalekiej podczerwieni (FIR), przy λ > 50 μ. Obrazy galaktyk w długościach fal FIR pokazują emisję tam, gdzie występują gwiezdne (lub inne) źródła ciepła, a pył skutecznie pochłania ich światło. Najbardziej spektakularne galaktyki dyskowe tworzące gwiazdy, STARBURST GALAXIES, takie jak M82, zawierają tak dużo pyłowego gazu, że blokuje on światło gwiazd nawet w długościach fal podczerwonych. Tam rozkład młodych gwiazd można odwzorować tylko na podstawie emisji FIR i emisji radiowej zjonizowanego gazu w pobliżu masywnych gwiazd lub młodych pozostałości po wybuchach supernowych. Typowa gigantyczna galaktyka spiralna ma około 5-10×109Mó chłodnego gazu międzygwiazdowego. Około połowa z tego jest skupiona w gęstych regionach, blisko środkowej płaszczyzny dysku, gdzie wodór występuje w formie cząsteczkowej (H2). Młode gwiazdy rodzą się w tych chłodnych obłokach molekularnych. Ponieważ H2 jest cząsteczką symetryczną, nie wytwarza silnej emisji, a jego pasma absorpcji ultrafioletowej stają się trudne do zaobserwowania w gęstych regionach ośrodka międzygwiazdowego. Lokalizacje i ilość H2 są zwykle wyprowadzane z obserwacji cząsteczek znacznikowych, które wytwarzają emisję linii częstotliwości radiowej, takich jak CO lub HCN. Gaz cząsteczkowy jest zwykle skoncentrowany we wewnętrznej galaktyce, gdzie tworzy bardzo cienki dysk o wysokości skali hz < 0,1-0,3 kpc. Pozostała część gazu międzygwiazdowego jest bardziej rozproszona; większość z niej to neutralny (H I) lub zjonizowany (H II) wodór. Przestrzenny rozkład H I w galaktykach dyskowych jest najłatwiejszy do zmierzenia, poprzez nadsubtelną linię emisyjną 21 cm. Ten składnik jest zwykle dość cienki z wysokością skali pionowej hz <1 kpc i rozkładem promieniowym, który rozciąga się dalej od środka niż dysk gwiezdny. Zewnętrzne obszary większości dysków galaktycznych wydają się składać głównie z gazu H I. Ciepły zjonizowany gaz, w odległości 1-2 kpc od płaszczyzny środkowej, jest śledzony z linii emisyjnych rekombinacji wodoru. Dysk jest otoczony przez znacznie gorętsze rozproszone halo gazu w temperaturze 105 - 106 K; wykrywamy je w emisji rentgenowskiej lub za pomocą spektroskopii absorpcyjnej w ultrafiolecie linii rezonansowych wytwarzanych przez cięższe pierwiastki w gorącym gazie. Pierwszy jednoznaczny dowód na istnienie gigantycznego halo gorącego gazu wokół pobliskiej galaktyki spiralnej, bardzo podobnej do naszej Drogi Mlecznej, został znaleziony przez astronomów korzystających z OBSERWACJI PROMIENIOWANIA X CHANDRA NASA. Chandra odkryła rozproszone halo gazu rentgenowskiego, promieniujące z temperaturą prawie 3 milionów stopni, wokół galaktyki NGC 4631, około 25 milionów lat świetlnych od Ziemi. Obraz Chandry ujawnia halo gorącego gazu, które rozciąga się na około 25 000 lat świetlnych ponad dyskiem galaktyki. Jedną z ważnych cech emisji rentgenowskiej z NGC 4631 jest to, że bardzo przypomina ona ogólny rozmiar i kształt widoczne w emisji radiowej z galaktyki. Wskazuje to, że może istnieć ścisły związek między wypływami gorącego gazu, widocznymi w promieniach rentgenowskich, a polem magnetycznym galaktyki, ujawnionym przez emisję radiową. Obraz NGC 4631 z Hubble′a pokazuje włókniste, pętlowe struktury otaczające wzmocniony gaz emitujący promienie rentgenowskie i pochodzące z obszarów niedawnego formowania się gwiazd w dysku galaktyki. Łącznie te dane wyraźnie pokazują, że gorący gaz jest podgrzewany przez gromady masywnych gwiazd i obecnie rozszerza się w halo galaktyki. Wzajemne oddziaływanie między gazowymi i gwiezdnymi składnikami dysków jest niezwykle skomplikowane. Dysk gazowy ulega rozproszeniu i może wypromieniowywać energię związaną z przypadkowymi ruchami, tak że ma tendencję do zapadania się w kierunku pionowym. Jednak energia i pęd są wprowadzane do ośrodka międzygwiazdowego przez szybkie wiatry gwiazdowe, promieniowanie jonizujące i wybuchy supernowych z masywnych gwiazd. Zwiększają one energię wewnętrzną gazu, powodując jego rozszerzanie się w pionie; w skrajnych przypadkach może on nawet uciec jako wiatr galaktyczny. Ponieważ gwiazdy są zbudowane z gęstego, chłodnego gazu, formowanie się gwiazd może być procesem regulującym elfów. Jeśli powstanie wiele młodych gwiazd, mogą one wydmuchać gaz lub podgrzać go tak bardzo, że zapobiegnie to dalszym narodzinom gwiazd.
Ramiona spiralne i poprzeczki
Fotogeniczne ramiona galaktyk spiralnych są najbardziej uderzającymi świetlistymi strukturami w każdym atlasie galaktyk. W mniejszości olbrzymich galaktyk, takich jak M81 lub NGC 1300, widzimy spiralę "wielkiego projektu": para dobrze zdefiniowanych ramion wije się pod kątami azymutu większymi niż 90° i rozciąga się promieniem na większości widocznego optycznie dysku gwiezdnego. Częściej ramiona spiralne są rozbite na krótsze segmenty i występuje więcej niż dwa ramiona. W dyskach flokulacyjnych spirala składa się z wielu małych fragmentów ramion; nie ma zorganizowanej struktury spiralnej na dużą skalę. Gaz wydaje się być niezbędny do tworzenia ramion spiralnych; galaktykom S0 brakuje zarówno gazu, jak i wzoru spiralnego. Silne ramiona spiralne najłatwiej tworzą się w szybko obracających się masywnych dyskach jasnych galaktyk. Galaktyki o niższej jasności (i mniejszej masie) mają chaotyczne wzory spiralne lub ich nie mają. Układy Sd często mają słabo zdefiniowane ramiona, podczas gdy ramiona spiralne są całkowicie nieobecne w galaktykach dIrr o małej masie. Spadek intensywności i częstotliwości ramion spiralnych wraz ze zmniejszającą się masą galaktyki sugeruje, że grawitacja ma duże znaczenie w kształtowaniu struktury spiralnej. Ku zaskoczeniu astronomów, galaktyka NGC 4622 wydaje się obracać w kierunku przeciwnym do oczekiwanego. Astronomowie są zdezorientowani obrotem zgodnym z ruchem wskazówek zegara ze względu na kierunek, w którym skierowane są zewnętrzne ramiona spiralne. Większość galaktyk spiralnych ma ramiona z gazu i gwiazd, które ciągną się za nimi, gdy się obracają. Ale ta galaktyka ma dwa wiodące ramiona zewnętrzne, które są skierowane w kierunku zgodnym z ruchem wskazówek zegara obrotu galaktyki. Aby dodać do zagadki, NGC 4622 ma również tylne ramię wewnętrzne, które jest owinięte wokół galaktyki w kierunku przeciwnym do kierunku jej obrotu. Astronomowie podejrzewają, że NGC 4622 oddziaływała z inną galaktyką. Jej dwa ramiona zewnętrzne są asymetryczne, co oznacza, że coś ją zakłóciło. Nowe zdjęcie Hubble'a sugeruje, że NGC 4622 pochłonęła małą galaktykę towarzyszącą. Rdzeń galaktyki dostarcza nowych dowodów na połączenie NGC 4622 z mniejszą galaktyką. Informacje te mogą być kluczem do zrozumienia niezwykłych ramion wiodących. Ramiona spiralne można scharakteryzować za pomocą kąta nachylenia, czyli kąta, pod którym ramię przecina okrąg wokół centrum galaktyki. Ramiona w galaktykach Sa są ściśle nawinięte, z małymi kątami nachylenia, podczas gdy te w spiralach późniejszego typu są bardziej otwarte, z kątami nachylenia wynoszącymi 10-30°. Ramiona spiralne zazwyczaj ciągną się, a ich końce są skierowane przeciwnie do kierunku obrotu galaktyki. Na rysunku 4 widzimy ciemne pasma pyłu na wklęsłych stronach ramion spiralnych; pokazują one, gdzie gaz dysku jest sprężany, gdy wpływa do ramion. Dlatego spirala wyróżnia się, gdy jest obserwowana w H I lub znacznikach gazu molekularnego, takich jak emisja CO. Jasne młode gwiazdy, które sprawiają, że ramiona spiralne są tak widoczne, powstały z tego sprężonego gazu. Masywne gwiazdy mają krótkie życie; te wystarczająco gorące, aby jonizować gaz wokół nich, trwają krócej niż 5 milionów lat, a ich żywotność wynosi zazwyczaj < 30 milionów lat. Stanowi to tylko około 10-20% okresu rotacji galaktyki. Tak więc gorące gwiazdy, które widzimy w ramionach spiralnych wielkiego projektu, musiały narodzić się w nich lub w ich pobliżu; gdyby powstały gdzie indziej w dysku, umarłyby, zanim mogłyby zostać skoncentrowane w ramionach spiralnych. Klasycznym problemem jest to, czy ramiona spiralne stymulują powstawanie gwiazd, czy po prostu działają w celu jego organizacji. W pierwszym przypadku oczekiwalibyśmy, że powstawanie gwiazd będzie bardziej intensywne w galaktykach ze wzorami spiralnymi wielkiego projektu niż w galaktykach flokulujących. Jednak porównania obserwacyjne nie wykazują znaczącej różnicy w tempie; ramiona wydają się działać bardziej jako organizatorzy powstawania gwiazd. Młode gwiazdy w ramionach spiralnych emitują 10-100 razy więcej mocy na jednostkę masy niż starsze populacje gwiazd, w których najmasywniejsze gwiazdy już nie występują. Nawet niewielkie ułamki młodych gwiazd mogą mieć poważne obserwowalne konsekwencje. Efekty te są najbardziej widoczne w świetle niebieskim i ultrafioletowym, gdzie te gorące gwiazdy wytwarzają większość swojej jasności. Młode masywne gwiazdy fotojonizują również gaz, z którego powstały, wytwarzając błyszczące zjonizowane mgławice, znane jako obszary H II. Obszary H II są doskonałymi wskaźnikami struktury spiralnej, ponieważ można je łatwo zaobserwować w ich jasnych liniach emisyjnych atomów, z rekombinacji wodoru i zderzeniowo wzbudzonych linii powszechnych pierwiastków, takich jak azot, tlen i siarka. Około połowa wszystkich galaktyk dyskowych wykazuje centralny liniowy pręt, zawierający do jednej trzeciej całkowitego światła. Stosunek długiej do krótkiej osi pręta może być tak ekstremalny, jak 1:5, jak na rysunku 4. Gaz nie jest wymagany do utworzenia pręta: dyski galaktyk S0 są tak samo prawdopodobne, że będą poprzeczką, jak bogate w gaz galaktyki spiralne. W klasyfikacji Hubble'a "B" jest dodawane, aby wskazać poprzeczkę; NGC 1300 jest typu SBb. Poprzeczki są potomstwem dysków gwiezdnych; wydają się być pionowo cienkie, jak dysk, a nie okrągłe, jak wybrzuszenie. Główne poprzeczki olbrzymich galaktyk zwykle rozciągają się do promieni kilku kiloparseków.
Wybrzuszenia i jądra
W mniej jasnych galaktykach Sc i Sd oraz niektórych karłach, dysk w przybliżeniu wykładniczy rozciąga się do środka galaktyki; w przypadku tych czystych dysków jasność powierzchni centralnej wynosi po prostu Iλ(0). Galaktyki o niskiej jasności są często asymetryczne, bez dobrze zdefiniowanego środka; np. najjaśniejszy region może nie znajdować się w kinematycznym centrum układu. Wielki Obłok Magellana jest doskonałym przykładem galaktyki dyskowej poza środkiem; tutaj środek obrotu znajduje się poza jasną poprzeczką gwiazdową. Nieregularna galaktyka NGC 55, na rysunku 2, również wykazuje koncentrację światła poza środkiem. Z kolei większość olbrzymich galaktyk dyskowych jest w miarę symetryczna. Dodatkowe światło jest również obecne w wewnętrznych kilku kiloparsekach, powyżej tego, którego można się spodziewać po dysku głównym. To jest centralne wybrzuszenie: sferoidalny układ gwiazdowy składający się zazwyczaj z gwiazd o wieku ≧ 3 miliardów lat. Wybrzuszenia zazwyczaj zawierają mało gazu, z wyjątkiem okolic ich centrów. Wybrzuszenia sferoidalne obracają się, ale duże, przypadkowe ruchy gwiazd sprawiają, że są one grubsze w kierunku z, prostopadle do środkowej płaszczyzny dysku, niż otaczający je dysk gwiezdny. "Sombrero", jest wybitnym przykładem dysku osadzonego w niezwykle dużym spłaszczonym wybrzuszeniu gwiezdnym. Mniejsze wybrzuszenia, takie jak te Drogi Mlecznej lub naszej sąsiadki Sb galaktyki M31, są znacznie powszechniejsze. Z kolei niektóre spirale mają wewnętrzne dyski. Podobnie jak wybrzuszenia, te małe dyski mają znacznie większą jasność powierzchniową niż główny dysk gwiezdny; są jednak stosunkowo płaskie, mniej więcej osiowo symetryczne i dynamicznie "chłodniejsze" niż wybrzuszenia sferoidalne. Wewnętrzne dyski często wspierają formowanie się gwiazd i mają własną strukturę spiralną. Obrazy centrów galaktyk dyskowych wykonane przy wysokiej rozdzielczości kątowej ujawniają różnorodne struktury. W niektórych galaktykach występują małe poprzeczki jądrowe, często zagnieżdżone w większej głównej poprzeczce; mają one rozmiary <1 kpc. Dostępne dowody sugerują, że poprzeczki jądrowe są niezależnymi bytami, które nie obracają się z tą samą prędkością co ich główne poprzeczki. W samym centrum lub w jego pobliżu znajduje się jądro, maleńki (r<10 pc) obiekt zawierający największe zagęszczenie gwiazd w galaktyce, do 106 Ló pc-3. Czasami występuje również masywna czarna dziura, z MBH > 106Mó . Kiedy czarna dziura połyka gaz lub gwiazdy, mogą zostać uwolnione ogromne ilości energii grawitacyjnej, wytwarzając jasne aktywne jądro galaktyczne (AGN), które może konkurować z mocą wyjściową wszystkich gwiazd w galaktyce. Jednak większość jąder nie jest AGN-ami i czerpie dużą część swojej jasności z gwiazd, które zawierają. W rezultacie są stosunkowo słabe, o jasności optycznej 106-108 Ló.
Dynamika
Gwiazdy galaktyki poruszają się pod wpływem grawitacji; inne siły rzadko mają znaczenie. W dysku gwiazdy są szeroko rozdzielone w przestrzeni, więc mamy dodatkowe uproszczenie, że bliskie zderzenia między nimi są rzadkie i można je bezpiecznie zignorować. W ten sposób ich ruchy można badać jako odpowiedź na średnie pole grawitacyjne galaktyki, które musi być obliczone w sposób spójny z rozkładu masy; jest to wyzwanie, ponieważ układ ma ∿1011 cząstek. Natomiast gaz reaguje zarówno na grawitację, jak i na siły hydromagnetyczne. Ponieważ gęste chmury gazu zderzają się, mogą one rozpraszać energię przypadkowych ruchów. Z tego powodu chłodny gaz dysku szybko osiada na zamkniętych okresowych orbitach wokół centrum galaktyki; w dysku osiowosymetrycznym są to orbity kołowe.
Rotacja i rozkład masy
Możemy użyć przesuniętych linii emisyjnych Dopplera z gazu, aby znaleźć masę galaktyki dyskowej. Jeśli zmierzymy prędkość V(r) gazu na orbicie kołowej o promieniu r, możemy użyć równania siły radialnej V2(r)/r = GM(
Stabilność dysku
Dyski galaktyczne znajdują się na granicy niestabilności grawitacyjnej; galaktyczne poprzeczki i ramiona spiralne są tego konsekwencją. Wzajemne przyciąganie grawitacyjne gwiazd dysku i obłoków gazu ma tendencję do przyciągania ich do siebie. Z drugiej strony, ponieważ okres orbity wokół centrum galaktyki wzrasta wraz z promieniem, obrót dysku próbuje ścinać każdą cechę w tylny segment ramienia spiralnego. W "chłodnym" dysku, gdzie losowy ruch gwiazd jest na tyle mały, że nie wyprowadza ich poza ramiona spiralne, ich grawitacja może wzmocnić wzór spirali, przyciągając do niego inne gwiazdy, a tym samym pomóc spirali rosnąć. Ale jeśli dysk zawiera małą masę lub jego smoły mają duże losowe ruchy, to grawitacja będzie niewystarczająca do wzmocnienia spirali i nie rozwiną się żadne silne ramiona. Lokalnie, dysk osiowosymetryczny jest niestabilny, a spirala będzie rosła, jeśli parametr "Q" Toomre′a Q= κσR/3,36GΣ ≲1. To kryterium określa, że dyspersja σR prędkości gwiazd w kierunku promieniowym musi być na tyle mała w porównaniu z gęstością powierzchniową Σ masy w dysku; κ to częstotliwość epicykliczna, z jaką gwiazda oscyluje promieniowo wokół najbliższej orbity kołowej, a G to stała grawitacyjna. Symulacje komputerowe "chłodnego" osiowosymetrycznego dysku "gwiazd" przyciągających się wzajemnie grawitacyjnie i początkowo podążających prawie kołowymi orbitami, pokazują, że wzór spiralny na ogół rośnie, jeśli Q ≲ 1. W miarę jak tak się dzieje, gwiazdy rozwijają większe ruchy losowe, a Q rośnie; więc nigdy nie spodziewamy się zobaczyć dysku gwiezdnego z Q < 1. W pobliżu Słońca gęstość w dysku Σ∿50 Mó pc-2 i κ ≈ 35 km s-1 kpc-1, podczas gdy dla gwiazd mniej więcej tak dalekich jak Słońce, dyspersja prędkości σR ≈30km s-1. Stąd Q ∿ 1,4, co jest bezpiecznie większe od jedności. Symulowane dyski na ogół rozwijają dwuramienną spiralę, a często dodatkowo prosty centralny pręt. "Gwiazdy" przepływają przez spiralę, zwalniając i zatrzymując się w studni potencjału grawitacyjnego, a następnie przechodzą przez nią n; spirala jest falą gęstości, gwiezdnym korkiem. Wierzymy, że to samo dotyczy prawdziwych galaktyk. Wzór ramion obraca się w tym samym kierunku, co obrót dysku, z pewną prędkością kątową Ωp, która jest ustalana przez częstość kątową obrotu Ω(r) i częstość epicykliczną κ(r) w obszarze, w którym spirala jest silna. Dlaczego ramiona galaktyki spiralnej ciągną się, wskazując przeciwnie do kierunku obrotu galaktyki? Gdy występuje spirala wleczona, siły grawitacyjne powodują, że wewnętrzne części dysku wywierają moment obrotowy na dysk zewnętrzny, który przenosi moment pędu na zewnątrz i pozwala materiałowi o małych promieniach poruszać się do wewnątrz. Momenty obrotowe spirali zmniejszają energię ruchu obrotowego dysku, przenosząc ją w celu zwiększenia losowych prędkości gwiazd. Gdy dysk "się nagrzewa", spirala ostatecznie znika. Dysk galaktyki S0, w którym nie ma gazu, prawdopodobnie zachowywałby się w ten sam sposób: każdy wzór spiralny byłby krótkotrwały. Ale w bogatym w gaz dysku gwiazdy świeżo narodzone z chłodnego gazu mają bardzo małe przypadkowe prędkości. Ciągłe dodawanie tych nowych gwiazd jest prawdopodobnie ważne w przedłużaniu życia wzoru spiralnego lub w jego okresowym odtwarzaniu. Przyciąganie grawitacyjne ramion spiralnych wpływa na gaz nawet silniej niż na dysk gwiezdny, ponieważ przypadkowe prędkości obłoków gazu wynoszą tylko 5-10 km s-1, znacznie mniej niż w przypadku gwiazd. Z wyjątkiem bezpośredniego otoczenia promienia korotacji, gdzie prędkość kątowa Ω(r) orbity kołowej jest bliska Ωp, prędkość liniowa r[Ω(r) - Ωp], z jaką gaz przemieszcza się do ramienia spiralnego, jest naddźwiękowa. Powstają wstrząsy, ogromnie kompresujące gaz, gdy wpływa do ramienia; widzimy tam ciemne pasma pyłu. Po około 10 milionach lat w skompresowanym gazie rodzą się młode gwiazdy, które zaczynają świecić; emisja Hα z gazu zjonizowanego przez te gwiazdy nie koncentruje się na szczycie pasa pyłu, ale "za nim". Promieniowanie z najgorętszych z tych gwiazd rozszczepia również niektóre cząsteczki H2 na atomowy wodór, H I. Podobnie jak spirale, kształt galaktycznego pręta nie jest statyczny, ale obraca się z pewną prędkością Ωp. W przeciwieństwie do ramion spiralnych, pręt naprawdę chwyta swoje gwiazdy. W obrębie pręta gwiazdy i gaz nie podążają już prawie kołowymi ścieżkami, ale są uderzane w pobliżu wydłużonych orbit, które zamykają się na sobie, co widzi obserwator poruszający się wraz z obrotem pręta. Gaz dyskowy nie może płynąć w kierunku centrum galaktyki, chyba że może pozbyć się swojego momentu pędu; silnie asymetryczne siły grawitacyjne pręta pomagają mu to zrobić. Zamknięte owalne orbity zbiegają się ze sobą w pobliżu końców pręta. Gdy gaz na orbitach zbliża się do tych regionów, tworzą się szoki. Gaz jest sprężany i widzimy ciemne pasma pyłu, takie jak te wzdłuż przedniej krawędzi poprzeczki . Podczas szoku gaz traci część swojej energii ruchu do przodu w postaci ciepła, więc spada na ściślej związane orbity bliżej środka galaktyki. Poprzeczki mogą być ważne w dostarczaniu gazu w kierunku centralnej galaktyki.
Historia
W pobliżu Słońca najstarsze gwiazdy dyskowe mają około 10 mld lat. Badając liczbę gwiazd o każdej masie, które są obecne obecnie, możemy wywnioskować, że dysk Drogi Mlecznej tworzył nowe gwiazdy w mniej więcej stałym tempie przez ostatnie kilka gigalat. Żyjemy w galaktyce spiralnej Sc (lub Sbc); dyski galaktyk Sd i nieregularnych są bardziej niebieskie niż nasze, co oznacza większą proporcję nowo powstałych gwiazd. Albo tempo formowania się gwiazd w tych galaktykach wzrosło niedawno, albo po prostu rozpoczęły swoją historię formowania się gwiazd później. Bardziej czerwone kolory galaktyk Sa i S0 mówią nam, że formowanie się gwiazd w ich dyskach maleje; obecnie większość lub całe ich zasoby gazu są zużyte. W pobliżu Słońca rysunek 1 pokazuje, że młodsze gwiazdy zawierają większą proporcję pierwiastków cięższych od helu. Dysk utworzył kolejne pokolenia gwiazd, z których każda produkowała metale, aby przyczynić się do już wzbogaconego gazu międzygwiazdowego. We wszystkich, z wyjątkiem galaktyk dyskowych o najniższej jasności, widzimy gradient kolorów; centra są bardziej czerwone niż części zewnętrzne. Dzieje się tak, ponieważ części wewnętrzne zawierają zarówno większą część starych gwiazd, jak i gwiazdy bogatsze w ciężkie pierwiastki. Wypukłości i dyski wewnętrzne wytworzyły już wiele pokoleń gwiazd, podczas gdy dyski zewnętrzne zostały w tyle, produkując swoje gwiazdy wolniej i pozostając bogate w gaz do dnia dzisiejszego.
Formowanie się galaktyk: od wewnątrz na zewnątrz czy od zewnątrz do wewnątrz?
W jaki sposób galaktyka taka jak nasza Droga Mleczna mogła powstać z wodoru i helu powstałych w wyniku Wielkiego Wybuchu? Niektórzy twierdzą, że gigantyczne galaktyki dyskowe wyrosły na zewnątrz ze swoich części centralnych . Gęste wewnętrzne wypukłości, z niskim właściwym momentem pędu, powstały wcześnie z gęstszej niż przeciętna bryły gazu, która zapadła się pod wpływem własnej grawitacji; szybko wykorzystały cały swój gaz do tworzenia gwiazd. Materiał dysku, który ma większy moment pędu na jednostkę masy, opadłby później, z większych odległości. Musiał pozostać gazowy, dopóki prawie cały jego przypadkowy ruch nie został rozproszony, pozwalając materiałowi na przemieszczanie się do wewnątrz i osiadanie na orbitach kołowych w cienkim dysku. Dopiero wtedy mogły narodzić się najstarsze gwiazdy dysku. Być może dyski są nadal składane dzisiaj, gdy chmury chłodnego gazu opadają, odnawiając zapas surowca do tworzenia nowych gwiazd. Ciemna materia, niezdolna do rozpraszania energii, nie mogła opadać do wewnątrz; stąd ciemne halo jest mniej skoncentrowane w centrum galaktyki niż jasne gwiazdy i gaz. Inni astronomowie wskazują, że gwiazdy w wybrzuszeniu nie wydają się poprzedzać najstarszych gwiazd dysku w pobliżu Słońca. Przedstawiają alternatywny pomysł: dysk uformował się jako pierwszy, a wybrzuszenie rosło w jego wnętrzu. Gaz dysku płynąłby powoli do wewnątrz, być może wciągany w kierunku centrum przez ramiona spiralne lub galaktyczny pręt. Gdy wewnętrzna część dysku osiągnęła wystarczającą gęstość, stałaby się niestabilna i utworzyłaby poprzeczkę, która następnie rozdęłaby się pionowo w wybrzuszenie. Model ten otrzymał pewne wsparcie w postaci symulacji komputerowych. Ponadto w niektórych wybrzuszeniach gaz jest widoczny, jak podąża owalnymi orbitami podobnymi do tych w galaktycznych poprzeczkach, jak można by się spodziewać, gdyby te wybrzuszenia były w rzeczywistości pogrubionymi poprzeczkami. Entuzjaści "od wewnątrz" odpowiadają, że wybrzuszenie galaktyki takiej jak Sombrero jest o wiele jaśniejsze niż dysk, więc jest mało prawdopodobne, aby było jego wyrostkiem. Może nie być jednej drogi do utworzenia galaktyki dyskowej.
Odległości (od starożytności do 1900 r.)
Starożytne poglądy na skalę układu planetarnego Przed rozpowszechnieniem się kultury greckiej w okresie "hellenistycznym", który nastąpił po podbojach Aleksandra Wielkiego pod koniec IV wieku p.n.e., pojęcia odległości astronomicznych były czysto spekulatywne. Chociaż starożytne kultury opracowały dokładne metody pomiarowe, matematyczne techniki wymagane do pomiaru odległości astronomicznych pojawiły się dopiero wraz z formalną geometrią euklidesową. Dla Greków, którzy wierzyli, że Ziemia jest kulista i spoczywa w środku kosmosu, punktem odniesienia dla odległości w układzie planetarnym był promień Ziemi. ERATOSTENES Z CYRENY (ok. 276-195 p.n.e.) opracował metodę i dokonał pierwszego pomiaru wymiarów Ziemi . Wiedział, że podczas letniego przesilenia Słońce rzucało promienie bezpośrednio w dół studni w egipskim mieście Syene, podczas gdy w Aleksandrii, dalej na północ i mniej więcej na tym samym południku, światło słoneczne padające na gnomon rzucało cień o powierzchni 1/50 okręgu. Zakładając, że Syene znajdowało się 5000 stadiów na południe od Aleksandrii i wiedząc, że ta odległość wynosi 1/50 obwodu Ziemi, Ratostenes obliczył obwód na 250 000 stadiów. W zależności od długości stadiów - nie ma pewności, jaką wartość zastosował - mógł się mieścić w granicach 8% lub nawet lepiej od współczesnej wartości. ARYSTARCH Z SAMOS (ok. 310-230 p.n.e.) przedstawił dwa eleganckie geometryczne dowody dotyczące skali kosmosu; oba pozostały centralne dla myśli astronomicznej aż do XVII wieku. Po pierwsze, Arystarch rozpoznał, że związek między położeniem Słońca i Księżyca w kwadraturze dostarcza sposobu na obliczenie ich względnych odległości od Ziemi. Wtedy kąt Słońce-Księżyc-Ziemia wynosi 90°, więc jeśli obserwator zmierzy kąt Księżyc-Ziemia-Słońce, to kształt trójkąta będzie znany, a to da stosunek długości odległości Ziemia-Księżyc i Ziemia-Słońce. Arystarch przyjął 87° dla drugiego kąta i doszedł do wniosku, że Słońce jest około 19 razy dalej niż Księżyc. Istnieją dwa praktyczne problemy z tą metodą: jest niezwykle trudno poznać moment kwadratury, obserwując, kiedy terminator znajduje się dokładnie w połowie drogi na powierzchni Księżyca i nie jest łatwym zadaniem zaobserwowanie kąta Księżyc-Ziemia-Słońce w tym czasie. W rzeczywistości wartość 87° Arystarcha mogła służyć zilustrowaniu jego metody, a nie być wynikiem rzeczywistego pomiaru. Druga demonstracja Arystarcha wykorzystywała geometrię zaćmienia do określenia bezwzględnych rozmiarów Księżyca i Słońca. Podczas całkowitego ZAĆMIENIA Słońca Słońce i Księżyc znajdują się pod tym samym kątem, więc stosunek ich pozornych średnic jest taki sam jak stosunek ich odległości, który według niego wynosił 19:1. Aby uzyskać bezwzględne odległości, przeanalizował sytuację podczas całkowitego zaćmienia Księżyca, zakładając, że szerokość stożka cienia w odległości Księżyca jest dwukrotnie większa od średnicy Księżyca. Ze swojej analizy wywnioskował, w ujęciu średnim, że średnica Księżyca wynosi około jednej trzeciej średnicy Ziemi, a Słońca około 6 3 4 razy większą od średnicy Ziemi. Co ciekawe, Arystarch nie oblicza w swoim traktacie odległości bezwzględnych, ale biorąc pod uwagę pozorną średnicę Księżyca wynoszącą 12, a ponieważ stanowiła ona dwie trzecie promienia Ziemi, jej odległość wynosiła około 80 promieni Ziemi; odległość Słońca (19 razy większa niż Księżyca) wynosiła zatem około 1520 promieni Ziemi. Astronomowie hellenistyczni uznali znaczenie PARALAKS Słońca, kąta wyznaczonego przez promień Ziemi widziany ze środka Słońca. W idealnym przypadku można by to ustalić, obserwując Słońce z dwóch odległych miejsc w tym samym czasie lub obserwując z tego samego miejsca w odstępie kilku godzin. Ponieważ promień Ziemi był znany, można było obliczyć bezwzględną odległość do Słońca, gdyby ten kąt został ustalony. Jednak zmierzenie paralaksy poprzez bezpośrednią obserwację Słońca jest niemożliwe, ponieważ atmosfera Słońca nie zapewnia wyraźnej "krawędzi", a kąt jest tak mały, że instrumenty gołym okiem byłyby bezużyteczne. HIPPARCHUS z Rodos (żyjący w latach 141-127 p.n.e.), największy wpływ na Ptolemeusza, opracował alternatywne metody. Korzystając z obserwacji zaćmienia Słońca wykonanych z dwóch miejsc, obliczył paralaksę księżycową, podając minimalną i maksymalną odległość do Księżyca w promieniach Ziemi. Poprzez nieco inne zastosowanie diagramu zaćmienia Arystarcha i przyjmując paralaksę słoneczną wynoszącą 7 minut łuku jako najmniejszy widoczny kąt paralaktyczny, odkrył nieco mniejszą absolutną średnią odległość księżycową, nieco ponad 67 promieni Ziemi. PTOLEMEUSZ (żyjący w latach 127-141 n.e.) znał metody Hipparcha, ale podszedł do problemu inaczej. Badając dane dotyczące zaćmienia Księżyca, był w stanie uzyskać paralaksę Księżyca i (maksymalną) odległość nieco ponad 64 promieni Ziemi. Korzystając z diagramu zaćmienia, można było obliczyć paralaksę Słońca, co pozwoliło określić bezwzględną odległość Słońca. Wyniosła ona 1210 promieni Ziemi (co daje paralaksę prawie 3 minuty łuku), co jest bardzo blisko 19-krotności odległości Księżyca obliczonej przez Arystarcha. Zasugerowało to niektórym współczesnym historykom, że Ptolemeusz ostrożnie wybrał swoje wartości, aby uzyskać wymagany wynik. W każdym razie nie mógł bezpośrednio zaobserwować paralaksy Słońca, więc chociaż jego odległość Księżyca jest rozsądna, jego odległość Słońca jest o rząd wielkości za mała.
Kolejność i rozmiary planet
Greccy astronomowie byli w dużej mierze zgodni co do kolejności, w jakiej planety znajdowały się na swoich wysokościach nad Ziemią. Księżyc, będąc tak dużym i mając najkrótszy OKRES GWIAZDOWY, był najbliższym obiektem. Słońce, chociaż znajdowało się mniej więcej pod tym samym kątem widzenia, potrzebowało roku, aby ukończyć swój obieg po niebie, więc było dalej. Mars, Jowisz i Saturn miały coraz dłuższe okresy gwiezdne, więc wydawało się rozsądne, aby umieścić je za Słońcem i w tej kolejności, podczas gdy gwiazdy znajdowały się na najbardziej zewnętrznej sferze. Jednak ponieważ Merkury, Wenus i Słońce mają okres gwiezdny wynoszący 1 rok, nie było przekonującego powodu, aby uporządkować je w jakiś szczególny sposób. W Almagest Ptolemeusza ruch każdej planety został przedstawiony przez jej własny model geometryczny, więc w tej pracy Ptolemeusz nie musiał zobowiązywać się do żadnego szczególnego porządku, ale w swoich późniejszych Hipotezach planet argumentował za porządkiem Księżyc-Merkury-Wenus-Słońce. Przedstawił również fizyczny obraz wszechświata podobny do koncentrycznych sfer materialnych Arystotelesa. Wierząc, że kosmos jest plenum (przestrzenią wypełnioną materią w przeciwieństwie do próżni), uważał, że zewnętrzna powierzchnia jednej sfery planetarnej pokrywa się z wewnętrzną powierzchnią następnej sfery, tak że kosmos jest zagnieżdżonym zestawem takich sfer. Zatem przyjął, że apogeum księżyca jest równe perygeum Merkurego, a ta odległość była promieniem zarówno zewnętrznej granicy sfery księżycowej, jak i wewnętrznej granicy sfery Merkurego. Apogeum Merkurego, podobnie, było równe perygeum Wenus itd. Stosunek perygeum do apogeum dowolnej konkretnej planety można było obliczyć z jej modelu geometrycznego. Zagnieżdżone sfery Ptolemeusza pozwoliły mu zatem wyprowadzić bezwzględne odległości dla każdej planety, jeśli mógł skalibrować swój schemat, znając rzeczywistą wartość dowolnego z parametrów. Ponieważ już obliczył, że odległość apogeum Księżyca wynosiła nieco ponad 64 promienie Ziemi, pozostałe odległości były takie same. Średnia odległość Słońca wynosiła 1210 promieni Ziemi, czyli nieco mniej niż 8 milionów kilometrów, używając współczesnej wartości promienia Ziemi. Zewnętrzna granica sfery Saturna wynosiła 19 865 promieni. Ptolemeusz podobnie podał kątowe i rzeczywiste średnice Słońca, Księżyca i planet, chociaż kątowe średnice planet były w rzeczywistości subiektywne i opierały się zasadniczo na ich postrzeganej jasności. Na przykład Saturn miał mieć średnicę kątową 1/18 średnicy Słońca, gdy planeta znajdowała się w swojej średniej odległości. Ponieważ znana była ta średnia odległość, wynikało z tego, że rzeczywista średnica Saturna wynosiła około 4,3 razy większą od średnicy Ziemi. Ponieważ "stałe" gwiazdy znajdowały się bezpośrednio poza zewnętrzną granicą sfery Saturna, znajdowały się około 20 000 promieni Ziemi nad Ziemią. Ptolemeusz oszacował pozorne średnice gwiazd pierwszej wielkości na 1/20 średnicy Słońca, a na tej podstawie obliczył, że ich objętość jest ponad 94 razy większa od objętości Ziemi. Muzułmańscy astronomowie niewiele więcej zrobili niż majstrowali przy tych wartościach . Al-Farghani na przykład w IX wieku oszacował pozorne średnice gwiazd o mniejszej wielkości i doszedł do wniosku, że gwiazda szóstej wielkości ma objętość 18 razy większą od objętości Ziemi. Łacińskie tłumaczenia arabskich wersji Ptolemeusza i jego muzułmańskich komentatorów stały się szeroko znane w Europie Zachodniej w XII i XIII wieku. Podczas gdy niewielu europejskich astronomów tamtych czasów mogło poradzić sobie ze złożonością Almagestu, większość wykształconych ludzi była świadoma układu zagnieżdżonych sfer i jego skali odległości. Kolejność i rozmiary planet Greccy astronomowie byli w dużej mierze zgodni co do kolejności, w jakiej planety znajdowały się na swoich wysokościach nad Ziemią. Księżyc, będąc tak dużym i mając najkrótszy OKRES GWIAZDOWY, był najbliższym obiektem. Słońce, chociaż znajdowało się mniej więcej pod tym samym kątem widzenia, potrzebowało roku, aby ukończyć swój obieg po niebie, więc było dalej. Mars, Jowisz i Saturn miały coraz dłuższe okresy gwiezdne, więc wydawało się rozsądne, aby umieścić je poza niebem i w tej kolejności, podczas gdy gwiazdy leżały na najbardziej zewnętrznej sferze. Jednak ponieważ Merkury, Wenus i Słońce mają okres gwiezdny wynoszący 1 rok, nie było przekonującego powodu, aby uporządkować je w jakiś szczególny sposób. W Almagest Ptolemeusza ruch każdej planety został przedstawiony przez jej własny model geometryczny, więc w tej pracy Ptolemeusz nie musiał zobowiązywać się do żadnego szczególnego porządku, ale w swoich późniejszych Hipotezach planet argumentował za porządkiem Księżyc-Merkury-Wenus-Słońce. Przedstawił również fizyczny obraz wszechświata podobny do koncentrycznych sfer materialnych Arystotelesa. Wierząc, że kosmos jest plenum (przestrzenią wypełnioną materią w przeciwieństwie do próżni), uważał, że zewnętrzna powierzchnia jednej sfery planetarnej pokrywa się z wewnętrzną powierzchnią następnej sfery, tak że kosmos jest zagnieżdżonym zestawem takich sfer. Zatem przyjął, że apogeum księżyca jest równe perygeum Merkurego, a ta odległość była promieniem zarówno zewnętrznej granicy sfery księżycowej, jak i wewnętrznej granicy sfery Merkurego. Podobnie apogeum Merkurego było równe perygeum Wenus itd. Stosunek perygeum do apogeum dowolnej konkretnej planety można było obliczyć z jej modelu geometrycznego. Zagnieżdżone sfery Ptolemeusza pozwoliły mu zatem wyprowadzić bezwzględne odległości dla każdej planety, jeśli mógł skalibrować swój schemat, znając rzeczywistą wartość dowolnego z parametrów. Ponieważ już obliczył, że odległość apogeum Księżyca wynosiła nieco ponad 64 promienie Ziemi, pozostałe odległości były takie same. Średnia odległość Słońca wynosiła 1210 promieni Ziemi, czyli nieco mniej niż 8 milionów kilometrów, używając współczesnej wartości promienia Ziemi. Zewnętrzna granica sfery Saturna wynosiła 19 865 promieni. Ptolemeusz podobnie podał kątowe i rzeczywiste średnice Słońca, Księżyca i planet, chociaż kątowe średnice planet były w rzeczywistości subiektywne i opierały się zasadniczo na ich postrzeganej jasności. Na przykład Saturn miał mieć średnicę kątową 1/18 średnicy Słońca, gdy planeta znajdowała się w swojej średniej odległości. Ponieważ ta średnia odległość była znana, wynikało z tego, że rzeczywista średnica Saturna wynosiła około 4,3 razy większą od średnicy Ziemi. Ponieważ "stałe" gwiazdy znajdowały się bezpośrednio poza zewnętrzną granicą sfery Saturna, znajdowały się około 20 000 promieni Ziemi nad Ziemią. Ptolemeusz oszacował pozorne średnice gwiazd pierwszej wielkości na 1/20 wielkości Słońca, a na tej podstawie obliczył, że ich objętość jest ponad 94 razy większa od objętości Ziemi. Astronomowie slamiccy niewiele więcej robili, niż majstrowali przy tych wartościach. Al-Farghani na przykład w IX wieku oszacował pozorne średnice gwiazd o mniejszej wielkości i doszedł do wniosku, że gwiazda szóstej wielkości ma objętość 18 razy większą od objętości Ziemi. Łacińskie tłumaczenia arabskich wersji Ptolemeusza i jego muzułmańskich komentatorów stały się szeroko znane w Europie Zachodniej w XII i XIII wieku. Podczas gdy niewielu europejskich astronomów tamtych czasów potrafiło poradzić sobie ze złożonością Almagestu, większość wykształconych ludzi była świadoma układu zagnieżdżonych sfer i jego skali odległości.
Odległości w układzie kopernikańskim
Heliocentryczny model układu planetarnego, opublikowany w 1543 r. przez Mikołaja Kopernika (1473-1543) w jego dziele De revolutionibus orbium coelestium, ustanowił za pomocą elementarnej geometrii nie tylko unikalne uporządkowanie planet, ale także ich (ogólnie poprawne) względne odległości, będące wielokrotnościami odległości Ziemia-Słońce, później nazwane jednostką astronomiczną. W astronomii ptolemejskiej sfera Księżyca służyła do kalibracji całego układu, ale w astronomii kopernikańskiej ruch Księżyca był teraz odnoszony do Ziemi i nie był już częścią porządku planetarnego. Jednak Kopernik był zadowolony ze starożytnej wartości paralaksy słonecznej, 3 minut łuku, a w rezultacie promień orbity najbardziej oddalonej planety, Saturna, był dla niego niewiele większy niż połowa rozmiaru, jaki był dla Ptolemeusza. Nie było żadnego przymusu obserwacyjnego, aby preferować Kopernika nad Ptolemeuszem. Wręcz przeciwnie: jeśli Kopernik miał rację, to powinniśmy być w stanie wykryć roczną lub gwiazdową paralaksę, pozorne ruchy gwiazd, których można by się spodziewać, gdyby były obserwowane przez astronomów znajdujących się na Ziemi poruszającej się po orbicie rocznej, a tego nikomu się nie udało. Były dwa możliwe wnioski: albo Kopernik się mylił, albo gwiazdy były o wiele bardziej odległe, niż wcześniej sądzono, tak odległe, że istniejące instrumenty były niewystarczająco czułe, aby wykryć tę paralaksę. TYCHO BRAHE (1546-1601) miał przenieść instrumenty przedteleskopowe blisko granic ich dokładności i oszacował, że jego niepowodzenie w wykryciu rocznej paralaksy oznaczało, że musiałaby ona być mniejsza niż 1 minuta łuku, a więc - jeśli Kopernik miał rację - gwiazdy byłyby co najmniej 700 razy dalej niż Saturn; biorąc to pod uwagę, nawet gwiazda trzeciej wielkości miałaby objętość 200 razy większą od objętości Słońca. Posiadanie wszechświata, w którego centrum znajdowałby się układ słoneczny składający się ze stosunkowo małych ciał, otoczonych ogromną i całkowicie pustą przestrzenią, zanim ktoś dotarłby do gwiazd o kolosalnych rozmiarach na jego obrzeżach, nie miało sensu. Własny geoheliocentryczny system Tychona, przeciwnie, zachował względną geometrię Kopernika dla planet i starożytną wartość paralaksy słonecznej. Umiejscowił gwiazdy w odległości zaledwie 14 000 promieni Ziemi, a ich objętość oszacował na 68 objętości Ziemi dla jasnej gwiazdy i 1/3 dla słabej. W 1610 roku GALILEUSZ (1564-1642) przekształcił teleskop w narzędzie astronomiczne, chociaż minęło kilka dekad, zanim instrumenty pomiarowe zostały wyposażone w celowniki teleskopowe. Trzecie prawo KEPLERA umożliwiło określenie względnych odległości planet od Słońca w jednostkach astronomicznych. Jeśli zatem odległość planetarna mogłaby zostać zmierzona bezpośrednio przez triangulację, jednostka astronomiczna mogłaby zostać obliczona. To sam Kepler zasugerował to podejście, wykorzystując jako cele Marsa, Merkurego i Wenus. Tycho próbował zmierzyć paralaksę Marsa, ale analiza danych przeprowadzona przez Keplera sugerowała paralaksę nie większą niż 4 minuty łuku, co zmniejszyłoby paralaksę słoneczną do 2 minut łuku. Biorąc pod uwagę poprawki na refrakcję, Kepler później zmniejszył tę wartość o połowę . Możliwość, że planety mogą być widoczne jako PRZEJŚCIE przed powierzchnią Słońca, była rozpoznawana od czasów Ptolemeusza, ale dopiero teraz zaczęto ją traktować poważnie. Kepler, którego własne zainteresowanie dotyczyło głównie widocznych średnic planet (ponieważ uważał, że objętości planet są proporcjonalne do ich odległości od Słońca), prawidłowo obliczył, że zarówno Merkury, jak i Wenus będą przechodzić tranzytem w 1631 r., w datach oddzielonych 1 miesiącem. W przypadku, gdyby Wenus nie została zaobserwowana, ponieważ już ustawiła się w europejskich lokalizacjach, trzem astronomom udało się uzyskać obserwacje Merkurego. Jeden z udanych obserwatorów, PIERRE GASSENDI (1592-1655), był zaskoczony, widząc tak mały obraz Merkurego, znacznie mniejszy niż oczekiwali Kepler i inni. To podsyciło debatę na temat rozmiarów planet i ich związku z odległością, ale nie przyczyniło się do pomiaru paralaksy. JEREMIAH HORROCKS (1618-1641), chociaż wierzył w eliptyczne orbity Keplera, zdał sobie sprawę, że odległości i rozmiary planet oparte na harmoniach były niezgodne z obserwacją Gassendiego. Przeliczając orbitę Wenus, Horrocks odkrył, że przejdzie ona przed Słońcem w 1639 roku. Jego obserwacje wykazały dysk o średnicy około 1 minuty łuku. Powołując się na wątpliwy argument proporcjonalności, Horrocks twierdził, że widziane ze Słońca wszystkie dyski planetarne (w tym Ziemi) wydają się mieć pozorną średnicę 28 sekund łuku. Jego zdaniem oznacza to paralaksę słoneczną wynoszącą 14 lub 15 sekund łuku, co ogromnie zwiększa odległość Słońca. Pisma Horrocksa ukazały się dopiero wiele lat po jego śmierci, więc miały niewielki wpływ, ale kilku jego współczesnych również uważało, że tradycyjna wartość paralaksy słonecznej była zbyt duża. GB RICCIOLI (1598-1671), którego Almagestum novum z 1651 r. było ostatnim ważnym dziełem geocentrycznym, dostarczyło lepszych danych obserwacyjnych na temat średnic planet i refrakcji oraz mniejszej paralaksy słonecznej. Jednak Riccioli i niektórzy z jego korespondentów nadal próbowali zbudować skalę odległości obserwującą dychotomię księżycową. Wymagane były lepsze obserwacje teleskopowe, a te pojawiły się dopiero wraz z wynalezieniem mikrometru. Chociaż odkryto go przypadkowo w Anglii około 1640 r., nie był powszechnie znany aż do lat 60. XVII wieku. CHRISTIAAN HUYGENS (1629-1695) używał prymitywnego mikrometru, aby udoskonalić obserwacje swoich poprzedników, a instrument ten został dalej rozwinięty przez Adriena Auzouta (1622-1691), Pierre′a Petita (ok. 1596-1677) i innych. JOHN FLAMSTEED (1646-1719), pierwszy astronom królewski, używał mikrometru śrubowego z dobrym skutkiem. Uzbrojeni w teleskopy o lepszych możliwościach pomiaru małych kątów, astronomowie mogli na nowo atakować paralaksy planetarne. G-D CASSINI (1625-1712), będąc profesorem w Bolonii, zainteresował się kwestią, w jaki sposób można znaleźć położenie Słońca, korygując jednocześnie paralaksę i refrakcję. Gdyby paralaksa słoneczna była dość mała, refrakcja na różnych wysokościach nad horyzontem powinna być stała przez cały rok, ale gdyby paralaksa była większa, wówczas potrzebna byłaby zmienna refrakcja, aby uwzględnić obserwacje. Był to poważny problem dla Tychona, który, zakładając paralaksę słoneczną wynoszącą 3 minuty łuku, potrzebował kilku różnych tabel refrakcji, chociaż uważał refrakcję za nieistotną na wysokościach powyżej 45°. Kiedy Cassini przybył do Paryża w 1669 roku, członkowie Acad´emie Royale des Sciences ostro dyskutowali na ten temat. Obserwacje w tropikach, w porównaniu z tymi w Europie, mogły być decydujące. Ponieważ Mars miał znaleźć się w korzystnej opozycji w 1672 roku, Cassini nalegał na wyprawę do kolonii w Cayenne, blisko równika. Jean Richer (zmarły w 1696 roku) został wysłany, podczas gdy Cassini dokonywał obserwacji w Paryżu. Wyniki z Cayenne, choć pokazują, że korekta refrakcji rzeczywiście wymaga tylko jednej tabeli, nie mogły dostarczyć wartości paralaksy, która byłaby jednoznaczna. Cassini znalazł kilka wartości paralaksy Marsa około 24 sekund łuku. Flamsteed w Anglii był w stanie dokonać pojedynczej obserwacji mikrometrem pod koniec tego roku; chociaż podał kilka wersji swoich wyników, do 1673 r. twierdził, że paralaksa pozioma Marsa wynosi około 25 sekund łuku, co implikowało paralaksę słoneczną wynoszącą 10 sekund łuku. Błędy instrumentalne były takie, że nie można było polegać na tych pomiarach i obliczonej wartości paralaksy słonecznej, ale teraz było oczywiste, że paralaksa słoneczna była naprawdę mała, mniejsza niż 15 sekund łuku
Tranzyty Wenus i paralaksa słoneczna
W ciągu następnego półwiecza angielscy, francuscy i włoscy astronomowie mierzyli paralaksę Marsa w opozycjach, uzyskując wartości paralaksy słonecznej w zakresie od 9 do 15 sekund łuku. EDMOND HALLEY (1656-1742) odrzucił obserwacje Marsa jako niewiarygodne i argumentował za przeprowadzeniem dokładnych pomiarów tranzytu Wenus. Sam obserwował tranzyt Merkurego z Wyspy Świętej Heleny w 1677 r., ale porównując swoje wyniki z pojedynczymi europejskimi obserwacjami, uzyskał paralaksę słoneczną wynoszącą 45 sekund łuku, co było zdecydowanie zbyt dużą wartością. Po dokładnym rozważeniu orbity Wenus, Halley był w stanie obliczyć daty przyszłych tranzytów Merkurego i Wenus, które ogłosił w Philosophical Transactions w 1691 r. Następna para tranzytów Wenus miałaby miejsce w czerwcu 1761 i 1769 r.; kolejna para miałaby pójść w ślady w grudniu 1874 i 1882. Drugi artykuł Halleya, opublikowany w 1716, przedstawił metodę obserwacji, z sugestiami miejsc, w których tranzyt mógłby być obserwowany w 1761. Obserwatorzy powinni mierzyć czas tranzytu od wejścia na krawędź Słońca do wyjścia. Położenie geograficzne określało, gdzie ścieżka Wenus będzie znajdować się na powierzchni Słońca i jak długo będzie trwał tranzyt. Młodszy francuski współczesny Halleya, J-N DELISLE (1688-1768), był orędownikiem metody tranzytu i zaproponował alternatywną technikę dla obserwatorów, którzy nie byli w stanie zmierzyć czasu całego tranzytu: jeśli ktoś mógł dokładnie zmierzyć czas wejścia lub wyjścia, mógł porównać wyniki z wynikami innego obserwatora, o ile długość geograficzna obu lokalizacji była dokładnie znana. W przypadku tego samego zdarzenia różnica czasu między dwiema stacjami była związana z długością ścieżki Wenus przez Słońce. Delisle namawiał również swoich współczesnych do pomiaru tranzytu Merkurego, który miał miejsce w 1753 r. Wyniki były rozczarowujące, ale praktyka była cenna. W okresie poprzedzającym tranzyt Wenus w 1761 r. Francuzi pracowali nad udoskonaleniem obliczeń orbitalnych, a Delisle publikował mapę i czasy na rok przed wydarzeniem. Zarówno Francuzi, jak i Brytyjczycy wysyłali wyprawy zamorskie, ale większość obserwacji wykonywano w Europie, w wielu krajach. Przy tak szerokiej gamie obserwatorów i ich różnym doświadczeniu wyniki były niejednoznaczne, a szacunki paralaksy słonecznej wahały się od 8 do prawie 11 sekund łuku. Dzięki ulepszonemu planowaniu i wsparciu tranzyt w 1769 r. był jeszcze lepiej obserwowany, z udziałem około 77 stacji na całym świecie. Ponownie wyniki były różne, ale nie tak szeroko jak w 1761 r. Częścią problemu był brak dokładnych długości geograficznych dla odległych stacji. Obserwacje atmosferyczne, jakość teleskopów i doświadczenie obserwatorów były również ważnymi czynnikami. Co więcej, bardzo trudno było określić dokładny moment wejścia lub wyjścia, ponieważ obserwatorzy zauważyli świetlisty pierścień wokół Wenus i z powodu "efektu czarnej kropli", gdzie małe, ciemne ogniwo wydawało się łączyć zarys Wenus z krawędzią Słońca na chwilę przed lub po kontakcie. Niemniej jednak wartość Delisle′a 8,6 sekundy łuku była powszechnie akceptowana, chociaż w ciągu następnego stulecia, wraz z pojawieniem się lepszych metod statystycznych i postępem w mechanice niebieskiej, wartość ta została nieznacznie skorygowana w górę. Druga para tranzytów nastąpiła w 1874 i 1882 roku i była przedmiotem głównych międzynarodowych wysiłków z lepszą aparaturą, która teraz obejmowała fotografię. Jednak zespoły obserwacyjne dotarły do zakresu wartości między 8,76 a 8,85 sekundy łuku, co stanowi rozbieżność równą około 2 milionom kilometrów. Uzbrojony w dane z czterech tranzytów i zmienione długości geograficzne stacji obserwacyjnych, SIMON NEWCOMB (1835-1909) obliczył kilka wartości paralaksy słonecznej, mieszczących się w zakresie od 8,79 do 8,85 sekundy łuku. Po dalszych pracach nad prędkością światła z A A MICHELSONEM (1853-1931), Newcomb ustalił 8,80 sekundy łuku. Pod koniec lat 70. XIX wieku DAVID GILL (1843-1914) podjął kolejną próbę paralaksy Marsa w opozycji, uzyskując wartość paralaksy słonecznej wynoszącą 8,78 sekundy łuku, zbliżoną do wczesnych szacunków Newcomba. Jeszcze przed tranzytem Wenus w 1874 roku, J.G. GALLE (1812-1910) zasugerował, że planety mniejsze mogą być lepszymi celami, ponieważ nie wykazywały widocznego dysku. Pomiary trzech pod koniec lat 80. XIX wieku pozwoliły Gillowi uzyskać wartość 8,80 sekundy łuku, która w granicach błędu prawie odpowiadała skorygowanej wartości podanej przez Newcomba. W 1898 roku obliczono, że nowo odkryta planeta EROS będzie miała odległość peryhelium wynoszącą zaledwie 0,27 jednostki astronomicznej od Ziemi w opozycji w 1900 roku. Jednak nawet wtedy obserwacje wizualne i fotograficzne dały dwie różne wartości paralaksy słonecznej, 8,806 ą 0,004 i 8,807 ą 0,003 sekundy łuku, umieszczając Słońce w odległości ponad 140 milionów kilometrów od Ziemi w jego średniej odległości. Wartości te miały obowiązywać przez kolejne 40 lat, aż do czasu, gdy obserwacje opozycji Erosa w 1930 roku zostały zredukowane i opublikowane.
Odległości gwiazdowe
Kiedy Galileusz nawrócił się na kopernikanizm, zdał sobie sprawę, że wykrycie rocznej paralaksy jest priorytetem. Zakładając, że gwiazdy znajdują się w różnych odległościach, a najjaśniejsze są najbliżej, zasugerował, że badanie GWIAZD PODWÓJNYCH może uniknąć niektórych praktycznych trudności związanych z obserwacjami rozłożonymi na wiele miesięcy i wykonywanymi przy użyciu instrumentów podatnych na odkształcenia wraz z upływem pór roku. Jeśli słabsza gwiazda układu podwójnego była znacznie dalej niż jej jaśniejszy partner, wówczas słabszą gwiazdę można było uznać za quasi-stały punkt odniesienia dostarczony przez pomocną Naturę, a astronom mógł obserwować ruch jaśniejszej gwiazdy względem słabszej. Jednak, jak to często bywa, zadowolił się przedstawieniem sugestii do wdrożenia przez innych. Po tym, jak Kepler nauczył astronomów myśleć dynamicznie i postrzegać układ planetarny jako złożony z małych ciał krążących wokół masywnego Słońca, wykrycie rocznej paralaksy przestało być testem hipotezy Kopernika i stało się preferowaną metodą określania odległości gwiazd. Problemy były praktyczne i nie najmniej ważnym z nich była refrakcja, której skutki były słabo poznane. ROBERT HOOKE (1635-1703) starał się uniknąć tej trudności, obserwując gwiazdę GAMMA DRACONIS, która przechodziła bezpośrednio nad jego mieszkaniem w Londynie. Aby mieć pewność, że jego instrumenty nie zostaną zdeformowane przez upływ pór roku, Hooke opracował teleskop zenitalny, który wkomponował w strukturę swojego domu. Jednakże wykonał tylko cztery obserwacje gwiazdy, a inni astronomowie uznali jego twierdzenie o wykryciu rocznej paralaksy za nieprzekonujące. Tę samą technikę zastosowali z dużo większą ostrożnością w latach dwudziestych XVIII wieku amator, SAMUEL MOLYNEUX (1689-1728), i jego przyjaciel JAMES BRADLEY (1693-1762), przyszły astronom królewski. Molyneux zamówił teleskop zenitalny u producenta George'a Grahama; dzięki temu on i Bradley odkryli, że rzeczywiście występuje roczny ruch w gamma Draconis, ale że jest on 3 miesiące poza fazą z oczekiwaną roczną paralaksą. Bradley więc zlecił inny teleskop zenitalny z szerszym polem widzenia, co pozwoliło mu ustalić wzór tego rocznego ruchu w wielu gwiazdach. W końcu zdał sobie sprawę, że przyczyna leży w aberracji światła, wpływie prędkości Ziemi na kierunek, z którego światło gwiazd dociera do obserwatora. Był to dowód ruchu Ziemi, ale nie oczekiwany. Bradley oszacował na podstawie swojej porażki w wykryciu rocznej paralaksy, że odległości gwiazd muszą wynosić co najmniej 400 000 jednostek astronomicznych. Tymczasem inni badacze próbowali oszacować odległości gwiazdowe przy założeniu, że gwiazdy są fizycznie podobne, tak że pozorna jasność gwiazdy jest odwrotnie proporcjonalna do kwadratu jej odległości od obserwatora. Problem polegał na tym, jak w praktyce dokonać porównania między pozorną jasnością Słońca i, powiedzmy, SYRIUSZA. Huygens próbował to zrobić, robiąc otwór w ekranie o takim rozmiarze, że widoczna przez niego część powierzchni Słońca była równa jasności Syriusza. Na tej podstawie oszacował, że Syriusz leży w odległości 27 664 jednostek astronomicznych. Lepszą metodę zaproponował JAMES GREGORY (1638-1675) w 1668 roku. Zakładając znajomość wymiarów Układu Słonecznego, Gregory zastąpił Syriusza planetą o równej jasności, a następnie obliczył stosunek światła, które pochodziło bezpośrednio ze Słońca, do światła, które pochodziło ze Słońca za pośrednictwem planety. Isaac NEWTON (1642-1727) powtórzył obliczenia z lepszymi wartościami odległości w Układzie Słonecznym i doszedł do wniosku, że Syriusz leży w odległości około miliona jednostek astronomicznych. Jednak jego szacunek był znany tylko bliskim do czasu jego pośmiertnej publikacji, która nastąpiła zaledwie kilka miesięcy przed ogłoszeniem przez Bradleya w 1729 roku aberracji światła i jej implikacji. Te dwa wyniki - oszacowanie przez Newtona rzeczywistej odległości Syriusza wynoszącej milion jednostek astronomicznych przy założeniu fizycznej równości gwiazd i oszacowanie przez Bradleya minimalnej odległości gwiazdowej wynoszącej 400 000 jednostek astronomicznych - ustaliły skalę wszechświata gwiazdowego i uświadomiły astronomom wykwintną delikatność pomiaru rocznej paralaksy. Nastąpiła zrozumiała utrata odwagi i dopiero na początku XIX wieku wznowiono próby pomiaru rocznej paralaksy. Teleskopy poprawiły się pod względem jakości i zaczęto zdawać sobie sprawę, że duży ruch własny może być lepszym wskaźnikiem bliskości niż pozorna jasność. W szczególności odkrycie, że 61 CYGNI ma ruch własny nie mniejszy niż 5 sekund łuku na rok, sugerowało, że ta gwiazda może być jedną z najbliższych. Wczesne dekady XIX wieku przyniosły wysyp błędnych twierdzeń o wykryciu rocznej paralaksy, a sceptyczni astronomowie potrzebowali przekonujących dowodów, zanim uwierzyli w jakiekolwiek przyszłe twierdzenia. Takie dowody dostarczył FRIEDRICH WILHELM BESSEL (1784-1864) z Królewca, gdzie znajdował się doskonały 16-centymetrowy heliometr autorstwa Josepha Fraunhofera. W latach 1837 i 1838 obserwował 61 Cygni aż 16 razy lub więcej każdej bezchmurnej nocy, a pod koniec 1838 roku ogłosił, że gwiazda ma paralaksę wynoszącą około 1/3 sekundy łuku. Przekonujące było dopasowanie teorii do wzorca obserwacji Bessela. Bessela zachęciły wstępne wyniki Friedricha Georga WILHELMA STRUVE (1793-1864) z Obserwatorium Dorpat w Rosji, który obserwował VEGA za pomocą refraktora Fraunhofera o średnicy 24 cm, największego na świecie. Vega była jasna i miała duży ruch własny. Struve obserwował gwiazdę od 1835 r. i wyprowadził paralaksę wynoszącą 1/8 sekundy łuku, chociaż później podwoił tę wartość. Trzecie ustalenie zostało ogłoszone w styczniu 1839 r. przez THOMASHENDERSONA (1798-1844) po jego powrocie z Przylądka Dobrej Nadziei, gdzie gwiazdy, które obserwował, obejmowały ALPHA CENTAURI. Ta gwiazda była jasna, była gwiazdą podwójną o szerokim odstępie kątowym i miała duży ruch własny, co stanowiło uznane kryteria bliskości. Po zmniejszeniu swoich obserwacji Henderson wyprowadził paralaksę wynoszącą ponad 1 sekundę łuku. Przez resztę XIX wieku pomiary rocznej paralaksy okazały się trudne, a wyniki często sprzeczne, nawet po wynalezieniu fotografii. Ponadto pomiary odległości poza najbliższymi gwiazdami były trudne do przewidzenia, biorąc pod uwagę, że jeszcze w 1900 roku samo istnienie innych galaktyk uważano za mało prawdopodobne. Jednak William Herschel (1738-1822) był pionierem metod, które przyniosły owoce w XX wieku, nawet jeśli miał ograniczony wpływ na swoich współczesnych i bezpośrednich następców (patrz RODZINA HERSCHELÓW). W 1785 roku opublikował diagram przekroju Galaktyki, używając odległości Syriusza jako miary. Założył, że w Galaktyce gwiazdy są równomiernie rozłożone i że jego teleskop może przeniknąć do granic we wszystkich kierunkach, tak że liczba gwiazd widocznych w dowolnym polu widzenia była wskaźnikiem odległości do granicy Galaktyki w tym kierunku. Oba założenia później porzucił, ale jego diagram zilustrował potencjalną moc hipotez jednorodności w połączeniu ze statystykami gwiazd. To właśnie po podobnych rozważaniach powiedział poecie Thomasowi Campbellowi w 1813 r.: "Zaobserwowałem gwiazdy, których światło, jak można udowodnić, musi potrzebować dwóch milionów lat, aby dotrzeć do Ziemi"
Dystrybucja galaktyk, gromad i supergromad
Rozkład materii w przestrzeni jest kluczem do zrozumienia przeszłości, teraźniejszości i przyszłości wszechświata. Jeśli średnia gęstość masy w największych skalach przekroczy poziom krytyczny, ekspansja wszechświata ostatecznie ustanie i odwróci się, kończąc się ostatecznie "Wielkim Chrupnięciem". I odwrotnie, jeśli średnia gęstość masy we wszechświecie jest mniejsza od tej wartości krytycznej, ekspansja przestrzeni będzie trwała bez końca. Rozkład materii ujawnia również wiele na temat kosmicznej historii wszechświata: materia była bardzo płynnie rozłożona wkrótce po Wielkim Wybuchu, ale teraz jest znacznie mniej. Kiedy obserwacje dotyczące tego, w jaki sposób galaktyki i GROMADY GALAKTYK są rozłożone w przestrzeni, zostaną połączone z obserwacjami ich właściwości spektroskopowych i morfologicznych, astrofizycy mogą nałożyć ważne ograniczenia na to, w jaki sposób te systemy powstały, ewoluowały i ostatecznie wyjaśnić naturę wzrostu struktury we wszechświecie. W szczególności związek między rozkładem materii świecącej (np. gorącego gazu, gwiazd, galaktyk) i materii nieświecącej (np. cząstek niebarionowych) jest określany przez właściwości termiczne niebarionowej "ciemnej" materii, historię powstawania gwiazd, grawitację i model kosmologiczny. Stąd dokładne przewidywania rozkładu przestrzennego galaktyk i gromad jako funkcji czasu są podstawowymi wymaganiami dla każdej wykonalnej teorii tego, jak struktura we wszechświecie powstała i ewoluuje. Badanie rozkładu galaktyk i gromad w zakresie odległości i epok było w związku z tym obszarem wielu aktywnych badań w ciągu ostatnich 20 lat. Podczas gdy nadal wiele jest nieznanego na temat podstawowego rozkładu masy we wszechświecie, poczyniono znaczny postęp dzięki przełomom w dziedzinie instrumentów astronomicznych i technologii detektorów, oprogramowania do symulacji numerycznych i szybkich procesorów komputerowych oraz fizyki cząstek. Wiemy, że rozkład galaktyk i gromad wykazuje niezwykły stopień niejednorodności na odległościach obejmujących co najmniej 150 megaparseków (Mpc) i że właściwości klastrowania galaktyk wydają się zależeć zarówno od lokalnego środowiska, w którym znajduje się galaktyka, jak i od wewnętrznych właściwości galaktyki. Dokładna natura CIEMNEJ MATERII i rola hydrodynamiki gazu (np. FORMOWANIA GWIAZD) w ewolucji struktury pozostają jednak obecnie nierozwiązanymi problemami astrofizyki.
Zasada kosmologiczna, ciemna materia i hierarchia klastrowania
Podstawową zasadą kosmologii jest to, że jeśli spojrzy się na wystarczająco dużą odległość, wszechświat powinien być jednorodny i izotropowy. To założenie jest często określane jako "ZASADA KOSMOLOGICZNA". Przez izotropowość rozumiemy, że globalne właściwości wszechświata (a zatem rozkład galaktyk) nie zależą od kierunku obserwacji. Przez jednorodność rozumiemy, że obserwatorzy w różnych częściach wszechświata będą rejestrować ten sam podstawowy obraz wszechświata w danej epoce kosmicznej. Istotą zasady kosmologicznej jest to, że nie ma preferowanych kierunków ani lokalizacji we wszechświecie. Obecne obserwacje sugerują, że zasada kosmologiczna jest ważna, ale tylko w skalach odległości przekraczających około 150 Mpc. W mniejszych skalach widzimy przestrzenne zmiany we właściwościach galaktyk (a być może nawet w niektórych parametrach kosmologicznych), które są prawdopodobnie związane ze znacznymi fluktuacjami w podstawowym rozkładzie materii w przestrzeni. Wczesne mapy rozmieszczenia galaktyk na dużą skalę, wygenerowane przed latami 80. XX wieku, były dwuwymiarowe - odtwarzały rozmieszczenie galaktyk na płaszczyźnie nieba. Trzeci wymiar, odległość od naszej Galaktyki, był dostępny tylko dla niewielkiej części tych galaktyk. Niemniej jednak mapy te wykazały, że rozmieszczenie galaktyk jest wysoce nielosowe: gdy zostanie znaleziona jedna galaktyka, prawdopodobieństwo znalezienia pobliskiej galaktyki towarzyszącej jest znacznie wyższe, niż przewidywałaby statystyka Poissona. Gromady we wszechświecie są wykrywane w wielu różnych skalach. Nasza Galaktyka Drogi Mlecznej jest członkiem grupy (nazwanej GRUPĄ LOKALNĄ) 24 galaktyk rozrzuconych na obszarze o promieniu około 1 Mpc. Grupa Lokalna zawiera całkowitą masę w zakresie od 3 × 1012 do 1013 mas Słońca. Grupy takie jak ta są stosunkowo powszechne: średnio istnieje około jednej grupy na każde 1800 sześciennych objętości Mpc. Gromady galaktyk są mniej więcej porównywalne pod względem wielkości, obejmując 1-5 Mpc, ale są znacznie masywniejsze i rzadsze niż grupy galaktyk . Gromady zawierają setki galaktyk w swoich centralnych regionach. Całkowita masa gromady wynosi zwykle co najmniej 1014 mas Słońca, a najbogatsze układy mogą być 50 razy masywniejsze. Gęstość masy w gromadzie jest zwykle co najmniej 100 razy większa od gęstości zamknięcia uniwersalnego1. Gromady galaktyk to największe znane układy, które osiągnęły równowagę dynamiczną, stan, w którym energia potencjalna grawitacyjna gromady jest dwukrotnie większa od jej wewnętrznej energii kinetycznej. Struktury związane grawitacyjnie mogą nadal istnieć na większą skalę. Chociaż dość rzadkie, wykryto gromady gromad (znane jako SUPERGLUSTERS). Układy te mogą zawierać ponad 1016 mas Słońca, w tym do 10 pojedynczych gromad galaktyk rozproszonych w regionach o zasięgu 10-30 Mpc. Podejrzewa się, że niektóre supergromady są układami związanymi, ale jest wysoce nieprawdopodobne, że miały wystarczająco dużo czasu, aby osiągnąć równowagę dynamiczną. Struktury na skalach przekraczających 100 Mpc nie odkryto, dopóki na początku lat 80. nie przeprowadzono rozległych, trójwymiarowych badań galaktyk. Trójwymiarowe badania są niezbędne do odkrycia prawdziwej natury rozkładu galaktyk, gromad i supergromad, ponieważ efekty projekcji ukrywają istotne struktury na dwuwymiarowych mapach. Rzeczywiście, w tych badaniach przestrzennych ujawnia się niesamowita, przypominająca bańkę sieć pustych przestrzeni i arkuszy galaktyk i gromad, rozciągająca się na setki Mpc. Uważa się, że wzorce klastrów, które widzimy we wszechświecie, od skali galaktycznej w górę, są rządzone przez potencjał grawitacyjny wszechobecnej ciemnej materii. Galaktyki, które stanowią mniej niż 5% całej materii we wszechświecie, są po prostu wskaźnikami rozkładu ciemnej materii. To niezwykłe odkrycie opiera się na obserwacjach, które wnioskują o całkowitej masie w galaktykach i gromadach galaktyk z rozkładu prędkości orbitalnych materiału wewnątrz tych układów. Oszacowania masy dynamicznej uzyskane w ten sposób są zazwyczaj 5-10 razy większe niż masy szacowane przez zsumowanie składników świetlnych (np. gwiazd w przypadku galaktyk; galaktyk i gorącego gazu w przypadku gromad). Oznacza to, że większość materii we wszechświecie nie została jeszcze bezpośrednio wykryta przez konwencjonalne instrumenty astronomiczne. Natura tej ciemnej materii wciąż nie jest dobrze poznana. Hipoteza, że ciemna materia składa się wyłącznie z BARYONÓW (np. neutralnego gazu, rozrzedzonej plazmy, masywnych planet, białych karłów, gwiazd neutronowych i czarnych dziur) wydaje się być w konflikcie z obserwacjami gorącego gazu w gromadach galaktyk (gaz stanowi tylko około 10-20% całkowitej masy gromady), tendencją umierających gwiazd do wyrzucania znacznej części swojej masy z powrotem do przestrzeni międzygwiazdowej (i stąd blokowanie materii barionowej w pozostałościach gwiazdowych jest bardzo nieefektywnym procesem) oraz ograniczeniami liczby masywnych planet, brązowych karłów i gwiazd o bardzo małej masie zarówno z badań mikrosoczewkowania grawitacyjnego, jak i głębokich obrazów Teleskopu Kosmicznego Hubble'a (gęstość przestrzenna takich obiektów jest zbyt niska, aby stanowić znaczną część wnioskowanej całkowitej gęstości masy we wszechświecie). Przestrzenny rozkład galaktyk i gromad może pomóc ograniczyć naturę ciemnej materii, ponieważ przewiduje się drastycznie różne konfiguracje w zależności od tego, czy cząstki ciemnej materii są wysoce relatywistyczne (nazywane odpowiednio gorącą i zimną ciemną materią). Kandydatami na niebarionową ciemną materię są neutrina, aksjony i słabo oddziałujące masywne cząstki przewidziane przez modele supersymetrii (fotiny, higgsiny, zinony i kosmiony słoneczne). Trwają programy wykrywania bardziej egzotycznych z tych kosmologicznych cząstek niebarionowych.
Pustki, arkusze, włókna i kolce
Piankowaty rozkład przestrzenny około 10 000 galaktyk w dwóch niemal przeciwległych kierunkach pokazano na rysunku .

Dane uzyskano w obserwatoriach zlokalizowanych w Arizonie i Chile. Na tym rysunku, znanym jako diagram stożkowy, położenie każdej galaktyki pokazano jako punkt. Nasza galaktyka znajduje się w punkcie, w którym spotykają się kliny. Odległość przedstawiona przez długość każdego klina wynosi około 120 Mpc. Na tej mapie galaktyk widocznych jest kilka uderzających cech (żadna z nich nie została przewidziana przez teorię przed obserwacjami): duże obszary o bardzo niskiej gęstości galaktyk, nieco myląco nazywane pustkami, rozciągają się na dziesiątki Mpc. Pustki są otoczone przez przypominającą arkusz sieć galaktyk, często rozciągającą się na kilkaset pc. Rzeczywiście, jedną z takich spójnych cech można zobaczyć na rysunku 3 przechodzącą ze środkowego regionu północnego diagramu do i przez południowy diagram stożkowy. Tę cechę nazwano "WIELKIM MUREM". Gromady galaktyk można również zobaczyć na mapie jako bardzo wydłużone skupiska zorientowane w kierunku środka diagramu. To wydłużenie jest artefaktem dużych prędkości orbitalnych galaktyk wokół centrów gromad, które często mogą zbliżać się do 1000 km s-1. Te prędkości orbitalne zniekształcają położenia przestrzenne określone na podstawie pomiarów przesunięcia ku czerwieni i powodują wydłużony wygląd gromad na takich diagramach. Gdybyśmy mogli obserwować galaktyki gromadne za pomocą mapy opartej na odległościach niezależnych od PRZESUNIĘCIA KU CZERWIENI, takie wydłużenie zniknęłoby. Struktury na tej mapie są wyraźnie porównywalne z głębokością przeglądu, dlatego w latach 90. XX wieku przeprowadzono szersze i głębsze przeglądy, aby ocenić, jak duże są największe struktury we wszechświecie. Jednym z osiągnięć technologicznych, które umożliwiły przeprowadzenie bardzo dużych przeglądów przesunięcia ku czerwieni, był spektrograf wieloobiektowy (MOS). Powyższe 10 000 przesunięć ku czerwieni zostało zmierzonych pojedynczo na teleskopach o wąskim polu widzenia ((1/7) pola widzenia zajmowanego przez pełnię Księżyca). Współczesne pektrografy wieloobiektowe pozwalają na jednoczesny pomiar do 600 przesunięć ku czerwieni z galaktyk rozłożonych na obszarze kilku stopni kwadratowych (około 15 razy większym niż obszar zajmowany przez pełnię Księżyca). Jedno z pierwszych dużych badań MOS, znane jako Las Campanas Redshift Survey (LCRS), zmierzyło około 24 000 przesunięć ku czerwieni w dwóch kierunkach oddalonych od siebie o 132°. Rozkład galaktyk z tego badania pokazano na rysunku 4. Głębokość LCRS była prawie 5 razy większa niż na rysunku powyżej. Jednak znalezione struktury były porównywalnej wielkości, co sugeruje, że być może nie ma istotnych niejednorodności znacznie większych niż 120 Mpc. Jednakże LCRS obejmuje odległości tylko dla ułamka wszystkich galaktyk w tej części nieba ze względu na ograniczenia czasowe i teleskopowe. W konsekwencji struktura na mapie LCRS nie jest tak wyraźnie zarysowana, jak w badaniu, które całkowicie pobiera próbki rozmieszczenia galaktyk, takim jak to na rysunku 3. Wszelkie wnioski dotyczące istnienia struktur w skalach większych niż 120 Mpc lub więcej muszą być zatem złagodzone faktem, że badanie wykonało tylko częściowe pobieranie próbek rozmieszczenia galaktyk i gromad.
Kwantyfikacja klastrowania
Ograniczenia, jakie powyższe badania nakładają na teorie formowania się struktur i modele ciemnej materii, wynikają z różnych wielkości statystycznych, które mierzą stopień, w jakim rozkłady galaktyk i klastrów różnią się od konfiguracji czysto losowej. Jedną z najczęściej używanych z tych statystyk jest dwupunktowa funkcja korelacji, ?(r). Dwupunktowa funkcja korelacji mierzy prawdopodobieństwo znalezienia jednej galaktyki oddzielonej odległością r od innej galaktyki. Powyższe obserwacje ujawniają, że ?(r) jest dobrze reprezentowane przez prawo potęgowe w postaci
ξ(r) = (r0/r)γ (1)
gdzie r0 jest znane jako długość korelacji. Długość korelacji to skala odległości, w której jest dwa razy więcej par obiektów niż oczekiwano, gdyby rozkład obiektów był całkowicie losowy. W przypadku galaktyk najlepiej dopasowane parametry dla ξ?(r) to r0 = 5,5±1 Mpc i γ = 1,8±0,05. Gdyby rozkład galaktyk był losowy, można by oczekiwać ξ(r) = 0 we wszystkich skalach. Ograniczenia ξ(r) odzwierciedlają wrażenie wizualne wywołane przez badania przesunięcia ku czerwieni - rozkład galaktyk jest silnie skupiony, a nie losowy. Co ciekawe, funkcja korelacji gromad galaktyk ma nachylenie niemal identyczne jak dla galaktyk (γ = 1,9±0,3), ale długość korelacji jest znacznie większa, r0 = 20±8 Mpc. Zgodność kształtu ξ(r) dla galaktyk i gromad sugeruje, że te dwa dość różne typy układów gwiezdnych śledzą ten sam podstawowy rozkład masy. Dodatkowym ograniczeniem wynikającym z badań przesunięcia ku czerwieni galaktyk i gromad jest to, że reprezentacja potęgowa ξ(r) wydaje się być ważna w skalach do co najmniej 40 Mpc, a być może nawet do 60 Mpc. Powyższe parametry funkcji korelacji to wartości średnie dla dużych próbek galaktyk i gromad. Wartości te nie są jednak uniwersalne. Istnieje wysoce istotna zależność długości korelacji od jasności badanych galaktyk i ich morfologii. Na przykład niedawno ustalono, że funkcja korelacji najjaśniejszych optycznie galaktyk (Lopt ≥ 5 × 1043 erg s-1) ma długości korelacji ∿16±2 Mpc, zbliżając się do długości korelacji gromad galaktyk, podczas gdy najsłabsze galaktyki mają długości korelacji tak niskie jak 4 Mpc. Ustalono również, że prawdopodobieństwo znalezienia sąsiedniej galaktyki w odległości 1 Mpc od galaktyki eliptycznej jest około dwukrotnie wyższe niż prawdopodobieństwo znalezienia towarzysza w tej samej objętości od galaktyki spiralnej. Tak więc, chociaż cały rozkład wszystkich galaktyk jest zdeterminowany przez rozkład materii leżącej u podłoża, galaktyki eliptyczne i/lub galaktyki jasne wydają się być bardziej efektywnymi znacznikami obszarów w przestrzeni o największych gęstościach. Parametry funkcji korelacji klastra wydają się również zależeć słabo od jasności rentgenowskiej klastra: najjaśniejsze klastry rentgenowskie (LX ≥ 1,4 × 1044 erg s-1) mają r0 ≈ 35±15 Mpc, w porównaniu do r0 ≈ 15±4 dla układów najmniej bogatych (i najmniej jasnych w promieniach rentgenowskich). Widmo mocy, P(k), jest transformatą Fouriera ξ(r) i zapewnia uzupełniające, ale ważne ograniczenie właściwości klastrowania galaktyk i klastrów: szerokie cechy w funkcji korelacji są wąskie w przestrzeni Fouriera i odwrotnie . Analiza rozkładu galaktyk w LCRS wykazała, że istnieje znaczący "skok" w widmie mocy w skalach bliskich 100 Mpc. Głębsze badania przesunięć ku czerwieni, znane jako badania "wiązki ołówkowej", ponieważ obejmują bardzo małe kąty bryłowe, ale badają duże odległości, również wykryły nadmiarowe sygnatury klastrów w skalach do 130 Mpc. Rzeczywiście, wyniki pierwszych badań wiązki ołówkowej wykazały, że w radialnym rozkładzie galaktyk występują quasi-okresowe piki, występujące co 120-130 Mpc. Cechy te są zaskakujące, ponieważ nie wiadomo, dlaczego miałaby istnieć taka preferowana skala rozmiarów. Jedna z interpretacji jest taka, że struktury na dużą skalę, takie jak sieć ścian i pustych przestrzeni widoczna w rozległych badaniach przesunięć ku czerwieni, mają charakterystyczne rozmiary. Ale co determinuje te charakterystyczne skale? Część tej nadmiarowej mocy może być długotrwałymi efektami właściwości plazmy, która istniała we wczesnym wszechświecie. Ale obecnie tak naprawdę nie rozumiemy struktury tych niezwykłych cech w rozkładzie galaktyk. Niemniej jednak globalny kształt galaktyki i widma mocy gromady są podobne, co ponownie sugeruje, że gromady i galaktyki śledzą podobne zaburzenia w rozkładzie materii. Amplituda P(k) dla najbogatszych gromad jest średnio o czynnik ∿2-3 wyższa niż dla uboższych gromad, co jest zgodne z różnicami widocznymi w ich odpowiednich ξ(r). Z kolei amplituda bogatego klastra P(k) jest około 12-16 razy wyższa niż ta wyprowadzona dla galaktyk w LCRS.
"Tendencje"
Powyższe wyniki pokazują, że nie wszystkie obiekty pozagalaktyczne śledzą rozkład masy w ten sam sposób. W rzeczywistości wniosek ten stanowi zasadniczo nowy paradygmat w kosmologii. Przed początkiem lat 80. XX wieku zakładano zazwyczaj, że istnieje relacja jeden do jednego między fluktuacjami w rozkładzie galaktyk a fluktuacjami w rozkładzie masy. Obecnie zdajemy sobie sprawę, że nie tylko nie jest to relacja bezpośrednia, ale prawdopodobnie nie jest nawet liniowa i może zależeć również od skali czasu i rozmiaru. Galaktyki i gromady są zatem uważane za "stronnicze" wskaźniki rozkładu materii, a obecnie prowadzonych jest wiele badań w celu zrozumienia mechanizmów fizycznych, które mogą odpowiadać za tę bardziej złożoną relację między galaktyką, gromadą i rozkładem materii. Zależność właściwości klastrowania, takich jak długość korelacji, od masy układu, została wyjaśniona w kategoriach statystyk "rzadkich szczytów" w rozkładzie. Fluktuacje gęstości masy we wszechświecie występują w wielu skalach. Na największe fluktuacje nakładają się mniejsze. Jeśli galaktyki i gromady galaktyk tworzą się w miejscach, które osiągają pewne minimalne wzmocnienie gęstości, wówczas będzie istniała preferencja dla najmasywniejszych i najjaśniejszych obiektów, aby powstawały w miejscach, które mają już podwyższone poziomy gęstości masy z racji przebywania na szczycie fluktuacji na większą skalę. Najwyższe szczyty gęstości w rozkładzie masy występują jednak rzadziej - trzeba przeszukać większą objętość, aby znaleźć duży szczyt gęstości niż mały szczyt. Zaproponowano, że można ustalić uniwersalną relację między średnią odległością między obiektami, di, a ich długością korelacji, r0, w postaci
r0 = (0.3 ± 0.1)di
(2)
sugerując, że obiekty o większych odstępach (które mają tendencję do bycia masywniejszymi systemami) będą wykazywać silniejsze klastrowanie. Czy trend między siłą klastrowania a masą rozciąga się na supergromady? Odpowiedź jest niejasna, ponieważ obecnie znanych jest zbyt mało supergromad, aby wykonać solidne obliczenia. Badania zainicjowane w 1998 r. mogą przynieść wystarczająco dużo dodatkowych supergromad, aby odpowiedzieć na to pytanie. Chociaż wczesne wersje teorii formowania się struktur opartej na wszechświecie zdominowanym przez zimną ciemną materię (CDM) przewidywały trend w kierunku wyższych długości korelacji w miarę wzrostu masy galaktyki i gromady, te same modele nie zbliżyły się do przewidzenia rzeczywistych obserwacji, w których najbogatsze gromady są 10-20 razy silniej skupione niż galaktyki. Rozwiązaniem tej rozbieżności było założenie, że galaktyki i gromady są stronniczymi znacznikami masy. Te stronnicze modele CDM są bardziej skuteczne w odtwarzaniu rzeczywistego rozkładu galaktyk, ale pozostają inne istotne obserwacje, z którymi modele nie zgadzają się zbyt dobrze. Dzieje się tak prawdopodobnie dlatego, że albo zakładane właściwości ciemnej materii nie są dokładne i/lub konkretny model odchyleń nie jest dokładny. Statystyki takie jak ξ(r) i P(k) nie są wystarczające, aby jednoznacznie opisać rozkłady galaktyk i gromad. Rozkłady, które wydają się dramatycznie różne dla oka, często mogą mieć podobne dwupunktowe funkcje korelacji. Dzieje się tak, ponieważ oko jest wrażliwe na momenty wyższego rzędu rozkładu (takie jak pasma galaktyk przypominające "ściany" otaczające duże, słabo zagęszczone objętości). Statystyki mierzące momenty wyższego rzędu rozkładów zapewniają zatem lepszą dyskryminację między modelami kosmologicznymi, a także niektóre z najlepszych ograniczeń stopnia odchyleń, a zatem niezawodności galaktyk i gromad jako wskaźników masy. Obecne ograniczenia wyższych momentów (rzędów 3-6) rozkładów galaktyk i gromad sugerują, że podczas gdy galaktyki i gromady pobierają próbki tego samego rozkładu materii bazowej, odchylenie między nimi jest nieliniowe.
Przepływy kosmiczne
Powyższe obserwacje pokazują zarówno moc, jak i ograniczenia mapowania struktur za pomocą badań przesunięcia ku czerwieni. Podczas gdy takie badania pozwalają na ujawnienie rozległych i skomplikowanych struktur na wielu skalach, fizyczna interpretacja struktury jest skomplikowana przez fakt, że znaczniki struktury są stronnicze. Istnieje jednak uzupełniające podejście do mapowania struktury, które wykorzystuje fakt, że cała materia we wszechświecie podlega własnej wzajemnej sile grawitacyjnej. Niejednorodności w rozkładzie masy mogą wywoływać ruchy galaktyk i gromad (nazywane przez astronomów "osobliwą" prędkością), które nie są związane z ekspansją przestrzeni. W skalach większych niż około 10 Mpc trójwymiarowa mapa tych ruchów może zostać wykorzystana do wywnioskowania mas i prawdopodobnych lokalizacji odpowiedzialnych struktur, ponieważ wywołane prędkości są liniowo proporcjonalne do gradientów w polu grawitacyjnym3. Piękno takich pomiarów polega na tym, że zapewniają one bardziej bezpośrednią metodę mapowania rozkładu masy, a wiele obaw dotyczących stronniczych znaczników jest bezprzedmiotowych. Jednak nietypowe obserwacje prędkości są trudne do dokładnego wykonania. Badanie obserwacyjne wielkoskalowych pól prędkości kosmicznych rozpoczęło się w 1976 r. od odkrycia, że temperatura COSMIC MICROWAVE BACKGROUND (CMB) jest o kilka milistopni cieplejsza w jednym kierunku i równie chłodniejsza w przeciwnym kierunku. Ten podpis został szybko zinterpretowany jako wynikający z ruchu naszej Galaktyki względem CMB, ruchu, który prawdopodobnie jest spowodowany brakiem równowagi w przyciąganiu grawitacyjnym różnych struktur otaczających naszą Galaktykę. (Gdyby materia była równomiernie rozłożona wokół nas, siły grawitacyjne by się znosiły, średnio rzecz biorąc, i nie zostałby wywołany żaden ruch. Jednak, jak widać w badaniach przesunięcia ku czerwieni, materia jest bardzo daleka od równomiernego rozłożenia.) Późniejsze pomiary tej anizotropii z satelity Cosmic Background Explorer (COBE) dały bardzo dokładne pomiary tego ruchu: 620 km s-1 w kierunku l = 270,8°, b = +29,1°, mierzone względem środka Grupy Lokalnej. Ponieważ CMB jest najdalszym możliwym układem odniesienia (pochodzi z przesunięcia ku czerwieni ∿1000, gdy wszechświat miał zaledwie kilkaset tysięcy lat), całkiem rozsądne jest założenie, że struktury powodujące ten ruch są znacznie bliżej. Aby zmierzyć szczególną prędkość obiektu pozagalaktycznego, trzeba znać zarówno jego przesunięcie ku czerwieni, jak i jego odległość. W tym przypadku odległość musi zostać określona niezależnie od przesunięcia ku czerwieni. Dzieje się tak, ponieważ obserwowane przesunięcie ku czerwieni zawiera wkłady zarówno z ekspansji wszechświata, jak i z dowolnej prędkości indukowanej grawitacyjnie. Wkład wyłącznie z ekspansji (nazywany prędkością recesji) można określić bezpośrednio z odległości niezależnej od przesunięcia ku czerwieni za pomocą PRAWA HUBBLE′A. Szczególna prędkość jest wówczas różnicą między obserwowanym przesunięciem ku czerwieni a prędkością recesji. Obecnie istnieje co najmniej siedem niezależnych metod, których można użyć do określenia odległości do galaktyk i gromad, chociaż nie wszystkie metody działają na wszystkich układach galaktyk ani nie wszystkie dają taką samą dokładność pomiaru. Jednak wspólną zasadą we wszystkich tych metodach jest to, że istnieje pewna obserwowalna wielkość (inna niż przesunięcie ku czerwieni), której można użyć do oszacowania odległości. W wielu z tych metod odległość jest wnioskowana przez porównanie oszacowania wewnętrznej jasności obiektu z jego widoczną (obserwowaną) jasnością. Stosując takie techniki, można ustalić odległości niezależne od przesunięcia ku czerwieni (a zatem i osobliwe prędkości) dla dużych próbek galaktyk i gromad w różnych częściach nieba. Na podstawie takich zestawów danych można wykreślić ruchy galaktyk i następnie wnioskować o obecności fluktuacji w rozkładzie materii. Dwie największe galaktyki w Grupie Lokalnej, nasza Droga Mleczna i Galaktyka Andromedy, są od siebie oddalone o około 700 kpc. Dwie bezmasowe cząstki znajdujące się tak daleko od siebie w naszym rozszerzającym się wszechświecie oddalają się od siebie z prędkością ponad 50 km s-1. W rzeczywistości te dwie galaktyki zbliżają się do siebie z prędkością około 70 km s-1. Ta obserwacja doprowadziła do oszacowania łącznej masy tych dwóch galaktyk spiralnych. Cała sama Grupa Lokalna porusza się częściowo z powodu grawitacyjnego przyciągania GROMADY W PANNIE, która znajduje się około 16 Mpc dalej. Ale masa gromady Virgo wystarczy, aby wyjaśnić tylko około 40% prędkości CMB. Ponadto wektor prędkości CMB jest niezgodny z pozycją gromady Virgo o 47°. Dodatkowe struktury w większych odległościach muszą zatem odgrywać rolę. Jedno z pierwszych osobliwych badań prędkości w celu wykrycia tych struktur przeprowadzono w połowie lat 80. XX wieku, wykorzystując odległości do ponad 300 galaktyk eliptycznych. Uzyskano zaskakujący wynik: ogromna liczba galaktyk w obrębie kuli o średnicy prawie 100 Mpc wydaje się dzielić wspólny ruch w kierunku masywnego skupiska materii. Taki ruch określa się mianem "przepływu masowego", a ponieważ uczestniczy w nim tak wiele galaktyk, skupisko nazwano "Wielkim Atraktorem". Wektor przepływu masowego wynosił 600±104 km s-1 w kierunku l = 312°, b = 6° (błąd kątowy wynosi ∿ ±10°), blisko prędkości CMB wynoszącej 620 km s-1, ale około 45° od jego wierzchołka. Późniejsze badania wskazują, że "Wielki Atraktor" jest umiarkowanie bogatą supergromadą leżącą w odległości 40-50 Mpc od naszej Galaktyki. Sam Wielki Atraktor może uczestniczyć w przepływie masowym, co sugeruje, że pochodzenie przepływu wynika częściowo ze struktury w skalach większych niż 50 Mpc. o takie przepływy masowe rozciągają się na skale 100 Mpc lub więcej? Jeśli tak, to zasada kosmologiczna nie jest ważna w skalach nawet tak dużych jak 100 Mpc. Mając to kluczowe pytanie za czynnik napędowy, kilka grup postanowiło zbadać pole prędkości w skalach 4 razy większych niż pierwotne badanie "Wielkiego Atraktora". Wstępne wyniki niektórych z tych badań sugerują, że istnieją dowody na przepływy masowe o prędkości 600-800 (±150-300) km s
Bańka Hubble′a?
Jednak przyciąganie grawitacyjne w kierunku masywnych struktur nie jest jedynym dostępnym sposobem generowania dużego przepływu masowego. Gdyby ekspansja wszechświata zależała od lokalizacji, przepływy mogłyby być bezpośrednią konsekwencją. Innym sposobem zadania tego pytania jest: czy stała Hubble'a (H0) jest naprawdę stała? Odpowiedź brzmi: nie. Dokładniejszym opisem tego terminu byłby parametr Hubble′a. Parametr Hubble'a zmienia się wraz z wiekiem kosmicznym - zależność czasowa jest konsekwencją spowolnienia ekspansji spowodowanego przez materię we wszechświecie. Amplituda zależności czasowej staje się jednak znacząca tylko wtedy, gdy badania obejmują bardzo duże odległości (a zatem duży zakres dynamiczny w czasie "spojrzenia wstecz"). Zmiany wartości H0 jako funkcji lokalizacji są jednak również możliwe, jeśli fluktuacje w rozkładzie masy są wystarczająco duże. Rozszerzanie się przestrzeni w dużym regionie o małej gęstości będzie przebiegać szybciej niż w dużym regionie o dużej gęstości. Rozmiary pustych przestrzeni i ścian widocznych w rozkładzie galaktyk są w zasadzie wystarczająco duże, aby dać mierzalne zmiany parametru Hubble'a w skalach 100-200 Mpc. Jak pokazuje rysunek, obszar przestrzeni otaczający naszą Galaktykę jest mniej gęsty w porównaniu na przykład do struktury "Wielkiego Muru", która znajduje się w odległości około 70-100 Mpc. Jednym z możliwych wyjaśnień dużej, osobliwej prędkości w skali 100-200 Mpc jest to, że nasza Galaktyka znajduje się w obszarze przestrzeni, w którym lokalne tempo ekspansji jest szybsze niż w znacznie większych skalach. Do tej pory obserwacyjne ograniczenia dotyczące zmienności przestrzennej parametru Hubble'a wynoszą mniej niż 5% w skalach 150 Mpc. Chociaż jest to niewielka wartość, może ona nadal wynosić kilkaset km s>sup>-1, a zatem takie efekty mogą rzeczywiście występować.
Przyszłe obserwacje i nierozwiązane problemys-1s-1
Jednym z kluczowych wyzwań stawianych przez wszystkie te obserwacje jest zrozumienie, w jaki sposób wszechświat ewoluował od wysoce jednorodnego stanu krótko po stworzeniu do obecnej epoki, w której duże niejednorodności w skali 100 Mpc lub większej są stosunkowo powszechne. Modele, które wydają się najbardziej zgodne z większością obserwacji, to te, które zakładają wszechświat piórowy zdominowany przez CDM i/lub wszechświat otwarty z CDM plus pewien gorący składnik ciemnej materii, taki jak neutrina. Obserwacje mogą być również zgodne z różną od zera stałą kosmologiczną (Λ). Jeśli jednak przepływy masowe o dużej amplitudzie i dużej skali będą się utrzymywać, konieczne będą pewne rewizje tych modeli. Chociaż poczyniono duże postępy w mapowaniu struktur we wszechświecie, wciąż mamy długą drogę do przebycia. Obecnie ułamek lokalnego wszechświata, dla którego posiadamy wiarygodne mapy rozmieszczenia galaktyk i gromad, stanowi zaledwie 1%, co jest podobne do próby wywnioskowania geografii całej powierzchni Ziemi z mapy wschodniej połowy Stanów Zjednoczonych. Niektóre podstawowe problemy astrofizyczne w badaniu rozmieszczenia galaktyk, gromad i supergromad nadal pozostają nierozwiązane. Czy istnieją struktury galaktyczne na skalę większą niż 300 Mpc? Czy istnieją przepływy masowe, które rzeczywiście wykraczają poza 100 Mpc? Jak złożony jest związek między rozmieszczeniem galaktyk a rozmieszczeniem materii? Jaka struktura istniała, gdy wszechświat miał połowę lub nawet jedną dziesiątą obecnego wieku? Jaka jest dokładna natura ciemnej materii we wszechświecie? Biorąc pod uwagę ograniczoną ilość czasu teleskopowego dostępnego do przeprowadzania przeglądów rozmieszczenia galaktyk i gromad, astronomowie musieli znaleźć równowagę między chęcią pokrycia dużych obszarów nieba (a zatem pobrania próbek z wielu pobliskich regionów kosmosu) a chęcią zbadania rozmieszczenia galaktyk z dużych odległości (aby zbadać ewolucję struktury). Na szczęście, w miarę jak spektrografy wieloobiektowe są udoskonalane i budowane są teleskopy o dużej aperturze, w tym kilka obserwatoriów poświęconych wyłącznie badaniom spektroskopowym, kompromis między obszarem a głębokością staje się mniej istotny. Obecnie istnieją obiekty, które umożliwią astronomom przeprowadzanie badań obejmujących zarówno umiarkowanie duże obszary, jak i rozciągających się na dość duże odległości (a zatem, badanie dalej wstecz w czasie). Trwają trójwymiarowe badania miliona lub więcej pobliskich galaktyk i tysięcy gromad galaktyk. Badanie struktur na dużą skalę przy wysokim przesunięciu ku czerwieni staje się również dostępne. Prawdopodobnie w następnej dekadzie nastąpi wiele przełomów w tej konkretnej dziedzinie dzięki szeregowi dużych teleskopów zoptymalizowanych pod kątem optycznym i bliskiej podczerwieni, które zostaną uruchomione w ciągu najbliższych kilku lat. Satelita COBE dostarczył ograniczeń dotyczących rozkładu fluktuacji w rozkładzie materii w bardzo młodym wszechświecie, ale tylko w ekstremalnie dużych skalach (większych niż 600 Mpc). Obserwatoria CMB w kosmosie, które zostaną wystrzelone na początku XXI wieku, dostarczą wykwintnych ograniczeń na wczesną dystrybucję materii w skalach porównywalnych z tymi badanymi przez istniejące badania przesunięcia ku czerwieni, a tym samym zapewnią bezpośredni punkt odniesienia dla badań ewolucyjnych. Podobnie jak osobliwe badania prędkości, badania CMB są atrakcyjne, ponieważ fluktuacje mikrofalowego promieniowania tła są bezpośrednimi, bezstronnymi wskaźnikami dystrybucji materii. Jednak nasza zdolność do obserwowania wszechświata musi być dopasowana do równej zdolności do interpretowania i rozumienia obserwacji. Dzięki rewolucjom w mocy przetwarzania komputerowego i pojemności pamięci masowej, eksperymenty mające na celu symulację dużych segmentów kosmosu są obecnie w toku . Symulacje te śledzą trajektorie miliarda cząstek, które ewoluują w czasie kosmicznym, tworząc strukturę. Takie nowe narzędzia zapewnią teoretyczne przewidywania na poziomie szczegółowości i dokładności, które dotychczas były niedostępne. A ponieważ różnice między niektórymi modelami kosmologicznymi są dość subtelne, taka zdolność jest niezbędna
Podzielone instrumenty
Chociaż podział zodiaku na 360° prawdopodobnie pochodzi z Egiptu lub Asyrii około 2000 r. p.n.e., nie zachowały się żadne dowody na to, że kultury mezopotamskie ucieleśniały ten podział w instrumencie matematycznym. Jednakże niemal na pewno to właśnie z Babilonii greccy geometrzy dowiedzieli się o okręgu 360° i około 80 r. p.n.e. włączyli go do tego niezwykle skomplikowanego urządzenia, powszechnie nazywanego "mechanizmem z Antykithiry". Mechanizm ten, znaleziony w 1900 r. przez poławiaczy gąbek we szczątkach statku, który zatonął około 180 r. p.n.e. u wybrzeży greckiej wyspy Antykithiry, jest wyrafinowanym instrumentem z przekładnią, którego można było użyć do obliczania ruchów planet. Ironią jest zatem to, że najwcześniejszy znany stopniowany instrument astronomiczny powinien być już instrumentem o dużej złożoności, co wskazuje zarówno na wysoce rozwiniętą geometrię astronomiczną, jak i komplementarnie dojrzały stan rzemiosła instrumentalnego w klasycznej Grecji.
Wpływ Ptolemeusza
W swojej encyklopedycznej kompozycji matematycznej, czyli Almagest, z ok. 150 r. n.e. Klaudiusz Ptolemeusz opisuje zastosowanie różnych instrumentów astronomicznych, które umożliwiają pomiar położenia ciał niebieskich ze stałych współrzędnych za pomocą skali 360?. Należą do nich astrolabon i kwadrant, a także adaptacje liniowych właściwości okręgu, dzięki którym kąty można było mierzyć za pomocą prostych prętów ułożonych w trójkątne konfiguracje za pomocą sinusów i stycznych. Astrolabon Ptolemeusza to w rzeczywistości zestaw pierścieni armilarnych, z mosiądzu lub brązu, ustawionych w jednej linii z głównymi płaszczyznami nieba, takimi jak zodiak, równik niebieski i południk. Podział na 360° pierścienie te można było wykorzystać do śledzenia ruchów ciał niebieskich na niebie, dzięki czemu można było tworzyć tabele obserwacji, na podstawie których można było generować teorie. Dwuwymiarowe "astrolabium" zostało skonstruowane przez pomysłowe spłaszczenie tych pierścieni na szeregu płyt, aby uzyskać stereograficzną projekcję nieba w formie planisfery. To arabscy astronomowie z VII wieku n.e. opracowali astrolabium w formie, w jakiej stało się ono znane na łacińskim Zachodzie w XII wieku, zamieniając je w instrument o podwójnej funkcji, który mógł być używany zarówno do obserwacji wysokości ciał, jak i do wykonywania praktycznych obliczeń w trygonometrii sferycznej. Podział kątów na coraz mniejsze jednostki minut i sekund, gdzie dokładność każdej cyfry podziału mogła być polegana geometrycznie i naukowo, stał się przedmiotem troski tych kultur, które przywiązywały dużą wagę do badań astronomicznych. W świecie postklasycznym oznaczało to Arabów, którzy opracowali dwie klasy stopniowanych instrumentów astronomicznych. Pierwszym z nich były duże instrumenty, często budowane w kamieniu, w których dokładność osiągano dzięki wielkości zastosowanego promienia. Obserwatorium ULUGH BEG z Samarkandy z 1424 r. z sekstantem południkowym o promieniu 130 stóp umieszczonym w budynku w kształcie bębna mieściło najbardziej spektakularny i udany instrument tego typu, który teoretycznie był w stanie zmierzyć deklinację słoneczną oraz wysokości gwiazd, księżyca i planet z dokładnością do kilku sekund łukowych. Drugą klasą instrumentów stopniowanych, które wyszły ze średniowiecznego świata islamskiego, były instrumenty, które można by nazwać instrumentami obliczeniowymi. Należały do nich astrolabium, kwadrant ręczny i formy klepek krzyżowych. Nie były one wystarczająco dokładne, aby ponownie zdefiniować jakiekolwiek stałe astronomiczne, ale miały na celu, ze skalą podzieloną na 1? lub być może 30 minut łukowych, pomiar danych słonecznych lub innych na potrzeby codziennej działalności związanej z określaniem czasu, nawigacją, geodezją, liturgią religijną lub astrologią. Ta klasa instrumentów wygenerowała pierwszy na świecie handel podzielonymi artefaktami naukowymi, z których duża liczba pojedynczych egzemplarzy, zwłaszcza astrolabiów, przetrwała w zbiorach muzealnych na całym świecie
Astrolabium
Astrolabium trafiło do Europy za pośrednictwem kontaktów muzułmańskich (patrz ASTROLABE). Astrolabium nie było instrumentem oryginalnych badań, lecz instrumentem obliczeniowym, za pomocą którego można było ustalić czas lokalny według Słońca i gwiazd, a także obliczyć szeroki zakres cech kalendarzowych. Każdy instrument miał dwie skale 360?, z tyłu i z przodu głównej płyty mosiężnej. Tylna skala służyła do dokonywania obserwacji nieba za pomocą alidady obserwacyjnej, podczas gdy przednia, w połączeniu ze stereograficznie rzutowanym niebem płyt "klimatycznych", mogła być używana do obliczania wyżej wymienionych danych zegarowych i kalendarzowych. Badania szeregu zachowanych europejskich astrolabiów, wykonanych między ok. 1380 a 1650 rokiem, wskazują, że w różnych warsztatach do generowania skal 360? stosowano różne konfiguracje geometryczne, wykorzystujące cyrkle kreślarskie i kopie-szablony, a około 1500 roku powstały ośrodki, takie jak Florencja i Augsburg, zajmujące się produkcją astrolabiów, tarcz i podobnych instrumentów matematycznych.
Tycho Brahe
To duński szlachcic TYCHOBRAHE, w latach 1572-1598, został pierwszym Europejczykiem, który opracował stosunkowo duże promieniowe instrumenty stopniowane przeznaczone do oryginalnych badań. Obejmowały one kolekcję SFER ARMILARNYCH (ustawionych we współrzędnych zodiaku i równika), kwadrantów, sekstantów, linijek paralaksy (lub triqueta), globusów i zegarów, za pomocą których wykonał pierwszą fundamentalną rewizję położenia ciał niebieskich od czasów Ptolemeusza 1300 lat wcześniej. W przeciwieństwie do Ulugh Bega i innych muzułmańskich astronomów, których obserwacje znał, Tycho porzucił pomysł budowy instrumentów o bardzo dużym promieniu po tym, jak kwadrant o promieniu 14 łokci (19 stóp), który zbudował z Paulem Hainzelem z Augsburga, zaczął wykazywać oznaki zniekształcenia pod własnym ciężarem. Tycho został pierwszą osobą, która analizowała instrumenty stopniowe jako konstrukcje inżynierskie, zdając sobie sprawę, że stabilność całego instrumentu była niezbędna, aby podziałka skali pozostała prawdziwa. Zamiast
budować instrumenty o promieniu dziesiątek stóp, jako sposób na powiększenie podziałki, przyjął i znacznie udoskonalił skalę poprzeczną lub diagonalną: urządzenie sięgające czasów Richarda Cantzlara i LEVIEGO BEN GERSON. W skali diagonalnej przestrzeń stopni jest postrzegana nie tylko jako linia, ale jako dwuwymiarowy obszar rozciągający się przez część promienia. Linia, narysowana po przekątnej przez obszar i podzielona na 30 lub 60 równych przestrzeni, mogła następnie umożliwić odczytanie stopnia z małą częścią całkowitego promienia wynoszącego zaledwie około 6 stóp. Wszystkie dojrzałe instrumenty Tychona były wyposażone w przekątne, podobnie jak większość jego następców - Pierre′a GASSENDIEGO, Giovanniego CASSINIEGO, Johannesa HEVELIUSZA i Johna FLAMSTEEDA - przez następne 130 lat. Tycho Brahe był dumny, że odziedziczył triquetum, czyli zestaw tak zwanych "linii Ptolemeusza", MIKOŁAJA KOPERNIKA, podarowany mu przez Johannesa Hannowa, kanonika z Warmii. Linijki składały się z trzech prostych prętów i odczytywały kąt, wykorzystując geometryczną zależność stycznej do promienia i obwodu okręgu. Zaleta instrumentu leżała w względnej łatwości, dzięki której można było podzielić linię prostą na równe części w przeciwieństwie do łuku 90?, chociaż, jak odkrył Tycho po wyczerpujących testach, instrument nie nadawał się do krytycznych, dokładnych obserwacji. Ostateczna jakość obserwacji pozycyjnych Tychona - średnio 1 minuta łuku, w przeciwieństwie do 10-15 minut łuku w przypadku jego poprzedników - wynikała z jego ciągłej analizy, przeprojektowywania i zwiększania specjalizacji funkcji jego instrumentów obserwacyjnych. Zainteresowanie Tychona wykrywaniem i korektą błędów, jeśli chodzi o geometryczną i inżynieryjną konstrukcję jego instrumentów, stanowiło kamień milowy w technologii instrumentów i przekonało naukowców, że ich obserwacje i prawdopodobne teorie, które mogli na nich zbudować, były tak dobre, jak skale stopniowe, którymi dysponowali. Europa renesansowa była świadkiem eksplozji pomysłowości w konstruowaniu instrumentów do pomiaru kątów, ukierunkowanych na specjalistyczne potrzeby nie tylko astronomów, ale także nawigatorów, geodetów, artylerzystów i matematyków. Zasady zawarte w Władcach Ptolemeusza, zgodnie z którymi proste pręty były dostosowane do odczytywania kątów, zostały wykorzystane do produkcji żeglarskiego krzyża, baculus i ich wariantów. Rzeczywiście, nawet niektórzy wybitni astronomowie wykonywali ważne pomiary kątów za pomocą prostych instrumentów, a najwybitniejszymi z nich byli Thomas HARRIOT, Pierre Gassendi i Jeremiah HORROCKS.
Presja intelektualna
Presja intelektualna wywołana przez rewolucję kopernikańską, początkowo zilustrowana ścieżką przebytą przez Tychona Brahego, zachęciła europejskich astronomów do poszukiwania i kwantyfikowania paralaksy gwiazdowej, za pomocą której można by fizycznie zademonstrować ruch Ziemi. Ponadto po 1670 r., a zwłaszcza po Principia NEWTONA z 1687 r., krytyczne pomiary uznano za leżące u podstaw kwantyfikacji układu słonecznego i fizycznego testowania teorii grawitacji. Dlatego do 1680 r. udoskonalenie instrumentów stopniowanych stało się nieustającą troską, szczególnie w Anglii, gdzie rzemieślnicy tacy jak Thomas TOMPION, George GRAHAM i Jesse RAMSDEN nie tylko osiągnęli znaczne zyski finansowe dzięki pionierskim innowacjom, ale także zdobyli stypendia Royal Society i międzynarodowe uznanie akademickie. Kwadrant, który był podstawowym przyrządem do pomiaru kątów w okresie 1575-1790, miał swoje podziały wykreślone na jego ramieniu przy użyciu kanonów geometrii euklidesowej. Promień dowolnego okręgu naturalnie wykreśli sześć łuków 60? w obwodzie tego samego okręgu lub wejdzie 112 razy do kwadrantu. Promień podzielony na dwie części - fizycznie zilustrowany przez kompas belkowy - wykreśla następnie 30?, tak że 60? + 30? daje idealny łuk kwadrantowy. Dalsze bisekcje podzielą kwadrant na przestrzenie 15?, po czym różnorodne geometrycznie "nieczyste" trisekcje i kwinkunkesekcje sprowadzą go do pojedynczych stopni, a następnie do minut. Mikrometr, celownik teleskopowy i zegar Podążając śladem Tycho Brahe'a w konstrukcji bardziej kompaktowych instrumentów o geometrycznie złożonych skalach, XVII- i XVIII-wieczni wytwórcy instrumentów wynaleźli szereg systemów, w których przekątne o różnych kształtach, w połączeniu ze skalami noniuszowymi i mikrometrami, umożliwiały instrumentowi o promieniu 6 lub 7 stóp działanie znacznie dokładniej niż prosty murowany kwadrant o długości 100 stóp. Rzeczywiście, w latach 1640-1670 nastąpił niezwykły wzrost wyrafinowania i dokładności instrumentów stopniowanych stosowanych w obserwatoriach astronomicznych. Duże prywatne obserwatorium Jana Heweliusza, którego instrumenty zostały opisane i zilustrowane w najdrobniejszych szczegółach w jego Machina coelestis (1673), oba zbudowane na tradycji tychońskiej i jednocześnie wpłynęły na Giovanniego Cassiniego w Paryżu i Johna Flamsteeda w Greenwich. Również około 1640 roku, Yorkshireman William GASCOIGNE wynalazł mikrometr i opracował pierwszy działający celownik teleskopowy. Te dwa wynalazki umożliwiły ponad 40-krotny wzrost praktycznego celowania instrumentów astronomicznych poza to, co było możliwe gołym okiem. Wykorzystując starożytne właściwości stycznej do okręgu, które teraz stały się znacznie delikatniejsze dzięki precyzyjnym gwintom śrubowym i odczytowi optycznemu, mikrometr umożliwił pomiar z dokładnością do jednej sekundy łuku. Ani celownik teleskopowy, ani mikrometr nie stały się jednak powszechne, dopóki nie zwrócił na nie uwagi szerszego świata nauki Robert HOOKE w 1667 roku, a Heweliusz używał ich tylko częściowo. Ponadto, gdy wahadło oscylacyjne zostało pomyślnie zaprzęgnięte do poruszającego się mechanizmu zegara przez Christiaana HUYGENSA w 1658 r. i zostało ulepszone przez Hooke'a i Josepha Clementa w opracowaniu "wahadła sekundowego" i wychwytu kotwicznego około 1669 r., nowy precyzyjny zegar nagle stał się głównym samodzielnym przyrządem do pomiaru kątów, dzięki czemu w połączeniu z kwadrantem południka można go było wykorzystać do podziału nieba na godziny, minuty i sekundy rektascensji. KRÓLEWSKIE OBSERWATORIUM W GREENWICH pod dowództwem Johna Flamsteeda, pierwszego astronoma królewskiego, stało się pierwszym miejscem w Europie, w którym te nowe optyczne, mikrometryczne i zegarmistrzowskie techniki pomiaru kątów niebieskich były stosowane systematycznie i ze spektakularnym sukcesem, w latach 1675-1719, chociaż cenną pracę wykonali również Cassini i Jean PICARD w Paryżu oraz Ole Christensen R ØMER w Kopenhadze.
Sprawdzanie krzyżowe
W XVIII wieku projektowanie i użytkowanie stopniowanych instrumentów było zdominowane nie tylko przez stale rosnącą presję na większą dokładność, ale także przez ewolucję sprawdzania krzyżowego i technik wykrywania błędów, dzięki którym zarówno rzemieślnik, jak i astronom mogli kwantyfikować błędy swoich instrumentów. Podstawą tej linii rozwoju był kwadrant o promieniu 8 stóp, który George Graham FRS zbudował dla Edmonda HALLEYA w Greenwich w 1725 roku. Oprócz skali 90?, Graham wyposażył ten instrument w drugą skalę składającą się z 96 równych części, z których całość można było narysować przez "czystą" geometryczną bisekcję: tj. promień = 64 części, a następnie podzielony na 32:16:8:4:2:1, za pomocą kompasów belkowych. Te dwie skale, narysowane w odległości 1 cala od tego samego środka, działały jako wzajemne sprawdzanie krzyżowe, gdy były odczytywane względem odpowiadających im mikrometrów, aby osiągnąć nowy próg dokładności. Następnie, w 1750 roku, John Bird ukończył nowy kwadrant dla Jamesa BRADLEYA, następcy Halleya w Greenwich. 8-stopowy kwadrant Birda miał podobną specyfikację jak Grahama, chociaż jego skala 90? nie zawierała żadnych trisekcji, ponieważ wszystkie jego stopnie i minuty zostały wykreślone z idealnie prostej "skali równych części" za pomocą kompasów belkowych. Dokładność kwadrantu Birda wynosząca 1 sekundę łuku została również osiągnięta dzięki konstrukcji całkowicie mosiężnej, która uniknęła naprężeń bimetalicznych, oraz dzięki zamontowaniu lepszych mikrometrów. To właśnie ten kwadrant umożliwił Bradleyowi wykonanie najdokładniejszych pomiarów kątowych wykonanych do tej pory, podczas gdy porównywalny 6-stopowy kwadrant Birda umożliwił Tobiasowi MAYEROWI z Getyngi skompilowanie pierwszego zestawu tablic księżycowych, które były wystarczająco dokładne, aby określić długość geograficzną na morzu.
Koło
Jednakże w latach 70. XVIII wieku wynalazcy tacy jak Jesse Ramsden oraz John i Edward TROUGHTON, być może zainspirowani opublikowanymi badaniami Michela Ferdinanda d'Alberta d'Ailly, księcia de Chaulnes, zdali sobie sprawę, że instrumenty w pełni okrągłe były jedyną drogą naprzód, jeśli chodzi o osiąganie coraz bardziej krytycznych dokładności, ponieważ koło astronomiczne można było sprawdzać i ponownie sprawdzać za pomocą mikroskopów siatkowych ustawionych na 180?, 90?, 60? i 30? na promieniu w sposób, w jaki nie można było tego zrobić w przypadku kwadrantu. Teodolit 36 Ramsdena dla wczesnego Ordnance Survey z 1787 r. i jego koło o średnicy 5 stóp dla Guiseppe PIAZZI w Palermo na Sycylii w 1789 r. były pierwszymi instrumentami okrągłymi, które wykazały spektakularny przełom w dokładności, na jaki pozwalała konstrukcja w pełni okrągłego koła. Następne okręgi wykonane przez Edwarda Troughtona dla Johna PONDA, Stephena Groombridge'a i innych do 1806 r. wykazały, że pułap kwadrantu wynoszący 1 sekundę łuku można przekroczyć do 0,1 sekundy łuku za pomocą okręgu. Wszystkie te okręgi musiały być skrupulatnie ręcznie skalowane, chociaż w 1766 r. Jesse Ramsden rozpoczął eksperymenty, w których koło o średnicy 36 cali, drobno ząbkowane, napędzane precyzyjnym kołem ślimakowym, mogło "masowo produkować" instrumenty morskie, takie jak sekstanty, które stały się tak niezbędne do określania długości geograficznej przez księżycowców. Jednakże w latach 40. XIX wieku, znacznie zwiększone umiejętności w zakresie obrabiarek w rewolucji przemysłowej pozwoliły Williamowi Simmsowi podzielić za pomocą silnika 6-stopowy krąg tranzytowy, który zaprojektował i uruchomił Królewskie Obserwatorium Astronomiczne George Biddell AIRY w 1850 roku. Po pełnej regulacji krąg tranzytowy Airy′ego, autorstwa Ransome′a i Simmsa, mógł mierzyć kąty południkowe z dokładnością do 0,01 sekundy łuku i miał pozostać w ciągłym codziennym użyciu do 1954 roku. W latach 1680-1850 to brytyjscy rzemieślnicy dokonali większości głównych innowacji w instrumentach stopniowanych, chociaż w 1850 roku firmy George'a Friedricha von Reichenbacha i Traugotta Lebrechta Ertela produkowały znakomite instrumenty na coraz bardziej międzynarodowy rynek. To nadejście fotografii zasadniczo zmieniło tradycyjne zastosowania instrumentów stopniowanych. Ponadto, zwłaszcza po utworzeniu Carte du Ciel w 1887 r., pomiary wykonywane z płyty fotograficznej, a nie przez okular teleskopu, wskazały drogę naprzód, jeśli chodzi o pomiary położenia gwiazd. Projekt fotografii gwiazd "HIPPARCOS" Europejskiej Agencji Kosmicznej obecnie reprezentuje najnowocześniejsze współczesne pomiary kątów, podczas gdy nawet ostatni wielki krąg Królewskiego Obserwatorium w Greenwich, Carlsberg Meridian Circle na La Palma na Wyspach Kanaryjskich, mierzy i rejestruje przejście gwiazd przez południk pod kontrolą komputera.
Gwiazdy podwójne: obserwacje wizualne i obrazowe przez amatorów
Pomiary kąta położenia i separacji w czasie gwiazd podwójnych wizualnych pozwalają obliczyć widoczną orbitę dwóch gwiazd, a zatem całkowitą masę dwóch gwiazd . Nadal jest to jeden z najlepszych sposobów obliczania mas gwiazdowych, ale długi okres wielu układów podwójnych wizualnych (zwykle kilkaset lat) oznacza, że liczba wiarygodnych orbit jest nadal bardzo mała (obecnie około 50). Obserwatorzy amatorzy mają długą i znakomitą historię w annałach obserwacji gwiazd podwójnych. S W Burnham zaczynał od małego refraktora, a później uczynił to pracą swojego życia, pracując dorywczo jako urzędnik w sądzie w Chicago, a w weekendy obserwując w Obserwatorium Yerkesa. Później został profesjonalistą. W Anglii T H E C Espin odkrył kilka tysięcy słabych i szerokich par za pomocą swoich reflektorów, a znaczący wkład wnieśli również W R Dawes (obaj, nawiasem mówiąc, duchowni). Największym amatorem był Francuz Paul Baize, pediatra, który wykonał 24 000 pomiarów i obliczył prawie 500 orbit, zajmując dziesiąte miejsce na liście wszech czasów obserwatorów. Mikrometr filarowy, wynaleziony w latach czterdziestych XVII wieku i nadal używany, jest jednym z wybranych instrumentów dla tych, którzy chcą wykorzystać swoje teleskopy do granic rozdzielczości. Ludzkie oko jest nadal najlepszym detektorem par, które są bliskie lub nierówne, a dobry teleskop 35 cm pozwoli na pomiar par oddalonych od siebie o zaledwie 0,25 sekundy łuku. Innym skutecznym instrumentem jest mikrometr podwójnego obrazu (lub Lyota), który jest prawdopodobnie lepszy niż filar w przypadku małych separacji, ale nie może dorównać zakresowi separacji, z jaką może sobie poradzić filar. Podczas gdy wiele jasnych par ma orbity, które wymagają niewielkiej dalszej regulacji, istnieje duża liczba słabszych par, które wymagają uwagi. Ponadto satelita Hipparcos odkrył tysiące nowych par, z których większość nie została jeszcze obserwowana z Ziemi, a wszystkie muszą zostać obserwowane. Podczas gdy mikrometr filarowy był podstawą tej pracy przez stulecia, pojawienie się kamer CCD (charge-coupled device) oznacza, że istnieje możliwość dla amatorów wyposażonych w małe lub średnie apertury, aby wnieść znaczący wkład. W szczególności istnieje wiele tysięcy słabych par na różnych przeglądach nieba Schmidta, które są całkowicie niezarejestrowane i zmierzone. Używając na przykład 12 w Schmidt-Cassegrain i SBIG CCD, Martin Nicholson, pracujący w Daventry niedaleko Northampton, znalazł wiele nowych par, korzystając z katalogu gwiazd przewodnich. Pary tak bliskie jak 5 sekund łuku i tak słabe jak 15 magnitudo mogą być rutynowo obrazowane za pomocą jego 12 w Meade LX200 i SBIG ST7-E CCD. Redukcja klatek CCD odbywa się przy użyciu pakietu procedur przetwarzania obrazu IRAF. Inną zaletą kamery CCD jest to, że przy użyciu odpowiednich filtrów można jej użyć do określenia kolorów każdego składnika rozdzielonych gwiazd podwójnych. Wiele par w katalogu gwiazd podwójnych Waszyngtonu nie zostało zaobserwowanych fotometrycznie i wiele pozostaje do zrobienia. W dziedzinie obserwacji gwiazd podwójnych współcześni amatorzy mogą zrobić wiele. Mogą nadal monitorować pary o dłuższym okresie i ustalać pomiary na potrzeby przyszłego określania orbit. Strona internetowa United States Naval Observatory wskazuje wszystkie potrzebne dane. Katalog WDS jest tak kompleksowy, jak tylko jego opiekunowie mogą go uczynić (obecnie zawiera ponad 99 000 wpisów), a katalog Sixth Orbital zawiera listę wszystkich orbit uznanych za godne wydrukowania. Jakość każdej orbity została ustalona - stopień 1 jest ostateczny, a stopień 5 jest nieokreślony. Wszelkie pary z orbitami stopnia 2 lub niższym mogłyby być użytecznie obserwowane. Amatorzy z odpowiednio dużą aperturą (30 cm lub większą) mogliby zbadać i zmierzyć nowe gwiazdy podwójne w katalogach Hipparcos lub Tycho. Wszystkie są wymienione w katalogu WDS, który jest dostępny zarówno online, jak i na płycie CD-ROM, którą można bezpłatnie zamówić w USNO. Ponadto moc współczesnych przeglądów Schmidta może być wykorzystana do pomiaru i katalogowania wielu słabych par, które do tej pory były ignorowane. Wreszcie, CCD może być użyte z dużym skutkiem w programie fotometrycznym gwiazd podwójnych. Wiele par ma wielkości przypisane im przez ich odkrywców - zwykle szacunki oka. Niewiele wiadomo o kolorach tych gwiazd lub o tym, ile z nich jest zmiennych. W przypadku gwiazdy podwójnej istnieje wbudowane porównanie dla fotometrii. Osoby zamierzające wnieść poważny wkład muszą zastanowić się, jak opublikować swoje pomiary. Można je przesyłać do czasopism branżowych, takich jak "Astronomy and Astrophysics", ale tę usługę oferują również specjalistyczne grupy amatorskie, takie jak "Webb Society", "Iberoamerican League for Astronomy" (LIADA) i "Société Astronomique de France"
DQ Herculis
Stara NOVA DQ Herculis (Nova Herculis 1934) jest prototypem jej podklasy KATAKLYSMICZNEJ BINARY, wyróżniającej się szybko obracającym się słabym polem magnetycznym BIAŁEGO KARŁA, który akreuje główny element. Momenty magnetyczne w białych karłach DQ Her są na tyle słabe (1032-1034 G cm3), że przepływ AKRECJI dysku Keplera jest rozbijany tylko kilka promieni gwiazdowych nad powierzchnią białego karła. Opad jest nadal na tyle energetyczny, że kolumny akrecyjne (lub kurtyny) emitują znaczące miękkie promieniowanie rentgenowskie/UV. Te wirujące źródła promieniowania oświetlają i fotojonizują powierzchnię dysku jako zamiatającą wiązkę. Następująca po tym rekombinacja elektronów i jonów daje zamiatającą falę emisji Balmera z powierzchni dysku, a to "ponownie przetworzone" promieniowanie można w niektórych geometriach obserwować jako okresowy sygnał fotometryczny. DQ Her jest układem BINARNYM ZACISKUJĄCYM o Porb = 4h39m.. Pod koniec lat 50. układ ten przez wiele lat utrzymywał rekord najkrótszego okresu fotometrycznego w źródle astronomicznym - 71-sekundowy okres wirowania białego karła - którego obserwowana amplituda wynosi około 1%. To, co pozostaje niezwykłe do dziś, to duże nachylenie układu i ≈ 89,5°. Główny element białego karła jest zaćmiony przez DYSK AKRECYJNY od strony krawędzi, a tylko cienki wycinek tylnej powierzchni dysku akrecyjnego przyczynia się do pulsującego promieniowania odbieranego z DQ Her. Zmiany w fazie sygnału 71-sekundowego podczas wejścia i wyjścia zaćmienia - wykryte po raz pierwszy w 1972 r. - doprowadziły do powstania modelu wirującego akretora magnetycznego dla DQ Her i pokrewnych układów. Znaczne zmiany fazy obserwowane poza zaćmieniem wynikają z samozaćmienia dysku nieosiowo symetrycznego i zapewniają sposób na zbadanie uśrednionej w czasie struktury dysku akrecyjnego w stanie wysokim, tj. dysku o wysokiej szybkości transferu masy i wysokiej lepkości.
Zmiany fazy związane z zaćmieniem
Rysunek 1 przedstawia schematycznie, ale w przybliżeniu w skali, układ q = 0,67 oglądany pod kątem nachylenia i = 80°, i pomaga przekazać pochodzenie przesunięć fazowych związanych z zaćmieniem.

Na rysunku wskazano średni kąt otwarcia i promień obszaru ponownego przetwarzania, a czarny klin przedstawia miękką wiązkę promieni rentgenowskich przesuwającą się w kierunku progradowym. Jeśli założymy na razie, że dysk ma stały promień i kąt otwarcia dla wszystkich kątów azymutalnych, to poza zaćmieniem czasy maksimów impulsów występują, gdy wiązka jest wyśrodkowana na tylnej ścianie dysku. Ponieważ obszar ponownego przetwarzania dysku jest zakrywany podczas wejścia zaćmienia, impulsy wydają się przybywać stopniowo wcześniej, ponieważ ostatnia część impulsów jest zaćmiewana przez wtórny, przybywając o jedną czwartą cyklu wcześniej tuż przed całkowitym zaćmieniem obszaru ponownego przetwarzania. Podczas wyjścia sytuacja jest odwrócona: pierwszy impuls przybywa o jedną czwartą cyklu później w stosunku do efemerydy poza zaćmieniem, a impulsy przybywają stopniowo wcześniej, ponieważ obszar ponownego przetwarzania jest odkrywany. Jeśli, jak na rysunku , kąt otwarcia obszaru ponownego przetwarzania był stały, wówczas środek czasu impulsu zawsze odpowiadałby wiązce przechodzącej przez tylny środek dysku, a jedynymi zmianami fazy poza zaćmieniem byłyby te wynikające z opóźnienia czasu podróży światła przez orbitę. Jednak DQ Her wykazuje znacznie większe zmiany w fazie sygnału 71-sekundowego, a muszą one wynikać ze zmian wysokości krawędzi obszaru ponownego przetwarzania.
Uśredniona w czasie struktura dysku
Numeryczne symulacje hydrodynamiczne (wygładzona hydrodynamika cząstek, SPH) trójwymiarowego dysku w stanie równowagi dają oszacowanie promieniowego zasięgu obszaru ponownego przetwarzania i wszelkiej zależności wysokości krawędzi obszaru jako funkcji kąta azymutalnego. Rysunek

przedstawia widok z góry (projekcja x-y) 20 000 cząstek symulowanych SPH, środek masy, powierzchnie gwiazd, orbitę z Porb = 71 s, promieniowy zasięg obszaru ponownego przetwarzania oraz kąt otwarcia dysku w stosunku do wyników kąta azymutalnego. Pokazano również kąty widzenia na początku (końcu) wejścia (wyjścia) zaćmienia. Są one zgodne z rozmiarem obszaru ponownego przetwarzania określonym przez znalezienie punktu przegięcia dysku, poza którym elementy powierzchni są zaćmiewane od głównego przez materiał dysku pośredniczącego. Obszar ponownego przetwarzania okazuje się być niemal okrągły, co upraszcza analizę do modelowania cylindra o nierównomiernej wysokości. Gruba linia ciągła na rysunku pokazuje kąt otwarcia obszaru ponownego przetwarzania (wysokość cylindra) jako funkcję kąta azymutalnego. Na tym rysunku jest kilka cech godnych uwagi. Po pierwsze, większość masy - widoczna na podstawie gęstości powierzchniowej punktów - płynie w niekołowych zewnętrznych liniach prądu w dysku. Jest to prawdopodobnie ogólny wynik dla dysku w stałym stanie wysokim. Po drugie, i również prawdopodobnie ogólny wynik, obszar ponownego przetwarzania jest prawie okrągły o promieniu mniej więcej równym połowie całkowitego promienia dysku. Kąt otwarcia obszaru ponownego przetwarzania jest największy w kwadrantach, w których promień dysku jest najmniejszy i odwrotnie. Wynik ten jest konsekwencją wymogu, aby kątowy strumień masy był stały dla wszystkich kątów azymutalnych w dysku równowagowym. Podwójnie sinusoidalny kształt krawędzi obszaru ponownego przetwarzania będzie miał wpływ na obserwowaną fazę impulsu wytwarzanego przez przesuwającą wiązkę promieniowania jonizującego.
Diagram O-C
Diagram fazowy O-C obserwowanego sygnału 71-sekundowego uśrednionego na kilku orbitach uzyskano przez dopasowanie 3-cyklicznej krzywej sinusoidalnej w oknie, które przesuwa się o jeden cykl między dopasowaniami. Modelując obszar ponownego przetwarzania jako cylinder o zmiennej wysokości z geometrią ustaloną w obracającej się współbieżnie ramie i określoną przez uśrednienie w czasie wyników hydrodynamicznyc, można obliczyć oczekiwany diagram fazowy O-C przez całkowanie po widocznej powierzchni tylnej ściany cylindra. Wyniki obserwacyjne i numeryczne pokazano na rysunku 3 - zgodność jest niezwykła. Najlepsze dopasowanie występuje dla zaskakująco małego zakresu 89,5° ≤ ? i ? 89,7°. Należy zauważyć, że jeśli średni kąt otwarcia θ podany przez symulacje numeryczne jest niefizycznie duży, wówczas szacunki nachylenia układu musiałyby być jeszcze bliższe 90°
Spektroskopia
Obserwacje widmowe szeregów czasowych z Teleskopu Kosmicznego Hubble′a kontinuum Vis/UV i linii emisyjnych pokazują, że podczas gdy źródło kontinuum UV jest całkowicie zaćmione, a obszar emisji He II prawie, zaćmienia N V i Si IV są głębokie, ale niepełne, a linie C IV wykazują spadek tylko o 75%. Jako źródło linii emisyjnych sugerowano wiatry gwiazdowe, ale zachowanie jest również po prostu zgodne z geometrią na rysunku , jeśli zewnętrzny dysk jest źródłem optycznie cienkiej emisji. Rysunek pokazuje, że podczas gdy obszar ponownego przetwarzania jest całkowicie zaćmiony, zewnętrzny dysk nie. Ogólny model dla DQHerculis jest teraz w miarę dobrze znany, ale do pełnego zrozumienia tego unikalnego systemu potrzebne są dodatkowe obserwacje i symulacje.
Pyłowe dyski okołogwiazdowe
Czym są dyski okołogwiazdowe (CS) i dlaczego powinniśmy się nimi interesować? Dyski występują w wielu skalach w astronomii - od GALAKTYK SPIRALNYCH po ING PLANETARNE. W niniejszym artykule zajmujemy się pierścieniami lub dyskami, które zawierają materiał cząsteczkowy i które krążą wokół gwiazd na różnych etapach ich cyklu życia. W przypadku gwiazd ciągu głównego, takich jak Słońce, głównym zainteresowaniem takimi dyskami jest to, że mogą być związane z powstawaniem i/lub istnieniem PLANETY i mniejszych obiektów, takich jak KOMETY i ASTEROIDY. Po tym, jak gwiazdy wyewoluowały poza ciąg główny, dyski krążące wokół nich są rzadkie i często zwiastują niezwykłe, nieoczekiwane i wciąż niewyjaśnione zjawiska. Odkrycie pyłowych dysków CS wokół gwiazd było prawdopodobnie najbardziej znaczącym osiągnięciem INFRARED ASTRONOMY SATELLITE (IRAS), który poleciał w 1983 roku. IRAS, wspólne przedsięwzięcie Stanów Zjednoczonych, Holandii i Wielkiej Brytanii, odkryło, że niektóre jasne pobliskie gwiazdy, w tym VEGA i
FOMALHAUT, emitują znacznie więcej promieniowania o długościach fal od 25 do 100 μm, niż mogą wytworzyć wyłącznie fotosfery gwiazd. Rozkład widmowy energii tego nadmiaru promieniowania podczerwonego (IR) jest ogólnie zgodny z modelami, w których emisja powstaje z cząstek pyłu w dyskach okołogwiazdowych, których charakterystyczne promienie wynoszą kilkadziesiąt lub setki jednostek astronomicznych (AU). Te ziarna pochłaniają światło optyczne i ultrafioletowe z gwiazdy centralnej, a następnie wypromieniowują tę energię w podczerwieni. Takie gwiazdy zostały nazwane "podobnymi do Wegi". W przypadku większości gwiazd cząstki emitują najsilniej na długościach fal od 25 do 200 μm, które są trudne lub niemożliwe do zbadania z ziemi. Tak więc postęp obserwacji był powolny w latach od lotu IRAS. Rzeczywiście, przez około 15 lat, z wyjątkiem jednej gwiazdy (? PICTORIS), nikt nie był w stanie zobrazować rozkładu cząstek pyłu wokół gwiazd podobnych do Wegi. Ostatnio nastąpiły znaczące przełomy obserwacyjne. Z ziemi,
za pomocą bardzo czułych detektorów na dużych teleskopach, w końcu uzyskano obrazy dysków krążących wokół kilku gwiazd podobnych do Wegi (w tym samej Wegi). Obserwacje te dotyczyły emisji cieplnej z ziaren na długościach fal IR od 10 do 25 μm, a także na znacznie dłuższych długościach fal w paśmie radiowym w pobliżu 1 milimetra. Ponadto kamera NICMOS na Teleskopie Kosmicznym Hubble′a (HST) uchwyciła obraz promieniowania 1-2 μm rozproszonego przez ziarna krążące w dyskach i pierścieniach wokół kilku gwiazd. Chociaż większość wykrytego materiału w większości dysków składa się z małych cząstek, w przypadku kilku gwiazd zaobserwowano również skromne ilości gazu. Jeśli ktoś interesuje się powstawaniem komet, asteroid i planet, cząstki pyłu, które składają się na dyski, są istotne dla wszystkich. Z drugiej strony, głównym znaczeniem gazu jest powstawanie olbrzymich planet gazowych, takich jak Jowisz i Saturn. Niniejszy artykuł jest ustrukturyzowany zgodnie z linią EWOLUCJI GWIAZD. Podejmujemy historię około 10 milionów lat po powstaniu gwiazdy na ostatnich etapach ewolucji przed główną sekwencją. Jest to czas, w którym masywne dyski otaczające wiele GWIAZD TAURI uległy, ogólnie rzecz biorąc, rozproszeniu i pozostało tylko stosunkowo niewiele gazu i pyłu. Formowanie się większych ciał - "PLANETEZYMAŁY" i planety - jest albo w zaawansowanym stadium, albo w ogóle nie nastąpi. Następnie rozważymy dyski wokół gwiazd ciągu głównego. Są to albo pozostałości procesu formowania się gwiazd, albo szczątki powstałe w wyniku zniszczenia większych obiektów, takich jak komety lub asteroidy. Dowody na istnienie pyłowych szczątków dawnych komet można dostrzec w naszym własnym układzie planetarnym w lodowatości orbity Ziemi. Na koniec rozważymy gwiazdy w stadiach ewolucji po ciągu głównym - CZERWONE OLBRZYMY i BIAŁE KARŁY. Co zaskakujące, niewielki procent takich gwiazd wydaje się być otoczony krążącymi pyłowymi dyskami. Pochodzenie większości tych dysków jest tajemnicą, której ostateczne zrozumienie niewątpliwie ujawni pewne interesujące i ważne zjawiska astronomiczne. Kończymy krótką dyskusją na temat niektórych właściwości obłoków pyłu okołogwiazdowego, w szczególności tego, jak można oszacować ich masy na podstawie zmierzonych strumieni przy długościach fal submilimetrowych.
Ewolucja gwiazd i ich dysków okołogwiazdowych
Ewolucja przed ciągiem głównym
Kiedy powstają gwiazdy o średniej masie, są one często otoczone masywnymi dyskami pyłu i gazu, które astronomowie mogą wykryć za pomocą silnej emisji pyłu w podczerwieni i emisji radiowej z cząsteczek tlenku węgla . Po kilku milionach lat małe cząsteczki w dysku, które są odpowiedzialne za emisję w podczerwieni, zaczynają zanikać, albo dlatego, że się zlepiają, albo dlatego, że są tracone z układu. Skalę czasową utraty małych cząsteczek można określić, mierząc ilość materiału jako funkcję wieku młodych obiektów gwiezdnych. Chcemy wiedzieć, ile czasu zajmuje zniknięcie cząsteczek pyłu, ponieważ ogranicza to czas potrzebny do utworzenia planetozymali, tj. ciał wyglądających jak współczesne komety i asteroidy. Chcemy wiedzieć, ile czasu zajmuje rozproszenie się gazu, ponieważ określi to górną granicę czasu dostępnego na utworzenie gazowych planet olbrzymów. Początkowo odkryto, że młode gwiazdy leżą w lub w pobliżu zakurzonych, międzygwiazdowych obłoków molekularnych. Gwiazdy te mają zazwyczaj mniej niż kilka milionów lat, często mniej niż milion lat. Są to gwiazdy T Tauri o masie około masy Słońca lub nieco mniejszej oraz gwiazdy Herbig Ae, które są kilka razy masywniejsze od Słońca i które ewoluują w gwiazdy ciągu głównego typu A, takie jak Vega i Fomalhaut. Znalezienie nieco starszych gwiazd T Tauri, powiedzmy w zakresie 10-20 milionów lat, nie było łatwe, ponieważ takie gwiazdy trudno zidentyfikować za pomocą technik podczerwonych i optycznych. Ostatnio przeglądy całego nieba emisji promieniowania rentgenowskiego, zwłaszcza z udziałem niemieckiego satelity ROSAT, umożliwiły wykrycie wielu gwiazd, które wydają się być starymi gwiazdami T Tauri. Takie gwiazdy można odkryć, ponieważ emitują promieniowanie rentgenowskie silniej niż starsze gwiazdy ciągu głównego. Satelita ROSAT nie tylko umożliwił wykrycie niektórych starych gwiazd T Tauri w regionach otaczających różne zakurzone obłoki molekularne, ale także umożliwił wyraźne rozpoznanie najbliższego regionu niedawnego formowania się gwiazd - Asocjacji TW Hydrae - nazwanej na cześć jej pierwszego znanego członka, klasycznej gwiazdy T Tauri, TW Hya. Połączenie danych ROSAT, pomiarów obfitości litu ze widm optycznych i określeń odległości za pomocą satelity Hipparcos wskazuje, że Asocjacja TW Hya ma około 10 milionów lat i jest oddalona od Ziemi o zaledwie około 50 pc. Jest to ponad dwa razy bliżej Ziemi niż jakikolwiek inny znany region znaczącego formowania się gwiazd. Jest niezwykłe, że ta najbliższa Asocjacja T Tauri pozostawała nierozpoznana przez tak długi czas. Głównym powodem jest to, że masywny obłok molekularny, z którego powstały gwiazdy Asocjacji, rozproszył się; jedynymi obłokami, które pozostały w pobliżu, są te, które krążą wokół gwiazd, tj. dyski CS. Ze względu na bliskość Ziemi dyski wokół gwiazd Asocjacji TW Hya można badać ze szczególną dokładnością. Jednym z najciekawszych członków stowarzyszenia jest gwiazda typu A, HR 4796. Początkowo IRAS odkrył, że około 0,5% całkowitej energii z HR 4796 jest emitowane na falach podczerwonych - HR 4796 jest najbardziej zakurzoną gwiazdą typu A w katalogu Bright Star Catalog. (BSC wymienia różne właściwości prawie 10 000 najjaśniejszych gwiazd na niebie, z których większość jest wystarczająco jasna, aby można ją było zobaczyć gołym okiem). Dla porównania, inne stosunkowo zakurzone gwiazdy typu A, takie jak Vega i Fomalhaut, emitują 100 razy mniejszy procent swojej całkowitej energii na falach podczerwonych. Niedawno emisja termiczna o długości 10-20 μm z pyłu ogrzanego przez HR 4796 została sfotografowana za pomocą teleskopów na Hawajach i w Chile. Mniej więcej w tym samym czasie uzyskano obraz wąskiego pierścienia cząstek pyłu, które rozpraszają światło na długości fali 1,1 μm za pomocą kamery NICMOS na HST. Stabilne utrzymanie cząstek pierścienia i nagłe wewnętrzne i zewnętrzne ścięcie pierścienia wokół tej stosunkowo młodej gwiazdy oznacza ograniczenia dynamiczne narzucone przez jedno lub więcej powiązanych, ale jeszcze niewidocznych ciał. To, w jaki sposób takie ciała, prawdopodobnie planety, mogły powstać tak szybko w tak dużej odległości od gwiazdy, stanowi interesujące wyzwanie dla tych, którzy modelują powstawanie planet. Inną gwiazdą typu A sfotografowaną przez NICMOS jest HD 141569. Ta gwiazda nie jest członkiem TW Hya Association, ale została wybrana do obrazowania NICMOS, ponieważ ma wokół siebie dużo pyłu - około 1% jej energii jest emitowane w podczerwieni - a także otaczający gaz cząsteczkowy. Masa zawarta w cząsteczkach wodoru krążących wokół HD 141569 wynosi około 10 mas Ziemi lub więcej. (Nie zaobserwowano żadnego gazu w pobliżu HR 4796.) Potencjalnie bardzo ekscytującym aspektem obrazu NICMOS/HST HD 141569 jest widoczna przerwa między wewnętrznymi i zewnętrznymi obszarami pyłowymi. Takiej przerwy można by się spodziewać, gdyby tam powstawała duża planeta. Wokół HD 141569 krąży gwiazda towarzysząca, być może nawet dwie gwiazdy towarzyszące, oddalone o kilka średnic dysku, które również mogłyby wpływać na dynamikę dysku pyłowego. Najjaśniejsza emisja cząsteczkowa widoczna w gwieździe w wieku około 10 milionów lat pochodzi z samej TW Hya . Przyszłe obserwacje tych cząsteczek (i innych, które dopiero mają zostać wykryte) za pomocą czułych interferometrów, które działają na falach milimetrowych, obiecują pomóc nam lepiej zrozumieć warunki chemiczne w potencjalnym dysku protoplanetarnym. Interferometry mogą ujawnić zmiany w chemii jako funkcję odległości od TW Hya. Takie dane chemiczne mogą być pomocne dla naukowców zajmujących się planetami, którzy próbują zrozumieć chemię naszego własnego układu planetarnego, który powstaje 10 milionów lat po powstaniu Słońca. Chemia dysków otaczających inne gwiazdy T Tauri może być również badana za pomocą przyszłych interferometrów, ale TW Hya powinna pozostać wyjątkowa, ponieważ jest najbliższą klasyczną gwiazdą T Tauri, więc w jej dysku CS można rozróżnić drobniejsze szczegóły, a także dlatego, że jest najstarszą znaną gwiazdą T Tauri, która nadal zachowuje znaczne ilości otaczającego gazu molekularnego. Ciąg główny bliżej Ziemi niż stowarzyszenie TW Hya jest najlepiej zbadaną ze wszystkich gwiazd podobnych do Wegi - β Pictoris, gwiazda widoczna gołym okiem, znajdująca się na półkuli południowej. Wiek tej gwiazdy typu A jest niepewny; na podstawie jej położenia na diagramie HERTZSPRUNG-RUSSELL, może mieć zaledwie około 10 milionów lat i dopiero co trafić na ciąg główny, ale może mieć nawet 100 milionów lat. Ten zakres prawdopodobnych wieków jest znacznie zawężony, jeśli β Pic powstała mniej więcej w tym samym czasie co dwie gwiazdy o małej masie (typu M) GL 799 i GL 803; ponieważ te trzy gwiazdy wydają się wspólnie poruszać w przestrzeni, prawdopodobnie powstały razem. Szacunkowy wiek dwóch gwiazd typu M wynosi 20 ± 10 milionów lat. Dodatkowym dowodem na poparcie tego młodego wieku jest fakt, że ? Pic jest drugą najbardziej zakurzoną gwiazdą typu A w katalogu Bright Star Catalog i wydaje się jasne, że ilość pyłu wokół gwiazd zmniejsza się wraz z wiekiem (patrz poniżej). Prawidłowa interpretacja różnych zjawisk obserwowanych przy ? Pic w kontekście powstawania układów planetarnych zależy od jej wieku. Dysk wokół ? Pic został sfotografowany przy długości fali 9000 ? kamerą z optyką koronograficzną w ciągu roku po tym, jak IRAS odkrył dużą ilość nadmiernej emisji podczerwieni. Obraz ujawnił, że Ziemia leży bardzo blisko płaszczyzny dysku β Pic, który rozciąga się na wiele setek AU od gwiazdy. Początkowe badania koronograficzne i wiele późniejszych w zakresie optycznym i podczerwonym z ziemi i z HST ujawniły wiele interesujących aspektów środowiska ? Pic. Na przykład, gęstość pyłu zmniejsza się w promieniu kilkudziesięciu AU od gwiazdy w porównaniu z obfitością pyłu dalej wzdłuż dysku. Może to być spowodowane formowaniem się planety, ale może to być również spowodowane zniszczeniem lub wyrzuceniem pyłu. Widma optyczne zjonizowanych linii wapnia wykazują zmienne w czasie składniki. Interpretowano je jako spowodowane obiektami przypominającymi komety spadającymi na β Pic, czasami nawet kilka razy w tygodniu. Niewielkie masy cząsteczek tlenku węgla (CO) i neutralnych atomów węgla wykryto w ultrafioletowym widmie ? Pic za pomocą HST. Sugeruje się, że te gazowe gatunki powstają w wyniku parowania ciał przypominających komety w odległości do ∿100 AU od β Pic. Pomimo głębokich poszukiwań radioastronomowie nie byli jeszcze w stanie wykryć CO w pobliżu β Pic. Dokładne obrazy optyczne dysku interpretowano początkowo jako pokazujące wypaczenie, ale ostatnie koronograficzne obrazy uzyskane za pomocą HST sugerują, że widoczne wypaczenie może być raczej superpozycją dwóch dyskopodobnych składników nachylonych względem siebie o 4°. Taka struktura może być wytworzona przez wpływ grawitacyjny olbrzymiej planety na orbicie wokół β Pic. Wreszcie, obrazy uzyskane przy długości fali 850 μm pokazują nieoczekiwaną obecność szczytu emisji przesuniętego od ? Pic o około 34 sekundy łuku na południowy zachód . Nie wiadomo, czy ta emisja jest związana z gwiazdą, czy też jest to zupełnie niezwiązana galaktyka tła, znajdująca się w pobliżu krawędzi obserwowalnego wszechświata! Jeśli emisja jest związana z β Pic, to znajduje się ona w odległości około 650 AU od gwiazdy. Musi być spowodowana ciepłymi ziarnami pyłu, ponieważ gwiazdy towarzyszące i planety promieniowałyby zbyt słabo na 850 μm, aby można je było wykryć z Ziemi. Pył nie może być związany z gwiazdą towarzyszącą, ponieważ taką gwiazdę można by łatwo zobaczyć w podczerwieni. Być może w pyle znajduje się brązowy karzeł lub planeta olbrzym? Ale jeśli tak, to chyba że β Pic jest dość młoda, trudno zrozumieć, w jaki sposób tak dużo pyłu mogło być zatrzymywane przez tak długi czas w pobliżu towarzysza. Być może istnieje asymetryczny pierścień otaczający β Pic daleko poza wewnętrznym, wcześniej znanym dyskiem. Ale jeśli tak, to w jaki sposób zewnętrzny pierścień stał się tak asymetryczny, skoro na południowym zachodzie jest tyle pyłu, a na północnym wschodzie tak mało? Obserwacje przeprowadzone w 2001 roku przez New Technology Telescope Europejskiego Obserwatorium Południowego ujawniły pyłowe dyski otaczające brązowe karły w Mgławicy Oriona, co sugeruje, że są one bardziej gwiazdopodobne niż planetarne i mają potencjał do tworzenia towarzyszących im układów planetarnych. Odkrycie to opiera się na szczegółowych obserwacjach za pomocą SOFI, specjalistycznego instrumentu wrażliwego na podczerwień na 3,5-metrowym New Technology Telescope (NTT) Europejskiego Obserwatorium Południowego (ESO) w Obserwatorium La Silla. Przechodząc do starszych gwiazd, 850 ?m obrazy trzech z nich są przedstawione na rysunku 3. Vega i Fomalhaut to pobliskie gwiazdy typu A, podczas gdy ε Eri (typ K) jest jeszcze bliżej, ale ma masę tylko nieznacznie mniejszą od masy naszego Słońca. Te gwiazdy wybrano do obrazowania, ponieważ należą do najsilniejszych emiterów nadmiarowego promieniowania podczerwonego wykrytych przez IRAS. Najłatwiejszy do zinterpretowania jest Fomalhaut, który jest zgodny z pierścieniem materiału znajdującym się około 80 AU od gwiazdy. Podobnie jak w przypadku β Pic, widzimy Fomalhaut mniej więcej w płaszczyźnie jego dysku pyłowego. Pył w ε Eri jest również rozłożony w sposób przypominający pierścień, ale tutaj widzimy dysk twarzą do przodu; to znaczy, że pył krąży wokół gwiazdy w odległości około 60 AU i prawie w płaszczyźnie nieba. Oczywistą interpretacją pierścieni pyłowych w ε Eri i Fomalhaut jest to, że widzimy analogi tak zwanego PASA KUIPERA komet, które krążą wokół Słońca tuż poza orbitami Plutona i Neptuna. W przypadku ε Eri i Fomalhaut nie widzimy komet bezpośrednio, ale raczej cząstki pyłu wielkości milimetra, które powstają w wyniku (częściowego) zniszczenia komet, prawdopodobnie znacznie więcej niż w pasie Kuipera. Biorąc pod uwagę, że wiek ε Eri i Fomalhaut szacuje się na rząd kilku 100 milionów lat, możemy spekulować, że widzimy struktury, które są teraz dość podobne do tego, jak musiał wyglądać nasz pas Kuipera miliardy lat temu. Obszary stosunkowo niskiej emisji 850 μm wewnątrz pierścieni pyłowych w ε Eri i Fomalhaut mogą być spowodowane formowaniem się planet. W przypadku Fomalhaut innym możliwym wyjaśnieniem centralnej jamy może być sublimacja lodowych cząstek pyłu w czasie życia dysku. Jednak takie wyjaśnienie nie wyjaśni obszaru stosunkowo niskiej obfitości pyłu w pobliżu ? Eri, ponieważ gwiazda jest niewystarczająco jasna, aby odparować lodowe ziarna. Obraz ε Eri ma zaskakującą cechę - szczyt emisji w pierścieniu na wschód i lekko na południe od gwiazdy. Zakładając, że jest to rzeczywista nierównomierność w strukturze pierścienia, nie jest to łatwe do wyjaśnienia. Być może planeta lub "kosmiczne zderzenie" może wytworzyć strukturę w rozkładzie cząstek pyłu. Na koniec, Wega przedstawia kolejną tajemnicę. Szczyt emisji 850 μm wydaje się leżeć po jednej stronie gwiazdy. Podobnie jak w przypadku β Pic, jest możliwe, choć mało prawdopodobne, że szczyt μmisji jest spowodowany odległą galaktyką tła. Ale jeśli szczyt w emisji 850 μm jest spowodowany pyłem na orbicie wokół Wegi, to, podobnie jak w przypadku ε Eri i β Pic, nie rozumiemy przyczyny emisji. W szczególności, ponieważ Wega ma prawdopodobnie co najmniej 300 milionów lat, wydaje się mało prawdopodobne, aby pył mógł być utrzymywany na orbicie wokół towarzysza podgwiazdowego przez tak długi czas. Wega i Fomalhaut z prawdopodobnym wiekiem setek milionów lat są mniej zapylone niż HR 4796 i β Pic, których wiek wynosi od dziesięciu do dziesiątek milionów lat. Bardziej ogólnie, obserwacje dalekiej podczerwieni gwiazd ciągu głównego w pobliskich młodych gromadach i w polu wskazują, że wraz ze starzeniem się gwiazd, średnio coraz mniej pyłu jest zatrzymywane w ich pobliżu. A w przypadku gwiazd starszych niż około 20 milionów lat istnieje niewiele dowodów na obecność krążącego gazu. Najprawdopodobniej zatem przewaga gazu i pyłu widoczna w dyskach CS wokół wszystkich, oprócz najmłodszych gwiazd ciągu głównego, jest produktem zniszczenia komet, podobnie jak składnik pyłu ŚWIATŁA ZODIAKALNEGO widocznego w wewnętrznych częściach naszego układu słonecznego jest produktem szczątków komet.
Pierwsze gwiazdy olbrzymy
Materię cząsteczkową w dyskach CS wokół gwiazd ciągu głównego można sobie wyobrazić jako naturalną konsekwencję procesu formowania się gwiazd - pozostałą materię, która nie została włączona do dużych obiektów lub, alternatywnie, cząstki wytworzone przez (częściowe) zniszczenie dużych obiektów. W obu przypadkach, w momencie, gdy gwiazda o średniej masie ewoluuje z ciągu głównego, można się spodziewać, że pozostanie bardzo mało pyłu. Tak więc odkrycie przez IRAS dość dużych ilości pyłu w pobliżu małego, ale nie nieistotnego procentu zwykłych pierwszych gwiazd olbrzymów typu G i K było sporym zaskoczeniem. Zaproponowano trzy modele, aby wyjaśnić obecność znacznej ilości pyłu w pobliżu tych gwiazd olbrzymów: (1) wyrzut masy; (2) zniszczenie komet i materii cząsteczkowej w regionie podobnym do pasa Kuipera, gdy gwiazda centralna zwiększa swoją jasność, opuszczając ciąg główny; i (3) nagrzewanie się pyłu przez gwiazdy w przypadkowych międzygwiazdowych obłokach, które przypadkowo znajdują się w pobliżu niektórych olbrzymów typu G i K. Żaden z tych modeli nie może być łatwo pogodzony ze wszystkimi istniejącymi danymi. Tak więc w tej chwili nie rozumiemy pochodzenia i natury pyłu w pobliżu gwiazd olbrzymów typu G i K. Ponadto nigdy nie wykryto gazu w żadnym z tych pyłowych układów.
Asymptotyczne i postasymptotyczne gwiazdy olbrzymy gałęzi
Teleskopy kosmiczne wykryły silną emisję w średniej i dalekiej podczerwieni z jasnych, czerwonych olbrzymów z fotosferami bogatymi w węgiel lub tlen. W większości przypadków emisja w podczerwieni jest wytwarzana przez ziarna pyłu wciągane przez wiatry odpływowe, tj. nie w dysku CS. Jednak stwierdzono, że kilka z tych jasnych w podczerwieni gwiazd ewoluujących posiada osobliwe cechy różnego rodzaju. Na przykład garść gwiazd z fotosferami bogatymi w węgiel ogrzewa pobliskie, skojarzone ziarna pyłu krzemianowego, które powstały w środowisku bogatym w tlen. Gdy mierzona jest w takich gwiazdach, szerokość linii rotacyjnych CO wynosi zwykle tylko jeden lub dwa km s-1 i jest znacznie węższa niż linie charakterystyczne dla wiatrów odpływowych. Oznacza to, że wąskie szerokości linii wskazują na prędkości charakterystyczne dla ruchu orbitalnego gazu wielu setek U z gwiazd, a nie na gaz uciekający z powierzchni gwiazdy. Prawdopodobny, ale jeszcze nieudowodniony model dla większości tych gwiazd o nietypowym widmie podczerwieni i/lub CO jest następujący. Główna, olbrzymia gwiazda jest członkiem układu podwójnego. Kiedy główna gwiazda wyrzuca duże ilości masy, będąc na asymptotycznej gałęzi olbrzymów, pole grawitacyjne gwiazdy wtórnej odchyla część tego wypływającego materiału do dysku okołopodwójnego o średnicy ∿1000 AU, który jest grawitacyjnie związany z dwiema gwiazdami. Gwiazda towarzysząca niezbędna w tym scenariuszu została już wykryta w pobliżu niektórych, ale nie wszystkich, niezwykłych gwiazd olbrzymów. Przynajmniej kilka dysków wykazuje dowody na dużą skalę grudek, których natura nie jest obecnie znana.
Białe karły
Zapylony dysk CS na orbicie wokół białego karła można wykryć jako nadmierną emisję IR. W tej chwili, pomimo poszukiwań setek białych karłów, wiemy tylko o jednym, G29-38, który jest otoczony ziarnami pyłu - emitują one silnie fale o długości od 2 do 20 μm. Pochodzenie pyłu jest tajemnicą. Być może G29-38 jest osadzony w umiarkowanie gęstym obłoku międzygwiazdowym, a pył z obłoku został grawitacyjnie wciągnięty do dysku krążącego wokół gwiazdy. Albo może doszło do jakiejś kosmicznej katastrofy w pobliżu G29-38, powiedzmy zderzenia dwóch umiarkowanie masywnych obiektów, które je częściowo roztrzaskały. Albo może G29-38 ściąga materiał z pobliskiego, ale niewidocznego towarzysza. Albo może jedna z wielu innych egzotycznych hipotez.
Właściwości pyłu okołogwiazdowego
Astronomowie poświęcili wiele wysiłku, aby zrozumieć charakterystykę promieniowania małych cząstek pyłu. Wczesne prace dotyczyły ziaren w obłokach międzygwiazdowych - takie cząstki mają zazwyczaj wymiary submikronowe. Obserwowane dyski CS mają większą gęstość niż obłoki międzygwiazdowe, a większe cząstki są obecne, albo z powodu sklejania się małych cząstek, albo z powodu zniszczenia większych ciał. Być może najbardziej interesującymi astrofizycznymi aspektami pyłu CS przy danej gwieździe są jego całkowita masa i rozkład przestrzenny. Obrazy, takie jak rysunek 3, dają obraz w dużej skali, ale ponieważ pył jest podgrzewany przez gwiazdę centralną, widoczność pyłu zależy od jego temperatury, jak również od jego położenia przestrzennego. Na przykład ostre odcięcie w emisji 850 ?m poza jasnymi "plamami" widocznymi na północ i południe od Fomalhaut wynika częściowo ze zmniejszającej się temperatury pyłu, jak również gęstości pyłu. W danej odległości od gwiazdy temperatura cząstki pyłu zależy od jej rozmiaru w stosunku do długości fali szczytu jej termicznej emisji w podczerwieni. Jeśli cząstka jest mała w stosunku do długości fali jej szczytowej emisji IR, to taka cząstka będzie promieniować nieefektywnie, a jej temperatura wzrośnie powyżej temperatury, jaką miałaby duża cząstka w tym samym miejscu. W pobliżu tego szczytu emisji, zarówno dla dużych, jak i małych cząstek, ilość emisji zależy wrażliwie od temperatury pyłu ze względu na wykładnik w mianowniku funkcji Plancka. Tak więc pojawienie się emisji pyłu przy danej długości fali wynika ze splotu masy pyłu i temperatury. Aby wyprowadzić masę pyłu, najlepiej jest użyć danych submilimetrowych (jak na rysunku 3), ponieważ:
(1) znajdujemy się na części Rayleigha-Jeansa krzywej Plancka, więc intensywność jest tylko liniowo proporcjonalna do temperatury pyłu;
(2) głębokości optyczne są małe, więc jesteśmy wrażliwi na całą masę; i
(3) możemy zobaczyć cały pył, gorący i zimny, duży i mały, przynajmniej do pewnego punktu.
Cząstki, które są znacznie większe niż badana długość fali, mają stosunkowo niski stosunek powierzchni do objętości, a nieprzezroczystość na gram materiału maleje. Dlatego w przypadku pomiarów, powiedzmy, przy długości fali jednego milimetra, "ziarna pyłu" większe niż około 1 cm w niewielkim stopniu przyczyniają się do emisji w porównaniu z mniejszymi cząstkami, nawet jeśli większość masy znajduje się w większych. Stąd strumienie submilimetrowe mogą zapewnić jedynie dolne granice masy na orbicie wokół gwiazd - takie obserwacje nie ujawnią obecności dużych obiektów, takich jak komety, asteroidy i planety, przynajmniej nie bezpośrednio. Istnienie takich ciał można wywnioskować pośrednio, jeśli uda się wykazać, że wykryty pył jest wynikiem rozpadu większych obiektów. Prawdopodobnie dotyczy to gwiazd tak starych jak Vega i Fomalhaut. W przypadku młodszych gwiazd, takich jak ? Pic lub gwiazd przedciągu głównego omówionych powyżej, nadal nie wiemy, czy wykryty pył jest pozostałością po procesie formowania się gwiazd, czy też jest pozostałością po rozpadzie większych obiektów lub jakąś kombinacją obu tych zjawisk. Jako przykład ilustrujący tę kwestię rozważmy strumień submilimetrowy (F?) mierzony na Ziemi, emitowany przez optycznie cienki obłok lub dysk znajdujący się w odległości R od nas.
Fv= πBv4πa2QvngrV/4πR2 (1)
Tutaj πBv jest emisją powierzchniową pojedynczego ziarna na jednostkę powierzchni, 4πa2 jest powierzchnią emisji ziarna o promieniu a, ngr jest liczbą ziaren na jednostkę objętości, a V jest całkowitą objętością chmury. Q? jest wydajnością, z jaką ziarna pochłaniają i emitują fale o częstotliwości ?. Całkowitą masę (M) pyłu w dysku można zapisać
M = ρN4πa3/3
(2)
gdzie N jest całkowitą liczbą ziaren w chmurze, a ρ jest gęstością typowego ziarna. Połączenie równań (1) i (2) daje
M= FvR2/Bvkv
(3)
Przy długościach fal submilimetrowych, gdzie hv << kT, funkcję Plancka, B, można zapisać po prostu jako 2kT/?2. Zatem obliczona masa ziarna nie jest wrażliwa na temperaturę ziarna (która często nie jest dobrze określona). W równaniu (3) k? jest nieprzezroczystością, czyli przekrojem czynnym absorpcji na gram materiału przy częstotliwości ?. W przypadku typowych materiałów ziarnistych przekrój czynny absorpcji może być znacznie mniejszy niż całkowity przekrój czynny wygaszenia - to znaczy, że ziarna często mają duże albedo przy długościach fal bliskich milimetrowi. Nieprzezroczystość można zapisać jako
kv = (πa2Qv)/(4πa3ρ/3) = 3Qv/4aρ
Jest to absorpcja na jednostkę masy pyłu, której jednostki są zwykle podawane w literaturze jako cm2 g-1. Czasami nieprzezroczystość podawana w literaturze jest absorpcją na jednostkę masy pyłu i gazu. Aby uzyskać to z emisji pyłu submilimetrowego (która jest mierzoną ilością), wymagane jest założenie o stosunku masy zawartej w gazie do masy zawartej w cząstkach pyłu; stosunek ten jest często przyjmowany jako 100, wartość typowa dla ośrodka międzygwiazdowego. Jednak w dyskach CS stosunek gazu do pyłu jest często znacznie mniejszy niż 100 i zwykle jest niepewny lub nieznany, więc lepiej jest podawać nieprzezroczystości tylko w kategoriach masy pyłu. Przez długi czas k? przy długościach fal bliskich jednemu milimetrowi było niepewne co najmniej o rząd wielkości, co skutkowało odpowiadającą niepewnością w masach pyłu. Ostatnie wysiłki laboratoryjne i teoretyczne poprawiły sytuację, tak że obecnie k? jest prawdopodobnie znane z czynnikiem około 3. W każdym razie nie można uzyskać całkowitej masy zawartej w dyskach CS, ponieważ obiekty o wymiarach znacznie większych niż kilka cm są skutecznie niewidoczne, nawet jeśli niosą większość masy dysku (ponieważ duże obiekty mają tak małą nieprzezroczystość na gram). To powiedziawszy, submilimetrowe strumienie z gwiazd takich jak β Pictoris i HR 4796, które właśnie przybywają na ciąg główny, wskazują na całkowitą masę pyłu około 20 razy większą od masy naszego Księżyca. Najczęstsze rozmiary cząstek mieszczą się w zakresie od 10 ?m do kilku mm. W przypadku starszych gwiazd takich jak Vega i Fomalhaut całkowita masa pyłu jest 10 razy mniejsza.
Przyszłość
Do ostatnich kilku lat badanie dysków okołogwiazdowych z Ziemi, z nielicznymi wyjątkami, nie było zbyt satysfakcjonujące. Analiza danych IRAS uzyskanych ponad 15 lat temu zdominowała tę dziedzinę. Ostatnio czułe nowe detektory matrycowe o długościach fal submilimetrowych i w średniej podczerwieni (10-20 μm) w końcu umożliwiły szereg ważnych odkryć naziemnych. W tym samym czasie kamera koronograficzna bliskiej podczerwieni NICMOS na Teleskopie Hubble′a uzyskała oszałamiające obrazy dysków CS wokół kilku młodych gwiazd. Nadchodząca dekada obiecuje wielkie postępy w badaniach dysków CS z ziemi, powietrza i kosmosu. Na ziemi, milimetrowe tablice interferometrów w wysokich, suchych miejscach na Hawajach i w Chile dostarczą bezprecedensowo szczegółowych obrazów struktury dysków CS. Obserwatorium lotnicze SOFIA zmierzy zasięg przestrzenny i widmo emisji pyłu w całej dalekiej podczerwieni, gdzie dyski CS wokół większości gwiazd podobnych do Wegi emitują najintensywniej. A z kosmosu, SPACE INFRARED TELESCOPE FACILITY (SIRTF) umożliwi wykrycie wielu nowych systemów podobnych do Wegi, które emitowały zbyt słabo, aby wykryć je za pomocą IRAS. Wiele takich układów można odkryć wokół gwiazd o masie Słońca lub mniejszej, które były w większości poza zasięgiem IRAS.
Holenderska astronomia
Holandia zajmuje silną pozycję międzynarodową w badaniach astronomicznych, szczególnie w dziedzinie radioastronomii, ośrodka międzygwiazdowego, struktury i dynamiki Drogi Mlecznej i innych galaktyk, fizyki gwiazd i Słońca, a ostatnio także astrofizyki wysokich energii. Wybitna pozycja jest ściśle związana z jakością kształcenia badawczego, któremu tradycyjnie poświęca się wiele uwagi. Wielu studentów studiów podyplomowych uzyskuje stanowiska podoktorskie w czołowych instytucjach zagranicznych lub dobre stanowiska badawcze poza astronomią. Już w latach 30. XX wieku wielu astronomów kształconych w Holandii było powoływanych na kierownicze stanowiska za granicą. Na przykład w latach 1970-1993 stanowisko Dyrektora Generalnego Europejskiego Obserwatorium Południowego (ESO) zajmowali odpowiednio Holendrzy: Blaauw (1970-1975), Woltjer (1976-1987) i van der Laan (1988-1992).
Struktura organizacyjna
Czynniki zewnętrzne na poziomie międzynarodowym i krajowym mają istotny wpływ na badania astronomiczne w Holandii. Organizacje międzyrządowe, takie jak EUROPEAN SPACE AGENCY (ESA) i EUROPEAN SOUTHERN OBSERVATORY (ESO), określają, w ogólnym zarysie, możliwości prowadzenia badań w Holandii, zwłaszcza w perspektywie długoterminowej. Na poziomie krajowym, następujące trzy organizacje określają strategię badawczą. Netherlands Research School for Astronomy (NOVA) Tradycyjnie większość badań w Holandii jest prowadzona w instytutach astronomicznych na uniwersytetach w Amsterdamie, Groningen, Lejdzie i Utrechcie. Instytuty te to Astronomical Institute Anton Pannekoek (Amsterdam), KAPTEYN ASTRONOMICAL INSTITUTE (Groningen), Astronomical Institute Utrecht i LEIDEN OBSERVATORY. Instytuty w Lejdzie i Utrechcie mają długie tradycje historyczne, ponieważ zostały założone około połowy XVII wieku. W 1992 r. instytuty uniwersyteckie połączyły się w Holenderską Szkołę Badań Astronomicznych (Nederlandse Onderzoekschool Voor Astronomie, NOVA). Misją NOVA jest prowadzenie pionierskich badań astronomicznych w Holandii i szkolenie młodych astronomów na najwyższym poziomie międzynarodowym. Od 1992 r. całe kształcenie podyplomowe w zakresie astronomii w Holandii koncentruje się w NOVA. W 1998 r. rząd holenderski zainicjował program badawczy, tzw. "Strategię dogłębną", w celu identyfikacji i stymulacji krajowych punktów koncentracji doskonałych badań naukowych. Aby spełnić kryteria wyboru, takie punkty koncentracji porównywano z najlepszymi zagranicznymi instytutami w swojej dziedzinie badań. Ponadto musiały one mieć potencjał, aby rozwijać się jeszcze bardziej i stać się ośrodkami doskonałości o światowej renomie. Szkolenie wybitnych młodych naukowców było również jednym z głównych celów programu. Spośród 34 wniosków obejmujących wszystkie dyscypliny akademickie, sześć krajowych szkół badawczych zostało wybranych przez Holenderską Organizację Badań Naukowych (NWO). NOVA zajęła najwyższe miejsce wśród wybranych szkół badawczych i otrzymała znaczący grant na lata 1999-2005 na utworzenie innowacyjnego programu badawczego (więcej informacji można znaleźć później). Odkrycia za pomocą dużych międzynarodowych teleskopów są często dokonywane przez grupy, które zbudowały nowatorskie instrumenty pomocnicze, takie jak specjalistyczny spektrograf nowego systemu detektorów. W tym względzie NOVA zainicjowała holenderskie zaangażowanie w kilka programów dotyczących instrumentów dla Bardzo Dużego Teleskopu (VLT) ESO i interferometru VLT.
Holenderska Fundacja Badań Astronomicznych (NFRA)
NFRA została założona w 1949 roku przez profesora JANA HENDRIKA OORT w celu wykrywania emisji radiowej ze Słońca i Drogi Mlecznej. Została utworzona jako fundacja międzyuniwersytecka pod parasolem Holenderskiej Organizacji Rozwoju Badań Czystych (ZWO, obecnie NWO). Opracowała i obsługiwała radioteleskopy w Kootwijk na początku lat 50. XX wieku, 25m DWINGELO OOBSERVATORY Telescope, który został uruchomiony w 1956 roku, oraz WESTERBORK SYNTHESIS RADIO TELESCOPE (WSRT), który został otwarty w 1970 roku. Teleskopy Kootwijk i Dwingeloo wyprodukowały pierwsze mapy radiowe Drogi Mlecznej w promieniowaniu linii 21 cm atomowego wodoru. W latach 70. XX wieku WSRT (wówczas składający się z 12 anten 25 m na bazie 1600 m, choć obecnie 14 anten na bazie 3 km) był największym radioteleskopem na świecie i wyprodukował wiele map radiowych galaktyk zewnętrznych w celu zbadania ich zachowania kinematycznego i dynamicznego. W latach 80. XX wieku NFRA znacznie poszerzyła swoją działalność, dołączając do Zjednoczonego Królestwa w rozwijaniu i obsłudze ISAAC NEWTON GROUP (ING) OF TELESCOPES na Wyspach Kanaryjskich La Palma, który rozpoczął działalność w 1985 roku. W tym samym czasie NFRA dołączyła również do JAMES CLERK MAXWELL TELESCOPE (JCMT), 15-metrowego radioteleskopu na Hawajach, poświęconego obserwacji promieniowania elektromagnetycznego w zakresie długości fal (sub)milimetrowych. Współpraca JCMT obejmowała również Zjednoczone Królestwo i Kanadę. Holandia ma 20% udziałów w ING, a także w JCMT. Obecne ustalenia zakładają, że Holandia będzie nadal uczestniczyć w ING i JCMT do 2009 r. W przypadku programu instrumentów optycznych, na szczeblu krajowym, NFRA współpracowała z Kapteyn Sterrenwacht Werkgroep (KSW) w Roden. KSW było wspólnym wysiłkiem uniwersytetów w Groningen i Lejdzie, aby skupić swoje zasoby techniczne na osiągnięciu wkładu w rozwój i budowę instrumentów dla ING. W 1996 r. KSW połączyło się z NFRA i przeniosło się do Dwingeloo, aby rozpocząć grupę instrumentów optycznych/podczerwonych. Ich pierwszym dużym projektem jest współpraca z francuską grupą w celu zbudowania VISIR, VLT Imager and Spectrometer dla średniej podczerwieni. Instrument ten zostanie dostarczony do ESO VLT w 2001 r. Na początku lat 90. NFRA ponownie skupiła swoje działania na WSRT, aby ulepszyć ten obiekt, wyposażając go w najnowocześniejsze wieloczęstotliwościowe odbiorniki front-end w celu poprawy czułości i elastyczności. Modernizacja obejmowała również nowy korelator back-end, który znacznie zwiększa szerokość pasma widmowego, back-end pulsarowy (PUMA, w dużej mierze opracowany na Uniwersytecie w Utrechcie), nowe tryby obserwacji dla VLBI oraz filtry i narzędzia programowe, które redukują zakłócenia spowodowane przez komunikację ludzką (telewizja, radio i telefony komórkowe). Modernizacja WSRT została ukończona na początku XXI wieku. Umożliwi ona astronomom przeprowadzenie szeroko zakrojonych badań nad powstawaniem i ewolucją galaktyk we wczesnym wszechświecie poprzez obserwację przesuniętej ku czerwieni linii 21 cm atomowego wodoru w zakresie przesunięć ku czerwieni do z = 4 (lub równoważnie, wstecz w czasie, gdy wszechświat miał zaledwie 10% swojego obecnego wieku). NFRA była również aktywnym partnerem w Europejskiej Sieci VLBI (EVN). EVN to konsorcjum instytutów radioastronomii z 12 krajów europejskich i Chin, którego celem jest wspólne przeprowadzanie obserwacji radiowych przy bardzo wysokiej rozdzielczości kątowej (do milisekund łuku) przy użyciu technik interferometrii o bardzo długiej linii bazowej (VLBI). EVN zainicjował i nadzorował utworzenie JOINT INSTITUTE FOR VLBI IN EUROPE (JIVE). JIVE został założony w 1993 r. w celu zapewnienia zaawansowanego ośrodka przetwarzania danych dla VLBI w Europie i wspierania operacji EVN. NFRA jest instytutem gospodarzem dla JIVE. Operacje astronomiczne JIVE rozpoczęły się jesienią 1999 r. W 1995 r. NFRA rozpoczęła inicjatywę mającą na celu uzyskanie światowego wsparcia w celu opracowania radioteleskopu nowej generacji o powierzchni wykrywania rzędu 1 km2 w celu badania ewolucji wczesnego wszechświata i epoki początku formowania się galaktyk. Program ten nazywa się Square Kilometre Array (SKA). Aby taki projekt był wykonalny finansowo, trzeba usunąć wszystkie ruchome części z teleskopu. Dlatego NFRA wybrała technologię fazowanych układów antenowych, aby uzyskać płaskie anteny. Cała elektronika przetwarzająca sygnały zostanie zintegrowana na poziomie układu scalonego. Ta technika umożliwi wykorzystanie metod programowych do adaptacyjnego tłumienia zakłóceń zewnętrznych. Umożliwi również wykorzystanie wielu (do 100 lub więcej) wiązek na niebie obejmujących całe widoczne niebo. Obecne anteny fazowanych układów antenowych, stosowane głównie w zastosowaniach wojskowych, mają wąskie pasmo widmowe, podczas gdy astronomowie wymagają bardzo szerokopasmowych systemów, aby badać ewolucję galaktyk od wczesnego wszechświata do obecnej epoki. Inne kraje, takie jak Australia, Kanada, Chiny, Indie i USA, również uczestniczą w rozwoju technologii dla SKA. Prawdopodobnie minie dziesięć lat lub więcej zanim koncepcja SKA stanie się wykonalna.
Organizacja Badań Kosmicznych Holandii (SRON)
Działania naukowe w zakresie badań kosmicznych w Holandii koncentrują się w SRON, fundacji działającej w ramach NWO. Jej misją jest inicjowanie, rozwijanie, budowanie i wykorzystywanie wybitnych na arenie międzynarodowej instrumentów do badań naukowych w kosmosie i z kosmosu. Główne obowiązki SRON to opracowanie krajowego programu badań naukowych w kosmosie, utrzymanie programu prac instytutu SRON, który obejmuje laboratoria w Utrechcie i Groningen, oraz udzielanie porad dotyczących holenderskiego udziału w projektach naukowych w ramach ESA. Wiele instrumentów do badań astrofizycznych zbudowanych w przeszłości przez SRON (i jego poprzednika) znalazło swoje miejsce w satelitach krajowych, satelitach ESA i satelitach NASA. Początkowo instrumenty były unoszone ponad atmosferę za pomocą rakiet sondażowych i balonów. W 1968 roku pierwszy holenderski eksperyment został przeprowadzony w kosmosie na pokładzie amerykańskiego satelity w celu pomiaru elektronów w promieniowaniu kosmicznym. W latach 70. eksperyment w Utrechcie wykonał pionierską pracę nad pomiarem widm gwiazd w zakresie ultrafioletowym. Pierwszym całkowicie holenderskim satelitą był ANS (ASTRONOMISCHE NEDERLANDSE SATELLIET), wyposażony w fotometrię w zakresie ultrafioletowym i wykrywanie źródeł promieniowania rentgenowskiego. Wystrzelenie europejskiego satelity COS-B, zaprojektowanego do pierwszego przeglądu Galaktyki w promieniowaniu gamma, miało miejsce w sierpniu 1975 r. Trzy lata później NASA wystrzeliła satelitę Einstein z siatką odbijającą promieniowanie rentgenowskie Utrecht na pokładzie. Po nim nastąpiła misja Solar Maximum w 1980 r. z instrumentem Utrecht HXIS na pokładzie. Drugi (częściowy) holenderski satelita, IRAS, i europejski EXOSAT (Europejski Obserwatorium Rentgenowskie) zostały wystrzelone w 1983 r., oba zawierały ważny wkład naukowy z Holandii. Dane ze wszystkich tych misji stanowiły źródło pionierskich badań astronomicznych przez wiele lat. 17 listopada 1995 r. wystrzelono Obserwatorium Kosmiczne w Podczerwieni (ISO) ESA. Jeden z czterech instrumentów na pokładzie satelity został zbudowany pod nadzorem SRON: Spektrometr Krótkiej Długości Fal (SWS). Podczas bardzo udanego życia trwającego 28 miesięcy wykonano ponad 9000 obserwacji gwiazd, planet, galaktyk, pyłu i mgławic. Wszystkie obserwacje SWS znajdują się obecnie w holenderskim Centrum Analizy Danych ISO. SRON wniósł znaczący wkład w następujące instrumenty astrofizyczne, które nadal działają w kosmosie na początku 2000 r.:
• COMPTEL (1991), detektor-spektrometr promieni gamma na pokładzie obserwatorium NASA CGRO;
• Kamera Szerokiego Pola dla włosko-holenderskiego satelity rentgenowskiego Beppo-SAX (kwiecień 1996);
• Spektrometr Siatki Transmisyjnej Niskiej Energii na pokładzie Chandry (dawniej zwanej AXAF). Chandra została pomyślnie wystrzelona w lipcu 1999 r.;
• o spektrometr rentgenowski dla satelity ESA XMM, który został pomyślnie wystrzelony w grudniu 1999 r.
Holenderskie badania kosmiczne specjalizują się w astrofizyce wysokich energii (badania rentgenowskie) i astrofizyce niskich energii (badania w podczerwieni i submilimetrowe). Przez pierwszą dekadę XXI wieku SRON skupił swój program astronomiczny na zbieraniu danych naukowych uzyskanych za pomocą wyżej wymienionych instrumentów i na budowie HIFI, ważnego instrumentalnego wkładu do systemu detekcji submilimetrowej dla "kamienia węgielnego" satelity ESA FIRST/PLANCK.
Skup się na trzech obszarach badawczych w astronomii i astrofizyce
Na całym świecie można zidentyfikować kilkanaście głównych obszarów badań astronomicznych i astrofizycznych, które będą się rozwijać w następnej dekadzie ze względu na przełomowe odkrycia, napędzane przez następną generację teleskopów obejmujących całe spektrum elektromagnetyczne, przez skok rozdzielczości zapewniany przez interferometrię w zakresie podczerwieni i submilimetrowym oraz przez potężne nowe możliwości obliczeniowe do analizy danych i modelowania teoretycznego. Holandia jest bardzo silna w trzech z tych obszarów. Każdy obszar zajmuje się głębokimi pytaniami i razem zbiegają się one z głównym tematem naukowym NOVA na nadchodzącą dekadę: cyklem życia gwiazd i galaktyk. Te trzy obszary są następujące.
Formowanie się i ewolucja galaktyk od odległej przeszłości do obecnej epoki
Galaktyki zawierają miliardy gwiazd, a także gaz i pył międzygwiazdowy i są osadzone w ciemnych halo o nieznanej budowie. Astronomowie są w stanie spojrzeć wstecz w czasie, obserwując galaktyki z coraz większych odległości. Ponieważ światło porusza się ze skończoną prędkością, odległe obiekty są widoczne w czasie, gdy wszechświat był młodszy. Rozszerzanie się wszechświata powoduje przesunięcie światła ku czerwieni, tak że najbardziej odległe galaktyki to te o największym przesunięciu ku czerwieni. Jak powstały galaktyki? Jakie procesy zaszły między dużym przesunięciem ku czerwieni a teraźniejszością? Galaktyki, które ewoluowały, zawierają relikty, które są wskazówkami co do ich powstania? Jakie są wpływy środowiska, aktywności jądrowej i pierwotnego, wielkoskalowego rozkładu ciemnej materii? Jaka jest rola masywnych czarnych dziur w jądrach galaktyk? W ciągu ostatnich kilku lat szybkie nowe osiągnięcia w zakresie instrumentów dostarczyły wyjątkowych możliwości znalezienia odpowiedzi na te pytania. Kosmiczny
Teleskop Hubble′a i Bardzo Duży Teleskop (VLT) ESO osiągnęły swój pełny potencjał. Teleskopy optyczne o średnicy ośmiu lub większej liczby metrów zaczęły dostarczać ekscytujących danych. Holenderscy astronomowie mają dostęp do ekwiwalentu 30% teleskopu 8-metrowego dzięki członkostwu w ESO. Ponadto ulepszony WSRT i procesor danych JIVE VLBI doprowadziły do nowych możliwości badawczych. W rezultacie odległy, a zatem wczesny wszechświat znalazł się teraz w zasięgu obserwacji. Obecnie dokonuje się szybki postęp w badaniu protogalaktyk i wielkoskalowej struktury wszechświata, który ma zaledwie jedną dziesiątą obecnego wieku.
Narodziny i śmierć gwiazd: cykl życia gazu i pyłu
Nowe gwiazdy nadal rodzą się głęboko w obłokach molekularnych w galaktykach. Proces narodzin prowadzi do powstania okołogwiazdowego dysku gazu i pyłu, z którego mogą następnie powstać planety i komety. Jakie procesy fizyczne prowadzą do powstania tych nowych układów słonecznych i jak one ewoluują? W jaki sposób skład chemiczny gazu i pyłu, w tym głównych pierwiastków biogenicznych, ulega zmianie podczas zapadania się z zimnego, rozrzedzonego ośrodka międzygwiazdowego do gęstego materiału protoplanetarnego? W późnych stadiach swojego życia gwiazdy wyrzucają do ośrodka międzygwiazdowego materiał wzbogacony nukleosyntetycznie. W jaki sposób ten materiał napędza chemiczną ewolucję galaktyki i nowo powstałych w niej gwiazd? Co napędza utratę masy i jak wpływa ona na ewolucję gwiazd? Dostępność radioteleskopów, które są w stanie wykrywać promieniowanie elektromagnetyczne o długości fal milimetrowych i submilimetrowych (takich jak JCMT) oraz sukces Obserwatorium Kosmicznego w Podczerwieni (ISO) ESA niedawno doprowadziły do możliwości penetracji głębokich obszarów pyłowych wokół młodych i starych gwiazd. Prowadzi to do nowych spostrzeżeń na temat procesów fizycznych i chemicznych zachodzących podczas narodzin i śmierci gwiazd oraz podczas formowania się planet. W tej niezwykle interdyscyplinarnej dziedzinie nowe symulacje laboratoryjne w Laboratorium Astrofizyki Raymonda i Beverly Sackler na Uniwersytecie w Lejdzie, a także modele komputerowe dodatkowo przyczyniają się do naszego zrozumienia cyklu życia gazu i pyłu.
Końcowe etapy ewolucji gwiazd: fizyka gwiazd neutronowych i czarnych dziur
Pod koniec swojego życia masywna gwiazda eksploduje i wyrzuca swoje zewnętrzne warstwy. Rdzeń gwiazdy zapada się, tworząc gwiazdę neutronową lub czarną dziurę. Są to najgęstsze obiekty, jakie istnieją, i te o najsilniejszych polach grawitacyjnych. Jakie są właściwości materii o ekstremalnej gęstości we wnętrzu gwiazdy neutronowej? Jakie są obserwacyjne sygnatury czarnych dziur? Czy możemy obserwacyjnie zweryfikować niezwykłe przewidywania ogólnej teorii względności dotyczące właściwości zakrzywionej czasoprzestrzeni w pobliżu tych obiektów? Jak zachowują się cząstki i promieniowanie w pobliżu tych zwartych obiektów? Co się dzieje, gdy dwa zwarte obiekty krążące wokół siebie ostatecznie się połączą? Czy to jest początek najpotężniejszych eksplozji, jakie znamy, enigmatycznych rozbłysków gamma? Szybki postęp w tej dziedzinie jest wynikiem dostępności nowych pomiarów satelitarnych, między innymi z holenderskimi instrumentami, na przykład w GRO i Beppo-Sax. Znaczenie badań rentgenowskich w obiektach pozagalaktycznych szybko rośnie. Przełomem dokonanym w połowie 1997 r., do którego holenderscy naukowcy wnieśli istotny wkład, jest spostrzeżenie, że dobrze znane "wybuchy promieni gamma" mają swoje źródło w bardzo odległych galaktykach; obecnie jest pewne, że zjawisko to obejmuje procesy przyspieszania o ekstremalnie wysokiej energii, prawdopodobnie związane z powstawaniem obiektów zwartych (gwiazd neutronowych i czarnych dziur) lub łączeniem się dwóch takich obiektów w gwiazdę podwójną. Dzięki nowym obserwatoriom rentgenowskim XMM (ESA) i Chandra (NASA), do których SRON wniósł istotny wkład w instrumenty, badanie procesów o wysokiej energii stanie się możliwe w otoczeniu obiektów zwartych z niezrównaną czułością oraz rozdzielczością przestrzenną i widmową. Istnieje wiele powiązań między powyższymi obszarami badań. Gwiazdy powstają w galaktykach z materiału międzygwiazdowego, a pod koniec swojego życia zwracają wzbogacony chemicznie materiał do ośrodka międzygwiazdowego, z którego powstają nowe generacje gwiazd i planet. Najmasywniejsze i najjaśniejsze gwiazdy ewoluują najszybciej i pozostawiają gwiazdy neutronowe i czarne dziury. Ten cykl życia powoduje ewolucję populacji gwiazdowej galaktyki jako całości. Ostatnie postępy technologiczne umożliwiły obserwację tej ewolucji aż do epok, w których wszechświat miał mniej niż 10% swojego obecnego wieku. Odkrycie historii formowania się galaktyk we wszechświecie, a zatem zrozumienie cyklu życia gwiazd i galaktyk, wymaga pełnej wiedzy z zakresu astrofizyki i najnowocześniejszych obserwacji, które są teraz w zasięgu ręki.
Obiekty obserwacyjne dostępne dla holenderskich astronomów
Astronomowie w Holandii mają dostęp do teleskopów Europejskiego Obserwatorium Południowego (ESO) w Chile, do UK/NLIsaac Newton Group na La Palmie, do James Clerk Maxwell Telescope (JCMT) na Mauna Kea, do zmodernizowanego Westerbork Synthesis Radio Telescope (WSRT) i do Joint Institute for VLBI w Europie (JIVE). Razem te obiekty obejmują okna optyczne i submilimetrowe/centymetrowe. W 2000 roku zostanie ukończony Very Large Telescope ESO, największy na świecie teleskop optyczny/podczerwony. ESO planuje połączyć światło czterech głównych 8-metrowych teleskopów ze światłem kilku mniejszych teleskopów, aby utworzyć interferometr bliskiej podczerwieni (VLTI), który zapewni niespotykaną dotąd rozdzielczość przestrzenną. Ponadto w Chile planowana jest wspólna europejsko-amerykańska ATACAMA LARGE MILLIMETER ARRAY (ALMA), koordynowana przez ESO po stronie europejskiej. Pierwsze operacje są spodziewane około 2007 r. Holandia wniesie kilka istotnych wkładów do VLT i VLTI. Są to: VISIR (patrz wcześniej); OmegaCam, kamera
optyczna o szerokim polu (1° × 1°) dla 2,5-metrowego teleskopu VLT Survey Telescope; MIDI, pierwszy instrument na VLTI do obrazowania spektroskopowego w średniej podczerwieni; SINFONI, spektrograf bliskiej podczerwieni o dużym polu widzenia wykorzystujący technologię optyki adaptacyjnej. Wszystkie te projekty są realizowane we współpracy z innymi instytutami w innych miejscach w Europie, głównie w Niemczech i Francji. Odwiedź stronę internetową NOVA, aby uzyskać więcej informacji. Holandia uczestniczy również w dwóch badaniach rozwoju technologii dla ALMA; badanie NOVA/SRON dla odbiornika, który obejmie okno atmosferyczne w zakresie 600-720 GHz oraz udział NFRA w międzynarodowym badaniu zaawansowanego korelatora. Ponadto, w celu rozwijania wiedzy na temat interferometrii optycznej/podczerwonej i jej zastosowań w przyszłych programach astronomicznych, NOVA i ESO zainicjowały w 1999 r. Centrum Eksperckie VLTI (NEVEC) w Obserwatorium w Lejdzie. Holenderscy astronomowie mają również dostęp do czasu
obserwacyjnego w różnych obserwatoriach kosmicznych. Kosmiczny Teleskop Hubble′a NASA/ESA, dwa główne nowe satelity wysokoenergetyczne wystrzelone w 1999 r. (Chandra, XMM) oraz włosko-holenderski satelita rentgenowski BeppoSAX. Submilimetrowe Obserwatorium Cornerstone FIRST/PLANCK ESA ma zostać wystrzelone w 2007 r. Łącznie stanowi to inwestycję światowych agencji kosmicznych rzędu 15 miliardów dolarów amerykańskich. Co więcej, bazy danych uzyskane za pomocą satelity astrometrycznego ESA Hipparcos i satelity podczerwonego ISO przyczynią się, przynajmniej w ciągu najbliższej dekady, do uzyskania nowych, ekscytujących wyników.
Karłowate galaktyki eliptyczne
KARKALNE GALAKTYKI SFERYCZNE zostały po raz pierwszy zidentyfikowane przez Shapleya, który zauważył dwa bardzo rozproszone zbiory gwiazd na płytach patrolowych Harvardu. Chociaż te układy miały mniej więcej tyle samo gwiazd, co GROMADA KULISTA, miały znacznie mniejszą gęstość, a zatem znacznie większy promień, i dlatego były uważane za odrębne galaktyki. Te dwie, nazwane Fornax i Sculptor od konstelacji, w których się pojawiają, są w rzeczywistości satelitami Drogi Mlecznej i są częścią rodziny liczącej obecnie dziewięć, które krążą wokół Galaktyki. Badania Baade i innych wykazały, że populacje gwiazd są stare, na podstawie obecności GWIAZD RR LYRAE i wyraźnego braku regionów formowania się gwiazd, co nasuwa pytanie o związek między tymi galaktykami a GALAKTYKAMI ELIPTYCZNYMI. Galaktyczne karłowate sferoidalne same w sobie są częścią większej klasy galaktyk zwanych karłowatymi eliptycznymi (dE), których jasność rozciąga się od jasności najsłabszych karłowatych sferoidalnych (MV = -9) do około MV = -17, dobrym przykładem jest NGC 205. Niektórzy autorzy nazywają te galaktyki "sferoidalnymi". Podstawowymi cechami izolującymi tej klasy są niska jasność powierzchniowa i gładki rozkład światła. Radialne rozkłady światła mają tendencję do wykładniczego, co jest wspólne z IRREGULAR i SPIRAL GALAXIES, a co odróżnia je od eliptycznych, które mają bardziej rozkład potęgowy światła. Ponadto jasność powierzchniowa (zarówno centralna, jak i średnia) maleje wraz ze spadkiem jasności, podczas gdy w przypadku eliptycznych jasność powierzchniowa wzrasta wraz ze spadkiem jasności. Istnieje zakres jasności, dla których istnieją zarówno karłowate eliptyczne, jak i eliptyczne - różnica w typach jest najlepiej widoczna na podstawie niezwykłych różnic w strukturze między NGC 147, karłowatą eliptyczną, a M32, eliptyczną, które są towarzyszami M31 i mają podobne jasności. dE są bardzo powszechne. W GRUPIE LOKALNEJ jest ich 19 znanych (dziewięć wokół M31, jedna niepołączona z dużą galaktyką i dziewięć z Drogi Mlecznej, o których już wspomniano). Niedaleka grupa M81 ma 12 znanych. Największe zbiory dE znajdują się jednak w bogatych gromadach. Na przykład Virgo ma ponad 400 dE skatalogowanych do stosunkowo jasnej jasności MV = -13, chociaż karły jako populacja przyczyniają się do mniej niż 10% całkowitego światła gromady. Istnieją pewne przesłanki wskazujące na to, że względna liczba dE w stosunku do galaktyk olbrzymich w grupie wzrasta wraz ze wzrostem liczby olbrzymów. Sandage, Binggeli i Tammann wykazali, że funkcja jasności dE ma formę wykładniczą, co pociąga za sobą wykładniczą część funkcji Schechtera, która reprezentuje funkcję jasności wszystkich galaktyk. Nachylenie tej funkcji w CLUSTERS OF GALAXIES wykazuje znaczące różnice między badanymi gromadami, z interesującym wynikiem, że gromady z dużymi galaktykami cD mają proporcjonalnie mniej galaktyk dE (nachylenie α ∿ -1) niż te gromady bez takiej dominującej galaktyki (-1,4 ≥ α V -2,0). Wnioskiem może być to, że halo cD powstają w wyniku rozbicia karłów, chociaż mechanizm tego procesu jest niezidentyfikowany, a równie prawdopodobne jest, że problem wymagający wyjaśnienia to w rzeczywistości przewaga dE w gromadach nie cD. Trójwymiarowe kształty dE wydają się nie być dyskami, pomimo ich wykładniczych profili światła; raczej spłaszczone rozkłady wskazują na kształty sferoidalne lub elipsoidalne z powodu braku bardzo płaskich układów. Brak prawie okrągłych galaktyk przemawia przeciwko temu, że galaktyki są spłaszczone, i chociaż dane dopuszczają wydłużone układy, najbardziej prawdopodobne jest, że jako grupa galaktyki te są trójosiowe. Ze względu na wewnętrzną słabość tych galaktyk, nie ma nadmiaru informacji kinematycznych na ich temat, chociaż to, co jest znane, okazało się kluczowe dla badania CIEMNEJ MATERII W GALAKTYKACH. Badania prędkości poszczególnych gwiazd w galaktycznych sferoidalnych karłach wykazały, że najmniej jasne galaktyki (UMi i Draco) mają dyspersje prędkości około 10 km s-1 podobne do dyspersji znalezionych w najjaśniejszej galaktycznej sferoidalnej karle, Fornax, która jest prawie 100 razy jaśniejsza. Wysokie dyspersje dają najprościej całkowite wartości M/L rzędu 100 dla słabych karłów, a ponieważ wartości M/L gwiazd są rzędu jedności, istnieje zatem silny dowód na istnienie niewidzialnej materii. Próby modelowania mające na celu wyjaśnienie dużych dyspersji prędkości przez oddziaływania i zakłócenia z Drogą Mleczną były w dużej mierze nieskuteczne, ponieważ oddziaływania te, zakłócając strukturę galaktyk karłowatych, nie zmieniają znacząco centralnych dyspersji prędkości. Bardziej szczegółowe modele strukturalne galaktyk, w których halo ciemnej materii są uwzględnione wraz z obserwowanym rozkładem jasnej materii, potwierdziły duże stosunki M/L i pokazały również, że centralne gęstości ciemnej materii mogą być bardzo wysokie, w pobliżu 1M⊙ pc-3, znacznie większe niż gęstość widocznych gwiazd. Obserwacje widmowe w zintegrowanym świetle bardziej odległych galaktyk wykazały ponadto, że dE są wolnymi rotatorami i generalnie nie są spłaszczone obrotowo, co stawia je na wspólnym gruncie z dużymi galaktykami eliptycznymi i odróżnia je od galaktyk eliptycznych o niskiej jasności, które są spłaszczone obrotowo. Galaktyczny karłowaty sferoidalny UMi, który jest dość płaski w projekcji (e = 0,6), również wykazał niewielką rotację, dane pochodzą w tym przypadku z pojedynczych gwiazd składowych. Dyspersje prędkości uzyskane w zintegrowanym świetle jasnych karłowatych eliptycznych mają tendencję do wskazywania normalnych stosunków M/L; tj. obszary centralne nie są zdominowane przez ciemną materię. Wyraźną cechą w prawie połowie jasnych dE jest obecność odrębnego jądra. Najbardziej znanym jądrem jest z pewnością jądro NGC 205, chociaż jądro to w rzeczywistości znacznie różni się od jąder większości innych galaktyk, ponieważ jest młodą gromadą gwiazd, częścią wydarzenia formowania się gwiazd zauważonego po raz pierwszy przez Baadego. Jądra w innych dE wydają się być w tym samym wieku co otaczająca galaktyka. W przypadku małego jądra może ono wyglądać po prostu jak gromada gwiazd, czasami niesymetrycznie umiejscowiona w galaktyce macierzystej; w przypadkach, gdy jądro jest duże, ma tendencję do wtapiania się w strukturę otaczającej galaktyki, zamiast pojawiać się jako narzucony gromad gwiazd. Ich jasności wahają się w górę do MV = -12, co jest nieco jaśniejsze niż najjaśniejszych gromad kulistych znanych gdziekolwiek. Obecność jądra jest słabo skorelowana z szeregiem innych właściwości. Występują częściej w jaśniejszych galaktykach. Występują częściej w galaktykach okrągłych. W gromadach galaktyki jądrowe mają tendencję do bycia bardziej skoncentrowanymi jako grupa niż galaktyki bezjądrowe. Ponadto galaktyki jądrowe mają tendencję do bycia bardziej czerwonymi niż galaktyki bezjądrowe, chociaż istnieje niewielka różnica w kolorze między jądrem a otaczającymi gwiazdami. Żadna z tych tendencji nie wskazuje jednak na pochodzenie jąder, poza poparciem oczywistej idei, że jądra są wtórnymi zdarzeniami formowania się gwiazd, w których materiał gazowy opadł do centrum nowo powstałej galaktyki i utworzył region o dużej gęstości gwiazd. Zdjęcia HST pobliskiego jądra (które zawiera prawie 5% całkowitej jasności galaktyki) pokazują centralną gęstość tak wysoką, jak ta, którą można znaleźć w galaktycznych gromadach kulistych (rysunek 2). Podobnie jak wszystkie typy galaktyk, dE zawierają gromady kuliste. Ich obecność jest bezpośrednio związana z jasnością galaktyki macierzystej, a współczynnik skalowania wydaje się być bardziej podobny do galaktyk eliptycznych o stosunkowo dużej liczbie gromad na jednostkę jasności (4 na jednostkę MV = -15), niż do galaktyk spiralnych, które są ubogie w gromady. Najsłabszą znaną galaktyką z gromadami kulistymi jest nadal Piec, który ma 5. Kolory i miary obfitości metali w gromadach kulistych dE wskazują, że są one bardziej ubogie w metale niż otaczające je halo w średniej; podobna sytuacja występuje w galaktykach eliptycznych. Pomysły, że populacje gwiazd są podobne do populacji gromad kulistych (tj. jednolicie stare) musiały zostać zmodyfikowane, najpierw ze względu na pośrednie wskaźniki młodego wieku, takie jak obecność anomalnych gwiazd zmiennych typu cefeid, drugi problem parametru (czerwona gałąź pozioma w układzie ubogim w metale) i gwiazdy górnej asymptotycznej gałęzi olbrzymów, a później bardziej bezpośrednio przez diagramy kolor-jasność (szczególnie dla Cariny), które pokazują wielokrotne odchylenia ciągu głównego, wskazując na kilka dyskretnych epok FORMOWANIA GWIAZD. Wiele sferoidalnych karłów Grupy Lokalnej wykazuje takie dowody na formowanie się gwiazd nowsze niż 10 miliardów lat temu. Bezpośredni dowód na obecne formowanie się gwiazd wśród Lokalnej Grupy dEs można znaleźć jedynie w NGC 185 i 205. Bardziej odległe galaktyki również wykazują pewne oznaki niedawnego formowania się gwiazd, ponieważ zintegrowane kolory wykazują duże różnice między galaktykami o podobnej jasności; niektóre kolory są bardziej niebieskie niż można by to wyjaśnić niską metalicznością. Oczywiste jest, że formowanie się gwiazd w dEs jest bardziej złożonym procesem niż w gromadach kulistych. Pozyskanie większej ilości materiału do formowania się gwiazd może wyjaśnić niektóre przypadki, ale inne wymagają samoregulacji formowania się gwiazd, być może za pośrednictwem wiatrów gwiazdowych. Uważa się, że galaktyki takie jak karłowata Feniks i LGS3 są obiektami przejściowymi, w których formowanie się gwiazd ma się zakończyć, po czym galaktyka przybierze wygląd dE. Badania wszystkich karłów w Lokalnej Grupie (w tym nieregularnych) pokazują, że historia formowania się gwiazd karłowatych eliptycznych płynnie łączy się z historią formowania się gwiazd karłowatych NIEREGULARNYCH GALAKTYK. Przydatnym podsumowaniem może być to, że gwiazdy zaczęły się formować w karłowatych galaktykach eliptycznych 15 Gyr temu, ale formowanie się gwiazd mogło ustać zaledwie kilka Gyr temu. dE jako klasa mają szereg niezwykłych relacji między obserwowanymi właściwościami. Jak wspomniano powyżej, centralne lub średnie jasności powierzchniowe są bezpośrednio związane z całkowitą jasnością, w zakresie około 8 magnitudo. Centralne wartości użyte do tej relacji są wartościami ekstrapolowanymi, tak że wszelkie obecne jądra są ignorowane. Ta relacja nie jest jednak ścisła, a niektórzy nawet wątpią, że istnieje, zauważając, że efekty selekcji jasności powierzchniowej w poszukiwaniach galaktyk miałyby tendencję do generowania takiej relacji. Centralne jasności powierzchniowe tych galaktyk są oczywiście znacznie niższe niż nocne niebo. Jednak nowsze głębokie poszukiwania, podczas gdy znajdują bardzo interesujące duże (a zatem jasne) galaktyki o niskiej jasności powierzchniowej, nie znalazły ich w obfitości, która wypełniłaby płaszczyznę jasności powierzchniowej-jasności równomiernie. Tak więc wydaje się prawdopodobne, że chociaż istnieją duże odchylenia od relacji, istnieje preferowana lub dominująca relacja. (Trzeba uważać, aby odróżnić duże, karłowate galaktyki eliptyczne o niskiej jasności powierzchniowej, z MV słabszym niż -18, od dużych, dyskowych galaktyk o niskiej jasności powierzchniowej, takich jak Malin I.) Drugą relacją jest średnia metaliczność gwiazdowa (Z) i całkowita jasność (L) . Obfitości metali użyte w tej relacji to te znalezione na podstawie relacji kolor-wielkość, a zatem wszystkie dotychczas zmierzone galaktyki znajdują się co najmniej w zasięgu HST. W zakresie 8 wielkości metaliczność zmienia się o 1,4 deksa (czynnik 25, Z ∝ L0,4), a relacja jest dość ścisła. Powstaje więc pytanie: przy dwóch relacjach odnoszących się do trzech parametrów, L-Z i L-SB, jednej ścisłej i jednej nie tak ścisłej, czy relacja między SB i Z jest ścisła, czy nie? Czyli czy prawdziwym parametrem, który dyktuje średnią metaliczność podczas formowania się galaktyki, jest jasność galaktyki (masa całkowita), czy raczej jasność powierzchniowa (gęstość powierzchniowa)? Obserwacje jednej dużej galaktyki o niskiej jasności powierzchniowej w grupie M81 dostarczają odpowiedzi w tym przypadku. Galaktyka ta leży daleko od głównej relacji SB-L, a także daleko od głównej relacji SB-Z. Leży jednak w relacji L-Z utworzonej przez galaktyki Grupy Lokalnej. Tak więc to jasność dyktuje metaliczność. Interesujące jest to, że w najsłabszych karłach, podczas gdy świecąca materia stanowi niewielką część całkowitej masy, to świecąca materia dyktuje metaliczność. Istnienie relacji metaliczność-jasność i relacji jasność powierzchniowa-jasność, a także złożone historie formowania się gwiazd dały impuls do poszukiwań teorii na temat tego, jak te galaktyki powstały. Pomysły na formowanie się są różne, od modeli detrytusu, w których małe galaktyki towarzyszące dE są pozostałością materiału z formowania się dużych galaktyk, po formowanie się w ogonach pływowych oddziałujących galaktyk, po schemat Babula i Reesa, który jest bardziej schematem ab initio. Babul i Rees wykazali, że zapadanie się słabych zaburzeń gęstości może być opóźnione z powodu fotojonizujących efektów międzygalaktycznego pola promieniowania UV przy przesunięciach ku czerwieni większych niż 1. Tak więc formowanie się gwiazd w galaktykach karłowatych mogło rozpocząć się stosunkowo późno i mogło skutkować tym, że ta klasa galaktyk była nadmiernie jasna przy pośrednich przesunięciach ku czerwieni, co być może prowadziło do nadmiaru niebieskich galaktyk widocznych przy tych przesunięciach ku czerwieni. Larson wykazał, że bardziej masywne prekursory karłów były w stanie lepiej zatrzymywać gaz (który w przeciwnym razie zostałby utracony w wyniku eksplozji supernowych), a zatem miały dłuższe epoki formowania się gwiazd, co skutkowało wyższymi gęstościami centralnymi i wyższą metalicznością. Ponieważ utrata gazu w układach samograwitacyjnych nie może wyjaśnić zarówno obserwowanej formy spadku metaliczności, jak i jasności powierzchniowej wraz ze jasnością w dE, Dekel i Silk opracowali model, który uwzględniał obecność ciemnej materii, w której utrata masy z wiatrów supernowych staje się ważna przy progowej wartości masy i pozwala na spełnienie obu podanych warunków. Będąc pochodnymi scenariuszy hierarchicznych, karły powinny również dominować w obszarach o niskiej gęstości (tj. pustkach), na co istnieje wiele dowodów przeciwnych. Istnieją oczywiste powiązania między dE a karłami tworzącymi gwiazdy (dIrr) - niska jasność powierzchniowa, niska metaliczność, niska jasność, a nawet podobne rozkłady spłaszczenia. Jednak szczegółowo istnieją problemy z ideą, że dE są po prostu przedłużeniem dIrr - tych galaktyk, które jako pierwsze wyczerpały gaz tworzący gwiazdy. Jako klasa, karłowate galaktyki eliptyczne są mniejsze niż dIrr - jest o wiele więcej dużych dIrr niż dE. Trudno jest zatem uzyskać wszystkie dE, zatrzymując formowanie się gwiazd i pozwalając dIrrs zanikać - skale długości byłyby błędne. (Oczywiście w ten sposób można by uzyskać pewną część dE). Trudno było porównać metaliczności dE ([Fe/H] ogólnie, z lokalizacji gałęzi olbrzymów) z metalicznościami dIrrs ([O/H] ogólnie, z miar gazu zjonizowanego), aby sprawdzić ideę, że przy tej samej jasności, skorygowanej o zanikanie dla dIrrs, oba typy mają podobne metaliczności. Wstępne prace rzeczywiście pokazują, że jest marginalnie możliwe, aby obserwowana relacja L-Z dEs pochodziła z relacji dIrrs, ale wymagana ilość zaniku jasności jest nadmierna. Z pewnością prawdą jest, że dEs i dIrrs pochodzą od spokrewnionych prekursorów, chociaż dokładne parametry oddzielające te rodziny nie są jeszcze znane.
Karłowate nieregularne galaktyki
Karłowate nieregularne galaktyki w zakresie optycznym są małe, słabe i wydają się niestrukturyzowane i nieregularne w kształcie. Są to zazwyczaj bogate w gaz, ubogie w metale układy, z różnymi poziomami FORMOWANIA GWIAZD zachodzącymi w sposób chaotyczny w całej galaktyce. Ich struktura zwykle nie obejmuje żadnych charakterystycznych cech, takich jak ramiona spiralne lub jądra, a ich kinematyka wydaje się być zdominowana przez losowe ruchy lub stosunkowo powolny obrót ciała stałego. Nie ma niezwykle precyzyjnej definicji tego, co jest GALAKTYKĄ KARŁOWĄ, a co nie, ale najbardziej typowym rozgraniczeniem między galaktyką karłowatą a większą ("normalną") galaktyką jest to, że galaktyki karłowate są zazwyczaj słabsze niż absolutna wielkość pasma B MB = -16. Nie jest to ścisła reguła, ponieważ Mały Obłok Magellana (z MB = -17) jest często uważany za należący do klasy karłowatych nieregularnych galaktyk. Nieregularne nierówności w morfologii optycznej nieregularnych galaktyk karłowatych są
spowodowane losowo rozmieszczonymi obszarami formowania się gwiazd, które mogą być indywidualnie dość jasne, ale ogólna jasność powierzchniowa jest zazwyczaj ekstremalnie niska (0 ∿ 23-25 mag arcsec-2). Ponieważ ten typ galaktyki jest tak liczny i mogą łatwo zmieniać jasność dość dramatycznie ze względu na zwiększone tempo formowania się gwiazd, istnieją silne dowody sugerujące, że stanowią kosmologicznie ważną populację galaktyk. Istnieje kilka klas galaktyk karłowatych, nie tylko nieregularne galaktyki karłowate, a różnica między nieregularnymi galaktykami karłowatymi a innymi klasami galaktyk karłowatych, takimi jak "niebieskie zwarte galaktyki karłowate", "sferoidalne galaktyki karłowate" i "eliptyczne galaktyki karłowate", jest często kwestią semantyki i nie zawsze była precyzyjnie zdefiniowana. Te typy galaktyk karłowatych średnio należą do tej samej klasy o niskiej jasności powierzchniowej, ale różnią się obecnym tempem formowania się gwiazd. Niebieskie, zwarte galaktyki karłowate mają
jeden lub więcej zwartych obszarów o wysokiej szybkości formowania się gwiazd (np. NGC 1705, NGC 1569, VII Zw403). Z drugiej strony, karłowate galaktyki sferoidalne nie mają obecnie trwającego procesu formowania się gwiazd ani wykrywalnego gazu, ale mogą wykazywać dowody na złożoną historię formowania się gwiazd, w tym jeden lub więcej odrębnych epizodów formowania się gwiazd (np. Carina, Leo I, Sculptor). Istnieje również niewielka liczba obiektów przejściowych, które mają niezwykle niskie tempo obecnego formowania się gwiazd, alez dowodami bardziej aktywnego formowania się gwiazd w niedawnej przeszłości (np. Pegasus, Phoenix, Antlia). Istnienie tych obiektów przejściowych prowadzi do hipotezy, że karłowate galaktyki sferoidalne, nieregularne i niebieskie, zwarte są wszystkimi tymi samymi typami obiektów, obserwowanymi w różnych fazach ewolucyjnych. KARŁOWATE GALAKTYKI ELIPTYCZNE (np. M32, NGC 147, NGC185) zwykle mają dowody jedynie na dość starą populację gwiazdową i nie jest do końca jasne, czy mogą one
mieścić się w tym samym globalnym schemacie, co inne typy galaktyk karłowatych sugerowane powyżej. Karłowate galaktyki nieregularne są najczęstszym typem galaktyk w regionie otaczającym naszą Galaktykę, tak zwaną GRUPĘ LOKALNĄ. W niedawnym spisie 22 z 41 galaktyk w Grupie Lokalnej można sklasyfikować jako karłowate galaktyki nieregularne. Podobne wyniki, pokazujące dominację karłowatych populacji nieregularnych, można również zaobserwować w przypadku innych pobliskich grup galaktyk (lub często nazywanych GROMADAMI GALAKTYK), takich jak Panna i Piec. Istnieją również wskazówki z badań przesunięcia ku czerwieni, że wszechświat jako całość jest zdominowany przez małe galaktyki nieregularne. Z historycznego punktu widzenia interesujące jest zauważenie, że pierwszym obiektem, który został zdecydowanie przypisany do regionu poza układem galaktycznym… (tj. pozagalaktyczny) przez Edwina Hubble′a w 1925 r. była NGC 6822, jeden z najbliższych przykładów karłowatej galaktyki nieregularnej. Pionierska
praca Waltera BAADE, rozpoczęta w 1944 r., podejmująca pierwsze kroki w zrozumieniu ewolucji galaktyk, opierała się na badaniach rozdzielonych populacji gwiazd w galaktykach karłowatych. Baade zauważył, że karłowate galaktyki eliptyczne, które badał, zawierały tylko czerwone gwiazdy, a mianowicie stare gwiazdy (które nazwał populacją II), a karłowate galaktyki nieregularne zawierają czerwone i niebieskie gwiazdy, co wskazuje na młodszą populację (którą nazwał populacją I). Zauważył również, że podczas gdy obserwowano wyłącznie starą populację, młodej populacji nigdy nie widziano bez starej, słabszej, populacji czerwonych gwiazd, która jest nazywana "Płaszczyzną Baade′a". Ze względu na ich niewielkie rozmiary i niską jasność powierzchniową karłowate galaktyki nieregularne mogą być bardzo trudne do wykrycia, nawet w Grupie Lokalnej, i do dziś nadal znajdujemy nowe karłowate galaktyki nieregularne (np. Antlia w 1997 r., przez grupę z Cambridge, Anglia). Pierwsze duże badanie tych słabych i często
niezauważanych plam na płytach fotograficznych zostało przeprowadzone przez szwedzkiego astronoma Holmberga w 1950 r. w grupach galaktyk M81 i M101. Dalsze obszerne, szczegółowe poszukiwania karłowatych galaktyk polowych zostały przeprowadzone przez van den Bergha w 1959 r. w Kanadzie (katalog DDO). Spośród obecnych karłowatych nieregularnych członków Grupy Lokalnej 50% zostało znalezionych od 1971 r. i nie możemy wykluczyć, że znajdziemy o wiele więcej obiektów o ekstremalnie niskiej jasności powierzchniowej w Grupie Lokalnej. Rozkład neutralnego gazu wodorowego (H I) w karłowatych galaktykach nieregularnych jest bardzo skupiony i nieregularny i często jest znacznie bardziej rozciągnięty niż emisja optyczna. Było bardzo niewiele przypadków, w których wykryto gaz cząsteczkowy. Gaz cząsteczkowy, zwykle oznacza tlenek węgla, CO, który jest stosunkowo łatwy do wykrycia i jest uważany za wskaźnik obecności wodoru cząsteczkowego, H2M, który jest najważniejszym składnikiem w procesie formowania się
gwiazd. Biorąc pod uwagę znaczenie gazu cząsteczkowego dla procesu formowania się gwiazd, musi on występować w tych galaktykach, ponieważ widzimy młode gwiazdy. Możliwe, że niezwykle niska metaliczność karłowatych galaktyk nieregularnych sprawia, że gaz cząsteczkowy jest trudniejszy do wykrycia, ponieważ względna frakcja cząsteczek CO do H2 jest znacznie mniejsza niż w naszej Galaktyce. Karłowate galaktyki nieregularne są również tak zwanymi galaktykami "ubogimi w metale". Oznacza to, że obfitość "metali", a mianowicie pierwiastków o liczbie atomowej większej niż 2, w stosunku do obfitości wodoru jest znacznie niższa niż obserwowana w naszym Słońcu (obfitość słoneczna). Metaliczność nieregularnych galaktyk karłowatych waha się od 2,3% wartości słonecznej (np. Leo A) do około 10% wartości słonecznej (np. IC 1613). Typowe pierwiastki obserwowane w celu określenia metaliczności pobliskich galaktyk to węgiel, tlen i azot, które są wykrywalne w liniach emisyjnych optycznych i ultrafioletowych w obecnie
formujących się regionach gwiazd (tzw. regiony HII), a żelazo zostało zmierzone w widmach pojedynczych gwiazd w różnym wieku. Ekstremalnie niskie zawartości metali w stosunku do wodoru, zwykle w zakresie 2-15% wartości sąsiedztwa słonecznego, można uznać za oznakę młodości lub sporadycznej historii formowania się gwiazd lub kombinacji obu. Historia formowania się gwiazd, czyli ewolucja jasności i koloru nieregularnych galaktyk karłowatych wykazuje dowody na to, że nie były one płynną funkcją czasu. Oznacza to, że podlegały one sporadycznym wzrostom średniej szybkości formowania się gwiazd, tak zwanym "wybuchom" formowania się gwiazd. Te wybuchy mogą sprawić, że karłowata nieregularna galaktyka będzie wyglądać o wiele bardziej jak niebieska zwarta galaktyka karłowata. Dowody na te wybuchy formowania się gwiazd pochodzą zarówno z bezpośrednich obserwacji rozdzielonych gwiazd (populacji gwiazd) w pobliskich karłowatych nieregularnych galaktykach, których spis dostarcza informacji o historii formowania się
gwiazd, która stworzyła obecnie obserwowany rozkład wieku i metaliczności, jak i z badań jasności i kolorów znacznie bardziej odległych, późnych galaktyk obserwowanych przy pośrednim przesunięciu ku czerwieni (tzw. słabe niebieskie galaktyki). Możliwe jest wyprowadzenie bardzo dokładnych historii formowania się gwiazd z rozdzielonych populacji gwiazd sięgających najstarszych epizodów formowania się gwiazd w galaktyce. Gwiazdy o małej masie mogą żyć bardzo długo, a tym samym pozostawiać długotrwały zapis kopalny, który można bezpośrednio interpretować jako historię formowania się gwiazd galaktyki przez całą historię wszechświata. Obecne dowody pokazują, że każda galaktyka karłowata w Grupie Lokalnej miała inną historię formowania się gwiazd niż każda inna. Karłowate nieregularne galaktyki zazwyczaj wydają się zawierać stare populacje, jak widać z czerwonych gwiazd gałęzi olbrzymów, ale zostało to jednoznacznie udowodnione tylko przez wykrycie gwiazd RR LYRAE w jednym lub dwóch przypadkach (np. IC1613).
Karłowate nieregularne galaktyki mają zatem nie tylko nieregularną morfologię, ale także nieregularną historię formowania się gwiazd, zdominowaną przez krótkie "wybuchy" formowania się gwiazd, a nie mniej lub bardziej stałą szybkość formowania się gwiazd w czasie (jak w przypadku spirali) lub epokę formowania się dawno temu (jak w przypadku eliptycznych). Jest to zgodne z tym, co wiemy również o niebieskich zwartych galaktykach i karłowatych sferoidalnych. W pobliżu karłowate nieregularne galaktyki obecnie tworzą gwiazdy w niezwykle niskim tempie i chociaż to niskie tempo może być mniej więcej stałym podstawowym tempem, z czasem co jakiś czas to tempo wzrasta. Kiedy tak się dzieje, możliwe jest, że karłowata nieregularna galaktyka zostanie sklasyfikowana jako niebieska zwarta galaktyka karłowata, a jeśli to tempo kiedykolwiek spadnie do zera, będą to karłowate sferoidalne. Badania mające na celu zbadanie właściwości bardzo odległych, tak zwanych "słabych niebieskich galaktyk" widocznych na wszystkich
głębokich obrazach nieba, doprowadziły do wniosku, że większość tych obiektów znajduje się w pośrednich przesunięciach ku czerwieni i są późnymi GALAKTYKAMI WYBUCHU GWIAZD. Analiza liczby słabych niebieskich galaktyk w głębokich badaniach, w połączeniu z ich jasnością i zmianami koloru, daje wskazówkę, jak krótkie i jak intensywne muszą być te wybuchy formowania się gwiazd, abyśmy mogli wykryć liczbę słabych niebieskich galaktyk, które wykrywamy. Ten rodzaj analizy sugeruje, że są one dość małe i przechodzą przez niezwykle krótkie, niezwykle intensywne wybuchy formowania się gwiazd. Szczegółowe obrazowanie tych obiektów z Kosmicznego Teleskopu Hubble′a pokazuje, że znaczna większość z nich ma nieregularny kształt. Tak więc to, co wiadomo o tych bardzo odległych, bardzo słabych, ale bardzo licznych słabych niebieskich galaktykach, jest całkowicie zgodne z tym, co możemy założyć na temat obecnych cech karłowatych galaktyk nieregularnych, które widzimy i możemy badać bardzo szczegółowo w pobliskim
wszechświecie i Grupie Lokalnej. Karłowate galaktyki nieregularne są zatem bardzo ważnym ogniwem między pobliskim wszechświatem, który możemy badać stosunkowo łatwo, a najodleglejszymi obiektami we wszechświecie, GALAXIESAT HIGH-REDSHIFT, których nigdy nie będziemy mogli badać tak szczegółowo, jak galaktyk Grupy Lokalnej.
Karłowate galaktyki sferyczne
Nasza galaktyka, DROGA MLECZNA, jest otoczona przez rój karłowatych galaktyk, z których każda składa się ze 100 000 do miliardów gwiazd. Wiele z tych galaktyk jest łatwych do zobaczenia; na przykład OBŁOKI MAGELLANICZNE są widoczne gołym okiem dla obserwatorów na półkuli południowej. Wiele karłów jest znacznie trudniejszych do zauważenia; niektóre z nich zostały odkryte teleskopowo w XIX wieku. Jedna klasa pobliskich galaktyk karłowatych umykała odkryciu jeszcze dłużej. Pod koniec lat 30. Harlow Shapley i Walter Baade poinformowali o odkryciu nowego typu "układu gwiazd" w gwiazdozbiorze Rzeźbiarza (rysunek 1). Ten nowy obiekt, ledwo widoczny na oryginalnych płytach, był pierwszym przykładem karłowatej galaktyki sferycznej (dSph), jaką kiedykolwiek znaleziono. Obecnie wiadomo, że jest jedną z dziewięciu takich galaktyk krążących wokół Drogi Mlecznej. Zgodnie z konwencją, pobliskie galaktyki dSph są zazwyczaj nazywane od konstelacji, w której się znajdują. Dziewięć galaktyk dSph najbliższych Drodze Mlecznej jest najprawdopodobniej grawitacyjnie związanych z naszą Galaktyką. Pozostałe galaktyki dSph wymienione w tabeli znajdują się w GRUPIE LOKALNEJ galaktyk, a wszystkie oprócz jednej są satelitami rojącymi się wokół pobliskiej GALAKTYKI ANDROMEDY. W ostatnich latach galaktyki dSph zostały odkryte w dużej liczbie w innych pobliskich GRUPACH GALAKTYK i GROMADACH GALAKTYK. Gdy te liczby znanych galaktyk dSph zostaną ekstrapolowane na cały wszechświat, staje się oczywiste, że galaktyki dSph są zdecydowanie najczęstszym typem galaktyk według liczby. Jeśli galaktyki dSph są tak powszechne, jak to możliwe, że tak długo umykały odkryciu? Nawet w najciemniejszych, najbardziej odległych miejscach na Ziemi niebo słabo świeci promieniowaniem optycznym. To światło pochodzi głównie z emisji atomowej i molekularnej z górnych części naszej atmosfery, ze światła słonecznego odbitego od pyłu rozproszonego w całym układzie słonecznym i w naszej atmosferze oraz z indywidualnie niewidocznych, ale bardzo licznych słabych galaktyk i gwiazd. Większość galaktyk ma jasność powierzchniową porównywalną z jasnością nocnego nieba; to znaczy, że całkowite światło, które emitują na całej powierzchni galaktyki widzianej na niebie, jest porównywalne z ilością światła emitowanego przez samo niebo. Te galaktyki o wysokiej jasności powierzchniowej - GALAKTYKI SPIRALNE i ELIPTYCZNE - są najczęściej przedstawiane w popularnych książkach o astronomii. Reprezentują to, o czym większość ludzi myśli, wyobrażając sobie "typową" galaktykę. W przeciwieństwie do tego galaktyki dSph mają znacznie niższą jasność powierzchniową, świecąc słabo, a jasność powierzchniowa jest tak niska, że wynosi zaledwie 1% jasności nocnego nieba. Galaktyki te są najbliższymi przykładami prawdziwych układów O NISKIEJ JASNOŚCI POWIERZCHNIOWEJ. Znalezienie takich widmowych obiektów byłoby pod obne do dostrzeżenia żarówki 40 W przed dużym reflektorem lub dostrzeżenia 1-metrowego wzniesienia na 100-metrowym płaskowyżu z daleka. Sculptor został znaleziony w latach 30. XX wieku tylko dlatego, że jest jedną z najjaśniejszych pobliskich galaktyk dSph, znajduje się w szczególnie ciemnej części nieba, a wiele płyt fotograficznych było dostępnych w tym czasie, aby potwierdzić jego odkrycie. Wiele z ostatnio odkrytych galaktyk dSph nie zostało znalezionych gołym okiem, ale dzięki czułym pomiarom elektronicznym obrazów fotograficznych dużych obszarów nieba. Ponieważ są tak trudne do dostrzeżenia, wydaje się pewne, że wiele pobliskich galaktyk dSph pozostaje do odkrycia.
Globalne właściwości karłowatych galaktyk sferoidalnych
Jak sama nazwa wskazuje, galaktyki dSph należą do najmniejszych, najsłabiej świecących galaktyk znanych. Na przykład Mała Niedźwiedzica świeci z całkowitą jasnością około 300 000 razy większą niż jasność Słońca. Dla porównania, Obłoki Magellana - karłowaci towarzysze naszej Drogi Mlecznej - emitują tyle światła, co 2 miliardy Słońc. Nawet niektóre GROMADY KULISTE Drogi Mlecznej emitują więcej światła niż najsłabsze galaktyki dSph. Większość układów dSph wykazuje centralnie skoncentrowaną strukturę z obszarem jądra o niemal stałej, ale niezwykle niskiej jasności powierzchniowej. Zewnętrzne części galaktyk dSph powoli zanikają na nocnym niebie; w wielu przypadkach nie można zmierzyć żadnej dobrze zdefiniowanej granicy zewnętrznej. Jądra centralne mają średnicę od 1000 do 3000 LAT ŚWIETLNYCH, podczas gdy słabo zdefiniowane granice zewnętrzne zwykle rozciągają się 3-10 razy dalej; wymiary galaktyk dSph Grupy Lokalnej są reprezentatywne. Ultraniska jasność powierzchniowa jądra i małe rozmiary to cechy, które zasadniczo odróżniają układy dSph od wszystkich innych klas galaktyk. Wiele galaktyk dSph wykazuje również dobrze zdefiniowane jądra centralne, które są znacznie bardziej zwarte niż jądra galaktyczne. W wielu przypadkach wygląd optyczny jąder przypomina wygląd dużych gromad kulistych. Jądra w galaktykach dSph są najczęstsze w jaśniejszych układach, ale nawet wśród najjaśniejszych układów dSph nie wszystkie posiadają jądra. Tylko jedna galaktyka dSph w Grupie Lokalnej jednoznacznie zawiera jądro: NGC 205, towarzyszka Galaktyki Andromedy. Kształt tych galaktyk na niebie waha się od prawie okrągłego do wysoce eliptycznego. W systemie KLASYFIKACJI HUBBLE′A, mieszczą się one w zakresie od E0 do E7. Nie jest niczym niezwykłym, aby jądro danej galaktyki miało inny eliptyczny kształt i orientację niż zewnętrzny region tego samego systemu . Większość promieniowania z galaktyk dSph emitowana jest w postaci światła gwiazd w optycznej części WIDMA ELEKTROMAGNETYCZNEGO. Brak silnych linii emisyjnych, promieniowania podczerwonego lub radiowego sugeruje, że galaktyki te są na ogół pozbawione ośrodka międzygwiazdowego składającego się z gazu lub pyłu swobodnie unoszącego się między gwiazdami. Ostatnie obserwacje ujawniły możliwy, choć skomplikowany, związek między niektórymi pobliskimi galaktykami dSph a chmurami neutralnego gazu wodorowego widocznymi tylko na falach radiowych. Galaktyki te emitują również bardzo mało światła, które można przypisać niezwykle młodym gwiazdom lub regionom formowania się gwiazd. Sugeruje to, że galaktyki dSph są obecnie uśpionymi systemami, które utworzyły większość swoich gwiazd ponad około 1 miliard lat temu.
Bliskie karłowate galaktyki sferyczne
Ponieważ większość odległych galaktyk dSph wygląda jak pozbawione cech charakterystycznych smugi światła, musimy zwrócić się do najbliższych galaktyk satelitarnych dSph w Grupie Lokalnej, aby spróbować zrozumieć prawdziwą naturę tych małych, ale niezwykle powszechnych systemów. W momencie początkowego odkrycia Sculptora przez Shapleya i Baade′a było jasne, że galaktyki dSph składają się z gwiazd podobnych do tych znajdujących się w gromadach kulistych. Co więcej, galaktyki dSph i gromady kuliste były jedynymi rodzajami obiektów, o których wiadomo, że zamieszkują najbardziej zewnętrzne regiony halo naszej Galaktyki. Te cechy i prosta struktura obu typów układów gwiezdnych wydawały się wskazywać, że galaktyki dSph były po prostu nadmuchanymi wersjami normalnych gromad kulistych. To przekonanie utrzymywało się przez wiele lat, ale z czasem zgromadzono wystarczająco dużo dowodów, aby zacząć sugerować, że w galaktykach dSph dzieje się coś o wiele bardziej skomplikowanego. Na przykład galaktyka Ursa Minor wydawała się być tak rozciągnięta, że nie mogła być związana grawitacyjnie. Sugerowano, że jesteśmy świadkami rozerwania tej galaktyki karłowatej, gdy przechodziła blisko Drogi Mlecznej. Problem w tym, że niezależne obliczenia sił pływowych sugerowały, że Ursa Minor była wystarczająco daleko od Drogi Mlecznej, aby nie powinna się jeszcze rozpadać. Gdy astronomowie zaczęli przeprowadzać szczegółowe badania poszczególnych gwiazd w najbliższych układach dSph, potwierdzili, że gwiazdy w galaktykach dSph mają niedobór ciężkich pierwiastków w porównaniu ze Słońcem. Co dziwne, globalne właściwości gwiazd na diagramach kolor-jasność galaktyk dSph nie potwierdziły tych niskich obfitości pierwiastków. To pozornie sprzeczne zachowanie jest znane jako problem drugiego parametru i występuje w niemal każdym układzie dSph. Te karły zawierają również jasne GWIAZDY WĘGLOWE i niezwykłe GWIAZDY ZMIENNE, których nie ma w gromadach kulistych. Na początku lat 80. pierwsze badania galaktyk dSph wykorzystujące nowoczesne detektory elektroniczne i teleskopy o dużej aperturze ujawniły dwie nieoczekiwane cechy, które pomogły wyjaśnić te zagadki. Pierwsza z nich polegała na tym, że gwiazdy z indywidualnymi galaktykami dSph wydają się poruszać zbyt szybko względem siebie, aby pozostać związane w tak małych galaktykach. Oznacza to, że jeśli oszacujemy masę każdej galaktyki na podstawie liczby widocznych gwiazd, okaże się, że każda z tych galaktyk wydaje się rozpadać na naszych oczach, nie tylko Mała Niedźwiedzica! Ponieważ wydawało się to wysoce nieprawdopodobne, zakwestionowano założenie, że widzimy całą masę w galaktykach dSph. Jednym z alternatywnych modeli jest to, że galaktyki są znacznie masywniejsze niż oczekiwano na podstawie ich widocznej materii, ponieważ zawierają CIEMNĄ MATERIĘ. Modele dynamiczne uwzględniające ciemną materię odpowiednio wyjaśniają wewnętrzne ruchy gwiazd we wszystkich układach dSph. W najbardziej ekstremalnych przypadkach widoczny jest tylko 1% masy galaktyki. Reszta masy składa się z ciemnej materii, której natura, niestety, pozostaje całkowitą tajemnicą. Jeśli to prawda, galaktyki dSph mają największy udział ciemnej masy spośród wszystkich znanych typów galaktyk i dlatego mogą twierdzić, że są "najciemniejszymi" znanymi galaktykami. Co ciekawe, modele ciemnej materii sugerują również, że żadna galaktyka dSph nie ma masy mniejszej niż około 10 milionów razy masa Słońca. Druga rewolucyjna obserwacja udowodniła, że w przeciwieństwie do gromad kulistych, galaktyki dSph zawierają znaczną liczbę "gwiazd w średnim wieku". Tak więc, te galaktyki wydają się tworzyć gwiazdy przez znaczną część życia wszechświata, podczas gdy gromady kuliste generalnie tworzyły prawie wszystkie swoje gwiazdy bardzo szybko po pierwszym uformowaniu się wszechświata. Współczesne badania niemal wszystkich pobliskich galaktyk dSph ujawniają dowody skomplikowanej historii formowania się gwiazd, każda galaktyka różni się od wszystkich innych, podobnie jak wiek dzieci może znacznie różnić się w zależności od rodziny, nawet w małym miasteczku lub sąsiedztwie. W jaki sposób i dlaczego poszczególne galaktyki dSph były w stanie podtrzymywać rozciągnięte i epizodyczne historie formowania się gwiazd, pozostaje niejasne.
Karłowate galaktyki sferyczne w całym wszechświecie
Każda odpowiednio zbadana grupa lub gromada galaktyk ujawniła dużą liczbę galaktyk dSph. Większość z tych galaktyk wydaje się być dość podobna do tych znalezionych w Grupie Lokalnej, ale znaleziono również pewne interesujące odmiany. Na przykład pobliska grupa M81 zawiera kilka galaktyk dSph, które są znacznie bardziej rozciągnięte i mają jeszcze niższą jasność centralnej powierzchni niż znane lokalne układy. Bliskie gromady galaktyk, takie jak VIRGO, FORNAX, CENTAURUS i COMA CUSTERS, zawierają setki do tysięcy pojedynczych galaktyk dSph . Galaktyki karłowate z jądrami są szczególnie powszechne w tych środowiskach, zwłaszcza wśród jaśniejszych galaktyk. W większości przypadków jądra wydają się zawierać gwiazdy, które wyraźnie różnią się - być może starsze lub o innej obfitości pierwiastków - od większości gwiazd w macierzystych galaktykach dSph. Karłowate galaktyki sferyczne wydają się koncentrować bardziej w centrach grup galaktycznych i gromad niż jakikolwiek inny typ galaktyki, w tym galaktyki spiralne, duże galaktyki eliptyczne lub stosunkowo pozbawione pyłu GALAKTYKI DYSKOWE S0. Obserwuje się to również w Grupie Lokalnej, gdzie zdecydowana większość wszystkich karłowatych towarzyszy najbliższych Drogi Mlecznej i Galaktyce Andromedy to układy dSph. Astronomowie spekulują, że bliskość karłów do większych galaktyk lub centrów dużych gromad pomaga usuwać gaz z mniejszych układów w wyniku sił pływowych lub być może w wyniku oddziaływań z izolowanymi obłokami gazu również krążącymi wokół większych układów. Każdy z tych procesów może ograniczyć formowanie się gwiazd w dotkniętych układach, umożliwiając im spadek jasności do bardzo niskich jasności powierzchniowych i ostatecznie prowadząc do powstania galaktyk dSph. Alternatywnie, galaktyki karłowate w pobliżu większych towarzyszy lub w pobliżu gęstych centrów gromad mogą przyspieszyć formowanie się gwiazd z powodu oddziaływań z większymi sąsiadami. Takie galaktyki wyczerpałyby gaz i dziś wydają się zawierać głównie gwiazdy w średnim wieku. Dwie obserwacje sugerują, że galaktyki dSph mogą oddziaływać pływowo ze swoimi masywnymi rodzicami. Po pierwsze, żadna z tych galaktyk nie znajduje się bardzo blisko dużej galaktyki, co oznacza, że siły pływowe niszczą układy dSph, które zapuszczają się zbyt blisko swoich rodziców. W przypadku Drogi Mlecznej graniczna odległość wydaje się wynosić około 150 000 lat świetlnych. Po drugie, faktycznie widzimy jeden przykład zaburzenia, który ma miejsce dzisiaj. Strzelec dSph jest wyjątkowy wśród wszystkich znanych galaktyk dSph ze względu na swoje ogromne rozmiary i niską gęstość, co wskazuje na rozerwanie pływowe. Ten przypadek naprawdę wydaje się być jednym z przypadków galaktyki dSph w jej ostatnich konwulsjach. Modele jej interakcji z Drogą Mleczną sugerują, że w ciągu około miliarda lat Strzelec rozpuści się jako odrębna galaktyka, a jej gwiazdy zostaną rozproszone po halo naszej Galaktyki. Poza około 100 milionami lat świetlnych galaktyki dSph wydają się zbyt małe i zbyt słabe, aby można je było łatwo zidentyfikować. Jednak ich obecność można nadal wnioskować pośrednio. Głębokie zliczenia galaktyk ujawniły populację tak zwanych słabych niebieskich galaktyk zlokalizowanych w tak dużych odległościach, że widzimy systemy takie, jakie były wiele miliardów lat temu. Niektóre z nich mogłyby być galaktykami dSph uchwyconymi podczas jednego z wielu silnych epizodów formowania się gwiazd. Takie wydarzenia sprawiają, że galaktyki stają się jaśniejsze i bardziej niebieskie, co jest zgodne z właściwościami co najmniej niektórych obserwowanych słabych niebieskich galaktyk. Słabe NIEREGULARNE GALAKTYKI wydają się mieć globalne właściwości podobne do galaktyk dSph, ale z dodatkiem młodych gwiazd i znacznego ośrodka międzygwiazdowego. Być może stanowią one współczesne przykłady galaktyk, które przeszły ewolucję z młodej, niebieskiej fazy i zmieniają się w typowe galaktyki dSph. Ponieważ galaktyki dSph są tak powszechne i ponieważ większość popularnych modeli FORMOWANIA GALAKTYK we wczesnym wszechświecie sugeruje, że małe galaktyki powstały jako pierwsze, może być nawet możliwe, że galaktyki dSph stanowią podstawową jednostkę formowania galaktyk. Jeśli tak, systemy dSph, które widzimy dzisiaj, mogą stanowić skamieliny obiektów podobnych do pierwszych galaktyk, jakie kiedykolwiek powstały.
Dynamiczny układ odniesienia
Dynamiczny układ odniesienia jest realizacją dynamicznego układu odniesienia, który opiera się na ruchach układu słonecznego . Był to standardowy układ odniesienia, dopóki nie stało się możliwe obserwowanie położenia bardzo odległych źródeł radiowych z dużą dokładnością. Zasada definicji dynamicznego układu współrzędnych polega na ustaleniu warunku, że ruch ciał niebieskich można przedstawić za pomocą rozwiązania układu równań różniczkowych ruchu zapisanych w ustalonej triadzie. Potwierdza to fakt, że nie ma potrzeby żadnego dodatkowego przyspieszenia, aby uwzględnić ruch. Aby wyeliminować przyspieszenie liniowe, ustawia się środek współrzędnych w barycentrum układu słonecznego, zakładając, że bierze się pod uwagę przyspieszenie Coriolisa spowodowane ruchem wokół środka Galaktyki. Zatrzymanie obrotu osi jest głównym problemem w budowaniu układu dynamicznego, ponieważ nie ma zmaterializowanych niezmiennych kierunków i ogranicza się do możliwie najdokładniejszego opisu ruchów punktów odniesienia dostępnych obserwacjom. W rzeczywistości istnieje stała płaszczyzna odniesienia zdefiniowana przez układ słoneczny. Jest to płaszczyzna niezmienna lub laplasowska. Jest to płaszczyzna prostopadła do osi momentu pędu i przechodząca przez barycentrum. Płaszczyznę tę można zdefiniować teoretycznie, ale nie jest ona obserwowalna. Ponadto jest ona w pewnym stopniu zależna od kompletności ciał układu uwzględnionych w jej określeniu, a zatem nie nadaje się do praktycznego użytku. Tak więc w praktyce wybór definicji układu odniesienia dynamicznego to średnia płaszczyzna równikowa, płaszczyzna ekliptyki, która jest średnią płaszczyzną orbity Ziemi bez zaburzeń planetarnych, oraz jedno z przecięć tych płaszczyzn, równonoc, która jest punktem odniesienia. Ziemia, będąca naszym siedliskiem i bazą obserwacji, staje się naturalną podstawą dla większości układów odniesienia. Płaszczyzna równikowa jest najbardziej oczywistą i konieczną płaszczyzną odniesienia, ponieważ ruchy wszystkich obserwatoriów są względem tej płaszczyzny. Można ją określić na podstawie danych obserwacyjnych, albo poprzez określenie bieguna niebieskiego, albo z dobowych ruchów źródeł niebieskich. Nie jest ona jednak ustalona i porusza się z powodu sił grawitacyjnych Słońca, Księżyca i planet na wybrzuszeniu Ziemi oraz z powodu dynamiki wielu składników wnętrza, powierzchni i zewnętrza Ziemi. Ruchy te nazywane są precesją, nutacją i ruchem biegunowym (patrz OBROT ZIEMI). Inną naturalną płaszczyzną odniesienia jest płaszczyzna orbity Ziemi. Podlega ona ruchom z powodu zaburzeń planet i zmienia się nieustannie. Średnia płaszczyzna orbity Ziemi nazywana jest EKLIPTYKĄ. Dopóki ogólna teoria Newcomba była używana do określania efemeryd Ziemi, ekliptyka była dobrze zdefiniowana przez elementy średnie. Przy numerycznej integracji efemeryd Ziemi okres czasu wymagany do zdefiniowania średniej orbity jest niepewny. Płaszczyzna jest również zależna od efemeryd użytych do jej określenia. Równonoc jest definiowana jako przecięcie eklipityki i średniego równika Ziemi. Przy określaniu tego przecięcia z numerycznie zintegrowanych EFEMARYDÓW należy dokonać rozróżnienia. Równik można traktować jako płaszczyznę chwilową lub jako płaszczyznę poruszającą się jednostajnie. Historyczne określenie zostało dokonane na podstawie płaszczyzny poruszającej się jednostajnie i jest to definicja, która jest nadal używana. Różnica między dwiema możliwymi definicjami równika wynosi około jednej dziesiątej sekundy łuku. W przypadku kalendarzy, pór roku i definicji świąt równonoc jest określana jako czas, w którym Słońce przechodzi przez którykolwiek z punktów przecięcia, tj. gdy pozorna długość geograficzna Słońca wynosi zero lub 180?. Ponieważ zarówno równik, jak i ekliptyka przesuwają się z powodu słonecznych, księżycowych i planetarnych sił grawitacyjnych na kształt Ziemi oraz zaburzeń powodowanych przez planety w ruchu Ziemi, równonoc przesuwa się w czasie. Dlatego dynamiczny układ odniesienia musiał zostać określony dla konkretnej epoki, a obserwacje i przewidywania były przekształcane do i ze standardowych epok na wybrane czasy obserwacji. Dynamiczny układ odniesienia służył jako podstawowy układ odniesienia astronomii do 1998 r., kiedy został zastąpiony przez Międzynarodowy Niebiański Układ Odniesienia (ICRS), oparty na pozagalaktycznych źródłach radiowych, a zatem ustalony w przestrzeni (patrz POZAGALAKTYCZNE UKŁADY ODNIESIENIA). Nowy punkt odniesienia nie musi obracać się tak, jak robiła to równonoc. Definicja była dowolna, ale ze względu na współzależność definicji czasu i układów współrzędnych, możliwe były pewne optymalne wybory. Realizacja dynamicznego układu odniesienia została oparta na katalogach fundamentalnych określonych na podstawie obserwacji jasnych gwiazd. Katalogi te zawierały pozycje i ruchy własne oparte na pewnej wartości precesji dla ruchu równonocy. Katalogi fundamentalne składały się z dwóch serii: amerykańskiej i niemieckiej (Eichhorn 1974). Serie katalogów fundamentalnych (FK3, FK4 i FK5) były używane do 1998 roku. FK3 i FK4 opierały się na wartości precesji Newcomba i dynamicznej teorii ruchu układu słonecznego. FK5, wprowadzony w 1984 r., opierał się na zmienionej wartości precesji i Jet Propulsion Laboratory Development Ephemeris DE 200. Wprowadzenie FK5 było również okazją do wprowadzenia nowej teorii nutacji, nowych stałych astronomicznych i nowych definicji skal czasowych. Uznano, że FK5 definiuje równonoc katalogową, która jest początkiem rektascensji w katalogu. Podczas gdy próbowano, aby była ona równoważna równonocy dynamicznej zdefiniowanej przez efemerydy układu słonecznego, nieuchronnie istniała różnica między tymi dwoma początkami, nazywanymi odpowiednio równonocą katalogową i dynamiczną, a różnica ta mogła być funkcją czasu. Nowy ICRS definiuje układ odniesienia, który ma mieć swój początek równoważny równonocy dynamicznej J2000.0, ale znowu nieuchronnie będzie istniała różnica między równonocą określoną na podstawie efemeryd a początkiem ICRS. Ta różnica będzie zależeć od efemeryd, które zostaną teraz określone na podstawie obserwacji zredukowanych bezpośrednio na ICRS. Ruch płaszczyzny równikowej jest spowodowany momentem obrotowym Słońca, Księżyca i planet na dynamicznej figurze Ziemi, został podzielony na okresy długie i krótkie. Gładki, długookresowy ruch średniego bieguna równika wokół bieguna ekliptyki z okresem około 26 000 lat to precesja księżycowo-słoneczna. Krótkookresowy ruch, określony na podstawie teorii NUTATION, składa się z wielu okresów o okresach mniejszych niż 18,6 roku, z maksymalną amplitudą około 9 .0 (patrz OBRÓT ZIEMI: TEORIA). Ruch ekliptyki jest spowodowany działaniem grawitacyjnym planet na orbicie Ziemi i przyczynia się do precesji znanej jako PRECESJA planetarna. Gdyby równik był stały, ruch ten powodowałby precesję równonocy o około 12 na stulecie i zmniejszenie nachylenia ekliptyki o około 47 na stulecie. Połączenie precesji księżycowo-słonecznej i planetarnej nazywa się precesją ogólną. Przyczyny precesji i nutacji są takie same, różnią się tylko okresy. Obecnie rozważa się wyeliminowanie tego rozróżnienia. W tym momencie oficjalnie przyjęta stała precesji ogólnej w długości geograficznej na stulecie juliańskie w epoce J2000.0, p = 5029. 0906, jest znana jako niepoprawna o około -0. 2957 na stulecie. Wiadomo, że teoria nutacji IAU z 1980 r. wymaga udoskonalenia. Teoria nutacji dla sztywnej Ziemi została udoskonalona i rozszerzona na mniejsze człony. Jednak transformacja ze sztywnego modelu Ziemi do rzeczywistego niesztywnego modelu Ziemi nie została uznana za zgodną z danymi obserwacyjnymi. Dlatego dla dokładności rzędu ą1 mas teoria nutacji z 1980 r. jest zadowalająca. Aby uzyskać większą dokładność, zaleca się, aby wartości liczbowe określane i dystrybuowane co tydzień przez Międzynarodową Służbę Obrotu Ziemi (IERS) były używane zarówno dla precesji, jak i nutacji.
Dynamika
Galaktyka składa się z gwiazd w taki sam sposób, w jaki kryształ składa się z atomów, a wielkoskalowe właściwości galaktyki odzwierciedlają siły działające między jej gwiazdami składowymi w taki sam sposób, w jaki struktura kryształu odzwierciedla naturę sił międzyatomowych. Galaktyki i kryształy mają silnie kontrastujące wielkoskalowe właściwości, ponieważ galaktyka jest utrzymywana razem przez siłę, która ma zupełnie inne właściwości niż typowa siła międzyatomowa. W większości przypadków możemy pominąć fizyczny rozmiar gwiazd i uznać je za cząstki punktowe, które oddziałują tylko za pośrednictwem grawitacji. Grawitacja jest wyjątkowo dalekosiężną siłą, więc siła netto działająca na pojedynczą gwiazdę zależy bezpośrednio od lokalizacji każdej innej gwiazdy w galaktyce. Natomiast siła netto działająca na atom w krysztale zależy tylko od lokalizacji do kilkudziesięciu bliskich sąsiadów. Biorąc pod uwagę, że w galaktyce takiej jak nasza Droga Mleczna jest ponad 1011? jednostek masy na jednostkę objętości, gdzie m jest średnią masą gwiazdy. Wymagane przyciąganie grawitacyjne jest łatwe do obliczenia, jeśli najpierw określimy potencjał grawitacyjny generowany przez rozkład gęstości ρ. Zastąpienie pojedynczych gwiazd wygładzonym rozkładem masy daje obojętne oszacowanie części siły działającej na gwiazdę, która pochodzi od jej bliskich sąsiadów. W szczególności całkowicie pomija fakt, że gwiazda czasami doświadcza krótkich intensywnych okresów przyspieszenia, gdy sąsiednia gwiazda przechodzi niezwykle blisko. To zaniedbanie "zderzeń" można naprawić na późniejszym etapie analizy, gdy efekty zderzeń zostaną dodane do "dynamiki bezkolizyjnej", która jest określana przez przybliżenie rozkładu masy układu za pomocą gładkiego rozkładu. Im dłużej ewoluuje układ gwiazd, tym ważniejsze stają się zjawiska zderzeń. Zasadniczo czas potrzebny, aby efekty zderzeń stały się ważne w układzie N gwiazd, wynosi ∿N/8 lnN razy średni czas, w jakim gwiazda przechodzi przez układ. Czas ten jest znacznie dłuższy niż wiek wszechświata w przypadku typowej galaktyki, ale znacznie krótszy niż jego wiek w przypadku typowej GROMADY GWIAZD. W tym artykule dokonujemy przeglądu podstawowych zasad rządzących dynamiką galaktyk i gromad gwiazd.
Dynamika bezkolizyjna
System gwiazdowy jest pożytecznie postrzegany jako zbiór orbit w wygładzonym potencjale układu, z których każda jest zamieszkana przez określoną liczbę gwiazd. W związku z tym podstawowym zadaniem dynamiki gwiazd jest zrozumienie, jakie orbity mogą powstać w danym potencjale grawitacyjnym. Najłatwiejszym przypadkiem do rozważenia jest potencjał sferyczny. Wtedy każda gwiazda porusza się w płaszczyźnie prostopadłej do wektora PĘDU KĄTOWEGO gwiazdy. W tej płaszczyźnie gwiazda opisuje rozetę. Orbitę najlepiej określa jej moment pędu, L, i jej "działanie radialne" Jr, które określa siłę promieniowych wycieczek gwiazdy: orbita kołowa ma zerowe działanie radialne, JrJr = 0. Kierunek wektora momentu pędu L definiuje płaszczyznę orbity, podczas gdy wielkość wektora L kontroluje rozmiar i mimośród orbity - jeśli JrJr/L jest małe, orbita jest prawie kołowa, a orbita jest fizycznie mała, jeśli L jest małe i duża, jeśli L jest duże. Niewiele galaktyk ma potencjały sferyczne, ale wiele ma potencjały, które są prawie osiowo symetryczne. Jak orbity w potencjale sferycznym zmieniają się, jeśli spłaszczymy potencjał wzdłuż pewnej osi, tak aby pozostał osiowo symetryczny względem tej osi? W potencjale spłaszczonym orbity nie są ograniczone do płaszczyzn, ale możemy uzyskać ich dość dokładny obraz, uznając je za ograniczone do płaszczyzn precesujących. Oznacza to, że orbita jest w przybliżeniu ograniczona do płaszczyzny nachylonej pod pewnym kątem do osi symetrii potencjału i powoli obraca się wokół tej osi. Na płaszczyźnie orbita pozostaje rozetą. Kształt tej rozety jest kontrolowany przez Jr i liczbę zwaną I3rJr i L. Nachylenie precesującej płaszczyzny orbity do osi symetrii potencjału jest określone przez stosunek I3/Lz I3 do momentu pędu gwiazdy wokół osi symetrii potencjału. Potencjały wielu galaktyk znacznie odbiegają od symetrii osiowej, więc zastanówmy się, co się stanie, jeśli zgnieciemy potencjał osiowosymetryczny wzdłuż osi prostopadłej do jego osi symetrii. Podczas gdy niektóre orbity odkształcają się tylko nieznacznie, inne silnie wzmacniają odchylenie potencjału od symetrii osiowej. Gdy potencjał galaktyki jest trójosiowy, zwykle będzie się obracać wokół jednej ze swoich osi głównych. Orbity pokazane na rysunku 2 znajdują się w potencjale, którego osie są stałe, a nie obracają się. Szybkość, z jaką potencjał się obraca, definiuje charakterystyczny promień, promień korotacji, rCR, przy którym gwiazda poruszająca się z potencjałem porusza się po orbicie kołowej. Przy promieniach znacznie mniejszych niż rCR obrót figury potencjału jest nieistotny. Przy promieniach większych niż około rCR/10 orbity są głęboko modyfikowane przez obrót figury, a przy promieniach bliskich r
Entropia i równowaga
W dynamice gwiazd poszukujemy informacji statystycznych w tym sensie, że chcielibyśmy poznać prawdopodobieństwo wystąpienia dowolnej danej konfiguracji - w której dana liczba gwiazd znajduje się na każdej orbicie. W zwykłej fizyce statystycznej prawdopodobieństwo P wystąpienia danego stanu kwantowego można zazwyczaj uzyskać z rozkładu Gibbsa, P ∝ e>sup>-βE, gdzie β = 1/kT jest odwrotną temperaturą, a E jest energią stanu. Czy ten rozkład można przenieść do dynamiki gwiazd? Odpowiedź na to pytanie brzmi "nie". W rzeczywistości koncepcja równowagi termodynamicznej ostatecznie zawodzi w przypadku każdego samograwitującego układu, w tym każdego układu gwiezdnego. Powód tej awarii jest bardzo interesujący i można go zrozumieć, rozważając samograwitujący układ o masie M i charakterystycznym promieniu R. Energia układu jest wówczas rzędu U = ?GM2/2R, a zgodnie z "twierdzeniem wirialnym" średnia kwadratowa losowa prędkość cząstek składowych układu (atomów lub gwiazd),

gdzie k jest stałą Boltzmanna, a N jest liczbą cząstek (atomów lub gwiazd) w układzie. Teraz wyobraź sobie, że wprowadzasz układ w kontakt termiczny z nieco chłodniejszym zbiornikiem ciepła. Ciepło wypłynie z układu do zbiornika. Zgodnie z zasadą zachowania energii, energia wewnętrzna układu U stanie się bardziej ujemna, a zgodnie z powyższym równaniem, T wzrośnie. To zachowanie jest całkowitym przeciwieństwem tego, co obserwujemy w życiu codziennym: gdy ciepło wypływa z filiżanki kawy, chłodzi się, a nie ogrzewa. Możemy pokazać, że to anomalne zachowanie układów samograwitacyjnych oddala je od równowagi termicznej, rozważając taki układ jako złożony z dwóch części: rdzenia i otoczki. Jeśli układ jest bardzo skoncentrowany centralnie, rdzeń jest o rzędy wielkości gęstszy niż otoczka, a równowaga rdzenia jest bardzo mało dotknięta obecnością otoczki, więc zależność między energią wewnętrzną a temperaturą, którą wyprowadziliśmy powyżej, można zastosować do samego rdzenia. Otoczka jest ograniczona przez
mieszankę "zewnętrznego" pola grawitacyjnego rdzenia i jego własnej grawitacji, więc jej temperatura i energia wewnętrzna będą połączone relacją, która leży gdzieś pomiędzy tą wyprowadzoną powyżej dla układu doskonale samograwitującego a tą właściwą dla gazu klasycznego, w którym U jest dodatnie, a T = 2/3 U/Nk. Ogólnie możemy zapisać T = αU/Nk, gdzie ?2/3 ≤? α ≤ 2/3 w zależności od stopnia, w jakim otoczka jest samograwitująca. Jeśli początkowo rdzeń i otoczka znajdują się w równowadze termicznej, muszą mieć wspólną temperaturę T. Rozważmy fluktuację termiczną, która przenosi niewielką ilość ciepła, δU, z rdzenia do otoczki. Ten transfer powoduje wzrost temperatury rdzenia o δTcore = 2 δU/3Nk (ponieważ energia rdzenia zmienia się o -δU), podczas gdy temperatura otoczki wzrośnie o δTenv = α δU/Nk. Ponieważ otoczka musi być w pewnym stopniu samograwitująca, α < 23 i δTcore > δTenv. W konsekwencji, po fluktuacji, rdzeń jest cieplejszy niż otoczka, a gradient temperatury między rdzeniem a otoczką zaczyna napędzać stały przepływ ciepła z rdzenia do otoczki. Ten przepływ zwiększa różnicę temperatur między rdzeniem a otoczką i następuje "katastrofa grawitermiczna", w której Tcore nieubłaganie rośnie. Sekwencja zdarzeń, którą właśnie opisaliśmy, uniemożliwia każdemu klasycznemu układowi samograwitującemu, czy to gwieździe, czy galaktyce, osiągnięcie równowagi termicznej. Mimo wszystko koncepcja równowagi termicznej jest nieoceniona w zrozumieniu struktury gwiazdy, ponieważ w gwieździe zwykle występuje dobrze zdefiniowana temperatura w dowolnym promieniu, ponieważ pojedyncze atomy lub fotony nie oddalają się daleko między zderzeniami. W układzie gwiezdnym natomiast gwiazdy poruszają się ze stałą energią w szerokim zakresie promienia, a rozkład prędkości gwiazd w danym promieniu nie jest charakterystyczny dla żadnej konkretnej temperatury. Chociaż analogia między strukturą gwiazdy a układem gwiezdnym jest niedoskonała, teoria EWOLUCJI GWIAZDOWEJ dostarcza cennych spostrzeżeń na temat dynamiki układów gwiezdnych. Gwiazdy zaczynają życie stosunkowo jednorodne. Stopniowo katastrofa grawitermiczna powoduje, że rdzeń kurczy się i nagrzewa, a otoczka rozszerza się i ochładza, czego konsekwencją obserwacyjną jest to, że gwiazda staje się CZERWONYM OLBRZYMEM. Wszystkie układy gwiezdne znajdują się w pewnym momencie tej wędrówki w kierunku każdej większej centralnej kondensacji. Jest to podróż bez końca, ponieważ można pokazać, że niezależnie od bieżącej konfiguracji, entropię układu gwiezdnego można zwiększyć poprzez transfer energii z gęstego wnętrza do bardziej rozrzedzonej części zewnętrznej.
Dynamika gromad gwiazd
To, co różni się w zależności od układu, to szybkość, z jaką zachodzą takie transfery, oraz procesy fizyczne za nie odpowiedzialne. Układy, które ewoluują w najbliższej analogii do gwiazdy, to gromady gwiazd. W tych układach, które zawierają od kilkuset do być może stu tysięcy gwiazd, procesy kolizyjne są ważne w dwóch kontekstach. Po pierwsze, powodują transfer ciepła z kurczącego się jądra do rozszerzającej się otoczki. Po drugie, umożliwiają uwolnienie energii w jądrze w taki sam sposób, w jaki w jądrze gwiazdy reakcje jądrowe uwalniają energię. Mechanizm tego uwalniania energii jest następujący. Kiedy pojedyncza gwiazda zbliża się do GWIAZDY PODWÓJNEJ, wymienia energię z gwiazdą podwójną i często tworzy gwiazdę potrójną, w której wszystkie trzy gwiazdy są związane. Następnie dwie z trzech gwiazd zbliżają się do siebie, uwalniając energię, która jest wykorzystywana do wyrzucenia trzeciej gwiazdy z dużą prędkością. Stąd też wynikiem netto powstania gwiazdy potrójnej jest zastąpienie stosunkowo wolno poruszającej się wolnej gwiazdy znacznie szybszą. Z czasem ta szybsza gwiazda będzie tracić energię na rzecz gwiazd, które napotka podczas przemieszczania się przez gromadę. Gwiazdy podwójne, będąc masywniejsze od większości gwiazd pojedynczych, mają tendencję do zapadania się w kierunku jądra. Ponadto, szybkość, z jaką dana gwiazda podwójna będzie doświadczać bliskich spotkań z gwiazdami pojedynczymi, jest najwyższa w gęstym środowisku jądra. Tak więc większość energii uwalnianej podczas spotkań gwiazd podwójnych ogrzewa jądro, a nie otoczkę. Wynika z tego, że gromada gwiazd przypomina gwiazdę, ponieważ jej jądro jest ogrzewane, a otoczka przekazuje strumień energii cieplnej na zewnątrz. Rdzeń gromady gwiazd reaguje na ogrzewanie, rozszerzając się, a tym samym zmniejszając szybkość, z jaką spotkania gwiazd podwójnych je ogrzewają. W konsekwencji mogą wystąpić oscylacje w gęstości jądra, w których ekspansja i zmniejszone ogrzewanie są kontynuowane przez kurczenie się i zwiększone ogrzewanie, a następnie cykl się powtarza .
Dynamika galaktyk eliptycznych
GALAKTYKI ELIPTYCZNE różnią się od GROMAD KULISTYCH głównie skalą: podczas gdy gromada kulista zawiera rzędu 105 gwiazd, masywna galaktyka eliptyczna zawiera ponad 1012 gwiazd. Oprócz tego, że są znacznie masywniejsze niż gromady kuliste, galaktyki eliptyczne są również fizycznie większe. W rzeczywistości masywna galaktyka eliptyczna może mieć kilka tysięcy gromad kulistych związanych ze sobą, z dużą ilością miejsca, aby mogły się one przemieszczać przez galaktykę tak jak gwiazdy. Ogromna liczba gwiazd w galaktyce eliptycznej i ogromna objętość, w której są rozmieszczone, sprawiają, że efekty kolizyjne są całkowicie nieistotne. Tak więc podczas gdy efekty kolizyjne nieustannie przesuwają gromadę kulistą wzdłuż dobrze zdefiniowanej ścieżki ewolucyjnej, galaktyka eliptyczna spędza większość czasu utknięta w określonej konfiguracji. Jakie procesy fizyczne doprowadziły ją do konfiguracji, w której jest teraz zamrożona? Odpowiedź na to pytanie nie jest do końca jasna, ale niewątpliwie dwoma ważnymi procesami są fuzje i kanibalizm. W przypadku braku efektów kolizyjnych pojedyncza gwiazda może zmienić energię swojej orbity tylko wtedy, gdy zmienia się ogólny galaktyczny potencjał grawitacyjny. Fakt ten oznacza, że ewolucja galaktyki bezkolizyjnej koncentruje się na krótkich epizodach gwałtownych zmian: rewolucji, a nie ewolucji. Podczas jednego z tych epizodów zmian, szybka zmiana ogólnego potencjału grawitacyjnego powoduje, że poszczególne gwiazdy zyskują i tracą energię dość szybko. Ta energiczna wymiana energii między gwiazdami z kolei napędza szybką ewolucję ogólnego potencjału. Epizod szybkiej zmiany potencjału grawitacyjnego może zostać zainicjowany przez bliskie spotkanie z inną galaktyką. Jeśli intruzująca galaktyka zbliży się wystarczająco blisko i będzie się poruszać wystarczająco wolno, dwie galaktyki staną się galaktyką podwójną, w której potencjał grawitacyjny stale się zmienia, ponieważ galaktyki obracają się wokół siebie, jednocześnie naprzemiennie zbliżając się do siebie i oddalając od siebie. Wraz ze zmianą potencjału grawitacyjnego niektóre gwiazdy zyskują energię, a inne ją tracą, ale ogólnie więcej energii jest pobierane niż tracone przez gwiazdy. Czysty zysk energii gwiazd jest odzwierciedlony przez czystą utratę energii z względnej orbity dwóch galaktyk. Stąd galaktyki spiralnie się łączą i ostatecznie się łączą (patrz GALAKTYKI: INTERAKCJE I POŁĄCZENIA). Czas potrzebny do całkowitego połączenia się galaktyk zależy od ich względnych mas początkowych. Jeśli dwie galaktyki mają początkowo porównywalną wielkość, połączenie jest zakończone w momencie, gdy galaktyki okrążą się nawzajem dwa lub trzy razy. Jeśli jedna galaktyka jest znacznie mniej masywna niż druga, do połączenia potrzeba więcej orbit - w kolejności wielkości liczba wymaganych orbit jest równa masie większej galaktyki podzielonej przez masę mniejszej. Gdy ten stosunek jest duży, większa galaktyka wydaje się pożerać mniejszą, a wtedy mówi się o "kanibalizmie". Konfiguracja galaktyki, która wyłania się ze zdarzenia połączenia, zależy w znacznym stopniu od stosunku mas połączenia. Jeśli stosunek mas jest bliski jedności, produkt połączenia ma tendencję do trójosiowego kształtu i co najwyżej powolnego obracania się. Większe stosunki mas z większym prawdopodobieństwem powodują symetrię osiową i znacząco obracające się produkty fuzji .
Czarne dziury jądrowe
Prawdopodobnie wszystkie duże galaktyki zawierają masywne centralne CZARNE DZIURY - wiemy na pewno, że nasza Droga Mleczna ma czarną dziurę o masie ∿2×106M⊙, a nasz najbliższy olbrzymi sąsiad, ANDROMEDAGALAXY M31, ma jeszcze masywniejszą czarną dziurę jądrową. Obecność czarnych dziur jądrowych w galaktykach, które się łączą, ma ważne konsekwencje dla dynamiki pozostałości po połączeniu. Po pierwsze, i co najbardziej widoczne, nieregularny i zmienny w czasie potencjał grawitacyjny łączących się galaktyk zasila znaczną część gazu w układzie czarnych dziur, które następnie mogą stać się ultrajasne, gdy akreują część tego obfitego zapasu gazu. W końcowej fazie łączenia się, gdy jądra dwóch galaktyk spiralnie zbliżają się do siebie, czarne dziury mogą mieć znaczący wpływ na rozkład gwiazd w ich pobliżu. Rzeczywiście, połączenie prowadzi do powstania czarnej dziury podwójnej, która początkowo porusza się przez centralnie skoncentrowane morze gwiazd tła. Gwiazdy jedna po drugiej pobierają energię z czarnej dziury podwójnej i przesuwają się do większych promieni. Z czasem gęstość morza gwiazd przestaje być centralnie skoncentrowana. W konsekwencji utraty energii na rzecz gwiazd tła, orbita czarnej dziury podwójnej kurczy się i skraca okres, aż zaczyna być relatywistyczna w tym sensie, że jej okres nie jest ekstremalnie długi w porównaniu z czasem, jakiego potrzebuje światło, aby ją przekroczyć. Kiedy ten etap zostanie osiągnięty, promieniowanie FAL GRAWITACYJNYCH przez orbitę staje się dominującym mechanizmem utraty energii. W miarę jak orbita skraca się jeszcze bardziej, intensywność emitowanych fal grawitacyjnych i tempo rozpadu orbity gwałtownie przyspieszają. Następnie musi nastąpić połączenie dziur, z pewnością jedno z najbardziej niesamowitych wydarzeń, jakich kiedykolwiek doświadczył wszechświat. W długiej skali czasowej ostateczna, połączona czarna dziura może głęboko zmodyfikować otaczającą ją galaktykę . Galaktyczne połączenie często pozostawi tę ostatnią trójosiową. Jej trójosiowość jest podtrzymywana przez orbity "pudełkowe". Gwiazda na takiej orbicie może przejść bardzo blisko centrum galaktyki, gdzie znajduje się czarna dziura. Jeśli podczas pewnego przejścia znajdzie się bardzo blisko czarnej dziury, zostanie odchylona pod dużym kątem i pojawi się na zupełnie innej orbicie. Oczywiste jest, że gdy wystarczająca liczba gwiazd zostanie w ten sposób przeniesiona z wydłużonych orbit na grube orbity, galaktyka ogólnie stanie się mniej wydłużona. Co więcej, jest to prawdopodobne, że będzie to proces ucieczki: transfery gwiazd z wydłużonych orbit na grube sprawiają, że ogólny potencjał galaktyczny jest mniej wydłużony, a to zmniejszenie wydłużenia potencjału zmniejsza wydłużenie orbit innych gwiazd, które nie przeszły nigdzie w pobliżu czarnej dziury. Szczegóły tych procesów - wyrzucanie gwiazd z centrów galaktyk przez czarne dziury podwójne i prawdopodobnie katastrofalne zatarcie trójosiowości w wyniku rozproszenia gwiazd o wysokiej energii przez połączoną czarną dziurę - nie zostały w pełni wyjaśnione , ale prawdopodobnie wyjaśniają zaobserwowany fakt, że galaktyki eliptyczne o mniejszej jasności mają stożkowate i prawdopodobnie osiowosymetryczne centra, podczas gdy jaśniejsze układy mają centra bardziej jednorodne i prawdopodobnie trójosiowe .
Dynamika galaktyk dyskowych
Wiele, a może zasadniczo wszystkie, gwiazdy powstają w odśrodkowo podtrzymywanych dyskach gazu. W związku z tym dynamika dysków gazu i gwiazd ma kluczowe znaczenie dla dynamiki galaktycznej . Wyobraź sobie dysk gwiazd, w którym każda gwiazda znajduje się na orbicie kołowej. Jest to konfiguracja równowagowa, ale okazuje się, że jest ona gwałtownie niestabilna i szybko rozpadnie się na pierścienie o zwiększonej gęstości oddzielone zagłębieniami gęstości. Aby uniknąć szybkiej fragmentacji, gwiazdy dysku muszą mieć losowe prędkości oprócz obracania się wokół centrum galaktyki, a im wyższa gęstość powierzchniowa dysku, tym większe muszą być losowe prędkości gwiazd, aby uniknąć fragmentacji. Ponieważ gwiazdy stabilnego dysku mają losowe prędkości, muszą znajdować się na orbitach niekołowych, więc muszą znajdować się na orbitach przypominających rozety. Jeśli spojrzymy na taką orbitę z układu odniesienia, który obraca się z odpowiednią częstotliwością, ωp, orbita wygląda na zamkniętą. Jeśli wypełnimy taką orbitę wieloma gwiazdami równomiernie rozłożonymi w fazie wokół orbity, otrzymamy eliptyczny pierścień gwiazd, którego długa oś obraca się stale z prędkością kątowąωp - mówimy, że pierścień "precesuje" z częstotliwością ωp. Zauważ, że częstotliwość precesji ωp jest całkowicie odmienna od częstotliwości, z jaką poszczególne gwiazdy krążą wokół pierścienia - jest ogólnie znacznie większa niż ωp. Rysunek pokazuje, co się stanie, jeśli nałożymy na siebie wiele pierścieni gwiazd, każdy o nieco innym promieniu i początkowej orientacji swojej długiej osi.
Pojawiają się ramiona spiralne o zwiększonej gęstości. Rysunek opisuje istotę budowy ramion SPIRALGALAXIES. Dynamika tych systemów jest niezwykle złożona, ponieważ w potencjale osiowosymetrycznym częstotliwość precesji ωp zmienia się wraz z promieniem obręczy. W rzeczywistości częstotliwość precesji najbardziej wewnętrznych orbit na rysunku będzie generalnie wyższa niż orbit najbardziej zewnętrznych, co spowoduje, że wzór spiralny będzie stopniowo skręcał się w coraz ciaśniejszą spiralę. W rzeczywistości ramiona spiralne będą wnosić znaczący nieosiowosymetryczny składnik do potencjału grawitacyjnego i musimy zadać sobie pytanie, jak ten składnik wpływa na częstotliwości precesji poszczególnych obręczy. Nieosiowosymetryczny składnik potencjału nakłada momenty obrotowe na każdy pierścień, a te momenty obrotowe mogą zwiększać lub zmniejszać częstotliwość precesji obręczy. Pomysłem stojącym za teorią normalnego trybu struktury spiralnej jest znalezienie konfiguracji obręczy - zasadniczo reguły,
φ0(a), dla początkowej orientacji głównej osi obręczy jako funkcji długości półosi głównej, a - takiej, że momenty obrotowe przyspieszają najwolniejsze obręcze i zwalniają najszybsze, tak aby wszystkie obręcze obracały się z tą samą prędkością, a spiralny wzór, który tworzą, obracał się jak sztywne ciało. W tych okolicznościach ωp nazywa się "prędkością wzoru" ramion spiralnych. Określenie funkcji ωp jest matematycznie trudnym problemem, a teoria struktury spiralnej nie była często podejmowana tą bezpośrednią drogą. Zwykłym podejściem jest rozpoczęcie od spostrzeżenia, że samograwitujący dysk gwiazd jest ośrodkiem zdolnym do podtrzymywania fal, w taki sam sposób jak powierzchnia stawu. Jeśli zaburzymy gwiazdy w pewnym promieniu r0, zmienimy sposób, w jaki przyczyniają się one do ogólnej gęstości powierzchni w pobliżu r0, a tym samym zmienimy potencjał grawitacyjny, w którym poruszają się inne, wcześniej niezaburzone gwiazdy. Stąd ruch
tych innych gwiazd zostanie zaburzony, a one z kolei zaburzą jeszcze inne gwiazdy. W rzeczywistości nasze zakłócenie rozprzestrzeni się od promienia r0 jak zmarszczka na stawie. Gdy fale poruszają się w ograniczonym obszarze, takim jak filiżanka do herbaty lub struna fortepianowa, powstają częstotliwości rezonansowe. Fale o tych częstotliwościach mogą przemieszczać się ze źródła i po ewentualnym wielokrotnym odbiciu od granic powracać do punktu początkowego z tą samą fazą, niezależnie od liczby odbić. Ponieważ fale zawsze powracają z tą samą fazą, interferują konstruktywnie i osiągają znaczną amplitudę netto. Częstotliwości rezonansowe prostego układu, takiego jak struna fortepianowa, można dokładnie określić, znajdując częstotliwości, przy których fale odbite wiele razy interferują konstruktywnie. Częstotliwości rezonansowe filiżanki do herbaty nie mogą zostać dokładnie znalezione w ten sposób, ale dobre przybliżenia można znaleźć w ten sposób. Teoria "gęstości fali" struktury spiralnej
interpretuje strukturę spiralną jako generowaną przez rezonansowe fale spiralne i daje przybliżone wartości dla możliwych prędkości wzorca i kształtów ramion spiralnych. Znaczne komplikacje teorii powstają, ponieważ typowy dysk galaktyczny nie ma dobrze zdefiniowanych granic, takich jak filiżanka do herbaty lub struna fortepianowa. Granice pewnego rodzaju pojawiają się, gdy wybiera się prędkość wzoru ωp dla pożądanego wzoru spiralnego. Granice te są definiowane przez promienie, przy których gwiazda poruszająca się po prawie kołowej orbicie w niezakłóconym osiowosymetrycznym potencjale galaktyki może rezonować z zaburzeniem o częstotliwości ωp. Wewnętrzna granica to promień "wewnętrznego rezonansu Lindblada" (ILR). Przy tym promieniu gwiazda obraca się szybciej niż ωp, więc regularnie wyprzedza wzór fali spiralnej, a częstotliwość, przy której doświadcza fali, pokrywa się z częstotliwością, ωr, jej naturalnych oscylacji w promieniu.
Zewnętrzna granica to krawędź pierścienia, w którym zaburzenia spiralne nie mogą się rozprzestrzeniać. Ten pierścień jest wyśrodkowany na "rezonansie korotacyjnym", który jest promieniem, przy którym gwiazda mogłaby poruszać się po orbicie kołowej z częstotliwością ωp ?p. Struktura spiralna powstaje, gdy wiodące fale spiralne rozprzestrzeniają się w kierunku korotacji i są odbijane i wzmacniane w fale spływowe na krawędzi pierścienia korotacji. Wzmocnione fale spływowe rozprzestrzeniają się następnie w kierunku ILR, gdzie są załamywane w fale wiodące, które wracają do korotacji, kończąc cykl. Struna fortepianowa nie ulega fundamentalnej zmianie pod wpływem przechodzących przez nią fal. Natomiast dysk gwiezdny jest znacząco modyfikowany przez fale spiralne. Takie fale zwiększają przypadkowe prędkości gwiazd, które są z nimi w rezonansie. Ten wzrost przypadkowych prędkości jest odzwierciedleniem tendencji spływowych ramion spiralnych do transportu momentu pędu z ILR, a tym samym do
umożliwienia gwiazdom w ILR poruszania się do wewnątrz. W rzeczywistości ramiona spiralne osiągają dla dysków gwiezdnych coś bardzo podobnego do tego, co połączenia osiągają dla galaktyk eliptycznych: wzrost centralnego stężenia i entropii układu. Ponieważ zdolność dysku do podtrzymywania ramion spiralnych maleje wraz ze wzrostem przypadkowych prędkości gwiazd, struktura spiralna ostatecznie zaniknie w czysto gwiezdnym dysku. Galaktyki spiralne, takie jak nasza, podtrzymywały silną strukturę spiralną przez czas Hubble′a, ponieważ mają tempo formowania się gwiazd, które jest dość stałe w czasie. Młode gwiazdy mają małe przypadkowe prędkości, co zwiększa zdolność dysku do podtrzymywania ramion spiralnych. Jeśli uwolnimy z równowagi osiowo-symetrycznej dysk, w którym gwiazdy mają bardzo małe przypadkowe prędkości, dysk bardzo szybko staje się silnie nieosiowo-symetryczny. Nieosiowość nie jest jednak spowodowana przede wszystkim strukturą spiralną, ale obracającym się prętem. Dynamika obracającego się pręta jest analogiczna do dynamiki ramion spiralnych pokazanych na rysunku 5: duża liczba orbit jest wydłużona z głównymi osiami, które obracają się ze wspólną częstotliwością, ?p. Poprzeczka różni się od zaburzenia spiralnego tym, że (i) poszczególne orbity mają tendencję do bycia znacznie silniej wydłużonymi w poprzeczce, a (ii) w poprzeczce wszystkie główne osie są wyrównane, niezależnie od promienia orbity. Duża część galaktyk spiralnych, w tym Droga Mleczna, ma poprzeczki w swoich centrach. W silnej poprzeczce znaczna część wszystkich gwiazd ma szansę przejść dowolnie blisko jądra galaktyki, gdzie spodziewana jest obecność masywnej czarnej dziury. W ścisłej analogii do tego, co dzieje się w trójosiowej galaktyce eliptycznej, odchylenie gwiazd przez potencjał grawitacyjny czarnej dziury może prowadzić do rozpuszczenia poprzeczki .
Dynamika Drogi Mlecznej
Mieszkamy daleko w dysku GALAKTYKI SPIRALNEJ Z PRZEPRZĘGĄ i z tego punktu widzenia możemy badać wiele procesów fizycznych opisanych powyżej . Rysunek przedstawia losowe prędkości grup gwiazd sąsiedztwa słonecznego w zależności od wieku τ grupy gwiazd: otwarte kółka pokazują średnią prędkość grupy σr w kierunku do centrum Galaktyki, a pełne punkty pokazują średnią prędkość σz prostopadłą do płaszczyzny Galaktyki.

Jednoznaczny wzrost średniej prędkości wraz z wiekiem pokazuje, że chociaż procesy kolizyjne nie mają znaczenia dla Drogi Mlecznej, sąsiedztwo słoneczne ewoluuje dynamicznie. Uważamy, że fale spiralne napędzają wzrost σr. Jednak fale te nie mogą być bezpośrednio odpowiedzialne za wzrost σz . Uważa się, że chmury gazu molekularnego o masach rzędu 105M⊙ są odpowiedzialne za ten wzrost: pola grawitacyjne tych obiektów odchylają gwiazdy, które wychwyciły znaczący ruch losowy w płaszczyźnie, w kierunku prostopadłym do płaszczyzny, tak że odtąd wykonują znaczące wycieczki powyżej i poniżej płaszczyzny. Rysunek pokazuje, że losowe prędkości gwiazd są wysoce anizotropowe w tym sensie, że losowa prędkość prostopadła do płaszczyzny nie jest dużo większa niż połowa prędkości w kierunku radialnym. Dyspersja prędkości w kierunku stycznym, σφ, leży pomiędzy tymi dwoma skrajnościami i istnieje interesujący związek między stosunkiem σφ??/ σrφ a sposobem, w jaki prędkość orbity kołowej zmienia się wraz z promieniem galaktocentrycznym. Rysunek

pokazuje różnicę między prędkością Słońca w kierunku rotacji Galaktyki a średnią prędkością w tym kierunku różnych grup gwiazd jako funkcję losowej prędkości S2 każdej grupy gwiazd. Widzimy, że Słońce porusza się szybciej wokół centrum Galaktyki niż jakakolwiek grupa gwiazd, a ilość, o jaką grupa gwiazd pozostaje w tyle za rotacją Słońca, ma tendencję do wzrostu wraz z losową prędkością grupy. Fizyczne pochodzenie tej obserwacji polega na tym, że im gorętszy jest dysk gwiazdowy, tym wolniej musi się obracać, aby znaleźć się w równowadze odśrodkowej przy danym potencjale grawitacyjnym; gorący dysk gwiazdowy ma znaczące wsparcie ciśnieniowe. Każda grupa gwiazd tworzy niezależny dysk, który obraca się z własną prędkością. Słońce należy do jednego z najchłodniejszych, najszybciej obracających się dysków, a w tym dysku znajduje się obecnie jedna z najszybciej krążących gwiazd. Kiedy patrzymy na gwiazdy, które leżą 1 lub 2 kpc od Słońca, widzimy, że średnia prędkość gwiazd w danym miejscu zmienia się z punktu do punktu wokół Galaktyki. Efekt ten odzwierciedla głównie fakt, że dysk galaktyczny jest wirującym dyskiem akrecyjnym, rodzajem wiru, w którym gwiazdy krążą wokół centrum Galaktyki z prędkością, która zmienia się wraz z promieniem. W rzeczywistości historycznie obserwacje tego efektu były głównym źródłem danych, z których wywnioskowano przebieg galaktycznego potencjału prędkości kołowej wraz z promieniem. Niestety, dane nie są łatwe do zinterpretowania, częściowo dlatego, że, jak właśnie zobaczyliśmy, prędkość, z jaką krąży populacja gwiazd, zależy od rozproszenia prędkości populacji, a częściowo dlatego, jak zaraz zobaczymy, wzór przepływu gwiazd wewnątrz Galaktyki jest w rzeczywistości bardziej złożony niż prosty ruch kołowy. Jeśli zidentyfikujemy grupę gwiazd, możemy zmierzyć jej "tensor dyspersji prędkości", który jest macierzą 3 × 3, której elementy σ2ij są średnimi

to wykres zależności promienia r masy M(r) zawartej w kuli o promieniu r wokół centrum Galaktyki. Wykres ten został sporządzony poprzez badanie kinematyki obłoków gazu i gwiazd znajdujących się w pobliżu centrum Galaktyki, a następnie zastosowanie prostej teorii dynamiki. Dla promieni większych niż około parsek, M(r) maleje wraz z r, ale przy mniejszym r, M stabilizuje się na poziomie rzędu 2 × 106M⊙. Naturalną interpretacją tego wyniku jest to, że czarna dziura o tej masie znajduje się w centrum Galaktyki i że gwiazdy wnoszą porównywalny wkład do M tylko przy promieniach większych niż około parsek.
Teoria dynama
Teoria dynama to gałąź MAGNETOHYDRODYNAMIKI, która zajmuje się samowzbudzaniem pól magnetycznych w dowolnej dużej obracającej się masie przewodzącego płynu w ruchu (zwykle turbulentnym). Uważa się, że samowzbudzające działanie dynama wyjaśnia samo istnienie pól magnetycznych w układach astrofizycznych, czy to w skali planetarnej, gwiezdnej, czy galaktycznej. Proces samowzbudzania zachodzi, gdy ruch płynu przez pole magnetyczne generuje rozkład prądu, który sam jest źródłem "danego" pola magnetycznego. Zasadę tę najprościej zilustrować można na przykładzie "homopolarnego" dynama dyskowego naszkicowanego na rysunku :

przewodzący dysk obraca się wokół swojej osi z prędkością kątową , a ścieżka prądu między jego krawędzią a osią jest zapewniona przez drut skręcony, jak pokazano w pętli wokół osi. Załóżmy, że prąd I(t) płynie w pętli, a obwód prądowy jest zamknięty przez oś dysku i sam dysk. Prąd ten generuje strumień magnetyczny przez dysk i, pod warunkiem, że przewodność dysku nie jest zbyt wysoka, strumień ten jest dany przez Φ = MI, gdzie M jest wzajemną indukcyjnością między pętlą a krawędzią dysku. Obrót dysku indukuje siłę elektromotoryczną E = ΩΦ/2?, która napędza prąd I ; równanie dla I(t) jest wtedy

gdzie L i R to samoindukcja i rezystancja całego obwodu prądowego. Urządzenie jest ewidentnie niestabilne w stosunku do wzrostu I (i tak Φ ) od poziomu nieskończenie małego, jeśli
Ω > 2πR/M
W tej sytuacji prąd rośnie wykładniczo, podobnie jak moment hamujący związany z rozkładem siły Lorentza w dysku. Ostatecznie prędkość kątowa dysku zwalnia do poziomu krytycznego Ω0 = 2πR/M, przy którym moment napędowy G równoważy ten moment hamujący, a prąd może pozostać stały. W tej równowadze dostarczana moc Ω0G jest równa szybkości rozpraszania Joule′a RI2 (zakładając, że momenty tarcia są pomijalne). Ten prosty układ wykazuje podwójną właściwość dowolnego samowzbudnego dynama: prąd w układzie generuje pole magnetyczne (bez pomocy jakiegokolwiek "zewnętrznego" źródła), a ruch przewodnika w poprzek pola generuje prąd, który je utrzymuje. Zwróć uwagę na następujące właściwości układu, które pojawiają się ponownie w bardziej ogólnym kontekście płynów i które wydają się być mniej lub bardziej uniwersalnymi towarzyszami działania dynama: (1) układ wykazuje "różnicowy obrót" w tym sensie, że dysk obraca się, podczas gdy drut jest w spoczynku (gradient prędkości kątowej jest tutaj skoncentrowany na dwóch ślizgowych stykach); (2) aby układ działał jak dynamo, drut musi być skręcony w tym samym kierunku, co kierunek prędkości kątowej dysku, tj. w układzie występuje wyraźna "skrętność", właściwość, która w kontekście płynów jest ogólnie spotykana jako niezerowa "śrubowość" przepływu płynu . Istnieje jednak dalsza intrygująca właściwość tego prostego układu, która wskazuje na niebezpieczeństwo zbyt uproszczonego argumentu, gdy mamy do czynienia z medium o bardzo wysokiej przewodności. Gdyby przewodnictwo dysku było nieskończone, to wiemy, że strumień pola magnetycznego przez jego krawędź musi pozostać stały zgodnie z twierdzeniem Alfvéna (magnetohydrodynamika), co jest wynikiem wyraźnie niezgodnym z wykładniczym wzrostem strumienia. W tej sytuacji dochodzi do indukcji dodatkowego prądu wokół krawędzi dysku, który jest dokładnie taki, aby utrzymać stałość uwięzionego strumienia. Może to wskazywać, że gdy przejdziemy do znacznie trudniejszego kontekstu płynów, należy zachować dużą ostrożność przy analizowaniu granicy wysokiej przewodności, która jest szczególnie istotna w kontekstach gwiezdnych i galaktycznych.
Dynamo rozciągania-skręcania-składania
Rozważmy początkowo okrągłą rurę strumienia magnetycznego o małym przekroju poprzecznym, osadzoną w wysoce przewodzącym, nieściśliwym płynie. Możemy łatwo wyobrazić sobie podwojenie natężenia pola magnetycznego poprzez ruch analogiczny do podwojenia taśmy elastycznej: najpierw rozciągnij rurę, aby podwoić promień, a następnie skręć ją i złóż w sposób pokazany na rysunku 2. Proces ten ewidentnie podwaja strumień magnetyczny netto wokół (teraz złożonej) rury; jeśli proces ten jest powtarzany wielokrotnie, następuje kolejne podwojenie, analogiczne do wzrostu wykładniczego. To jest to, co jest konwencjonalnie znane jako dynamo rozciągania-skręcania-składania. Opiera się ono na idei, że w doskonale przewodzącym płynie "linie magnetyczne są zamrożone w płynie", tak że w wysoce przewodzącym płynie można oczekiwać podobnego zachowania. Chociaż idea ta jest fizycznie prawdopodobna, trudno jest udowodnić istnienie tego typu dynama za pomocą rygorystycznych argumentów matematycznych. Jedną z trudności jest to, że działanie rozciągania-skręcania-składania koniecznie wprowadza skręt wewnątrz samej rurki (co można łatwo zobaczyć, stosując działanie skręcania-składania do wstęgi w formie okręgu). Jeśli prześledzimy wstecz w czasie wpływ powyższego zniekształcenia na obwód materiału Lagrange′a wokół podwojonej rurki strumienia, to łatwo zauważyć, że ta krzywa musiała zaczynać się jako skręcona krzywa obejmująca dwukrotnie okrągłą rurkę. Stąd działanie rozciągania-skręcania-składania ma odwrotny wpływ na ten obwód Lagrange′a. Alternatywna rurka strumienia magnetycznego, zaczynająca się w pozycji krzywej przerywanej, zostałaby zatem zmniejszona przez to samo zniekształcenie. Najwyraźniej sprawy nie są tak proste, jak mogłoby się wydawać na pierwszy rzut oka.
Formalna definicja działania dynama
Zaczynamy od równania indukcji magnetycznej

gdzie B jest polem magnetycznym, u polem prędkości, a η dyfuzyjnością magnetyczną cieczy. B spełnia również warunek uzupełniający div B = 0. Jeśli pole prędkości u jest stacjonarne (tj. u = u(x)), wówczas możemy szukać rozwiązań równania (3) w postaci "modów własnych",

Funkcja amplitudy
spełnia wówczas równanie

co, po połączeniu z odpowiednimi warunkami brzegowymi, definiuje problem wartości własnych dla wykładnika p, przy czym pole
jest wówczas odpowiadającą mu funkcją własną. p może być w zasadzie rzeczywiste lub zespolone: p = pr +ipi. Jeśli pr > 0, to odpowiadające rozwiązanie równania (3) wykazuje działanie dynama: istnieje ewidentnie systematyczny wzrost natężenia pola magnetycznego ze współczynnikiem wzrostu pr. Jeśli pi = 0, działanie dynama jest prostym wzrostem wykładniczym, podczas gdy jeśli pi jest różne od zera, to pole w dowolnym punkcie oscyluje z amplitudą rosnącą wykładniczo. Rozwiązanie powyższego problemu wartości własnych ewidentnie zależy od parametru η, który pojawia się w równaniu (5). Załóżmy, że pole prędkości jest scharakteryzowane przez skalę długości l i skalę prędkości u0, tak że liczba Reynoldsa magnetycznego Rm = u0l/η może być zdefiniowana. W kontekstach astrofizycznych zazwyczaj zajmujemy się sytuacją, w której Rm jest bardzo duże, dlatego szczególną uwagę należy skupić na zachowaniu p i
, gdy Rm dąży do nieskończoności. To rozważanie doprowadziło do formalnego rozróżnienia dynamów "wolnych" i "szybkich". Mówiąc ogólnie, dynamo jest szybkie, jeśli pr jest proporcjonalne do u0/l (tj. niezależne od η) w granicy Rm ? ∞. Jeśli z drugiej strony, prl/u0 ? 0, gdy Rm ? ∞, to dynamo jest wolne. Rozważane powyżej dynamo rozciągające-skręcające-zwijające jest prawdopodobnie najlepszym kandydatem do scharakteryzowania jako szybkie dynamo; w pojedynczym okresie cyklu rozciągające-skręcające-zwijające wykazuje ono podwojenie strumienia, ale kosztem wprowadzenia pewnego stopnia "drobnej struktury" w polu. W rzeczywistości wydaje się to być właściwością każdego szybkiego dynama. Równanie (5) można łatwo przeanalizować w formalnej granicy η = 0. Wykazano, że szybkie dynamo może istnieć tylko wtedy, gdy odpowiadające mu pole
wykazuje delikatną strukturę w skalach rzędu R-1/2m. W granicy η = 0 takie pola stają się nieróżniczkowalne. Podejmowano próby obejścia tej trudności, poszerzając klasę rozwiązań równania (3), do których można przypisać termin "szybkie dynamo". Czytelnika odsyła się do książki Childressa i Gilberta (1995) w celu zapoznania się z opisem badań, opartych w dużej mierze na technikach mapowania Lagrange′a i powiązanych z nimi, w tej dziedzinie. Możemy zauważyć, że homopolarne dynamo dyskowe jest, z powodów wskazanych we wstępie, zdecydowanie wolnym dynamem, tj. jego szybkość wzrostu dąży do zera, ponieważ liczba Reynoldsa magnetycznego, oparta na prędkości kątowej dysku i przewodności, dąży do nieskończoności.
Twierdzenie Cowlinga
W kontekście planetarnym i gwiezdnym naturalne było, że wczesne badania skupiały się na układach osiowosymetrycznych. W 1934 r. COWLING ustalił, że osiowosymetryczne działanie dynama jest niemożliwe, co przez wiele lat błędnie prowadziło ludzi do założenia, że wszelkie działanie dynama jest niemożliwe . Niemniej jednak ważne jest zrozumienie podstawowej natury argumentu Cowlinga, choćby po to, aby zobaczyć, w jaki sposób można obejść związane z nim trudności. Rozważmy osiowosymetryczne pole magnetyczne generowane przez prądy zawarte całkowicie w kuli . Prądy "toroidalne" wewnątrz kuli (tj. te w kierunku φ w układzie cylindrycznych współrzędnych biegunowych r, φ, z) działają jako źródło "poloidalnej" części pola magnetycznego BP (tj. tej części ze składowymi w kierunku r i z). To pole poloidalne, będąc związane ze zwartym źródłem, ma co najwyżej strukturę dipolową w dużej odległości od kuli. Pole magnetyczne Ziemi oczywiście stanowi doskonały przykład tego zjawiska. Linie sił tego pola dipola muszą mieć co najmniej jeden punkt neutralny "typu O", a ten punkt neutralny musi znajdować się wewnątrz kuli przewodzącego płynu. Istnieje skojarzony okrąg CN punktów neutralnych wokół osi symetrii. Rozkład prądu toroidalnego może być napędzany tylko przez ruch płynu przez poloidalne pole magnetyczne, a ten efekt nie występuje w CN, gdzie BP = 0. W związku z tym każdy prąd toroidalny w CN musi koniecznie zanikać poprzez normalną dyfuzję omową związaną ze skończoną przewodnością (η > 0). Zatem stałe utrzymanie osiowosymetrycznego pola magnetycznego w skończonej objętości przewodzącego płynu jest niemożliwe. Ten argument oczywiście musi zostać sformalizowany, ale można to zrobić i rzeczywiście udowodniono wiele rozszerzeń twierdzenia Cowlinga. Zasadniczo jest dobrze ugruntowane, że jeśli stałe pole magnetyczne ma być utrzymywane w skończonym obszarze zawierającym płyn o skończonej przewodności, to pole i ruchy, które je podtrzymują, muszą być nieosiowosymetryczne. Twierdzenie to wyjaśnia większość trudności matematycznych tematu i długi okres, który upłynął od dowodu twierdzenia, zanim odkryto wyraźne przykłady działania dynama w jednorodnym płynie.
Generowanie pola toroidalnego przez obrót różniczkowy
Jeden mechanizm, który ma zasadniczo charakter osiowosymetryczny, ma jednak ogromne znaczenie w kontekście dynama. Załóżmy na chwilę, że poloidalne pole magnetyczne jest utrzymywane przez jakiś (jeszcze nieokreślony) mechanizm. Rozważmy działanie czysto toroidalnego pola prędkości na to pole magnetyczne. Jeśli prędkość kątowa jest stała wzdłuż każdej linii pola, to te linie pola są po prostu obracane wokół osi symetrii z odpowiadającą jej prędkością kątową (prawo "izorotacji"). Z drugiej strony, jeśli istnieje jakikolwiek gradient prędkości kątowej wzdłuż linii pola, to linia ta będzie miała tendencję do rozciągania się w kierunku toroidalnym, efekt, który będzie ograniczony jedynie przez efekty dyfuzyjne . Jeśli liczba Reynoldsa magnetycznego jest duża, to linia pola może być "wykręcana" wokół osi wiele razy, zanim ten efekt dyfuzyjny zainterweniuje. Szczegółowa analiza oparta na równaniu (3) wskazuje, że generowane pole toroidalne wzrasta, aż osiągnie wartość O(Rm) razy większą od początkowego pola poloidalnego. Na tym etapie dyfuzja omowa na ogół ustala stan stacjonarny. Jest to ewidentnie potężny mechanizm, dzięki któremu pola toroidalne mogą być generowane z wcześniej istniejącego pola poloidalnego. Wielką trudnością jest wyjaśnienie, w jaki sposób pole poloidalne może być w ogóle generowane. W tym celu absolutnie konieczne jest rozważenie efektów nieosiowosymetrycznych. Największy impuls do tego tematu pochodził niewątpliwie z założenia na początku, że ruch cieczy jest całkowicie turbulentny, założenia, które jest oczywiście całkowicie rozsądne w kontekście gwiazd i galaktyk. Nawet w przypadku wnętrz planet, chociaż ruchy cieczy są niezwykle słabe (rzędu ułamków milimetra na sekundę), wydaje się wysoce prawdopodobne, że ruchy te, choć niekoniecznie w pełni turbulentne, będą mimo to miały znaczący składnik nieosiowosymetryczny.
Elektrodynamika pola średniego
Idea stojąca za elektrodynamiką pola średniego polega na tym, że w teorii dynama zajmujemy się na ogół rozwojem pola magnetycznego "na dużą skalę", tj. pola, które jest spójne w skali globalnej rozważanej planety, gwiazdy lub galaktyki. Turbulencja, lub inny losowy ruch, który odgrywa rolę w procesie dynama, ma ogólnie o wiele mniejszą charakterystyczną skalę długości. Istnieje zatem znaczące rozdzielenie skali, które można wykorzystać w konstrukcji teorii pola na dużą skalę. Załóżmy najpierw, że w pewnym obszarze płynu, który zawiera wiele składowych wirów turbulencji, składnik pola na dużą skalę można traktować jako niemal jednolity. Prędkość u zniekształca pole średnie B0, generując fluktuujący składnik b. Jeśli uśrednimy równanie (3) w skali l fluktuacji turbulentnych, otrzymamy równanie dla pola średniego B0, a mianowicie

Tutaj pojawia się termin wynikający z interakcji pomiędzy dwoma fluktuującymi polami, mianowicie

Jest to "średnia siła elektromotoryczna" związana z ruchem płynu. Założyliśmy, że średnia u i podobnie średnia b są równe zero. Niemniej jednak, każda korelacja między u i b będzie skutkować wartością różną od zera dla E. Aby kontynuować, konieczne jest uzyskanie równania dla pola fluktuującego b. Uzyskuje się je, po prostu odejmując równanie (6) od równania (3), aby uzyskać

Równanie to ewidentnie ustanawia liniową zależność między b i B0, a zatem, poprzez równanie (7), między E i B0. Ponieważ B0 jest niemal jednorodne, tę liniową zależność można wyrazić w postaci

gdzie współczynniki αij, βijk itd. nie zależą od pola B0, ale są określone (w zasadzie) wyłącznie przez własności statystyczne turbulencji u i dyfuzyjności magnetycznej η. Implikacje równania (9) są najłatwiej zrozumiałe, jeśli przyjmiemy, że turbulencja tła jest izotropowa (tj. nie ma "preferowanego kierunku"), tak że współczynniki tensorowe αij, βijk itd. są również izotropowe. W tym przypadku możemy zapisać
αij = αδij βijk = βεijk
a odpowiadające wyrażenie dla E jest wówczas podane przez

Odpowiednia forma równania (6) przyjmuje wówczas postać

Tutaj należy zauważyć bardzo ważny efekt, efekt opisany po raz pierwszy w przełomowym artykule Steenbecka, Krause′a i Rädlera w 1966 r. Ponieważ E jest wektorem polarnym, podczas gdy pole magnetyczne B0 jest wektorem osiowym, współczynnik α w równaniu (11) musi być pseudoskalarem, tj. wielkością, która zmienia znak przy zmianie z prawoskrętnego na lewoskrętny układ odniesienia. Natomiast współczynnik β jest czystym skalarem, niezależnym od układu odniesienia. Z równania (12) wynika, że β po prostu służy do zwiększenia dyfuzyjności cząsteczkowej płynu, tj. możemy opisać β jako dyfuzyjność turbulentną. Natomiast współczynnik α jest powiązany z członem nowej struktury w równaniu indukcji; co więcej, w przypadku pola o bardzo dużej skali długości, to właśnie ten termin dominuje po prawej stronie. Efekt ten, trafnie opisany jako "efekt ?", jest kluczowy dla zrozumienia teorii dynama
Niestabilność dynama związana z efektem α
Aby zrozumieć ten efekt w najprostszy możliwy sposób, wystarczy rozważyć strukturę pola B0(x) spełniającą warunek Beltramiego
∇ ∧ B0 = KB0
gdzie K jest stałą (dodatnią lub ujemną). Pole ABC

podaje przykład takiego pola, co można łatwo zweryfikować, ale jest wiele innych. Ponieważ dla takiego pola ∇2B0 = ?K2B0, równanie (11) upraszcza się do postaci

Stąd B0 jest proporcjonalne do ept, gdzie
p = αK - (η + β)K2
i niestabilność dynama występuje, jeśli p > 0, warunek, który jest zawsze spełniony, jeśli αK > 0 i |K| jest wystarczająco mały, tj. pod warunkiem, że skala L = 2π/|K| jest wystarczająco duża. Warunek ten jest z pewnością zgodny z początkowym założeniem, że skala średniego pola jest duża w porównaniu ze skalą turbulencji. Tak więc, w obecności niezerowego efektu α, ośrodek jest zawsze niestabilny na wzrost zaburzeń pola magnetycznego w wystarczająco dużej skali długości. Ten efekt jest jednym z najbardziej niezwykłych odkryć ostatnich 50 lat. Wskazuje on, w jaki sposób porządek, reprezentowany przez pole magnetyczne na dużą skalę, może wyłonić się z chaosu, reprezentowanego przez turbulencję na małą skalę w ośrodku
Ocena α
Pozostaje jednak opracowanie przekonującej teorii dla określenia najważniejszego parametru ? w kategoriach własności statystycznych turbulencji tła. Zauważyliśmy już, że α jest pseudoskalarem; może zatem być różny od zera tylko wtedy, gdy własności statystyczne turbulencji mają kluczową właściwość "braku symetrii odbiciowej". Najprostszą miarą braku symetrii odbiciowej w przepływie turbulentnym jest jego średnia heliczność
H = < u ⋅ curl u >
średnia iloczynu skalarnego pola prędkości i rotacji pola wirowości u. Jest to analogiczne do helisy magnetycznej. Helisa jest związana ze strukturą topologiczną pola wirowości, która jest zachowana w klasycznej sytuacji, w której linie wirowe są zamrożone w płynie. Można się spodziewać, że jeśli ta średnia helisa jest różna od zera, to ? będzie ogólnie również różna od zera. Rzeczywiście możliwe jest obliczenie α jawnie w dowolnych okolicznościach, w których składnik fluktuacyjny pola magnetycznego b jest słaby w porównaniu ze średnim polem. W takich okolicznościach stwierdza się, że

gdzie H(k, ω) jest widmem helisy turbulencji spełniającym zależność definiującą

Zatem α jest liniowo powiązane ze spektrum heliczności turbulencji. W tych wyrażeniach całkowych k jest wielkością liczby falowej, a ? częstotliwością. Należy zauważyć, że w granicy, gdy η ? 0, wyrażenie (18) dla α zależy krytycznie od zachowania widma heliczności dla małych wartości częstotliwości ω. Niestety, to właśnie w tej podwójnej granicy (η ? 0, ω ? 0) teoria dająca wyrażenie (18) jest najmniej przekonująca.
Mechanizm fizyczny procesu dynama
Proces dynama związany z efektem α można przedstawić schematycznie.

Turbulencja tła ze śrubowością zapewnia efekt α, a parametr dynama jest powiązany ze śrubowością poprzez równanie (18) (lub jakąś wyższą wersję tego równania). Ten efekt ? generuje siłę elektromotoryczną (SEM) E równoległą do B0 (poprzez równanie E = αB0 + …) i ta SEM napędza prąd średni J0 równoległy do B0. Wynikowe średnie pole ma niezerową śrubowość magnetyczną, więc rury siły B0 są na ogół połączone. Prototypowe połączenie pokazano na rysunku; prąd napędzany wokół każdej rury zapewnia (poprzez twierdzenie Ampere′a) średnie pole magnetyczne w drugiej rurze. Trzy kluczowe warunki zapewniają powodzenie tego procesu:
• turbulencja musi mieć niezerową śrubowość;
• ciecz musi mieć skończoną niezerową dyfuzyjność magnetyczną;
• domena płynu musi być wystarczająco duża, aby zapewnić przestrzeń dla wzrostu pola magnetycznego na dużą skalę.
Mechanizm dynama α - ω
Jak widzieliśmy powyżej, efekt α w izolacji może łatwo spowodować niestabilność dynama; wykazaliśmy, że jest to prawdą w ośrodku o nieskończonej rozciągłości; jednak podobny mechanizm z pewnością występuje w każdej wystarczająco dużej sferycznej domenie przewodzącego płynu w ruchu turbulentnym. Jeśli płyn w takiej domenie obraca się ze średnią prędkością kątową, wówczas konwekcja turbulentna w domenie ogólnie prowadzi do stanu "rotacji różnicowej", w której obszary wewnętrzne obracają się szybciej niż obszary zewnętrzne. Jak widzieliśmy, rotacja różnicowa zapewnia potężny mechanizm, dzięki któremu pole toroidalne może być generowane z pola poloidalnego. Efekt ? zapewnia istotny mechanizm uzupełniający, dzięki któremu pole poloidalne może być regenerowane z pola toroidalnego. Jeżeli turbulencja jest izotropowa, wówczas ten sam efekt ? przyczynia się do regeneracji pola toroidalnego z pola poloidalnego, ale efekt rotacji różnicowej jest na ogół znacznie silniejszy. Rozważania te prowadzą do rozważenia dynamów typu "α - ω", jak pokazano schematycznie na rysunku .

Tutaj cykl dynama składa się po prostu z dwóch etapów: generowania toroidalnego z pola poloidalnego przez obrót różniczkowy i regeneracji poloidalnego z pola toroidalnego przez efekt α. Wiele badań numerycznych otrzymanych równań dynama średniego pola wykazało wydajność tego typu samowzbudnego dynama.
Reakcja zwrotna sił Lorentza
Powyższy zarys opisu procesu działania dynama jest czysto "kinematyczny", ponieważ zakłada, że pole prędkości lub w przypadku przepływu turbulentnego statystyki pola prędkości są określone niezależnie od pola magnetycznego. W okolicznościach, w których występuje działanie dynama, amplituda pola magnetycznego rośnie wykładniczo w czasie, a zatem tak samo siła Lorentza, która jest kwadratowo związana z polem magnetycznym. Ta siła Lorentza reaguje z powrotem na ruch płynu, tak że samo pole prędkości zależy od pola magnetycznego, które generuje. Proces dynama wchodzi następnie w nieliniowy reżim, którego złożoność można ogólnie rozwikłać tylko poprzez symulację numeryczną pełnych równań magnetohydrodynamicznych. Konieczne jest również określenie natury sił podtrzymujących ruch i powiązanego dynama, w stosunku do efektów rozpraszających, które teraz obejmują lepkość, a także rozpraszanie Joule′a. Jest to równoważne określeniu źródła energii ruchu płynu; to źródło może mieć pochodzenie termiczne (jak w kontekście słonecznym); w kontekście ziemskiego dynama napędzanego ruchem płynu w ciekłym jądrze źródło energii jest bardziej prawdopodobne, że będzie związane z segregacją lekkiego materiału podczas procesu krzepnięcia wewnętrznego jądra, procesu, który zapewnia siły wyporu pochodzenia "kompozycyjnego", a nie termicznego. Tak czy inaczej, potrzeba uwzględnienia pola wyporu znacznie zwiększa zarówno fizyczną, jak i matematyczną złożoność problemu. Badanie całkowicie nieliniowych dynamów, biorąc pod uwagę różnorodne możliwe źródła energii, jest obszarem bardzo intensywnych bieżących badań i należy spodziewać się dużych postępów w ciągu najbliższych 10-20 lat.
Dynama: słoneczne i gwiazdowe
Bezpośrednia obserwacja pól magnetycznych na powierzchni Słońca , jak również na powierzchni innych gwiazd , bezpośrednio podnosi kwestię pochodzenia tych pól magnetycznych. Najprostsza hipoteza jest taka, że te pola magnetyczne są po prostu pozostałościami pól magnetycznych przenoszonych przez akreujący gaz w fazie formowania się takich gwiazd, ale szereg faktów obserwacyjnych sprawia, że to wyjaśnienie jest nie do utrzymania w przypadku gwiazd takich jak Słońce: obserwowane pola są globalnie stosunkowo słabe, ale lokalnie bardzo silne, znacznie silniejsze niż można by oczekiwać po zanikających polach resztkowych sięgających czasów formowania się Słońca, a globalne pola magnetyczne zmieniają się systematycznie w sposób mniej więcej okresowy (w przypadku Słońca okresowość ta wynosi około 22 lat . Zamiast tego te obserwacje przemawiają za istnieniem procesu, który jest w stanie regenerować pole magnetyczne gwiazdy, takiej jak Słońce, w skali czasowej wynoszącej około 11 lat; jest to proces określany w dalszej części jako (gwiezdne) dynamo . Na wstępie należy rozróżnić zachowanie pól magnetycznych gwiazd na dużą skalę (tj. na skalę gwiazdową) i na małą skalę, które mogą się drastycznie różnić. W przypadku Słońca - jedynym przypadku, dla którego mamy szczegółowe, przestrzennie rozdzielone obserwacje - to pola na dużą skalę pokazują cykliczne, związane z aktywnością zmiany czasowe; te pola na dużą skalę są słabe (1-10 G), w tym sensie, że ich gęstość energii jest znacznie mniejsza niż gęstość związana z zawartością energii cieplnej warstw powierzchniowych Słońca lub gęstością energii kinetycznej tych samych warstw. W przeciwieństwie do tego, pola słoneczne na małą skalę, tj. pola w skalach przestrzennych porównywalnych z konwekcyjnymi ruchami powierzchni, mogą być silne (do 3000 G), w tym sensie, że ich gęstość energii może być rzędu, a nawet większa od gęstości energii kinetycznej warstw powierzchniowych i jest rzędu gęstości energii wewnętrznej plazmy tych warstw. Te lokalnie silne pola wykazują znacznie bardziej złożone zachowanie czasowe, z których wiele nie jest bezpośrednio związanych z cyklicznym zachowaniem pól na dużą skalę . To czasowe rozróżnienie między zachowaniem pól magnetycznych na dużą i małą skalę jest kluczowym argumentem wspierającym obecny pogląd, że pochodzenie pól na dużą i małą skalę może być niezwiązane. Średniopolowe dynama słoneczne Jak omówiono gdzie indziej , wyzwaniem dla teorii dynama słonecznego i gwiazdowego było pierwotnie skonstruowanie fizycznie wiarygodnego mechanizmu regeneracji zarówno poloidalnych, jak i toroidalnych składowych stosunkowo słabego, wielkoskalowego pola magnetycznego Słońca. (Warto zauważyć, że znaczenie małoskalowych pól magnetycznych Słońca nie było wówczas doceniane, przede wszystkim dlatego, że bezpośrednie pomiary tych pól nie były możliwe). Od lat 40. XX wieku uznano, że różnicowy obrót we wewnętrznych lub powierzchniowych warstwach Słońca może generować toroidalny strumień magnetyczny z istniejącego wcześniej poloidalnego składnika magnetycznego; brakującym ogniwem był podobny proces fizyczny regenerujący składnik poloidalny ze składnika toroidalnego. To ogniwo zostało odkryte w połowie lat 50. XX wieku przez E. N. Parkera. Pokazał, że ruchy przewodzącej PLAZMY związane z WYPORNOŚCIĄ MAGNETYCZNĄ i konwekcją, które przenoszą (toroidalny) strumień magnetyczny promieniowo na zewnątrz, będą podlegać siłom Coriolisa, jeśli gwiazda się obraca; ta zależna od rotacji siła skręca wznoszące się i opadające bańki plazmy dokładnie w odpowiedni sposób, tak że uwięzione pola toroidalne wytwarzają składnik poloidalny. Dzięki dodaniu fenomenologicznego modelu dla zwiększonej dyfuzyjności wirowej, Parker był w stanie skonstruować model słonecznego dynama magnetycznego, który odtwarzał wszystkie klasyczne cechy wielkoskalowej aktywności magnetycznej Słońca: 22-letnią okresową zmienność pól toroidalnych i poloidalnych, diagram motylkowy wyłaniania się pola magnetycznego, pokazujący wyłanianie się strumienia coraz bliżej równika słonecznego w miarę postępu połowy cyklu magnetycznego, oraz prawo biegunowości Hale′a lokalnego wyłaniania się strumienia, które stwierdza, że wiodąca biegunowość wyłaniających się pól bipolarnych zawsze leży bliżej równika słonecznego. W oryginalnym modelu Parkera, różniczkowy obrót potrzebny do ponownego wygenerowania pola toroidalnego na dużą skalę, został przyjęty jako wynik radialnego różniczkowego obrotu, tj. Parker założył, że Słońce obraca się szybciej w swoim wnętrzu niż w warstwach powierzchniowych; w tym czasie ten różniczkowy obrót nie był obserwowany, a zatem nie był ograniczony. Późniejsi pracownicy, tacy jak H. Babcock, stworzyli warianty modelu Parkera, które wykorzystywały obserwowany (powierzchniowy) RÓŻNICZKOWY OBROT na szerokości geograficznej i byli w stanie stworzyć modele dynama, które były podobne w skutecznym opisywaniu cech pola magnetycznego Słońca na dużą skalę. Przeprowadzono dodatkowe prace badawcze nad ewolucją powstałych pól magnetycznych. W ten sposób R Leighton wykazał, że asymetria pojawiania się strumienia magnetycznego związana z prawem biegunowości Hale′a, w połączeniu z prostym modelem losowego spaceru dyfuzji strumienia na powierzchni Słońca (zgodnym z modelem dyfuzji wirowej Parkera), naturalnie prowadzi do migracji powierzchniowych pól magnetycznych do biegunów Słońca, w których na biegunach dominuje następująca biegunowość. Na tym zdjęciu obserwowane pola magnetyczne małej skali były postrzegane jako pozostałości zanikających pól dużej skali i jako nasiona dla następnej generacji pól poloidalnych dużej skali. W połowie lat 70. modele dynama magnetycznego typu opisanego po raz pierwszy przez E. N. Parkera były dobrze zrozumiane zarówno z perspektywy fenomenologicznej, jak i formalnej, matematycznej: grupa teoretyków dynama z Poczdamu, a także prace K. Moffatta i współpracowników w Wielkiej Brytanii oraz Parkera i współpracowników w USA, mocno ugruntowały podstawy teorii średniego pola w MAGNETOHYDRODYNAMICE. Jednakże dwa postępy w latach 70. i na początku lat 80. doprowadziły do zakwestionowania teorii średniego pola. Po pierwsze, obserwacje o wysokiej rozdzielczości przestrzennej powierzchniowych pól magnetycznych Słońca przeprowadzone przez J. Stenflo, J. Harveya i innych zaczęły podnosić poważne pytania o stosowalność teorii średniego pola do Słońca - obserwacje wskazywały, że podczas gdy pola wielkoskalowe były rzeczywiście słabe, nie dotyczyło to pól małoskalowych. W teorii średniego pola zakłada się, że pola małoskalowe są słabe, w tym sensie, że nie są wystarczająco silne, aby reagować z powrotem na ruchy płynu; przeciwnie, bezpośrednie pomiary wykazały, że te pola małoskalowe były, wbrew pozorom, wystarczająco silne, aby wpływać na ruchy płynu. Te reakcje zwrotne były w zasadzie zdolne do zniszczenia podstaw teorii średniego pola; na przykład wcale nie jest jasne, że duża dyfuzja wirowa wymagana przez teorię średniego pola może istnieć, jeśli pola małoskalowe znacząco wpływają na ruchy płynu małoskalowego. Ponadto postęp w informatyce na początku lat 80. osiągnął taki etap, że stało się możliwe rozwiązanie całkowicie nieliniowych równań magnetohydrodynamicznych dla konwekcyjnej powłoki sferycznej, choć przy bardzo ograniczonej rozdzielczości przestrzennej, a takie symulacje przeprowadzone przez P. Gilmana i współpracowników wykazały, że zachowanie się rozwiązań numerycznych na dużą skalę nie odpowiadało ściśle ani teorii pola średniego, ani obserwacjom cyklu magnetycznego Słońca.
Ostatnie prace
Wiele ostatnich prac nad słonecznymi i gwiazdowymi dynamami wyrosło z obaw o modele dynamów średniego pola, a także nowych narzędzi obserwacyjnych i obliczeniowych. Na przykład, uświadomienie sobie, że pola magnetyczne małej skali mogą odgrywać ważną rolę w dynamach słonecznych, doprowadziło do eksploracji nowych klas modeli dynamów dla pól magnetycznych na dużą skalę przez M Schüsslera i współpracowników. Modele te przyjmują za punkt wyjścia pojęcie, że pole magnetyczne we wnętrzu Słońca ma wysoce włóknistą formę strumienia magnetycznego . Eksploracja konsekwencji takiego modelu dynama, w tym badania dynamiki rosnących rur strumienia magnetycznego w strefie konwekcyjnej, jest obecnie bardzo aktywnym obszarem badań. Pojawienie się sejsmologii słonecznej (HELIOSEISMOLOGY) pozwala nam skupić się na innym aspekcie teorii dynama słonecznego, mianowicie na wewnętrznej prędkości obrotowej Słońca i dokładnej lokalizacji dynama. Obawy dotyczące dokładnej lokalizacji dynama słonecznego pojawiły się już pod koniec lat 70., kiedy to N. O. Weiss, E. Spiegel, R. Rosner i inni zasugerowali, że toroidalne pola Słońca mogą być prawdopodobnie wytwarzane w subadiabatycznej warstwie podskoku leżącej pod strefą konwekcji słonecznej, gdzie pola te mogą być stabilnie przechowywane. Pomysł ten zyskał ostatnio dużą uwagę, ponieważ obserwacje heliosejsmologiczne wskazały, że istnieje warstwa znacznej rotacji różnicowej (tzw. "tachyklinę") leżąca u podstawy strefy konwekcji słonecznej , tj. dokładnie w regionie, w którym wcześniejsze modele umieściły region produkcji pola toroidalnego. Ten obszar badań jest obecnie również bardzo aktywny. Na początku lat 70. S. Vainshtein i Y. Zel′dovich wykazali istnienie nowej klasy dynamów - tzw. "szybkich dynamów" - których właściwości nie zależą od dyfuzyjności cząsteczkowej w granicy bardzo dużych liczb Reynoldsa magnetycznego. Ten typ dynama ma tę właściwość, że obrót nie jest niezbędny do jego istnienia i uważa się, że maksymalna skala przestrzenna pól magnetycznych wytwarzanych przez takie dynamo jest porównywalna z maksymalną skalą przestrzenną napędzających ruchów turbulentnych. W tamtym czasie związek między takimi dynamami a określonymi astrofizycznymi polami magnetycznymi był nadal niejasny. Ostatnie postępy w zakresie mocy obliczeniowej pozwalają obecnie na bezpośrednie symulacje numeryczne całkowicie nieliniowych równań magnetohydrodynamicznych, które mają znacznie większy zakres dynamiki przestrzennej niż to, co można było zrobić w latach 80.; w rezultacie, możliwe jest teraz przeprowadzenie szczegółowych eksperymentów numerycznych szybkich dynamów. Używając przepływów, które są różnie napędzane przez określone zewnętrzne losowe "mieszanie" lub przez narzucone strumienie cieplne (w ten sposób napędzając termiczne przepływy konwekcyjne), F Cattaneo, D Hughes i współpracownicy byli w stanie wykazać, że pola magnetyczne, które są lokalnie w ekwipartycji, są łatwo wytwarzane przez takie przepływy. Współczynnik wypełnienia objętościowego silnych pól zależy od precyzyjnych charakterystyk mieszania samych przepływów; a morfologia przepływów powierzchniowych i powierzchniowego strumienia magnetycznego w obliczeniach napędzanych konwekcyjnie niepokojąco przypomina ostatnie obserwacje słonecznych pól magnetycznych i powierzchniowych ruchów konwekcyjnych uzyskanych z instrumentu MDI na pokładzie statku kosmicznego SOHO. Te obliczenia - które pokazują, że pole magnetyczne w przepływach chaotycznych ma wysoce fraktalną strukturę przestrzenną - podważają również istnienie magnetycznych "rurek strumieniowych" jako dyskretnych, stosunkowo długowiecznych jednostek. Ten obszar badań jest również niezwykle aktywny dzisiaj.
Problemy z dynamem gwiazdowym
Pomijając dokładny mechanizm, dzięki któremu wytwarzane są pola magnetyczne gwiazd, nie rozumiemy również dobrze szeregu dodatkowych aspektów aktywności magnetycznej gwiazd.
Aktywność magnetyczna na końcu ciągu głównego
Badania pobliskich gwiazd wykazały, że aktywność gwiazd mierzona stosunkiem jasności rentgenowskiej do bolometrycznej nie zmienia się znacząco w miarę przechodzenia w dół ciągu głównego do gwiazd o małej masie . Jednak badania gwiazd o bardzo małej masie (np. gwiazd, które mogą być lub są klasyfikowane jako brązowe karły) sugerują, że niektóre z nich mogą być nieaktywne . Chociaż brak dowodów nie jest dowodem na brak, wiadomo, że pewnego rodzaju przejście od opisanej powyżej aktywności napędzanej konwekcją powinno nastąpić przy wystarczająco niskiej masie: na przykład wiemy, że obserwowana aktywność olbrzymich planet gazowych w naszym układzie słonecznym wcale nie jest podobna do aktywności słonecznej, ale jest wynikiem oddziaływania magnetosfer planetarnych z wiatrem słonecznym ; w przypadku planet gazowych "mieszanie" pola magnetycznego na powierzchniach planet przez przepływy powierzchniowe jest pomijalnym źródłem ich aktywności, podczas gdy takie mieszanie przez ruchy fotosferyczne to właśnie sposób, w jaki według nas pobudzane są chromosfery i korony gwiazdowe. Tak więc obserwacje zarówno Słońca, jak i gwiazd, a także planet w naszym układzie słonecznym pozwalają nam wnioskować, że obracające się, samograwitujące obiekty (gwiazdy i olbrzymie planety gazowe) wytwarzają pola magnetyczne w swoim wnętrzu za pośrednictwem procesu dynama, że wszystkie te obiekty są "aktywne" i że podstawowa fizyka, która napędza aktywność w tych dwóch przypadkach, może mieć drastycznie różne pochodzenie. Jednak dokładnie, w jaki sposób zachodzi to przejście między zachowaniem podobnym do słonecznego a zachowaniem planetarnym, nie jest jeszcze zrozumiałe. Powiązany problem dotyczy natury konwekcji i natury wewnętrznego dynama, w miarę przechodzenia do obiektów o coraz mniejszej masie. Klasyczna teoria struktury gwiazd przewiduje, że gwiazdy stają się w pełni konwekcyjne przy typie widmowym ∿dM5 , a opierając się na niedawnych pomysłach, że podstawa strefy konwekcyjnej powinna odgrywać szczególnie ważną rolę w dynamach magnetycznych, można by oczekiwać zmiany w zachowaniu aktywności przy ∿dM5 - jednak takiej zmiany nie zaobserwowano. Jak możemy to zrozumieć? Możliwe, że w obecności nawet stosunkowo skromnych wewnętrznych pól magnetycznych, gwiazdy o małej masie nigdy nie stają się w pełni konwekcyjne, tj. że pola magnetyczne stabilizują głębokie wnętrze w średniej, ale ostateczna odpowiedź pozostaje nieuchwytna w momencie pisania.
Gwiazdy magnetyczne typu A
Obserwacje późnych gwiazd ciągu głównego typu widmowego B-A wykazały istnienie podklasy takich gwiazd, które wykazują obecność niezwykle silnych powierzchniowych pól magnetycznych, z doniesieniami o ekstremalnych przykładach pól o sile przekraczającej 30 kG. Zmiany czasowe spolaryzowanego sygnału Zeemana z tych gwiazd wykazują jedynie zmiany związane z obrotem gwiazdy; zmiany sekularne, które można interpretować jako zmiany związane z cyklem, nie zostały zaobserwowane w przypadku tych gwiazd. Oznacza to, że albo te pola magnetyczne mają pierwotne pochodzenie, albo że proces dynama odpowiedzialny za te pola ma znacznie dłuższą charakterystyczną skalę czasową niż dynama gwiazdowe związane ze strefą konwekcji powierzchniowej gwiazd ciągu głównego późnego typu.
Gwiazdy plamiste
Obserwacje gwiazd ciągu głównego typu widmowego K i M wykazały, że bardziej aktywne gwiazdy tego typu mogą wykazywać znaczne zmiany jasności bolometrycznej, które przypisuje się obecności dużych "plam gwiezdnych" na ich powierzchni . Podczas gdy plamy słoneczne zazwyczaj zajmują obszary rzędu 10?6-10?5 widocznego dysku słonecznego, te plamy gwiezdne mogą zajmować 30% lub więcej widocznej powierzchni aktywnej gwiazdy. Podczas gdy nastąpiła rewolucja w badaniu takich cech powierzchni gwiazd wraz z wprowadzeniem obrazowania Dopplera, niewiele wiadomo teoretycznie na temat powstawania takich plam. Na przykład, rodzaj lokalnego szybkiego procesu dynama omówiony wcześniej, który dobrze opisuje produkcję strumienia magnetycznego na małą skalę na powierzchni Słońca, nie może być trywialnie rozszerzony, aby wyjaśnić te ogromne cechy magnetyczne
Ziemia: Obserwacje z kosmosu
Po II wojnie światowej Laboratorium Badań Marynarki Wojennej Stanów Zjednoczonych (US Naval Research Laboratory) rozpoczęło eksperymenty z niemieckimi rakietami V-2, a także z mniejszymi, lżejszymi rakietami nośnymi zwanymi "rakietami sondowymi". Aby monitorować kierunek, w którym rakiety są skierowane podczas lotu, naukowcy zaczęli umieszczać na nich kamery pokładowe. Podczas jednego z takich lotów, 7 marca 1947 roku, wykonano pierwsze zdjęcie Ziemi z kosmosu na wysokości 160 kilometrów nad Nowym Meksykiem. W 1950 roku, po wywołaniu filmu po kolejnym z tych lotów, naukowiec Otto Berg odkrył serię zdjęć ogromnej burzy tropikalnej nad Brownsville w Teksasie. Połączył zdjęcia w mozaikę obszaru objętego burzą, demonstrując w ten sposób potencjał kamer kosmicznych w monitorowaniu zmieniającego się świata . Zainteresowanie wykorzystaniem rakiet sondowych do badania górnych warstw atmosfery Ziemi szybko wzrosło wśród międzynarodowej społeczności naukowców badających Ziemię. W 1952 roku Międzynarodowa Rada Unii Naukowych zaproponowała ogłoszenie roku 1957 "Międzynarodowym Rokiem Geofizycznym" (MRG), aby zaspokoić rosnące pragnienie naukowców, by rozszerzyć badania naszej planety na cały system ziemski i jego otoczenie. W 1954 roku komitet MRG wezwał kraje uczestniczące do wystrzelenia satelity w ramach obchodów MRG. 29 lipca 1955 roku prezydent Dwight Eisenhower ogłosił, że Stany Zjednoczone wystrzelą około sześciu satelitów Ziemi jako wkład w MRG. Następnego dnia premier Nikita Chruszczow zapowiedział, że Związek Radziecki również wystrzeli satelity podczas MRG, a między supermocarstwami rozpoczął się wyścig. W październiku 1957 roku Związek Radziecki z powodzeniem wystrzelił Sputnika 1 - 22-calowego, sferycznego satelitę o wadze 175 funtów (ok. 84 kg) - na niską orbitę okołoziemską. W styczniu 1958 roku Stany Zjednoczone z powodzeniem wystrzeliły sondę Explorer I, a dwa miesiące później Vanguard I. Jednak sukces Rosjan i początkowe niepowodzenia Stanów Zjednoczonych wywołały kryzys w tym kraju. Amerykanie uznali eksplorację kosmosu za narodowy priorytet, a w 1958 roku prezydent Eisenhower zlecił Komitetowi Doradczemu ds. Nauki opracowanie polityki kosmicznej. Jeszcze w tym samym roku Kongres podpisał ustawę powołującą Narodową Agencję Aeronautyki i Przestrzeni Kosmicznej (NASA). Od tego czasu NASA odgrywa międzynarodową rolę lidera w rozwoju i wdrażaniu technologii satelitarnych do obserwacji Ziemi.
Perspektywa kosmiczna
Radziecko-amerykański wyścig o zademonstrowanie wyższości technologicznej przyniósł naukowcom zajmującym się Ziemią pomyślny produkt uboczny - nową perspektywę, z której mogli badać nasz świat. W 1959 roku Rosjanie, a tuż za nimi Amerykanie, wysłali pierwszych ludzi w kosmos. Patrząc wstecz, kosmonauci i astronauci postrzegali Ziemię jako maleńką oazę życia - unikalną, o ile nam wiadomo - dryfującą po pozornie martwym morzu. Na tle zimnego, czarnego tła kosmosu ci kosmiczni pionierzy dostrzegali, jak piękny, ciepły i zachęcający, a jednocześnie jak mały i kruchy wydaje się nasz świat. Przyglądając się bliżej, widzieli zachodzące zmiany, niektóre szybko, inne powoli, na całej planecie. ATMOSFERA ZIEMI zdawała się niemal wrzeć od aktywności, gdy chmury formowały się i rozpraszały każdego dnia. Po powierzchni szalały wiry gwałtownych burz. Zmiany na lądzie były widoczne, gdy erupcje wulkanów i duże pożary lasów wyrzucały kłęby dymu wysoko w atmosferę. W nocy rozległe rozprzestrzenienie się ludzkości można było wyraźnie dostrzec jako skupiska miejskich świateł, wyznaczające zarysy zamieszkałych mas lądowych Ziemi. Naukowcy odkryli, że przestrzeń kosmiczna to idealna perspektywa do obserwacji i pomiaru zmian zachodzących na naszej planecie. W kwietniu 1960 roku NASA wystrzeliła satelitę do obserwacji telewizji i podczerwieni (TIROS) na orbitę średnich szerokości geograficznych wokół Ziemi. Później tego samego roku wystrzelono TIROS II, a rok później TIROS III - pierwsze satelity zaprojektowane do badania szybko zmieniających się wzorców pogodowych na Ziemi. Zebrały i przesłały na Ziemię tysiące zdjęć pokrywy chmur, a także obrazy huraganów, burz tropikalnych i frontów atmosferycznych, które w przeciwnym razie mogłyby pozostać niezauważone przez wiele dni przy użyciu konwencjonalnych metod. Przez dziesięciolecia sztuka i nauka obserwacji Ziemi z kosmosu rozwijały się i ewoluowały. Naukowcy opracowali satelitarne "czujniki zdalne", które są wrażliwe na obszary widma elektromagnetycznego inne niż światło widzialne, umożliwiając nam obserwację rzeczy, których normalnie byśmy nie widzieli. Na przykład, zaprojektowanie TIROS II i kolejnych satelitów do pomiaru światła podczerwonego (w zasadzie ciepła) umożliwiło naukowcom tworzenie nocnych obrazów chmur w "fałszywych kolorach". (Obrazy "fałszywych kolorach" powstają poprzez przypisanie wartości czerwieni, zieleni i błękitu różnym długościom fal energii promieniowania). W 1964 roku projekt TIROS został zastąpiony przez bardziej zaawansowaną serię satelitów pogodowych Nimbus, a NASA zaczęła badać inne strategie orbitalne dla swoich statków kosmicznych. Satelity Nimbus poruszały się po orbitach okołobiegunowych, synchronicznych ze Słońcem, co pozwoliło naukowcom na łączenie danych w mozaikowe obrazy całego globu. Inne satelity, takie jak satelita Applications Technology Satellite (ATS-1) z 1966 roku, poruszały się po orbitach "geosynchronicznych", gdzie przez cały okres swojego istnienia miały stały widok na mniej więcej te same miejsca na Ziemi. ATS-1 dostarczał obrazy tych samych obszarów progresywnie co 30 minut, dostarczając meteorologom więcej informacji o zmianach zachodzących w czasie niemal rzeczywistym. W maju 1974 roku NASA wystrzeliła pierwszego z serii geostacjonarnych satelitów meteorologicznych, SMS-1. W październiku 1975 roku NASA wystrzeliła pierwsze geostacjonarne satelity operacyjne do badania środowiska (GOES) Narodowej Agencji Oceanów i Atmosfery (NOAA), z których każdy zapewniał stały i ciągły obraz zmieniających się wzorców pogodowych. Satelity GOES 8 i 10 nadal działają, dostarczając wiele codziennych obrazów pogodowych Ameryki Północnej, które meteorolodzy prezentują dziś w swoich wieczornych programach informacyjnych.
Ziemia to dynamiczna planeta.
Zmiana jest prawdopodobnie jedyną stałą w historii naszej planety. Od początku istnienia Ziemi, około 4,5 miliarda lat temu, naturalny klimat i warunki środowiskowe na naszej planecie podlegają ciągłym zmianom. Zmienność słoneczna, erupcje wulkanów, uderzenia meteorów, pojawienie się życia, formowanie się atmosfery bogatej w tlen i gazy cieplarniane, zmieniające się wzorce cyrkulacji oceanicznej, pożary lasów - przez tysiąclecia te i inne siły geologiczne ukształtowały misternie powiązany globalny system klimatyczny, który dopiero zaczynamy rozumieć. Przenieśmy się do końca XIX wieku i bądźmy świadkami nadejście nowej i potężnej siły zmian - rewolucji przemysłowej ludzkości. Rewolucja przemysłowa nie tylko zapoczątkowała nową erę dobrobytu dla wielu, ale także dała nam narzędzia do radykalnej transformacji naszego środowiska. Jednak wpływ, jaki wywieramy na nasze środowisko, wydaje się wprawiać w ruch koła zmian klimatycznych w tempie niespotykanym na Ziemi od milionów lat. W ciągu ostatnich 100 lat populacja ludzka potroiła się. W tym czasie zużywaliśmy coraz więcej paliw kopalnych, aby wyżywić nasze szybko industrializujące się gospodarki, co podniosło poziom dwutlenku węgla w atmosferze o 25%. Wypalaliśmy lasy, aby zrobić miejsce dla naszych miast i dróg, uwalniając dwutlenek węgla, a także eliminując drzewa, które w przeciwnym razie ponownie absorbowałyby część tego gazu z powietrza podczas fotosyntezy. W ciągu ostatnich trzech dekad ludzie spalali ponad 750 000 kilometrów kwadratowych lasów rocznie. Wprowadzaliśmy do powietrza chlorofluorowęglowodory, które niszczą ozon w stratosferze. Bez stratosferycznej osłony ozonowej powierzchnia naszej planety byłaby narażona na szkodliwe promieniowanie ultrafioletowe Słońca, a życie, jakie znamy, nie mogłoby istnieć. Z powodu, przynajmniej częściowo, rosnącego poziomu dwutlenku węgla, średnia temperatura globalna wzrosła o 0,5°C w ciągu ostatniego stulecia, a niektóre modele komputerowe przewidują, że może wzrosnąć o kolejny 1°C w ciągu następnego stulecia. Już teraz obserwujemy topnienie czap lodowych na biegunach w alarmującym tempie, podczas gdy średnio dwa do trzech lodowców na całym świecie znika co tydzień. Geolodzy spekulują, że do 2050 roku w amerykańskim Parku Narodowym Glacier nie będzie już lodowców. . Jakie są dokładnie przyczyny tych zmian? Które zmiany można przypisać zmienności naturalnej, a które są wywołane przez człowieka? Jak te zmiany wpłyną na pogodę i klimat w XXI wieku? Jak zmiany klimatu i środowiska wpłyną na jakość życia naszych wnuków i wnuków? Aby pomóc odpowiedzieć na te i inne pytania, NASA opracowała nową serię zdalnych czujników satelitarnych, począwszy od satelity Earth Resources Technology Satellite (ERTS) wystrzelonego w 1972 roku (później przemianowanego na Landsat 1).
Od obserwacji do pomiaru zmian na Ziemi
W sumie NASA wystrzeliła siedem satelitów Landsat, z których najnowszy, Landsat 7, został wystrzelony w kwietniu 1999 roku. On i Landsat 5 to jedyne dwa satelity z tej serii, które są obecnie w użyciu. Od czasu pierwszej misji Landsat, głównym celem serii był pomiar zmian na powierzchni lądu w wysokiej rozdzielczości. Podczas gdy pierwszy Landsat mógł zbierać obrazy z rozdzielczością około 65 m na piksel (w nadirze), Landsat 7 może rejestrować powierzchnię z rozdzielczością sięgającą 15 m na piksel. Tak szczegółowe obrazy pozwoliły naukowcom na odkrycie formacji geologicznych, takich jak kratery uderzeniowe meteorów, wcześniej nieodkrytych. Ponadto, ponieważ zdrowe rośliny zielone odbijają i pochłaniają światło podczerwone inaczej niż suche rośliny brązowe, naukowcy odkryli, że mogą wykorzystywać dane z Landsat do monitorowania stanu gruntów ornych i lasów na dużych obszarach. Landsat zapewnia również doskonały zestaw danych do pomiaru tempa wylesiania, wysychania śródlądowych zbiorników wodnych, rozszerzania się obszarów pustynnych i rozrastania się ośrodków miejskich. Naukowcy na całym świecie rutynowo wykorzystują dane z satelity Landsat do tych i wielu innych zastosowań. W 1973 roku dwóch naukowców z Uniwersytetu Kalifornijskiego w Irvine opublikowało teorię, że wytwarzane przez człowieka chlorofluorowęglowodory (CFC) mogą uszkadzać stratosferyczną warstwę ozonową Ziemi. Dwa lata później Kongres zwrócił się do NASA z prośbą o opracowanie "kompleksowego programu badań, technologii i monitorowania zjawisk zachodzących w górnych warstwach atmosfery". W szczególności celem Kongresu było określenie "stanu" warstwy ozonowej. W 1978 roku NASA wystrzeliła ostatnią sondę z serii Nimbus, Nimbus 7, niosącą w sobie dwa nowe czujniki: instrument do pomiaru promieniowania ultrafioletowego (SBUV) i spektrometr do mapowania całkowitego ozonu (TOMS). Wrażliwe na energię promieniowania w ultrafiolecie widma elektromagnetycznego, czujniki Nimbus 7 wykorzystywały fakt, że cząsteczki i cząstki aerozolu odbijają określone długości fal promieniowania ultrafioletowego, podczas gdy ozon pochłania inne na różnych poziomach atmosfery. Analizując ilość energii ultrafioletowej odbitej z powrotem do statku kosmicznego, naukowcy mogli stworzyć profile grubości ozonu na różnych wysokościach i w różnych lokalizacjach. Ale, ironicznie, "DZIURA OZONOWA" nad Antarktydą została odkryta dopiero w maju 1985 roku, kiedy brytyjski naukowiec, używając naziemnego spektrofotometru ozonowego Dobsona, stwierdził, że ozon stratosferyczny nad Zatoką Halleya był o około 40 procent niższy niż ten zmierzony poprzedniej zimy. Zaskoczeni, naukowcy NASA pospiesznie przejrzeli dane z TOMS i odkryli, że również on wykrył drastyczną utratę ozonu na całej Antarktydzie. Dlaczego nie odkryli tego zjawiska wcześniej? Niestety, oprogramowanie do analizy danych TOMS zostało zaprogramowane tak, aby sygnalizować i odrzucać punkty danych, które znacznie odbiegały od oczekiwanych pomiarów, przez co wstępne pomiary, które powinny były wywołać alarm, być może lata wcześniej, zostały po prostu przeoczone. Krótko mówiąc, zespół TOMS nie wykrył dziury ozonowej, ponieważ była ona znacznie poważniejsza, niż przewidywali naukowcy. W latach po odkryciu dziury ozonowej satelity NASA rejestrowały zubożenie poziomu ozonu nad Antarktydą, który z każdym rokiem się pogarszał. W odpowiedzi, w 1987 roku 43 kraje podpisały "Protokół montrealski", w którym zobowiązały się do zmniejszenia stosowania freonów o 50 procent do 2000 roku. W 1991 roku satelita NASA do badań górnej atmosfery (UARS) zmapował poziom tlenku chloru w stratosferze i szybko wykazał, że istnieje bezpośredni związek między obecnością chloru, powstawaniem tlenku chloru zimą na półkuli południowej a niszczeniem ozonu. Czy globalnej katastrofie udało się zapobiec? Czy poziom ozonu stratosferycznego ustabilizuje się i powróci do normy w nadchodzących latach? Nie wiemy jeszcze, pokaże to tylko czas i więcej danych.
W kierunku przewidywania zmian klimatu
W miarę jak wkraczamy w XXI wiek, środowisko Ziemi będzie przedmiotem wielu decyzji rolniczych, przemysłowych, społecznych i politycznych. Zdajemy sobie sprawę, że potrzebujemy więcej i lepszych danych, aby zrozumieć, jak obecne trendy zmian środowiskowych mogą wpłynąć na klimat w przyszłości, nawet za kilka lat. Aby zebrać te dane, w 1991 roku NASA utworzyła program Systemu Obserwacji Ziemi (Earth Observing System - EOS) w odpowiedzi na inicjatywę prezydenta USA, mającą na celu zapewnienie dogłębnego zrozumienia naukowego funkcjonowania Ziemi jako systemu. Statut EOS zakłada zebranie co najmniej 15-letniego nowego zestawu danych, na którym można będzie oprzeć długoterminowe i kompleksowe badanie systemu klimatycznego naszej planety. EOS to międzynarodowe przedsięwzięcie składające się z trzech części: (1) serii zaawansowanych satelitarnych czujników zdalnych; (2) solidnej, nowej sieci komputerowej (zwanej EOSDIS) do przetwarzania, przechowywania i dystrybucji danych EOS; oraz (3) około 850 naukowców pracujących w wielu krajach i w wielu dyscyplinach nauk o Ziemi, którzy wykorzystają te nowe dane w swoich badaniach. NASA wystrzeliła już cztery satelity EOS w latach 90. XX wieku, w tym Landsat 7, QuikScat, ACRIMSAT i flagowy satelitę EOS, Terra, wystrzelony w grudniu 1999 roku. Do 2003 roku planowane jest wystrzelenie kolejnych 15 satelitów EOS. Zamiast koncentrować się na poszczególnych dyscyplinach, dane z tych satelitów EOS zostaną zintegrowane w bardziej całościowe badanie Ziemi, obejmujące siedem nadrzędnych tematów:
• promieniowanie, chmury, para wodna, opady i cyrkulacja atmosferyczna;
• cyrkulacja oceaniczna, produktywność i wymiana z atmosferą;
• chemia troposfery i gazy cieplarniane;
• ekosystemy lądowe i hydrologia;
• zasięg śniegu, lodu i lodowców;
• chemia ozonu i stratosfery;
• wulkany i wpływ aerozoli na klimat.
W przypadku EOS, po raz pierwszy w historii dużego programu obserwacji Ziemi, celem jest swobodne udostępnianie uzyskanych danych zarówno naukowcom, jak i organizacjom cywilnym. Takie podejście do danych wyraźnie kontrastuje z poprzednimi misjami satelitarnymi, w przypadku których publiczny dostęp do danych był dość kosztowny. W rzeczywistości niektóre dane EOS są bezpośrednio transmitowane do każdego, kto posiada kompatybilną stację odbiorczą i jest w stanie przetwarzać i przechowywać tak ogromny przepływ informacji. Jak sama nazwa wskazuje, EOS to zakrojona na szeroką skalę, długoterminowa misja współpracy, w której uczestniczą naukowcy z agencji rządowych, środowisk akademickich i przemysłu z wielu krajów.
Wnioski
Obecnie celem naukowców zajmujących się Ziemią jest nie tylko obserwacja wzorców pogodowych na całym świecie, ale także określenie przyczyn i skutków zmian klimatu i środowiska. Dzięki coraz bardziej zaawansowanym czujnikom satelitarnym możemy mierzyć szeroki zakres parametrów geofizycznych (takich jak temperatura powierzchni, rozkład chmur i cząstek aerozoli, obfitość gazów śladowych w atmosferze, czy też rozmieszczenie i rodzaje życia na lądzie i w oceanie) z niespotykaną dotąd dokładnością i rozdzielczością. Co więcej, możemy teraz mierzyć, jak zmiany niektórych aspektów systemu klimatycznego (takich jak zachmurzenie) mogą mieć "efekt domina" na inne aspekty systemu klimatycznego (takie jak temperatura powierzchni, opady, budżet promieniowania). Naukowcy wprowadzają te nowe dane satelitarne, zebrane w całym systemie klimatycznym Ziemi, do zaawansowanych modeli komputerowych, które ostatecznie umożliwią im przewidywanie zmian klimatu na miesiące, lata, a nawet dekady przed ich wystąpieniem. Jeśli chcemy stać się lepszymi zarządcami naszej planety - jeśli chcemy pozostawić bogate zasoby naturalne naszym wnukom i ich wnukom - musimy nadal monitorować naszą planetę za pomocą czujników satelitarnych, co pozwoli nam coraz lepiej zrozumieć, jak działa system Ziemi.
Atmosfera Ziemi
Skład i warunki fizyczne atmosfery neutralnej. Nasza planeta jest otoczona cienką powłoką gazową, czyli atmosferą. Ta atmosfera, zawierająca duże ilości tlenu cząsteczkowego, a tym samym ozonu, który chroni nas przed szkodliwym promieniowaniem UV, oraz gazami cieplarnianymi, takimi jak para wodna czy dwutlenek węgla, utrzymująca łagodne warunki klimatyczne, jest unikalna w Układzie Słonecznym. Odgrywa ona kluczową rolę w utrzymaniu na powierzchni Ziemi środowiska sprzyjającego przetrwaniu i rozwojowi życia i należy ją uznać za kluczowy element systemu ziemskiego. Średnie ciśnienie na poziomie gruntu wynosi 1013 mbar, przy masie słupa atmosfery 1 kg cm-2 i gęstości 2,7 × 1019 cząsteczek/cm-3. Średnia temperatura na powierzchni Ziemi wynosi 288 K, czyli 15°C. Atmosfera składa się głównie z azotu cząsteczkowego (78,1%), tlenu cząsteczkowego (20,9%) i mniej niż 1% argonu, o średniej masie cząsteczkowej 29 jednostek masy atomowej (tabela 1). W atmosferze obecne są również centymetry wody, które mogą się wytrącać, w postaci pary wodnej lub kropelek wody lub cząsteczek lodu w chmurach. Objętościowy stosunek zmieszania pary wodnej jest bardzo zmienny, ale wszędzie wynosi mniej niż 1%. Dwutlenek węgla, pomimo swojej niewielkiej względnej zawartości (0,04%), odgrywa kluczową rolę w bilansie radiacyjnym planety. Drobne składniki atmosfery ziemskiej wymieniono w tabeli 2. Skład chemiczny atmosfery został odkryty przez francuskiego chemika Antoine′a-Laurenta de Lavoisiera w drugiej połowie XVIII wieku w wyniku badań nad reakcjami utleniania. Lavoisier, podobnie jak angielski naukowiec Joseph Priestley, doszedł do wniosku, że pewien składnik powietrza (tlen) ma właściwość łączenia się z metalami, tworząc tlenki, z których może być uwalniany przez ogrzewanie. Istnienie drugiego składnika (azotu), który nie wchodzi w skład tlenków, było również wymagane przez wyniki eksperymentów. W tym czasie wynaleziono już przyrządy do pomiaru najbardziej podstawowych właściwości fizycznych atmosfery (temperatury, ciśnienia, deszczu, wiatru, wilgotności), a pierwsze systematyczne pomiary temperatury dopiero zaczynały być wykonywane, na przykład w Królewskim Instytucie Meteorologicznym w Holandii. Pionowe badania atmosfery, po raz pierwszy zilustrowane eksperymentem Pascala na Puy-de-Dome w 1647 roku, były kontynuowane za pomocą latawców i balonów: pierwsze sondowanie meteorologiczne, przeprowadzone w 1783 roku, osiągnęło wysokość 3400 m. Pod koniec XIX wieku dwaj francuscy meteorolodzy, Hermitte i Besanøcon, przeprowadzali systematyczne wystrzeliwanie balonów z czujnikami ciśnienia i temperatury. Stratosferę odkrył w 1899 roku Léon Teisserec de Bort. W XX wieku obserwacje szybko rozwinęły się dzięki wykorzystaniu balonów stratosferycznych i pomiarów lotniczych, natomiast w ostatnim okresie teledetekcja satelitarna stała się najskuteczniejszym sposobem monitorowania globalnej struktury atmosfery ziemskiej. Pionowa struktura atmosfery jest kontrolowana przez prawo równowagi hydrostatycznej: gęstość dostosowuje się w taki sposób, że siła grawitacji (skierowana w dół) jest równoważona przez siłę (skierowaną w górę) indukowaną przez pionowy gradient ciśnienia. Zakładając, że powietrze jest gazem doskonałym, można wykazać, że ciśnienie atmosferyczne maleje wykładniczo wraz z wysokością, osiągając wartości 100 mbar i 10 mbar odpowiednio na wysokości 15 km i 30 km. Biorąc pod uwagę swoją masę, atmosfera ziemska odpowiada jednorodnej warstwie o grubości 8 km. Do wysokości 100 km atmosfera składa się głównie z pierwiastków obojętnych. Składniki są mieszane przez turbulentną lepkość, wynikającą z aktywności wiatru i fal, a pionowy rozkład każdego składnika nie zależy od jego własnej masy cząsteczkowej. W pierwszym przybliżeniu pierwiastki, na które nie wpływa kondensacja ani chemia, takie jak azot cząsteczkowy, tlen cząsteczkowy i argon, mają taki sam pionowy rozkład i dlatego są jednorodnie wymieszane. Obszar poniżej 90 km wysokości, gdzie składniki są jednorodnie wymieszane, nazywany jest "homosferą". Ponieważ temperatura maleje wraz z wysokością, jak opisano później, a ciśnienie nasycenia pary wodnej jest rosnącą funkcją temperatury, stosunek zmieszania pary wodnej maleje wraz z wysokością i wynosi tylko kilka ppmv (części na milion objętości) powyżej 15 km. Innym ważnym przykładem nierównomiernie wymieszanego składnika jest ozon (O3), którego obfitość jest kontrolowana przez chemię. Ozon powstaje w wyniku dysocjacji tlenu cząsteczkowego przez fotony ultrafioletowe słońca, co daje atomy tlenu zdolne do tworzenia ozonu poprzez reakcję z tlenem cząsteczkowym. Reakcja ta zachodzi na wysokości od 15 km do 50 km w stratosferze. Chociaż stosunek zmieszania ozonu nie przekracza 0,1 ppmv, warstwa ozonowa jest dość skuteczną tarczą przed szkodliwym promieniowaniem ultrafioletowym słońca, ponieważ fotony o długości fali w zakresie 200-300 nm łatwo rozbijają cząsteczkę ozonu. Ilość ozonu obecnego w stratosferze odpowiada 3-milimetrowej warstwie czystego ozonu w warunkach STP (standardowe ciśnienie i temperatura: 1013 mbar, 273 K). Obecność wyraźnej stratosfery jest wyjątkową cechą Ziemi. Atmosfery naszych dwóch siostrzanych planet, Marsa i Wenus, które nie są zaopatrywane w tlen w procesie fotosyntezy, nie posiadają stratosfery. Historycznie, ozon został zmierzony po raz pierwszy na początku lat 50. XX wieku metodą okultacji słonecznej. Najwcześniejsze pomiary ozonu zostały przeprowadzone przez Naval Research Laboratory (NRL) za pomocą przechwyconych rakiet V2, które dzięki stabilizacji bezwładnościowej stanowiły doskonałą platformę pomiarową. Metoda okultacji polega na obserwacji zachodzącego lub wschodzącego Słońca, lub gwiazdy, za krawędzią Ziemi. W ten sposób widmo absorpcyjne górnych warstw atmosfery można obserwować w funkcji wysokości, uzyskując pionowy rozkład substancji pochłaniających. Dokładne pomiary ozonu uzyskano na wysokości do 70 km. Ta sama metoda umożliwiła pomiar absorpcji O2 na wysokości do 140 km, podczas gdy panowało przekonanie, że gaz ten jest całkowicie nieobecny powyżej wysokości 90-100 km. Powyżej 90 km, w "heterosferze", różne związki chemiczne oddzielają się od siebie pod wpływem grawitacji. Siły lepkości nie są już w stanie mieszać składników i każdy z nich rozprowadza się zgodnie z własną masą cząsteczkową. W tym zakresie wysokości atmosfera jest zalewana fotonami ultrafioletowymi i energetycznymi cząstkami, a cząsteczki atmosferyczne ulegają dysocjacji i jonizacji. Atomy, które są lżejsze od cząsteczek, rozprzestrzeniają się na większe wysokości: tlen atomowy jest głównym składnikiem powyżej 200 km, podczas gdy wodór, wraz z helem, dominuje powyżej 700 km. Zatem średnia masa cząsteczkowa cząsteczek atmosferycznych maleje wraz z wysokością w heterosferze. Ostatecznie, dzięki swojej termicznej energii kinetycznej, atomy wodoru są w stanie uciec z ziemskiej atmosfery w górnych rejonach, gdzie zderzenia nie są częste. Ogólna struktura pionowego profilu temperatury jest przedstawiona na rysunku 1. Jest ona oparta na nomenklaturze wprowadzonej po raz pierwszy przez Sydneya Chapmana w latach 30. XX wieku. W dolnej części atmosfery, poniżej 10-15 km, zwanej "troposferą", temperatura spada wraz z wysokością ze średnią szybkością 6,5°C km-1, co jest niemal równe wilgotnemu adiabatycznemu gradientowi temperatury. Źródłem ciepła jest powierzchnia oświetlona widzialnym promieniowaniem słonecznym. Ciepło jest przenoszone do troposfery poprzez trzy różne procesy: parowanie wody i uwalnianie ciepła utajonego poprzez tworzenie się chmur; emisję i absorpcję w podczerwieni przez gazy cieplarniane; oraz strumień ciepła odczuwalnego. Pionowy transport pary wodnej i ciepła jest zapewniony przez ruchy konwekcyjne. Przejrzystość ziemskiej atmosfery w zakresie widzialnym, która pozwala większości fotonów słonecznych dotrzeć do powierzchni Ziemi, jest głównym czynnikiem determinującym system klimatyczny Ziemi. Na przykład na Wenus, bardzo gęsta dolna atmosfera dwutlenku węgla, o ciśnieniu przy powierzchni ziemi wynoszącym ≈ 90 barów, uniemożliwia dotarcie widzialnego promieniowania słonecznego do powierzchni Ziemi, co powoduje zupełnie inne zachowanie systemu klimatycznego. Powyżej 15 km, w "stratosferze", temperatura wzrasta z 220 K do 270 K na wysokości 50 km. Stratosfera jest bezpośrednio ogrzewana przez słoneczne promieniowanie ultrafioletowe, pochłaniane przez ozon, podczas gdy chłodzenie następuje poprzez emisję dwutlenku węgla w podczerwieni i, w mniejszym stopniu, pary wodnej. Powyżej 50 km wysokości, w mezosferze, stężenie ozonu spada, a temperatura regularnie spada do wysokości 90 km, gdzie spada poniżej 200 K. Powyżej 90 km, w termosferze, wzmożone promieniowanie ultrafioletowe powoduje wzrost temperatury wraz z wysokością, z dużą zmiennością dobową i sezonową ze względu na niską bezwładność cieplną rzadkiej atmosfery. Ciepło absorbowane w termosferze jest transportowane w dół poprzez przewodnictwo cieplne i wypromieniowywane w podczerwieni w górnej części mezosfery.
Zjonizowane środowisko Ziemi
Zjonizowana atmosfera, czyli jonosfera, składa się z kilku wyraźnie zaznaczonych warstw. Ta struktura warstw wynika z różnorodności strumieni jonizujących (promieniowanie UV i rentgenowskie, cząstki wysokoenergetyczne) oraz zjonizowanych cząstek. Chociaż w zakresie 60-80 km występuje kilka jonów, jonizacja jest znacząca dopiero powyżej 80-90 km. Główne warstwy jonosferyczne są oznaczone literami D, E i F. Rozciągają się one od podstawy warstwy D, na wysokości 60 km, do 400 km powyżej szczytu obszaru F2. Najgłębiej penetrujące strumienie energii to promieniowanie kosmiczne, fotony rentgenowskie i słoneczne Ly-α, które odpowiadają za JONIZACJĘ w warstwie D i są bardzo wrażliwe na aktywność słoneczną. Miękkie promieniowanie rentgenowskie (? = 1-10 nm) i długofalowe promieniowanie UV są głównymi źródłami jonizacji w warstwie E. Głównymi jonami są tlen atomowy i cząsteczkowy oraz tlenek azotu. Natomiast jony O+2 i N+2 powstają w wyniku jonizacji odpowiednich cząsteczek, które są dominującymi, zgodnie z następującym schematem reakcji: O2 + h? ? O+2 + e?. NO+ powstaje w wyniku reakcji wymiany ładunku O++N2 ? NO+ +N. Pionowy rozkład jonów jest złożony. O+2+2 i NO+ dominują w obszarach D, E i F1, natomiast O+ jest głównym jonem w obszarze F2. Powyżej 1000 km dominują jony lekkie, takie jak H+ i He+. Gęstość elektronów osiąga szczyt na wysokości 300 km, osiągając wartość maksymalną 106 cm-3. Wartość ta wykazuje silną zmienność dobową z powodu braku fotonów słonecznych w nocy. W nocy elektrony całkowicie zanikają w warstwie D, a ich obfitość znacznie spada w warstwach E i F1. Zachowanie warstwy F2 jest bardziej złożone, ponieważ transport przez dyfuzję pionową i wiatry odgrywa ważną rolę w górnej jonosferze. Historycznie, rola przewodzącej zjonizowanej powłoki naszej planety w odbijaniu fal radiowych została odkryta na samym początku XX wieku. Pierwszą transkontynentalną komunikację radiową ustanowił Marconi. Pod koniec lat dwudziestych XX wieku Appleton w Anglii i Tuve w Stanach Zjednoczonych opracowali pierwszy instrument dedykowany teledetekcji jonosfery - "jonosondę", która zdominowała badania fizyki wysokich warstw atmosfery aż do początku ery kosmicznej. Współczesne naziemne obserwacje parametrów fizycznych jonosfery (gęstość, temperatura, wiatr) wykorzystują technikę "radaru rozpraszania niekoherentnego", która polega na oświetleniu jonosfery wiązką fal radiowych i analizie charakterystyki widmowej rozproszonego sygnału. Wraz ze wzrostem wysokości, rola wewnętrznego pola magnetycznego Ziemi staje się ważniejsza. W "magnetosferze" ruch cząstek jest kontrolowany głównie przez siły elektromagnetyczne (patrz MAGNETOSFERA ZIEMI). Ponieważ pole magnetyczne odchyla naładowane cząstki WIATRU SŁONECZNEGO, który wieje z dziennej strony na nocną z prędkością około 400 km s-1, tworzy w strumieniu wiatru słonecznego wydłużoną wnękę. Wnęka ta wykazuje, w pierwszym przybliżeniu, symetrię osiową wokół osi Słońce-Ziemia, w przeciwieństwie do sferycznie symetrycznych dolnych warstw jonosfery. Jej kształt jest w przybliżeniu paraboliczny w kierunku słonecznym, gdzie rozciąga się na około 12 promieni Ziemi. W kierunku zawietrznym magnetosfera jest prawie cylindryczna i tworzy ogon magnetyczny o długości kilku jednostek astronomicznych (AU) (1 AU = 1 jednostka astronomiczna, czyli odległość Słońce-Ziemia, czyli 1,5 × 1011 m), który można porównać do ogonów kometarnych. Magnetosfera składa się z niezwykle rzadkiego ośrodka o typowej gęstości jednej cząstki na centymetr sześcienny, w którym zderzenia między cząstkami odgrywają znikomą rolę. Wewnętrzna granica magnetosfery, plazmopauza, znajduje się około 4 promieni Ziemi od jej środka w płaszczyźnie równikowej. Obszar wewnątrz plazmopauzy, zwany "plazmosferą", jest wypełniony stosunkowo zimną (T < 10 000 K) i gęstą (n ≈ 100 cząstek/cm3) plazmą pochodzącą z jonosfery. Kilka padających cząstek wiatru słonecznego (około 1%) przenika do magnetosfery. Niektóre z nich wytrącają się na dużych szerokościach geograficznych wzdłuż linii pola magnetycznego i docierają do niskich poziomów atmosferycznych: elektron o typowej energii 10 keV może przeniknąć na wysokość 100 km, zanim zostanie znacząco przeciągnięty. Wytrącające się cząstki energetyczne (głównie elektrony) wytwarzają, poprzez jonizację cząsteczek takich jak tlen atomowy, a następnie rekombinację i fluorescencję, dobrze znane i oszałamiające wizualnie zjawisko zorzy polarnej. Wzór jasności zorzy polarnej, który odzwierciedla kształt linii pola magnetycznego Ziemi, zakotwiczonych w głębi Ziemi i zaburzanych na dużych wysokościach przez przepływ cząstek wytrącających, jest niezwykle zróżnicowany - od spokojnych, rozproszonych, dużych zórz po złożone, piękne wzory "pasm" i "łuków" zorzowych. Bardziej szczegółowo, elektron pierwotny jest źródłem wielu elektronów wtórnych na wysokości, poprzez reakcje jonizacji typu
A+e? ? A+ + e? + e?
. Zjonizowane cząsteczki rekombinują albo poprzez rekombinację "radiacyjną"
A+ + e? ? A? -> A+h?
lub poprzez rekombinację "dysocjacyjną"
XY+ + e? -> X? + Y? ->X +Y + h?
emitując fotony. Najczęściej obserwowanymi emisjami są zielone i czerwone linie tlenu atomowego odpowiednio przy 558 nm i 630-636 nm. Czasami można zaobserwować fioletowe zabarwienie, wynikające z linii N+2 przy 391 nm. Czerwona linia tlenu powstaje w wyniku radiacyjnej deekscytacji pierwszego stanu wzbudzonego O(1D) tlenu. Ponieważ czas życia promieniowania O(1D) jest długi, około 2 min, fluorescencja w tej linii nie może wystąpić w dolnej jonosferze (z < 200 km), gdzie stan wzbudzony jest dezaktywowany przez zderzenia z cząsteczkami powietrza w czasie krótszym niż czas emisji promieniowania. Z tego powodu czerwone zorze polarne występują tylko przy wysokich poziomach jonosfery.
Absorpcja, rozpraszanie i scyntylacja w atmosferze
Promieniowanie UV i widzialne Słońca jest częściowo lub całkowicie absorbowane przez atmosferę Ziemi. Przy długościach fal poniżej około 300 nm, cząsteczki ozonu stratosferycznego są łatwo dysocjowane przez fotony słoneczne. Przy dłuższych długościach fal, w zakresie widzialnym, gdzie widmo promieniowania słonecznego osiąga maksimum, absorpcja jest znacznie mniejsza, chociaż pewna absorpcja występuje około 600 nm z powodu ozonu. Przy długościach fal powyżej 700 nm absorpcja zachodzi głównie poprzez wzbudzenie wibracyjnych (i rotacyjnych) poziomów cząsteczek H2O i CO2, a także O2 w paśmie wzbronionym przy 760 nm. Występuje również kontinuum ekstynkcji. Jest ono spowodowane rozpraszaniem fotonów przez cząsteczki powietrza, głównie N2 i O2, oraz przez cząsteczki chmur. Średni współczynnik odbicia (lub "albedo") atmosfery i powierzchni Ziemi wynosi 0,3. Tylko 70% padających fotonów słonecznych jest absorbowane przez układ Ziemi, a pozostała część jest rozpraszana w przestrzeń kosmiczną, głównie przez chmury, które pokrywają średnio 50% powierzchni planety. W dziedzinie astronomicznych obserwacji naziemnych, zjawisko REFRAKCJI ATMOSFERYCZNEJ, w obecności ruchów turbulentnych, ma również ogromne znaczenie. Troposfera i stratosfera Ziemi są silnie turbulentne z powodu wiatrów i aktywności falowej: energia kinetyczna ruchów atmosferycznych na dużą skalę (zwykle kilometrowych) jest stopniowo przenoszona do małych skal (zwykle milimetrowych), gdzie rozpraszanie następuje poprzez tarcie lepkie. Procesowi temu towarzyszą lokalne fluktuacje gęstości, a zatem współczynnika załamania światła. Płaski front fali odebrany od gwiazdy ulega zniekształceniu, gdy światło przechodzi przez atmosferę. Zarówno natężenie, jak i kierunek propagacji są losowo modyfikowane ze względu na zmiany pola przekroju poprzecznego i orientacji wiązek promieni świetlnych. Fluktuacje intensywności są odpowiedzialne za dobrze znane zjawisko SCYNTYLACJI, które powstaje w wyniku przemieszczania się niejednorodnych mas powietrza na dużej wysokości. Związane z tym zmiany kierunku propagacji powodują utratę rozdzielczości kątowej, która zależy od skali turbulencji i ich pionowego rozkładu, a także od wzorców wiatru. Teoretycznie wykazano i eksperymentalnie potwierdzono, że turbulencje atmosferyczne powodują dyspersję kątową, czyli "WIDZENIE", w zakresie od 0,2 do 1 sekundy łuku, w zależności od wysokości miejsca obserwacji i lokalnych warunków pogodowych. Widzenie jest zatem większe niż ograniczona dyfrakcyjnie rozdzielczość teleskopu klasy 1 m. Jedynym sposobem na pokonanie tego wewnętrznego ograniczenia jest zastosowanie optyki adaptacyjnej, której zasada działania polega na monitorowaniu fazy i korygowaniu kształtu zwierciadła w czasie rzeczywistym.
Globalny budżet radiacyjny i jego dynamika
Pomimo znacznego wygaszenia atmosferycznego, jak opisano wcześniej, atmosfera Ziemi jest w dużej mierze przezroczysta dla fotonów słonecznych w widzialnej części widma. W rezultacie promieniowanie widzialne Słońca jest głównie absorbowane przez powierzchnię Ziemi. Powoduje to ogrzewanie gleby, wody, roślinności i otaczającego powietrza, co prowadzi do powstania troposfery. Ogrzana powierzchnia promieniuje falami o dużej długości, w podczerwonej części widma, głównie od 7 μm do 100 μm. Chociaż energia emitowanych fotonów podczerwonych nie jest wystarczająco duża, aby dysocjować lub jonizować cząsteczki, w przeciwieństwie do promieniowania ultrafioletowego Słońca, jest ona w stanie zwiększyć wewnętrzną energię drgań i rotacji cząsteczek absorbujących, głównie H2O, CO2 i O2. Ta nadwyżka energii jest przekazywana głównym cząsteczkom atmosfery jako energia kinetyczna poprzez zderzenia molekularne. Natomiast chłodzenie atmosfery następuje poprzez emisję promieniowania, w wyniku przejść między stanami molekularnymi między poziomami drgań i rotacji. Część tego promieniowania jest kierowana w stronę powierzchni Ziemi, co powoduje znaczący EFEKT CIEPLARNIANY. Bez atmosfery średnia temperatura powierzchni wynosiłaby 255 K, znacznie poniżej temperatury zamarzania wody, i życie nie mogłoby istnieć. Na poziomie gruntu odbierane jest niemal tyle samo promieniowania z atmosfery, w podczerwieni, co ze Słońca, w zakresie widzialnym. Bardzo wysoka temperatura na powierzchni Wenus (470 °C) wynika głównie z silnego efektu cieplarnianego masywnej atmosfery dwutlenku węgla; temperatura ciała czarnego Wenus na szczycie chmur kwasu siarkowego, gdzie fotony termiczne są uwalniane w przestrzeń kosmiczną, wynosi około ?40 °C, czyli jest niższa niż temperatura ciała czarnego Ziemi (?18°C) ze względu na wysoką refleksyjność chmur Wenus. Dynamika niskiej atmosfery, termicznie i dynamicznie sprzężonej z oceanami, jest kontrolowana przez redystrybucję ciepła z regionów niskich szerokości geograficznych, gdzie jest ono preferencyjnie deponowane przez widzialne promieniowanie słoneczne, na całą planetę. W rzeczywistości chłodzenie podczerwone jest bardziej równomiernie rozłożone na powierzchni planety niż ogrzewanie słoneczne, z nadmiarem strumienia energii radiacyjnej w dół w regionie międzyzwrotnikowym i odwrotną sytuacją na wysokich szerokościach geograficznych. Ziemię można porównać do maszyny Carnota, z zarówno ciepłym źródłem (regiony niskich szerokości geograficznych), jak i zimnym źródłem (regiony wysokich szerokości geograficznych), które przekształca energię cieplną w pracę. Wytworzona energia mechaniczna jest wykorzystywana do generowania zorganizowanych ruchów na dużą skalę, zdolnych do transportu ciepła w kierunku biegunów. Sprawność maszyny jest niska, znacznie niższa niż maksymalna wartość dozwolona przez prawa termodynamiki (≈ 10%). Dla strumienia promieniowania słonecznego o natężeniu 340 Wm-2 w średniej globalnej, dobowej i równoleżnikowej, moc mechaniczna potrzebna do utrzymania cyrkulacji na dużą skalę wynosi zaledwie 2,4 Wm-2, co daje sprawność zaledwie 0,7%. Pomimo tej niskiej sprawności, ziemska "maszyna wiatrowa", która napędza globalny cykl hydrologiczny, ma pierwszorzędne znaczenie dla utrzymania życia na powierzchni Ziemi. Ponieważ nagrzewanie Ziemi przez osadzone światło słoneczne jest największe na równiku, gorące powietrze równikowe rozszerza się i przemieszcza w górę. W konsekwencji powietrze na niskich wysokościach i z wyższych szerokości geograficznych przemieszcza się w kierunku równika, aby zająć jego miejsce. Ten przepływ w kierunku równika jest równoważony przez przepływ powrotny na wyższych wysokościach. To powietrze przemieszczające się w kierunku biegunów stopniowo ochładza się pod wpływem promieniowania podczerwonego w przestrzeń kosmiczną. Na około 30° szerokości geograficznej schłodzone, gęstsze powietrze przemieszcza się w dół, zamykając tzw. "cyrkulację Hadleya" po obu stronach równika. Równikowa gałąź wznosząca komórki Hadleya występuje w "międzyzwrotnikowej strefie konwergencji" (ITCZ). Charakteryzuje się ona obfitymi opadami spowodowanymi silnymi ruchami konwekcyjnymi w górę, powodującymi masową kondensację wody i późniejsze opady deszczu, oraz stosunkowo niskim ciśnieniem powierzchniowym. Kondensacja odgrywa ważną rolę w kontrolowaniu i wzmacnianiu tropikalnej cyrkulacji Hadleya poprzez uwalnianie dużych ilości energii ("ciepła utajonego kondensacji"). Z drugiej strony, obszary opadającego powietrza są znacznie suchsze, a ciśnienie powierzchniowe stosunkowo wysokie. Z powodu siły Coriolisa, która jest związana z obrotem Ziemi i powoduje odchylenie kierunku ruchu w prawo na półkuli północnej i w lewo na półkuli południowej, ruchy powietrza w kierunku równika na szerokościach tropikalnych powodują "pasaty", wiejące z północnego wschodu na półkuli północnej i z południowego wschodu na półkuli południowej. Przepływy na średnich i wysokich szerokościach geograficznych są znacznie mniej regularnie uporządkowane niż w tropikach ze względu na silny wpływ przemieszczających się układów wysokiego i niskiego ciśnienia. Ze względu na siłę Coriolisa wiatry mają tendencję do obracania się zgodnie z ruchem wskazówek zegara wokół układów wysokiego ciśnienia (tzw. cyrkulacja antycykloniczna) na półkuli północnej i przeciwnie do ruchu wskazówek zegara na półkuli południowej. Cyrkulacja wokół układów niskiego ciśnienia (tzw. cyrkulacja cykloniczna) odbywa się w przeciwnym kierunku. W regionach średnich szerokości geograficznych transfer ciepła w kierunku biegunów jest zapewniony poprzez sporadyczną wymianę masy powietrza przez "fronty ciepłe" i "fronty zimne". Mechanizm ten wynika z niestabilności baroklinowej, czyli dosłownie "niestabilności ciśnienia nachylonej", związanej z poziomym gradientem temperatury, generującej ruchy ciepłego powietrza w kierunku biegunów i ruchy zimnego powietrza w kierunku równika. W przeciwieństwie do tego, co dzieje się w regionach tropikalnych, przepływ atmosferyczny w średnich szerokościach geograficznych jest globalnie zachodni (czyli z zachodu). Na wyższych wysokościach, w regionach polarnych, transport ciepła odbywa się poprzez tworzenie komórek podobnych do tropikalnych komórek Hadleya. Należy zauważyć, że około jedna trzecia transferu ciepła w kierunku biegunów ma miejsce w oceanach. Klimat Marsa, choć chłodniejszy, można porównać z klimatem ziemskim. Globalna cyrkulacja na Marsie składa się również z pasatów w strefie międzyzwrotnikowej oraz układów cyklonalnych/antycyklonalnych w średnich szerokościach geograficznych. Wynika to z podobieństw w sposobie ogrzewania atmosfery od dołu, a także z nachylenia osi obrotu (23,5° dla Ziemi, 25,2° dla Marsa) lub długości dnia, która różni się zaledwie o 40 minut (patrz MARS: ATMOSFERA). Niemniej jednak brak oceanów wodnych na Marsie powoduje uderzające różnice, takie jak rozwój pojedynczej komórki Hadleya z szeroką gałęzią wznoszącą się nad półkulą letnią i szeroką gałęzią opadającą nad półkulą zimową, szybko odwracającą się wokół równonocy. Dynamika atmosfery jest ściśle sprzężona z dynamiką oceanu, zdolnego do transportu ciepła na duże odległości. Wody powierzchniowe są unoszone przez wiatry i, dzięki wymianie ciepła z atmosferą, modyfikują reżim termiczny i wiatrowy atmosfery. Jednym z przykładów takiego powierzchniowego prądu oceanicznego jest Prąd Zatokowy (Golfsztrom). Wiatry zachodnie na średnich szerokościach geograficznych spychają wody powierzchniowe na wschód, podczas gdy pasaty wschodnie w strefie ITCZ działają odwrotnie. Powoduje to obrót zbiorników wodnych zgodnie z ruchem wskazówek zegara, z północnym ciepłym prądem wzdłuż wschodniego wybrzeża Ameryki. Zimą zimne i suche powietrze kontynentalne napływające z zachodu jest ogrzewane i nasycane wilgocią podczas przechodzenia nad Prądem Zatokowym, co powoduje silne zaburzenia i opady śniegu. Dynamiczna interakcja między atmosferą a oceanem na niskich szerokościach geograficznych może mieć dramatyczne konsekwencje, głównie poprzez połączone działanie parowania i konwekcji atmosferycznej, powodując powstawanie silnych komórek konwekcyjnych cumulonimbus, czyli "gorących wież" , pompujących powietrze i wilgoć ku górze i związanych z intensywnymi opadami deszczu, piorunami (wyładowaniami elektrycznymi między dodatnio naładowanymi górnymi warstwami chmur a ujemnie naładowanymi dolnymi warstwami, czyli powierzchnią Ziemi) oraz wiatrami. Takie układy, związane z silnymi zaburzeniami pola ciśnienia, czasami przekształcają się w huragany i tornada, szybko wirujące pod wpływem siły Coriolisa. Jednym z najważniejszych zjawisk w skali planetarnej wynikających z interakcji między oceanem a atmosferą jest południowa oscylacja El Niño (ENSO). W normalnych warunkach pasaty spychają równikowe wody Pacyfiku od wybrzeży Peru w kierunku Indonezji. Wody powierzchniowe stopniowo się nagrzewają podczas powolnej migracji na zachód przez Ocean Spokojny i osiągają temperaturę 29°C w pobliżu Indonezji, co powoduje silny podłużny kontrast termiczny. Zjawisko ENSO, które wciąż nie jest w pełni poznane, jest wywoływane przez osłabienie pasatów, a zatem kontrast termiczny, z następującym po nim ciepłym prądem przeciwprądowym na wschód. Prąd ten, pojawiający się epizodycznie w pobliżu wybrzeży Peru tuż po Bożym Narodzeniu (stąd odniesienie do "dziecka"), jest dobrze znany rybakom z tego obszaru i wiąże się z ulewnymi opadami deszczu. W latach dwudziestych XX wieku Sir Gilbert Walker, dyrektor Indyjskiego Biura Meteorologicznego, znalazł dowody na antykorelację między ciśnieniem atmosferycznym na Tahiti, w środkowym Pacyfiku, a ciśnieniem w Darwin, w Australii. W 1969 roku J. Bjerkness ustalił związek między ciepłym prądem przeciwprądowym a towarzyszącymi mu zaburzeniami meteorologicznymi. Układy kłębiaste, które zazwyczaj występują nad Indonezją, są przesunięte o kilka tysięcy kilometrów na wschód, co prowadzi do wzmocnienia, a czasem odwrócenia, pasatów. Ten pozytywny efekt retroaktywny ma dramatyczne konsekwencje, z silną suszą w Indonezji i ulewnymi deszczami w Ekwadorze i północnym Peru.
Cykle biochemiczne głównych pierwiastków atmosferycznych
Z chemicznego punktu widzenia atmosfera Ziemi jest silnie sprzężona ze stałymi i ciekłymi powierzchniami Ziemi poprzez różnorodne cykle biogeochemiczne. Powszechnie uważa się, choć wciąż jest to kwestia kontrowersyjna, że atmosfera Ziemi została odgazowana z wnętrza, w krótkim okresie intensywnego różnicowania w ciągu pierwszych 100 milionów lat istnienia Ziemi, 4,5 miliarda lat temu. Pierwotna atmosfera Ziemi zawierała głównie dwutlenek węgla i parę wodną, z możliwymi śladowymi ilościami metanu i innych zredukowanych gazów. Uważa się, że znaczna ilość wody mogła zostać przyniesiona przez komety i meteoryty w dość długim okresie po akrecji (kilkaset milionów lat) i nie można wykluczyć, że atmosfera Ziemi ma częściowo pochodzenie kometarne i meteorytowe. Tlen obecny w naszej atmosferze jest wynikiem aktywności fotosyntetycznej w biosferze. Stopniowo gromadził się w atmosferze w erze prekambryjskiej i osiągnął obecny poziom 300 milionów lat temu, kiedy pojawiły się pierwsze zwierzęta lądowe. Uważa się, że zawartość tlenu w atmosferze jest regulowana przez aktywność fotosyntezy morskiej, która usuwa niewielką część węgla z atmosfery poprzez tworzenie organicznego węgla zredukowanego, którego bardzo niewielka część wytrąca się w dół przez ocean i ostatecznie jest włączana do osadów dna morskiego. Atomy tlenu pozostawione przez węgiel zredukowany, który jest uwięziony w skałach osadowych przez typowy okres kilkuset milionów lat (z powodu rozszerzania się dna morskiego), są odpowiedzialne za obecność stałej atmosfery tlenowej na Ziemi. Ostatecznie węgiel zredukowany jest odrzucany przez wulkany lub odkryte skały metamorficzne ponad strefami subdukcji i utleniany przez atmosferę, zamykając cykl. Podobnie, "oceaniczna pompa biologiczna" odgrywa kluczową rolę w regulacji zawartości dwutlenku węgla w atmosferze poprzez tzw. cykl "węglanowo-krzemianowy". Dwutlenek węgla jest uwalniany przez wulkanizm i procesy metamorficzne ze stałej Ziemi do atmosfery i oceanu w tempie, które szacuje się na wystarczająco duże, aby podwoić ilość węgla w oceanie i atmosferze w ciągu kilkuset tysięcy lat. Należy zauważyć, że ocean lądowy zawiera znacznie więcej dwutlenku węgla niż atmosfera (40 000 Gt w porównaniu do 750 Gt; 1 Gt = 1012 kg). Węgiel zawarty w skałach węglanowych, gdyby został w całości uwolniony do atmosfery, stanowiłby ≈ 50-100 bar CO2, co jest podobne do obecnej zawartości atmosfery Wenus. Ze względu na szybką wymianę CO2 między atmosferą a oceanem, czas przebywania cząsteczki CO2 w atmosferze wynosi mniej niż 10 lat (mniej niż 1000 lat w oceanie). Z tego powodu ocean i atmosfera muszą być traktowane jako pojedynczy zbiornik podczas badania ich interakcji ze stałą planetą, która działa w znacznie dłuższych skalach czasowych. Ponieważ dwutlenek węgla jest uwalniany do atmosfery, musi być on w równym stopniu odprowadzany do Ziemi. Mechanizm tego powrotu jest dobrze znany. Polega on na wietrzeniu minerałów krzemianowych przez wodę deszczową zawierającą rozpuszczony dwutlenek węgla, a następnie osadzaniu się minerałów węglanowych w skałach osadowych. Kationy powstające w wyniku wietrzenia krzemianowego (Ca2+, Mg2+) są przenoszone przez rzeki do oceanów, gdzie reagują z jonami węglanowymi (CO2-3), wytrącając się w postaci minerałów węglanowych. W ten sposób utleniony węgiel jest zatrzymywany w osadach dennych w postaci wapienia. Ponieważ tempo dostarczania kationów przez wietrzenie silnie zależy od wilgotności i temperatury, a CO2 jest gazem cieplarnianym, uważa się, że cykl ten ma decydujący wpływ na bilans węgla w połączonym systemie atmosfera-ocean. Pomimo domniemanego stabilizującego wpływu cyklu węglanowo-krzemianowego na okresy geologiczne, warunki klimatyczne na Ziemi należy uznać za ewoluujące poprzez szereg różnych stadiów w długim okresie czasu. Przykładem globalnej niestabilności klimatycznej są cykle glacjalne i interglacjalne, które miały miejsce w czwartorzędzie. Skład chemiczny i temperaturę dawnej atmosfery można uzyskać z rdzeni lodowych pobranych z lodowca antarktycznego. Możliwe jest prześledzenie historii klimatycznej Ziemi w ciągu ostatnich kilkuset tysięcy lat. Udowodniono okresy 100 000, 41 000 i 23 000 lat, które, jak wywnioskował przede wszystkim Milankovitch, są konsekwencją zmian w ruchu Ziemi w przestrzeni. Zmiany orbitalne można opisać za pomocą trzech parametrów: stopnia eliptyczności, kąta nachylenia osi obrotu Ziemi względem orbity Ziemia-Słońce oraz orientacji osi obrotu względem trajektorii orbity, która zmienia się ze względu na zjawisko precesji. Wszystkie te trzy parametry ulegają przewidywalnym zmianom z powodu przyciągania grawitacyjnego wywieranego przez Słońce, Księżyc i planety. Te długoterminowe wahania modyfikują przestrzenne i sezonowe sekwencje depozycji energii słonecznej na powierzchni naszej planety, powodując zmiany klimatu Ziemi. Na przykład, pod koniec ostatniego zlodowacenia, około 10 000 lat temu, nachylenie osi obrotu Ziemi względem płaszczyzny ekliptyki wynosiło około 24,5° (obecnie 23,5°), a największe zbliżenie orbitującej Ziemi do Słońca nastąpiło w lipcu (obecnie w styczniu). Ten stan rzeczy w przeszłości skutkował około 8% większym promieniowaniem słonecznym docierającym do półkuli północnej latem i około 8% mniejszym zimą. Chociaż efekty astronomiczne są same w sobie słabe, są one przekazywane przez silnie nieliniowe efekty sprzężenia zwrotnego, które powodują zmiany klimatyczne o dużej amplitudzie. Ponadto uważa się, że klimat sam w sobie podlega dużym wahaniom, bez żadnych zmian w efektach astronomicznych.
Wpływ działalności antropogenicznej na ewolucję klimatu i skład atmosfery
Uważa się, że działalność antropogeniczna, odpowiedzialna za gwałtowny wzrost emisji gazów i pyłów w atmosferze, może potencjalnie destabilizować globalny klimat Ziemi. Zawartość dwutlenku węgla w atmosferze wzrosła z 275 ppmv pod koniec XVIII wieku do 350 ppmv obecnie. Wzrost ten jest spowodowany różnorodną działalnością człowieka na całym świecie. Do około 1950 roku emisja CO2 była spowodowana głównie utlenianiem materii organicznej w glebach rolniczych. Obecnie największym źródłem netto emisji CO2 jest spalanie paliw kopalnych. Wylesianie obszarów tropikalnych również przyczynia się do wzrostu zawartości CO2 w atmosferze, choć w mniejszym stopniu. Ponieważ dwutlenek węgla jest gazem cieplarnianym, oczekuje się, że ten wzrost zwiększy nieprzezroczystość atmosfery w podczerwieni, co doprowadzi do wzrostu temperatury powierzchni Ziemi. Oprócz tego bezpośredniego efektu, powiązane efekty wtórne mogą odgrywać istotną rolę, takie jak spodziewany wzrost tempa parowania wody,
powodujący zarówno dodatkowe ocieplenie, ponieważ para wodna jest gazem cieplarnianym, jak i przeciwdziałające mu ochłodzenie spowodowane wzrostem zachmurzenia, a tym samym średniego albedo planety. Podkreśla się, że H2O jest najważniejszym gazem cieplarnianym, blokując promieniowanie podczerwone z powierzchni Ziemi skuteczniej niż CO2. Zapis temperatury z ostatniego stulecia pokazuje, że w ciągu ostatnich 130 lat nastąpiło ocieplenie o około 0,5 °C, a ostatnie dwie dekady były najcieplejsze w tym okresie. Chociaż nie można wykluczyć pewnej naturalnej zmienności, uważa się, że to ogólne ocieplenie jest konsekwencją regularnego wzrostu stężenia CO2 w atmosferze. Inną konsekwencją antropogenicznych emisji gazowych jest spadek zawartości ozonu stratosferycznego, spowodowany destrukcyjnym działaniem chloru zawartego w freonach (freonach). Freony (CFC) (głównie CFCl3 i CF2Cl2) nie ulegają rozkładowi w troposferze. W ciągu kilku lat te bardzo
stabilne gazy przemieszczają się z punktu uwolnienia na powierzchni do stratosfery, gdzie promieniowanie ultrafioletowe Słońca jest wystarczająco intensywne, aby je rozbić i uwolnić aktywne formy chloru (Cl, ClO), zdolne do niszczenia ozonu. Obserwacje satelitarne, prowadzone od początku lat 80. XX wieku, pokazują, że ozon stratosferyczny regularnie zmniejsza się w skali globalnej, z szybkością kilku procent na dekadę. Spadek ten przypisuje się działaniu freonów. Na Konferencji Montrealskiej w 1990 roku podjęto decyzję o zaprzestaniu emisji freonów, ale charakterystyczny długi czas trwania tego procesu destrukcyjnego uniemożliwia uzyskanie jakiejkolwiek znaczącej poprawy przed połową następnego stulecia. Najbardziej spektakularnym przykładem niszczenia ozonu stratosferycznego jest antarktyczna "DZIURA OZONOWA" - gwałtowny i przyspieszający spadek ozonu nad Antarktydą we wrześniu i październiku każdego roku. Spadek całkowitej zawartości ozonu może sięgać nawet trzykrotności. Zaraz po jego odkryciu w 1985
roku, uwaga skupiła się na możliwości nasilenia cyklu rozkładu chloru, co zostało szybko potwierdzone obserwacjami i pracami eksperymentalnymi. Silny spadek ozonu stratosferycznego nad Antarktydą podczas australijskiej wiosny, zilustrowany na rysunku 6, wynika z bardzo niskich temperatur panujących w stratosferze polarnej na półkuli południowej. Podczas zimy polarnej, przy braku promieniowania słonecznego (od czerwca do września), temperatura w stratosferze może spaść nawet do -85°C, ponieważ powietrze polarne jest otoczone "wirem polarnym", bardzo dużym wirem, który rozwija się zimą nad regionami polarnymi. Te bardzo niskie temperatury są odpowiedzialne za powstawanie "chmur stratosferycznych polarnych" (lub PSC). Chmury te składają się z czystej wody lub lodu z mieszanki wody i kwasu azotowego. Powierzchnie PSC służą jako miejsca reakcji dla procesów chemicznych zdolnych do przekształcenia niereaktywnych form chloru w reaktywne. Te procesy katalityczne zachodzą w ciągu czterech miesięcy nocy polarnej i
wytwarzają, z nieaktywnych form HCl i ClONO2, duże ilości HOCl i Cl2. Połączone efekty denitryfikacji, poprzez zamarzanie i sedymentację kryształów HNO?, oraz rodników chloru uwalnianych o wschodzie słońca (Cl, ClO) w wyniku fotodysocjacji HOCl i Cl2, powodują masowe niszczenie ozonu w wirze polarnym. Nawiasem mówiąc, inne składniki antropogeniczne, takie jak brom, odgrywają podobną, choć mniej wyraźną, rolę w niszczeniu ozonu stratosferycznego. W stratosferze fotodysocjacja tlenu cząsteczkowego pod wpływem promieniowania ultrafioletowego o długości fali mniejszej niż 240 nm wytwarza tlen atomowy, który następnie łączy się z tlenem cząsteczkowym, tworząc ozon.
O2 + hv -> O+O
O+O2 +M -> O3 +M.
Ozon jest szybko fotodysocjowany z powrotem do tlenu atomowego przez fotony o długości fali 200-300 nm.
O2 + h? -> O2 +O.
"Nietypowe" formy tlenu (O, O3) mogą rekombinować zgodnie z reakcjami:
O3 +O -> 2O2
O+O+M-> O2 +M.
Poprzedni cykl, zidentyfikowany po raz pierwszy przez Sydneya Chapmana w latach 30. XX wieku, musi zostać uzupełniony przez szereg innych cykli katalitycznych, których przebieg potwierdzono w ciągu ostatnich 20 lat. Kilka drugorzędnych składników odgrywa kluczową rolę w niszczeniu ozonu atmosferycznego poprzez cykle katalityczne następującego typu:
X + O3 -> XO + O2
O3 + hv -> O+O2
O+XO -> X + O2
suma: 2O3 + hv -> 3O2.
W tym łańcuchu rodniki X i XO katalizują przemianę O3 w O2. Powstały atom tlenu regeneruje katalizator X. Cykl Chapmana uzyskuje się dla X = O. Rodnik hydroksylowy, powstający w wyniku fotodysocjacji cząsteczek pary wodnej, również odgrywa znaczącą rolę (X = OH). Paul Crutzen odkrył w 1970 roku, że tlenki azotu NO i NO2 (X = NO), częściowo wytwarzane przez działalność rolniczą i spalanie paliw kopalnych, są dość skutecznymi katalizatorami niszczenia ozonu. Mario Molina i Sherwood Rowland, którzy otrzymali wraz z P. Crutzenem Nagrodę Nobla w dziedzinie chemii w 1995 roku, wykazali kluczową rolę chloru zawartego w freonach (CFC) w chemii ozonu stratosferycznego. Stwierdzono, że Cl i ClO uwalniane przez freony w stratosferze są nadal skuteczniejsze niż NO w niszczeniu ozonu, poprzez wspomniany wcześniej cykl katalityczny (X = Cl). Skonstruowano modele numeryczne chemii stratosfery w celu zbadania wpływu wszystkich wcześniej opisanych cykli na długoterminową ewolucję ozonu. Spadek stężenia ozonu stratosferycznego mierzony w ciągu ostatnich 15 lat jest dobrze odtworzony w skali globalnej przez te modele.
Wnętrze Ziemi
Wnętrze Ziemi można najprościej opisać jako szereg koncentrycznie zagnieżdżonych sfer, z których głównymi, patrząc od zewnątrz do wewnątrz, są: SKORUPA, PŁASZCZ i JĄDRO. Ta gruba struktura, rozpoznana przez sejsmologów na początku XX wieku, wydaje się być analogiczna do struktury większości ciał krzemianowych - planet, satelitów i prawdopodobnie asteroid lub ich ciał macierzystych - z wyjątkiem tych najmniejszych. Proces RÓŻNICOWANIA, w wyniku którego powstały te struktury strefowe, prawdopodobnie był wynikiem intensywnego topnienia na bardzo wczesnym etapie historii Układu Słonecznego. Odkrycie, że ciała stałe są silnie zróżnicowane, było jednym z najważniejszych odkryć geologicznych XX-wiecznej eksploracji kosmosu, począwszy od ekspedycji Apollo na Księżyc. Wnętrze Ziemi zostanie opisane od zewnątrz do wewnątrz, co jest również kolejnością malejącej wiedzy. Skorupa jest obecnie dość dobrze poznana, a przynajmniej dobrze opisana; płaszcz można opisać z pewnymi ograniczeniami; a jądro jest najmniej poznane ze wszystkich. Wiedza o wnętrzu Ziemi pochodzi z wielu źródeł. Odsłonięte wnętrze to z grubsza domena geologii; badanie ukrytego wnętrza, obejmującego oczywiście niemal całą objętość Ziemi, to domena geofizyki. Geolodzy badają to, co widać, geofizycy to, czego nie widać, choć te dwie dziedziny w pełni się pokrywają.
Skorupa
Skorupa ziemska dzieli się na dwa główne rodzaje : oceaniczną i kontynentalną. Skorupę kontynentalną można w uproszczeniu określić jako starą, grubą i granitową. Skorupę oceaniczną można podobnie określić jako młodą, cienką i bazaltową. Co więcej, skorupa oceaniczna jest ewidentnie mobilna; jak pokazano na mapie, formuje się ona nieprzerwanie poprzez wulkanizm bazaltowy wzdłuż grzbietów śródoceanicznych i oddala się od tych grzbietów w procesie rozprzestrzeniania się dna morskiego. Przedstawiony zarys skorupy ziemskiej jest, że tak powiem, podzbiorem jeszcze szerszego schematu, znanej obecnie teorii tektoniki płyt, która powstała w ciągu około dwóch lat, w połowie lat 60. XX wieku, w wyniku nagłego połączenia kilku linii dowodowych. Uważa się obecnie, że skorupa ziemska, a dokładniej jej litosfera (której definicja zostanie podana wkrótce), składa się z wielu płyt. Płyty to segmenty litosfery, stosunkowo nieaktywne i sztywne, ograniczone w najprostszych przykładach (np. płyta Nazca) przez pewną kombinację grzbietów oceanicznych (lub centrów rozprzestrzeniania), uskoków transformacyjnych i stref subdukcji. Najważniejszym aspektem teorii tektoniki płyt jest to, że płyty te uważa się za ruchome, poruszające się poziomo mniej więcej w sposób zaproponowany przez Alfreda Wegenera w jego klasycznej teorii dryfu kontynentalnego. Aby rozpocząć naszą podróż do wnętrza Ziemi, przyjrzyjmy się pionowej strukturze skorupy kontynentalnej . Skorupa kontynentalna to nieskończenie złożony zbiór skał magmowych, osadowych i metamorficznych. Jednakże przekrój poprzeczny jest przedstawiony jako reprezentujący najważniejsze cechy najstarszej i najbardziej fundamentalnej części tej skorupy, granitowo-zielonego terenu obszarów prekambryjskich (starszych niż około 600 milionów lat temu), takich jak Tarcza Kanadyjska. Stosunkowo niewielu ludzi miało okazję zobaczyć taki teren, a nawet większość geologów zna go jedynie pobieżnie. Powodem jest to, że skorupa kontynentalna jako całość jest w dużej mierze pokryta stosunkowo młodymi skałami, takimi jak piaskowce, łupki i wapienie odsłonięte w ścianach Wielkiego Kanionu. Co więcej, nawet tarcze prekambryjskie są poprzecinane proterozoicznymi (mającymi od 2,5 do 600 milionów lat) pasmami górskimi lub ich korzeniami. Jednak pod większością takich pasów górskich znajduje się skała tego rodzaju, jak pokazano na zdjęciu. Granit to znana różowa skała magmowa, występująca na fasadach budynków, nagrobkach cmentarnych i pomnikach. Zieleń, mniej znana, to zasadniczo zielonkawy zbiór przeobrażonych skał wulkanicznych, pierwotnie bazaltów i skał pokrewnych. Skorupa kontynentalna jest zatem w większości obszarów podszyta skałami typu granitowo-zielonego. Od góry do dołu napotykamy kolejne pasy zmetamorfizowanych skał wulkanicznych (zielonego kamienia), poprzecinanych skałami granitowymi (z których wiele nie jest granitami w ścisłym znaczeniu petrograficznym). Na większych głębokościach skały te są zastępowane przez to, co wydaje się być metamorficznymi odpowiednikami granitów, zielonego kamienia i skał osadowych, zbiorczo nazywanymi granulitami. Są to gęste, całkowicie zrekrystalizowane i silnie zdeformowane skały. Niedawne odkrycie, dokonane na podstawie profilowania sejsmicznego, wskazuje, że w przeciwieństwie do skał górnej skorupy, a oczywiście w przeciwieństwie do zdeformowanych skał pasów górskich, granulity dolnej skorupy są w dużej mierze płaskie lub położone w zakresie od 20 do 30 stopni od poziomu. Te warstwy granulitów powstały prawdopodobnie w wyniku połączenia deformacji i rekrystalizacji, oddziałujących na to, co pierwotnie było warstwami skał osadowych lub wulkanicznych. Czytelnicy w Wielkiej Brytanii mogą zobaczyć (jeśli pogoda na to pozwoli) wyjątkowe odsłonięcia granulitów wzdłuż północno-zachodniego wybrzeża Szkocji, wokół miejscowości Scourie. Podstawą skorupy kontynentalnej jest nieciągłość Mohorovičiča, odkryta przez sejsmologa o tym nazwisku na początku XX wieku. Moho, jak się ją powszechnie nazywa, występuje zazwyczaj na głębokości 40 kilometrów, ale w obszarach takich jak Andy czy Wyżyna Tybetańska skorupa jest znacznie grubsza, a głębokość Moho może sięgać 70 kilometrów lub więcej. Powszechnie uważa się, że jest to granica kompozycyjna, charakteryzująca się nagłym wzrostem gęstości, na co wskazuje rosnąca prędkość fal sejsmicznych. Jednak wiele jeszcze pozostaje do odkrycia na temat tej powszechnie znanej granicy. Skorupa oceaniczna różni się od kontynentalnej niemal pod każdym względem. Jej skład jest bazaltowy, a bazalt powstaje, od powierzchni w dół, jako strumienie lawy, w dajkach (prawie pionowych, płaskich ciałach intruzji), a w pobliżu podstawy skorupy - w zmetamorfizowanych odpowiednikach tych skał bazaltowych. Nowo uformowana skorupa oceaniczna występuje w miejscach takich jak Islandia, położona na Grzbiecie Śródatlantyckim. Skorupa pod basenami oceanicznymi jest z reguły znacznie cieńsza niż pod kontynentami, a warstwa Moho znajduje się na głębokości od 5 do 10 kilometrów. Pochodzenie skorupy oceanicznej jest obecnie, jak sądzimy, dość dobrze poznane, a nawet sceptycy uznają to za wielki triumf teorii płyt tektonicznych. W kontekście niniejszego artykułu dominującą cechą skorupy oceanicznej jest jej młodość i mobilność. Ponieważ skorupa oceaniczna jest ostatecznie recyrkulowana przez płaszcz w strefach subdukcji (rysunek 1), bardzo niewiele z niej liczy sobie więcej niż około 200 milionów lat, w przeciwieństwie do 4 miliardów lat, jakie mają najstarsze odsłonięte skały kontynentalne - gnejs Acasta w Kanadzie.
Płaszcz
Rozpocznijmy nasze zejście do płaszcza, powracając do odroczonej definicji litosfery. Termin "skorupa" jest zarówno kompozycyjny, jak i mechaniczny, odnosząc się do granicy między bogatymi w krzemionkę skałami skorupy a ubogimi w krzemionkę, bogatymi w żelazo i magnez skałami płaszcza. Termin "litosfera" z kolei jest zasadniczo mechaniczny i odnosi się do zewnętrznej warstwy Ziemi, która jest stosunkowo wytrzymała, elastyczna i sztywna. Litosfera ta obejmuje i jest znacznie grubsza niż skorupa ziemska. Pod basenami oceanicznymi jej grubość waha się od niemal zera na grzbietach śródoceanicznych do, z grubsza, 50-100 km w pobliżu stref subdukcji (gdzie zapada się najstarsza skorupa). Jednak pod starymi i stabilnymi częściami kontynentów, takimi jak Tarcza Kanadyjska, litosfera jest znacznie grubsza, co najmniej 200 km, a według niektórych szacunków znacznie grubsza. Chociaż istota tej definicji jest mechaniczna, litosfera subkontynentalna w szczególności mogła powstać w wyniku wydobycia magmy bazaltowej w czasie geologicznym, co ma konotację kompozycyjną. W teorii płyt tektonicznych poziome ruchy skorupy ziemskiej, takie jak spreading dna morskiego i dryf kontynentów, są uważane za wyraz ruchów (geometrycznie, obrotów na sferze) litosfery, przy czym cieńsza, wbudowana skorupa jest przenoszona wraz z tą litosferą. (Termin "płyta", dla przypomnienia, odnosi się do litosfery, a nie tylko do skorupy ziemskiej). Pod litosferą znajduje się astenosfera. To właśnie tutaj nasza niewiedza na temat wnętrza Ziemi staje się jaskrawa, ponieważ grubość i zasięg astenosfery, a w zasadzie sama jej definicja, są kontrowersyjne. Fizycznie astenosfera jest definiowana jako słaba strefa lub powłoka, charakteryzująca się niską sztywnością i wytrzymałością, wyrażaną spadkiem prędkości sejsmicznych fal kompresyjnych ("P"). W klasycznej geofizyce astenosferę uważano za strefę przepływu odpowiedzialną za dobrze znany polodowcowy odrost Skandynawii i północnej Kanady. W teorii płyt tektonicznych uważa się ją za warstwę o niskim oporze, po której poruszają się płyty. Kilka dowodów wskazuje, że astenosfera jest w dużej mierze zjawiskiem termicznym, związanym albo z częściowym topnieniem, albo przynajmniej ze spadkiem wytrzymałości na ścinanie, wyrażającym wzrost temperatury wraz z głębokością. Jednak niektórzy geofizycy, częściowo ze względu na związek głębokości astenosfery z wiekiem skorupy oceanicznej, definiują ją na podstawie cech geochemicznych, które nie zostaną tutaj omówione. Nasze zejście w głąb płaszcza będzie prowadzone zgodnie z kompleksowym diagramem P. J. Wyllie′ego , przedstawiającym główne wnioskowane cechy wnętrza Ziemi aż do jej centrum, około 6300 km w głąb. Skład płaszcza był bardzo powoli odkrywany przez stulecie prac w różnych dziedzinach. Ponieważ jest on odsłonięty niemal nigdzie - i występuje tam jedynie w ograniczonej, wysoce zmetamorfizowanej formie - skład płaszcza stanowił niezwykle trudny problem. Niektóre wulkany wydobywają próbki z głębokości około 200 kilometrów, a diamenty są znanym przykładem, ale stanowią one nasze jedyne bezpośrednie źródło wiedzy. Właściwości sejsmiczne tradycyjnie stanowiły główną podstawę szacunków składu płaszcza, chociaż zasadniczo dostarczają jedynie ograniczeń dotyczących składu. Magmy bazaltowe i pokrewne są ewidentnie pochodzenia płaszczowego, a około 75 lat teoretycznej i eksperymentalnej petrologii, zapoczątkowanej przez N.L.Bowena w latach 20. XX wieku, w połączeniu z innymi dowodami, doprowadziło do dość szczegółowych profili płaszcza. Uważa się, że górny płaszcz składa się ze skał bogatych w żelazo i magnez, podobnych do tych występujących na powierzchni, o nazwach nieznanych nawet wielu geologom, takich jak lherzolit. Jednakże,, ciśnienie gwałtownie rośnie wraz z głębokością; tysiąc kilometrów w dół ciśnienie jest około pół miliona razy większe od ciśnienia atmosferycznego na powierzchni. Wraz ze wzrostem ciśnienia minerały przekształcają się w szereg coraz gęstszych polimorfów (tj. o tym samym składzie chemicznym, ale innej strukturze krystalicznej), takich jak perowskit (krzemian żelazowo-magnezowy). Mogą one dysocjować, tworząc nowe zespoły mineralne, czyli nowe skały o odmianach nigdy nie występujących na powierzchni Ziemi. Te zmiany fazowe są wynikiem wzrostu ciśnienia i temperatury. Temperatura topnienia większości ciał stałych wzrasta wraz ze wzrostem ciśnienia, w złożony sposób, i uważa się, że płaszcz znajduje się blisko swojej krzywej topnienia poniżej astenosfery. W płaszczu zidentyfikowano kilka nieciągłości sejsmicznych, z których najbardziej widoczna jest ta na głębokości 650 km. Ta nieciągłość, w rzeczywistości strefa o grubości kilkudziesięciu kilometrów, jest uważana przez większość petrologów za reprezentującą przejście od lherzolitu do perowskitu. Niezależnie od jej rzeczywistej natury, nieciągłość ta ma istotne znaczenie geofizyczne jako granica między górnym a dolnym płaszczem. Jednym z najbardziej kontrowersyjnych tematów geofizyki jest natura ruchu w płaszczu Ziemi. Przez większość stulecia spekulowano, że pomimo swojej stałej natury, płaszcz znajduje się w powolnym, ciągłym ruchu, w szczególności pod wpływem prądów konwekcyjnych napędzanych termicznie. Potwierdzenie ruchliwości skorupy ziemskiej w postaci rozprzestrzeniania się dna morskiego i inne dowody znacznie wzmocniły koncepcję konwekcji w płaszczu. Jednakże nie jest jasne, jaki jest wzór lub wzory tych prądów. Pierwotnie, w latach 30. XX wieku, zaproponowano, że cały płaszcz jest konwekcyjny, co nadal podtrzymuje wielu wybitnych geofizyków. Jednakże, nieciągłość 650 km stanowi ewidentną barierę gęstościową dla konwekcji w całym płaszczu. Wzór ten może składać się z komórek konwekcyjnych górnego i dolnego płaszcza. Kolejnym utrudnieniem jest możliwe istnienie bardziej zlokalizowanych ruchów płaszcza - pióropuszy gorętszego materiału powoli unoszących się w płaszczu, być może analogicznych do popularnych "lamp lawowych". Istnieją solidne dowody sejsmiczne na istnienie przynajmniej niektórych pióropuszy płaszcza, na przykład pod aktywnym wulkanicznie Parkiem Narodowym Yellowstone. Nie wiadomo jednak, skąd pochodzą te pióropusze; niektórzy badacze uważają, że zaczynają się na granicy jądra i płaszcza i wznoszą się na wysokość około 2900 km, niemal do powierzchni Ziemi. Jednym z najdłużej znanych i najlepiej potwierdzonych zjawisk tektoniki płyt jest subdukcja, czyli ruch w dół płyt skorupy oceanicznej i litosfery, uzupełniający rozprzestrzenianie się dna morskiego . Płyty te muszą zapadać się na głębokość kilkuset kilometrów, przechodząc w fazy gęstsze i przyczyniając się do heterogeniczności płaszcza. Subdukcja niesie zatem interesującą implikację, że powierzchniowe procesy geologiczne mogą wpływać na naturę i zachowanie płaszcza na ogromnych głębokościach.
Rdzeń
Od wieków wiadomo, że wnętrze Ziemi musi być znacznie gęstsze niż skorupa, ponieważ ciężar właściwy całego globu wynosi około 5,5, w przeciwieństwie do ciężaru właściwego na przykład granitu, który wynosi około 2,8. Uderzającym potwierdzeniem, że Ziemia nie mogła być granitowa w całości, było odkrycie, że RADIOAKTYWNOŚĆ była głównym źródłem ciepła na Ziemi. Jednak sama radioaktywność granitu w skorupie wystarczyła, aby wyjaśnić obserwowany przepływ ciepła, który wystarczyłby do stopienia wnętrza, gdyby było ono w całości granitowe. Sejsmolodzy Gutenberg i Weichert zidentyfikowali poważną nieciągłość około 2900 km w głąb na początku XX wieku, którą szybko uznano za granicę oddzielnego jądra. Jego właściwości fizyczne odpowiadały mniej więcej właściwościom żelaza, a istnienie żelaznych METEORYTÓW dowiodło, że żelazo może być segregowane w centrum planety. Rdzeń nie przenosi fal ścinających, co prowadzi do wniosku, że był ciekły. Jednak dalsze badania sejsmologiczne przeprowadzone przez I. Lehmanna w latach 30. XX wieku wykazały, że wewnętrzna część jądra, poniżej głębokości około 5000 km, była stała - żelazna (prawdopodobnie) kula o rozmiarach mniej więcej Księżyca. Ten ogólny obraz fizyczny jądra Ziemi jest zgodny z opinią większości geofizyków. Jednak ciągły postęp w sejsmologii i geomagnetyzmie szybko go udoskonala. Główne pole geomagnetyczne jest obecnie wiarygodnie wyjaśnione jako wynik prądów konwekcyjnych w płynnym jądrze zewnętrznym, które, przecinając linie sił pola ziemskiego, tworzą samoregenerujący się mechanizm dynama. Nie jest to ruch wieczny; zainteresowani czytelnicy powinni zapoznać się z wymienionymi źródłami. Istnieją obecnie dowody na to, że granica jądro-płaszcz charakteryzuje się znaczną rzeźbą, rzędu kilometra, być może związaną z unoszeniem się pióropuszy płaszcza, jeśli takie w rzeczywistości istnieją. Te nieregularności mogą powodować niewielkie, ale rzeczywiste zmiany w OBROTACH ZIEMI, w ciągu lat. Pomocne może być wyobrażenie sobie Ziemi nie jako stałej, obracającej się kuli, lecz jako dwóch takich kul, z których wewnętrzna to stałe jądro wielkości Księżyca, oddzielone od zewnętrznej (stałego płaszcza) przez ciekłą część jądra. Łatwo wyobrazić sobie komplikacje w ruchu takiego odseparowanego układu. Oszacowania składu jądra zostały znacznie udoskonalone; nikiel jest prawie na pewno głównym pierwiastkiem stopowym, ze śladowymi ilościami innych pierwiastków syderofilnych, takich jak platyna, które są zubożone w skorupie ziemskiej i górnym płaszczu. W jądrze prawdopodobnie znajdują się również znaczne ilości lżejszego pierwiastka stopowego, prawdopodobnie tlenu lub krzemu.
Podsumowanie
Nasza wiedza o wnętrzu Ziemi ogromnie wzrosła w XX wieku. Co więcej, obecnie wiemy coś o wnętrzach innych planet, co stanowi podstawę badań porównawczych (patrz WNĘTRZA PLANET). Jednak wnętrze Ziemi, znajdujące się w odległości kilkudziesięciu kilometrów, pozostanie niedostępne do bezpośrednich badań przez kolejne stulecia, a może i na zawsze, a badania wnętrza Ziemi będą owocnym polem badań geofizycznych przez wiele lat.
Obrót Ziemi
Nieregularności obrotu Ziemi - perspektywa historyczna
Warto spojrzeć na obrót Ziemi z perspektywy historycznej. Chronologia odkrycia nieregularności obrotu Ziemi odzwierciedla również postęp w technikach astrometrycznych i geodezyjnych oraz pomiarach czasu.
Precesja
Pierwsza odkryta nieregularność obrotu Ziemi, i największa, nie dotyczy samej prędkości kątowej, lecz kierunku osi obrotu względem gwiazd. W świecie zachodnim, już w II wieku p.n.e., grecki astronom HIPPARCHOS odkrył, że równonoc wiosenna, czyli kierunek Słońca, gdy przecina ono płaszczyznę równikową w kierunku półkuli północnej, ulega precesji względem gwiazd tła. Innymi słowy, płaszczyzna równikowa obraca się zgodnie z ruchem wskazówek zegara pod stałym kątem 23°26′ (nachylenie) względem ekliptyki . Tempo wynosi około 50 lat, a zatem równonoc wiosenna przemieszcza się przez wszystkie konstelacje zodiaku w ciągu 25 800-letniego okresu precesji. Obecnie równonoc wiosenna znajduje się w konstelacji Ryb i powoli zbliża się do Wodnika. Oś obrotu dobowego jest prostopadła do płaszczyzny równika. Z powodu PRECESJI oś ta zakreśla stożek wokół osi biegunów ekliptyki, zgodnie z ruchem wskazówek zegara, wykonując obrót w ciągu 25 800 lat. Obecnie oś obrotu Ziemi wskazuje na Gwiazdę Polarną, ale za 13 000 lat precesja osi obrotu będzie oznaczać, że jasna gwiazda Wega w gwiazdozbiorze Lutni znajdzie się mniej więcej na północnym biegunie nieba, a za kolejne 25 800 lat Gwiazda Polarna ponownie będzie Gwiazdą Polarną.
Nutacje
Innymi nieregularnościami w ruchu osi obrotu Ziemi względem gwiazd są okresowe oscylacje osi obrotu, zwane NUTACJAMI, nakładające się na precesję i przewidziane w Principia Mathematica Newtona. Te okresowe oscylacje mają znacznie mniejsze amplitudy, nie większe niż 1. Dlatego też zostały odkryte dopiero wraz z pojawieniem się technik astrometrycznych na początku XVIII wieku . W 1748 roku angielski astronom Bradley po raz pierwszy zaobserwował najważniejszy człon nutacji, związany z regresją linii węzłów orbity księżycowej, który ma okres 18,6 roku i amplitudę rzędu 10 . Pozostałe człony, sięgające nawet kilku tysięcy w najdokładniejszych modelach, są co najmniej 10 razy mniejsze.
Ruch biegunowy
EULER przewidział w 1765 roku, że oś obrotu będzie również wykazywać ruch względem układu odniesienia związanego z Ziemią, jeśli oś obrotu nie pokrywa się z główną osią bezwładności - nawet jeśli Ziemia jest izolowana i jest ciałem sztywnym. Amerykański astronom Chandler dokonał tego ważnego kroku, odkrywszy w 1891 roku ten ruch na podstawie obserwacji szerokości geograficznej obserwatoriów astronomicznych. Jednakże głównym składnikiem jest okres 433 dni, różniący się od przewidywanego przez Eulera (305 dni) na podstawie eliptyczności Ziemi, ze względu na jej niesztywność. Ma on zmienną amplitudę do 0,3 (co odpowiada 10 m na powierzchni Ziemi). Oprócz kołysania Chandlera istnieje ważny okres roczny do 0,1, który jest interpretowany jako efekt sezonowych przemieszczeń masy. Co więcej, precesja-nutacja powoduje niewielki, wsteczny, dobowy ruch biegunów osi obrotu Ziemi.
Zmiany długości dnia
Dobowy obrót Ziemi był dla ludzkości wyznacznikiem czasu aż do odkrycia przez de Sittera (1927) i Spencera Jonesa (1939) sekularnego spowolnienia prędkości obrotowej Ziemi, a następnie jej sezonowych zmian przez Stoyko (1937) dzięki udoskonaleniu precyzyjnych zegarów. W rzeczywistości prędkość obrotowa skorupy ziemskiej wykazuje złożone wahania prędkości rzędu kilku części 10?8 (odpowiadające zmianie długości dnia, czyli LOD, rzędu kilku milisekund (ms)). Wahania te mają głównie charakter sezonowy (cykl roczny, półroczny) i charakteryzują się również oscylacjami różnego rodzaju, dłuższymi i krótszymi okresami, takimi jak tzw. "fluktuacje dekadowe". Co więcej, analizy obserwacji zaćmienia Słońca zarejestrowanych przez Babilończyków, Greków, Arabów i Chińczyków wskazują, że tempo rotacji maleje sekularnie, co powoduje wzrost LOD o około 2 ms 100-1. Wszystkie te zmiany są konsekwencją równowagi momentu pędu. Obejmuje ona zmiany w obrocie Ziemi spowodowane momentami obrotowymi działającymi na Ziemię stałą, jak również zmianami w rozkładzie masy w jej wnętrzu, które modyfikują jej tensor bezwładności. Zostanie to opisane bardziej szczegółowo w rozdziale "Opis dynamiczny".
Wpływ ruchu obrotowego Ziemi na naukę i życie codzienne
Jak zobaczymy później, pomiary ruchu obrotowego Ziemi wymagają obecnie szeroko zakrojonych i kosztownych technik obserwacyjnych. Zanim omówimy stan wiedzy w tej dziedzinie, należy podkreślić wagę wiedzy o ruchu obrotowym Ziemi, zwracając uwagę na jego konsekwencje dla nauki podstawowej, technologii i życia codziennego.
Obrót Ziemi i czas
Obrót Ziemi rządzi całym naszym życiem poprzez przemienność dni i nocy. Dlatego stanowi najbardziej naturalną jednostkę pomiaru czasu. Mieszkańcy Ziemi znacznie bardziej interesują się dobowym cyklem Słońca niż gwiazd. Z punktu widzenia Ziemi, Słońce porusza się nieco wolniejniż gwiazda, ponieważ Słońce co roku okrąża Ziemię w kierunku przeciwnym do ruchu wskazówek zegara, podczas gdy dobowy obrót gwiazdowy jest zgodny z ruchem wskazówek zegara. Zatem doba słoneczna jest o około 4 minuty dłuższa niż doba gwiazdowa. Ze względu na zmiany prędkości Słońca (lub, co za tym idzie, prędkości orbitalnej Ziemi w heliocentrycznym układzie odniesienia) oraz ze względu na NACHYLENIE EKLIPTYKI, doba słoneczna podlega niewielkim zmianom, sięgającym 30 sekund w ciągu roku. Średnia doba słoneczna została zdefiniowana i konwencjonalnie przyjęta jako 86 400 sekund, czyli 24 godziny. Dobowy cykl Słońca stanowi podstawową jednostkę większości kalendarzy. Różnice między KALENDARZAMI dotyczą wyboru większego cyklu do liczenia dni (miesiąca i roku), a więc do ustalania dat. Kalendarz gregoriański, który stanowi obecnie międzynarodowy punkt odniesienia, został zaprojektowany w celu zachowania zbieżności między porami roku oraz wystąpieniami równonocy i przesileń, których kierunki w przestrzeni zmieniają się ze względu na precesję. Ponieważ rok zwrotnikowy nie jest wielokrotnością liczby dni, rok kalendarza gregoriańskiego zawiera całkowitą liczbę dni, ale podlega wahaniom z roku na rok (365 lub 366 dni), tak aby rok średni pozostawał równy rokowi zwrotnikowemu. Kolejność średnich dni słonecznych pozwala nam zdefiniować skalę czasu, tzw. CZAS UNIWERSALNY. Dzięki pojawieniu się zegara atomowego wykazano, że prędkość obrotowa Ziemi nie jest jednostajna, w związku z czym Czas Uniwersalny został porzucony jako punkt odniesienia. Międzynarodowa jednostka czasu, sekunda czasu atomowego, została wybrana tak, aby była równa średniej sekundy średniej doby słonecznej dla epoki 1900 roku. MIĘDZYNARODOWA skala CZASU ATOMOWEGO, Temps atomique international (TAI), została naturalnie wyprowadzona ze skali Czasu Uniwersalnego (UT1). Aby zachować spójność między czasem atomowym a czasem uniwersalnym, do użytku cywilnego utrzymywana jest pośrednia skala czasu atomowego. Jest to Uniwersalny Czas Skoordynowany (UTC), który różni się od TAI całkowitą liczbą sekund, dzięki czemu nigdy nie różni się od UT1 o więcej niż 0,9 s.
Obrót Ziemi ma kluczowe znaczenie dla teorii fizycznych
Obrót Ziemi stanowi potwierdzenie dynamiki Newtona. Newton rozróżnia układy odniesienia inercjalne i nieinercjalne, podlegające przyspieszeniu względem układu inercjalnego, w których występują tzw. efekty nieinercjalne, takie jak efekt odśrodkowy i efekt Coriolisa. Zakładając, że układ odniesienia związany z gwiazdą jest inercjalny, obracająca się skorupa ziemska jest układem nieinercjalnym. Z kolei elementy masowe Ziemi powinny podlegać efektom odśrodkowym, co implikuje wybrzuszenie równikowe i mniejszą grawitację na równiku niż na biegunach. Zostało to udowodnione w XVIII wieku za pomocą pomiarów geodezyjnych i pomiarów wahadła czasowego na różnych szerokościach geograficznych i stanowiło bardzo ważne potwierdzenie koncepcji Newtona. Drugi dowód uzyskano dzięki słynnemu WAHADŁU FOUCAULTA, zaprojektowanemu przez niego w 1851 roku, które wykazuje pozorny obrót płaszczyzny oscylacji pod wpływem efektu Coriolisa, wynikającego z obrotu Ziemi.
Geofizyczne skutki ruchu obrotowego Ziemi
Obrót Ziemi silnie wpływa na atmosferę. Po pierwsze, następstwo dnia i nocy wywołuje dobowe wahania temperatury, a co za tym idzie, zmiany ciśnienia i pola wiatru. Po drugie, ruchy powietrza są częściowo regulowane przez efekt Coriolisa. Pozwala to zrozumieć wzorce wiatrów, a zwłaszcza kierunek dominujących wiatrów w zależności od szerokości geograficznej. Nieregularności ruchu obrotowego Ziemi odgrywają rolę w zjawiskach geofizycznych. Na przykład, zmniejszające się tempo ruchu obrotowego Ziemi może powodować zmniejszenie spłaszczania się Ziemi ze względu na zmniejszający się efekt odśrodkowy.
Opis geometryczny - parametry orientacji Ziemi
Powyższe rozważania koncentrują się na wektorze prędkości kątowej Ziemi. Jednakże obserwacje astrometryczne lub geodezyjne nie zależą bezpośrednio od tej wielkości, lecz od orientacji stacji naziemnych i układu odniesienia nieba, w którym prowadzone są obserwacje. Metody numeryczne, takie jak analiza najmniejszych kwadratów, pozwalają nam określić orientację na podstawie przybliżonych obserwacji. Aby zharmonizować ustalenia przeprowadzane na całym świecie, międzynarodowa społeczność naukowa przyjęła unikalny zestaw parametrów orientacji Ziemi (EOP). Podstawową ideą jest oddzielenie modelowanych zmian orientacji od nieznanych. Model uwzględnia wpływ średniej rotacji dobowej i precesji-nutacji. Różnica między orientacją rzeczywistą a modelem jest opisana przez pięć parametrów orientacji. Po pierwsze, dwa przesunięcia biegunów niebieskich kompensują defekt w modelu precesji-nutacji osi geograficznej bieguna; są one umownie ograniczone do uwzględniania oscylacji o okresach dłuższych niż kilka dni. Model precesji-nutacji i przesunięcia biegunów niebieskich definiują kierunek przestrzenny osi, której przecięcie ze sferą niebieską nazywane jest Biegunem Efemeryd Niebieskich. Słowo "efemeryda" odnosi się do faktu, że położenie bieguna w przestrzeni jest określone przez efemerydy dostarczane przez konwencjonalny model nutacji. Trzeci parametr, uniwersalne zmiany czasu UT1 ? UTC, integruje nieregularności prędkości obrotowej Ziemi. Czas Uniwersalny UT1 to skala czasu oparta na kącie obrotu Ziemi, przy założeniu, że kąt obrotu jest proporcjonalny do UT1. Jak wspomniano wcześniej, Uniwersalny Czas Skoordynowany UTC jest atomową skalą czasu, ewoluującą jednostajnie względem międzynarodowego czasu atomowego (TAI). Wreszcie, dwie współrzędne ruchu biegunowego, x i y, określają położenie Bieguna Efemeryd Niebieskich w układzie odniesienia Ziemi, czyli przesunięcie między Biegunem Efemeryd Niebieskich a Biegunem Północno-Geograficznym, ale wyrażone w układzie odniesienia Ziemi. Teoretycznie można wykazać, że Biegun Efemeryd Niebieskich reprezentuje, w pierwszym przybliżeniu, średnią dobową osi obrotu Ziemi. Zatem ruch biegunowy Bieguna Efemeryd Niebieskich, ograniczony do jego długich okresowych zmian, reprezentuje ruch osi obrotu na skorupie ziemskiej. W rzeczywistości trzy kąty wystarczą, aby opisać defekty w a priori orientacji układu odniesienia Ziemi w układzie odniesienia nieba. Jednakże kąty te obejmują zmiany od kilku dni lub lat (precesja-nutacja, długi okresowy ruch biegunów) do jednego dnia i krócej. Oszacowanie tych parametrów wymagałoby bardzo intensywnych obserwacji, które obecnie nie są rutynowo osiągane, ale wkrótce staną się możliwe wraz z postępem technologicznym.
Monitorowanie orientacji Ziemi
Ewolucja technik
Techniki astrometryczne i geodezyjne zapewniają orientację w funkcji czasu układu odniesienia Ziemi względem układu odniesienia nieba, z którego można wyprowadzić wartości EOP, w tym UT1, ruch biegunów oraz wielkości precesji i nutacji. Służby międzynarodowe, kolejno od 1900 roku: Międzynarodowa Służba Szerokości Geograficznej (ILS), Międzynarodowa Służba Ruchu Polarnego (IPMS) i Międzynarodowe Biuro ds. Ruchu Polarnego (BIH), odpowiadają za gromadzenie i łączenie pomiarów w celu regularnego dostarczania najlepszych szacunków ruchu biegunów. Parametr UT1 był regularnie dostarczany przez BIH od 1967 roku. Wszystkie pomiary opierały się na obserwacjach optycznych wykonanych przez astrolabium Danjon lub instrumenty tranzytowe, zenitalne i okołozenitalne; były one dostarczane przez okres 5 dni, ale atmosfera ograniczała ich precyzję do 0,01. Od 1972 roku BIH wykorzystywało w tym celu kilka technik geodezji kosmicznej, począwszy od śledzenia satelitarnego metodą Dopplera i laserowego pomiaru odległości księżycowej (LLR), a następnie, w 1978 roku, laserowego pomiaru odległości satelitarnej (SLR) i interferometrii o bardzo dużej linii bazowej (VLBI) w odniesieniu do radioźródeł pozagalaktycznych. W ostatnich latach rozważano również inne techniki satelitarne, takie jak Globalny System Pozycjonowania (GPS) i DORIS. Wszystkie te techniki umożliwiają pomiary czasu lub częstotliwości. Są to podstawowe informacje wykorzystywane przez centra analityczne do określania EOP. Obecnie metody astrometryczne ustąpiły miejsca technikom geodezji kosmicznej w rutynowych pomiarach ruchu obrotowego Ziemi. Od 1988 roku międzynarodową służbą odpowiedzialną za EOP i odpowiadające im układy odniesienia jest Międzynarodowa Służba Obrotów Ziemi (IERS), której Centralne Biuro znajduje się w Obserwatorium Paryskim. Obecna dokładność wynosi około 0,2 mas (1 cm) dla codziennych pomiarów EOP i może osiągnąć 0,5 mas w odstępach rzędu godzin dzięki intensywnym sesjom VLBI lub GPS. Doprowadziło to do znacznej poprawy w określaniu EOP, a co za tym idzie, do pogłębienia wiedzy o szczegółach obrotu Ziemi, a tym samym o globalnych parametrach geofizycznych i procesach geofizycznych wpływających na obrót Ziemi.
Nowoczesne techniki geodezyjne
W VLBI podstawową wielkością jest opóźnienie w dotarciu frontu fali do dwóch radioteleskopów z odległych kwazarów. W idealnym przypadku opóźnienie to byłoby jedynie funkcją ortogonalnego rzutu linii bazowej między dwoma teleskopami na kierunek radioźródła. Rzeczywisty przypadek jest bardziej skomplikowany, ponieważ opóźnienie to zawiera efekty niegeometryczne, głównie wynikające z synchronizacji zegara i zakrzywienia frontu fali w atmosferze. Tak czy inaczej, informacje o orientacji Ziemi zawarte są w opóźnieniach VLBI. Jego modelowanie zależy od wielu parametrów, które muszą być szacowane jednocześnie. Do 1998 roku sesje obserwacyjne VLBI były przeprowadzane w ciągu 24 godzin w odstępach kilku dni. Zazwyczaj obejmowały one zestaw linii bazowych, obserwując kolejno kilka radioźródeł tworzących Międzynarodowy Układ Odniesienia Niebiańskiego (International Celestial Reference Frame - Międzynarodowego Układu Odniesienia Niebiańskiego). Ustanawia się rozróżnienie między parametrami łuku, które są stałe w trakcie sesji (takimi jak współrzędne radioźródeł, EOP) a parametrami lokalnymi (takimi jak parametry zegara, opóźnienie atmosferyczne), które różnią się w zależności od sesji. Przybycie frontu fali jest rejestrowane na taśmach magnetycznych niezależnie w każdym radioteleskopie. Wszystkie taśmy są wysyłane do centrali, gdzie są krzyżowo korelowane w celu określenia serii różnic w czasie przybycia (opóźnienie) i tempie zmian opóźnienia (współczynnik opóźnienia) na liniach bazowych VLBI (patrz rysunek 4). Techniki laserowego pomiaru odległości są obecnie stosowane do satelitów (satelitarny laserowy pomiar odległości, SLR) i Księżyca (księżycowy laserowy pomiar odległości, LLR). Dostarcza to informacji o dokładnej odległości satelity od stacji w danym momencie, co z kolei może zostać wykorzystane do określenia orientacji Ziemi w przestrzeni. Bardzo krótki impuls laserowy jest wysyłany z teleskopu w stacji naziemnej i odbijany przez reflektor Corner Cube na satelicie lub Księżycu z powrotem do stacji. Mierzy się czas podróży w obie strony, co jest równoważne zmierzeniu odległości. Obecnie możliwe jest dokładne zmierzenie tego z dokładnością do 50 ps lub większą, co odpowiada dokładności 1 cm lub mniejszej. GPS wykorzystuje konstelację satelitów, które nadają sygnały do stacji na Ziemi. Na podstawie opóźnienia sygnału nadawczego i precyzyjnego określenia orbit satelitów można określić położenie stacji. Sieć około 30 stałych stacji jest obsługiwana w celu ułatwienia ustalenia ziemskiego układu odniesienia. Sieć ta może być wykorzystana do wykrywania zmian prędkości obrotowej Ziemi (nadmiar LOD) oraz orientacji jej osi obrotu (ruch biegunowy). Częstotliwościowe zmiany długości dnia określane są codziennie z dokładnością do ±20 ?s dziennie.
Porównanie technik
Okazuje się, że technika VLBI jest najskuteczniejsza, ponieważ niebieskie układy odniesienia uzyskane za pomocą analiz VLBI są najbardziej stabilne, a co za tym idzie, długookresowe oscylacje orientacji Ziemi, zwłaszcza precesja-nutacja i kilkudniowe fluktuacje LOD, są dobrze określone. Sam międzynarodowy niebieski układ odniesienia składa się z zestawu współrzędnych radioźródła uzyskanych za pomocą analiz VLBI. Techniki satelitarne nie zapewniają tak stabilnego układu odniesienia. Ze względu na wiele niemodelowanych efektów na orbitach satelitów, odpowiadający mu układ odniesienia nadaje się jedynie do monitorowania krótkookresowych okresów zmian orientacji Ziemi. Ruch biegunów, który w niebieskim układzie odniesienia pojawia się jako quasi-dobowa oscylacja osi geograficznej przeciwnie do ruchu wskazówek zegara, jest bardzo dobrze określony przez techniki satelitarne, z takim samym poziomem dokładności jak VLBI. Techniki satelitarne muszą być połączone z wartością bezwzględną UT1 dostarczaną przez niezależną technikę, taką jak VLBI. Jest to konieczne, ponieważ równomiernego obrotu węzłów orbity satelity nie da się odróżnić od obrotu Ziemi. Ponieważ jednak VLBI nie działa w sposób ciągły, GPS może dawać dokładniejsze szacunki LOD w czasie rzeczywistym, aby uzupełnić luki.
Opis dynamiczny
Dynamiczne przyczyny zmian orientacji Ziemi można podzielić na dwa rodzaje: astronomiczne i geofizyczne. Przyczyny astronomiczne, według obecnego stanu wiedzy, sprowadzają się do momentu obrotowego wytwarzanego przez pływowe przyciąganie grawitacyjne ciał niebieskich na Ziemi. Przyczyny geofizyczne są związane z przemieszczeniami masy w warstwach Ziemi (jądrze stałym, jądrze płynnym, płaszczu, oceanach i atmosferze) lub z oddziaływaniami między warstwami Ziemi o charakterze elektromagnetycznym i mechanicznym (grawitacja, ciśnienie i lepkość). Niech
będzie momentem pędu Ziemi, a
zewnętrznym momentem obrotowym działającym na Ziemię. W geocentrycznym układzie quasi-inercjalnym I (jego osie, wyśrodkowane w geocentrum, nie obracają się w przestrzeni), bilans momentów pędu jest zapisany jako
(1)
Wygodniej jest rozważyć układ K, w którym ciała są nieruchome. Niech
będzie wektorem prędkości kątowej Ziemi; w równaniu K (1) otrzymujemy dynamiczne równanie Eulera:
(2)
Wektor prędkości kątowej Ziemi składa się ze stałego dobowego obrotu osi figury, czyli wektora (0, 0, Ω) w układzie ciała stałego, oraz małych zaburzeń ( Ωm1, Ωm2, Ωm3), gdzie m11 i m2 oznaczają ruch biegunowy, a m3 względne zmiany w obrocie Ziemi. Rozwiązanie równania (2) dla ciała sztywnego bez żadnego zewnętrznego momentu obrotowego prowadzi do obrotowej formy własnej, tzw. chybotania Eulera. Jeśli rozważamy ciało sprężyste lub niesprężyste, musimy uwzględnić ruch każdego elementu ciała względem układu K. Powoduje to zmienne przyrosty momentu bezwładności cij oraz dodatkowy wektor momentu pędu ze składowymi (h1, h2, h3) w K. Wyrażenie równania (2) jako funkcji wektora obrotu Ziemi, macierzy bezwładności Ziemi, dodatkowego momentu pędu wynikającego z niesztywności Ziemi oraz momentu zewnętrznego, a także pominięcie wyrazów krzyżowych przyrostów mi, cij, hi, daje tzw. równania Liouville′a. Zmiany w obrocie i ruchu biegunów Ziemi pojawiają się zatem jako odpowiedź układu różniczkowego na trójwymiarowy wektor wzbudzenia. Mechanizmy wzbudzenia wynikają ze zmiany momentu pędu Ziemi spowodowanej przyłożeniem momentu zewnętrznego, ze zmiany tensora bezwładności Ziemi oraz z wewnętrznej redystrybucji jej momentu pędu. Ruch biegunów wydaje się być wzbudzany głównie przez redystrybucję masy, a LOD (tj. m3) przez ruchy masy. Ze względu na swoją liniowość, taki układ pozwala nam rozdzielić źródła zaburzeń, takie jak skutki redystrybucji masy w różnych częściach Ziemi i astronomiczny moment obrotowy. Klasyczny sposób rozwiązywania równań obrotu Ziemi obejmuje dwa kroki. Najpierw równania rozwiązuje się dla sztywnego modelu Ziemi, uwzględniającego jedynie wymuszenia astronomiczne. Następnie szacuje się, w jakim stopniu to "sztywne rozwiązanie" jest modyfikowane przez wprowadzenie niesztywnej struktury Ziemi i efektów geofizycznych, takich jak przemieszczenia mas powietrza. Te dwa kroki opisano bardziej szczegółowo poniżej.
Wymuszenia astronomiczne
Księżyc, a w mniejszym stopniu Słońce, wywierają grawitacyjny moment pływowy na wybrzuszenie równikowe Ziemi. Księżyc przyczynia się do tego ponad dwukrotnie bardziej niż Słońce ze względu na swoją bliskość, co kompensuje jego mniejszą masę. Ten moment, leżący w płaszczyźnie równikowej, wykazuje w układzie inercjalnym składowe widmowe od pół dnia do kilku tysięcy lat, zgodnie z okresowymi zmianami elementów orbity, powodując z kolei zmiany kierunku geograficznej osi biegunowej i osi obrotu. Zmiany te są klasycznie opisywane dwoma kątami Eulera: kątem precesji Ψ w płaszczyźnie ekliptyki i kątem nachylenia θ, określającym przesunięcie między osią Ziemi (geograficzną lub obrotową) a osią biegunów ekliptyki . W przypadku sztywnego modelu Ziemi problem precesji-nutacji sprowadza się do zagadnienia czysto astronomicznego. Rozwiązując równania Liouville′a, otrzymujemy sztywny wektor prędkości kątowej Ziemi (ωirigid)i=1,2,3 jako funkcję momentu zewnętrznego i dynamicznego spłaszczenia Ziemi. Poprzez całkowanie relacji kinematycznych łączących składową wektora prędkości kątowej z pochodną czasową równań EOP, można wyznaczyć kąty Eulera osi geograficznych względem osi układu quasi-inercjalnego. Zapewniają one zmiany długości geograficznej Ψ i nachylenia θ. Quasi-stacjonarna składowa momentu obrotowego, czyli człon obracający się zgodnie z ruchem wskazówek zegara z okresem gwiazdowym dla obserwatora na Ziemi, wywołuje sekularne zmiany kątów Eulera. Najważniejszy z nich dotyczy kąta Ψ i wynosi 50,29″ rok-1. To jest tak zwana precesja astronomiczna. Z kolei oś obrotu opisuje, jako pierwsze przybliżenie, stożek wokół osi biegunów ekliptyki w ciągu 25 800 lat. Okresowe zmiany momentu pływowego, regulowane ruchem Słońca i Księżyca w geocentrycznym układzie odniesienia, indukują okresowe zmiany w kierunku osi obrotu, tzw. nutację astronomiczną. Przy równych amplitudach momentu obrotowego efekt jest bardziej istotny dla dłuższych okresów. W rzeczywistości im dłuższy jest okres, tym dłuższy jest czas trwania, w którym może zachodzić okresowa zmiana. Matematycznie kąty Eulera wynikają z całkowania momentu obrotowego, a zatem z podziału dowolnej składowej widmowej przez jej częstotliwość. Wyjaśnia to, dlaczego największe człony nutacji nie są koniecznie indukowane przez największe składowe momentu obrotowego. Na przykład, największy człon nutacyjny, w okresie 18,6 roku, jest członem quasi-kołowym o amplitudzie około 10 , co stanowi ponad 200-krotność amplitudy członu w okresie 13,6 dnia, wywołanego przez najsilniejszą składową pływową. Ponadto, z powodu perturbacji planetarnych na orbicie Ziemi (tj. ekliptyki), nachylenie płaszczyzny orbity maleje z szybkością 0,46 yr-1 (tj. oś obrotu jest coraz mniej nachylona). W przypadku sztywnego modelu Ziemi, prędkość kątowa jest stała, z wyjątkiem bardzo małych zmian okresów dobowych i półdobowych oraz amplitud do 2 × 10-6 s w UT1, ze względu na wpływ niezerowej składowej momentu pływowego księżycowo-słonecznego w płaszczyźnie równikowej.
Efekty geofizyczne
Przypadek rzeczywistej Ziemi jest bardziej skomplikowany niż rozważano w poprzednim rozdziale. Po pierwsze, występują deformacje pod wpływem pływowego wymuszenia grawitacyjnego i siły odśrodkowej, które indukują zmiany momentu bezwładności. Zmiany bezwładności pochodzenia pływowego odpowiadają za modyfikację amplitud nutacji, a także za strefowe zmiany obrotu Ziemi w tych samych okresach co nutacje i amplitudy do 1 ms w UT1, przy czym oba efekty są skalowane współczynnikiem sprężystości (liczba Love′a k) płaszcza. Deformacje sprężyste pochodzenia odśrodkowego odpowiadają za większą część modyfikacji okresu Chandlera w porównaniu z okresem Eulera. Po drugie, jądro płynne i płaszcz nie obracają się sztywno; jądro płynne naturalnie ma prawie dobowe drgania zgodne z ruchem wskazówek zegara względem skorupy, ponieważ jego główna oś bezwładności nie pokrywa się z osią bezwładności płaszcza, co powoduje, w wyniku reakcji, podobny efekt na płaszcz. Okres tego swobodnego ruchu obrotowego, nazywany również nutacją swobodnego jądra, jest silnie zależny od spłaszczenia granicy jądro-płaszcz i, jak wykazano, wpływa na amplitudy pływów bliskie rezonansowi. W układzie odniesienia gwiazd, nutacja swobodnego jądra wyglądałaby jak oscylacja zgodna z ruchem wskazówek zegara. Teoria przewiduje wynikające z tego zaburzenia nutacji zgodnych z ruchem wskazówek zegara sztywnej Ziemi, co potwierdzają obserwacje VLBI. Rozwiązanie równania dla obrotu niesztywnego modelu Ziemi wymaga zatem zapisania równań Liouville′a dla płaszcza i jądra oddzielnie oraz rozwiązania obu tych równań jednocześnie. Ostatecznie wektor prędkości kątowej płaszcza (ωi)i=1,2,, indukowany przez wymuszenie zewnętrzne, jest wyrażony jako funkcja sztywnego rozwiązania (ωirigid)i=1,2,3. Obecne modele precesji-nutacji, uwzględniające rozwiązanie sztywne i efekty niesztywne, takie jak obecność płynnego jądra wewnątrz Ziemi ze spłaszczeniem odbiegającym od równowagi hydrostatycznej, są zgodne z obserwacjami na poziomie submilisekund łukowych. Wartość dynamicznego spłaszczenia Ziemi, która jest fundamentalnym parametrem modeli, jest wyprowadzana z obserwowanego tempa precesji. Ponadto musimy uwzględnić przemieszczenia mas wewnątrz powierzchniowej warstwy Ziemi. Te procesy geofizyczne wpływają na obrót Ziemi w takim samym stopniu, jak Księżyc i Słońce, ale ich energia jest uwalniana głównie w długim okresie (kilka dni) względem skorupy ziemskiej, w przeciwieństwie do wpływu grawitacji, który ma charakter retrogradacji dziennej. Większość z nich jest niezależna od zaburzeń rotacji Ziemi; są one wywoływane przez oddziaływania termiczne, pływowe i elektromagnetyczne. Jednakże zmiana sił odśrodkowych związana z drganiami osi obrotu wywołuje zmianę wysokości wody w oceanach, zwaną "pływem biegunowym". Zjawisko to odgrywa fundamentalną rolę w wyjaśnianiu okresu drgania Chandlera. Zmiany w rozkładzie masy powietrza i oceanów obejmują zmiany prędkości obrotowej Ziemi, a także długie okresowe przesunięcie osi obrotu względem skorupy ziemskiej. Roczne składowe do 2 ms w LOD i do 200 mas w ruchu biegunów są indukowane przez cyrkulację atmosferyczną. Obserwowane składowe podsezonowe (10-100 dni) można wyjaśnić łącznym wpływem atmosfery i oceanów. Najczęstsze podejście do obliczania wpływu warstw płynu opiera się na szeregach czasowych momentu pędu tych warstw (wielkości cij i hi) oraz równaniach Liouville′a. Centra meteorologiczne dostarczają nam szeregów atmosferycznego momentu pędu (AAM) z modeli asymilacji ciśnienia i wiatrów. Dane oceaniczne są znacznie rzadsze, więc moment pędu oceanicznego wynika głównie z modelowania. Korelacja między LOD a AAM jest tak dobrze ugruntowana, że prognozy atmosferycznego momentu pędu dostarczane przez główne ośrodki są obecnie badane pod kątem przewidywania obrotu Ziemi. Na podstawie obserwacji można oczekiwać pewnego wymuszania geofizycznego o dłuższych okresach (ponad kilka lat). Może to obejmować warstwy powierzchniowe (na przykład cykl El Niño w atmosferze i oceanie) oraz sprzężenie między jądrem a płaszczem. Takie mechanizmy mogą wyjaśniać trwające dekady fluktuacje LOD. Główny wkład w sekularne zmiany LOD przypisuje się tarciu pływowemu, które przenosi obrotowy moment pędu Ziemi na orbitę księżycową, a uzupełniający wkład pochodzi z efektu odbicia polodowcowego na główny moment bezwładności Ziemi. Obserwowany sekularny ruch bieguna względem skorupy ziemskiej, zwany "sekularnym trendem biegunowym", wynoszący około 0,3″wieku-1 w kierunku około 70°W, przypisuje się głównie redystrybucjom masy towarzyszącym i następującym po zakończeniu zlodowacenia plejstoceńskiego 20 000 lat temu. Rozważane są również inne przyczyny geofizyczne, takie jak globalny wzrost poziomu morza, trendy w magazynowaniu wód gruntowych i niedawna aktywność lodowcowa. Można uznać, że zmiany w obrocie Ziemi (precesja, nutacja, ruch biegunów i LOD) są obecnie dość dobrze wyjaśnione przez różne efekty geofizyczne opisane powyżej (redystrybucja masy, wpływ płynnego jądra, wymuszanie przez atmosferę i oceany itp.), z wyjątkiem bardzo zagadkowego składnika, ruchu Chandlera biegunów. Jak widać powyżej, składnik ten ma okres swobodnego obrotu Ziemi, około 433 dni. Teoria pokazuje, że przy braku jakiegokolwiek zewnętrznego momentu obrotowego oś obrotu obraca się wokół osi figury w układzie odniesienia Ziemi z tym okresem. Ponieważ Ziemia nie jest ciałem idealnie sprężystym, ruch ten powinien być rozpraszany w energii cieplnej. Jednakże nie zaobserwowano tłumienia ruchu Chandlera. W konsekwencji jest on wzbudzany przez pewien mechanizm, który nie został jeszcze wyjaśniony. Ani połączone oddziaływanie atmosfery i oceanów, ani trzęsienia ziemi nie wydają się zapewniać odpowiedniego wymuszenia.
Najnowsze postępy
Dobowe i poddobowe wyznaczanie ruchu biegunów i czasu uniwersalnego W ciągu ostatnich kilku dekad nastąpił ogromny postęp w astrometrycznych i geodezyjnych technikach obserwacyjnych, jak pokazano poniżej. Postęp ten nie ogranicza się jedynie do rosnącej dokładności pomiarów EOP. Od lat 90. XX wieku intensyfikacja obserwacji geodezyjnych za pomocą VLBI i GPS umożliwiła wyznaczanie poddobowych zmian ruchu biegunów i prędkości obrotowej Ziemi. Od 1999 roku obserwacje VLBI są prowadzone nieprzerwanie i z coraz większą intensywnością przez różne sieci antenowe pracujące naprzemiennie. Zaproponowano nowe zjawiska, takie jak dobowe i półdobowe zmiany ruchu biegunów i prędkości obrotowej Ziemi. Zmiany te są w większości wyjaśnione pływami oceanicznymi. Możliwe jest wykrycie innych składników o pochodzeniu niepływowym, ale nie można jeszcze sformułować jednoznacznego stanowiska.
Swobodna nutacja rdzenia
Ponadto ulepszono modelowanie zmian orientacji Ziemi. Do lat 80. XX wieku konwencjonalny model precesji i nutacji opierał się na modelu sztywnej Ziemi. Jednakże efekty niesztywności sięgają 100 mas, co stanowi 1000-krotnie większą dokładność niż wyniki obserwacji VLBI. Od 1980 roku duże zainteresowanie skupia się zatem na udoskonaleniu modelu nutacji poprzez uwzględnienie deformacji płaszcza, a także procesów interakcji między płynnym jądrem a płaszczem. Parametry takiego modelu, takie jak spłaszczenie płynnego jądra, mają pierwszorzędne znaczenie geofizyczne. Modele ograniczone obserwacjami VLBI pozwalają na wydedukowanie tych parametrów. Na podstawie obserwowanego okresu swobodnej nutacji jądra (430 dni) stwierdzono, że płynne jądro charakteryzuje się spłaszczeniem większym niż to związane z równowagą hydrostatyczną, co odpowiada 500-minutowemu wzrostowi jego promienia równikowego. Obserwacja procesów geofizycznych, takich jak trzęsienia ziemi, nie pozwala na uzyskanie tak fundamentalnych wyników.
Przyszłość
Można spodziewać się nowych odkryć dotyczących nieregularności rotacji Ziemi dzięki coraz większej wydajności nowoczesnych technik geodezyjnych. Niemniej jednak, techniki te opierają się na bardzo kosztownych procesach przetwarzania. Pierścieniowy żyroskop laserowy oparty na efekcie Sagnaca, często stosowany w systemach nawigacyjnych, stanowi interesującą alternatywę, ponieważ nie wymaga żadnych obserwacji astrometrycznych i umożliwia prowadzenie obserwacji astronomicznych in situ. Dzięki tej technice, wciąż rozwijanej w celu monitorowania rotacji Ziemi, możliwe będzie wykrywanie oscylacji w skali czasowej krótszej niż 1 godzina.
Obrót Ziemi: Teoria
Teoria obrotu Ziemi zajmuje się wyjaśnieniem zmian w jej obrocie. Oprócz równomiernego obrotu wokół osi bliskiej geograficznemu biegunowi północnemu, Ziemia podlega zmianom prędkości obrotowej (w tym zmianom długości dnia); ponadto orientacja osi obrotu zmienia się w czasie, zarówno wewnątrz Ziemi, jak i względem przestrzeni inercyjnej. W układzie odniesienia ziemskiego ruch osi obrotu wokół średniego bieguna geograficznego nazywa się ruchem biegunowym; w układzie odniesienia niebieskiego ruch osi obrotu w przestrzeni nazywa się PRECESJĄ/NUTACJĄ.
Zmiana prędkości obrotowej Ziemi, zmiana długości dnia
Zmiana długości dnia (LOD), mierzona obserwacjami geodezyjnymi w ostatnich dekadach, wynosi kilka milisekund w okresach krótszych niż kilka lat . Te krótkoterminowe zmiany są głównie wywoływane przez oddziaływanie atmosferyczne i oceaniczne na Ziemię. Można je obliczyć na podstawie modeli ograniczonych danymi meteorologicznymi, zakładając (1), że ciśnienie atmosferyczne (lub pośrednio ciśnienie oceanu) wywiera nacisk na topografię Ziemi (np. na góry), wytwarzając w ten sposób moment obrotowy, który zmienia obrót Ziemi, (2) że zmiany gęstości w atmosferze generują dodatkowy moment obrotowy (moment grawitacyjny) oraz (3) że wiatry również indukują moment tarcia na powierzchni Ziemi. Podobne momenty obrotowe są również wprowadzane przez oceany. Wszystkie te zjawiska powodują przyspieszenie i spowolnienie obrotu Ziemi w krótkich skalach czasowych, a co za tym idzie, zmiany w LOD. Zmiany LOD na Ziemi można obliczyć i porównać z KĄTEM PĘDU ATMOSFERY ZIEMSKIEJ, jak pokazano na rysunku 1. Oprócz tych zmian istnieją dekadowe zmiany LOD (patrz powyżej i pozostałe różnice na rysunku 1 między zmierzonymi zmianami LOD a tymi obliczonymi z atmosfery), które zwykle przypisuje się wymianie momentu pędu z rdzeniem ze względu na korelację między zmianami powierzchniowego pola magnetycznego a zmianami LOD w tych skalach czasowych. Ten transfer momentu pędu wynika z momentów obrotowych na granicy JĄDRO-PŁASZCZ (CMB): (1) moment topograficzny, ze względu na ciśnienie strumieni działających na topografię CMB (wybrzuszenia i doliny, które mogą mieć wysokość nawet kilku kilometrów); (2) moment lepkościowy, związany z lepkością ciekłego jądra; (3) moment elektromagnetyczny, związany z siłą Lorentza indukowaną w CMB przez pole elektromagnetyczne; (4) moment grawitacyjny, związany z oddziaływaniem grawitacyjnym między jądrem a płaszczem Ziemi. Moment topograficzny i moment elektromagnetyczny są zwykle uważane za najważniejsze w długich skalach czasowych. Ponadto moment grawitacyjny przyciągnął ostatnio wiele uwagi. Ponieważ nie ma bezpośrednich obserwacji przepływów w jądrze, które prowadziłyby do dobrze ograniczonych modeli, takich jak te istniejące dla oceanu i atmosfery, można uzyskać jedynie pośrednie obliczenia momentu pędu jądra (a tym samym momentu obrotowego działającego na CMB). Ich zmiany można obliczyć, jeśli ruchy w jądrze są scharakteryzowane przez obrót cylindrów płynu, na podstawie przepływów w górnej części jądra wyprowadzonych ze zmian w poloidalnym polu magnetycznym obserwowanym na powierzchni. Co więcej, przepływy te zależą od słabo ograniczonych dodatkowych założeń, aby rozstrzygnąć kwestię formalnej niejednoznaczności rozwiązania. W związku z tym, podawanie powiązanych zmian momentu pędu Ziemi lub momentów obrotowych działających na granicę między jądrem wewnętrznym a zewnętrznym (ICB) lub CMB, bez żadnych innych ograniczeń, jest bardzo spekulatywne. Niemniej jednak, ponieważ zmiany rotacji Ziemi są dobrze skorelowane z polem magnetycznym w skali dekad, dane dotyczące zmian LOD mogą być wykorzystane do ograniczenia momentu pędu jądra i momentów obrotowych w skali dekad. Istnieje również bardzo długoterminowy trend zmian LOD, obserwowany na podstawie danych paleontologicznych (wzrost koralowców w czasie) oraz danych zaćmień (opóźnienie między datą wywnioskowaną z równomiernego obrotu a datą podaną w poprzednich zapisach); ten bardzo długoterminowy trend jest związany ze spowolnieniem rotacji Ziemi wywołanym tarciem pływowym. Z powodu tarcia, wybrzuszenie pływowe utworzone przez klasyczny moment pływowy ma kąt fazowy około 5 stopni względem położenia Ziemia-Księżyc. Z tego powodu Księżyc wywiera dodatkowy moment obrotowy, który ma tendencję do przerywania obrotu Ziemi. Indukuje to liniowy trend w czasie słonecznym odpowiadający wzrostowi LOD o około dwie milisekundy w ciągu jednego stulecia (co prawie nie byłoby widoczne na rysunkach przedstawiających funkcje zależne od czasu w ciągu 14 lat, jak przedstawiono tutaj). To tarcie pływowe jest powodem, dla którego na przykład w okresie dewońskim doba miała tylko 22 godziny. Oprócz momentu pływowego, który jest dominującym mechanizmem zmniejszającym obrót Ziemi, istnieje inny długoterminowy składnik działający na rzecz zmniejszenia LOD (o około pół milisekundy na stulecie) i związany ze zmniejszeniem spłaszczenia Ziemi związanym z deglacjacją po epokach lodowcowych.
Ruch biegunów
Ruch biegunów w ostatnich czasach mieści się w kwadracie o boku 20 m na powierzchni Ziemi wokół bieguna północnego (patrz RUCH POLARNY I DŁUGOŚĆ DNIA). Składa się on z dwóch głównych komponentów: (1) jednego, który ma okres roczny i uważa się, że jest spowodowany przez atmosferę, ale może być również spowodowany przez inne zjawiska sezonowe, takie jak zmiany wód gruntowych, oraz (2) drugiego, który ma okres około 435 dni i jest związany z normalnym trybem Ziemi zwanym drganiami Chandlera (CW). Drgania CW są związane z faktem, że Ziemia ma wybrzuszenie równikowe, powodujące nadmiar masy na równiku w stosunku do bieguna (Ziemia jest spłaszczona i ma promień równikowy większy od promienia biegunowego o 21 km). Wzbudzenie drgań CW nie jest dobrze poznane, ale powszechnie uważa się, że jest spowodowane głównie przez atmosferę. Dodatkowo do tych dwóch okresów można zaliczyć długoterminowy trend zwany wędrówką polarną, który można wyjaśnić wewnętrznym rozkładem masy w długich okresach, na przykład związanym z odbudową polodowcową i konwekcją płaszcza.
Precesja/nutacja
Przyciąganie księżycowo-słoneczne na wybrzuszenie równikowe Ziemi wywołuje moment obrotowy, który powoduje kołysanie równika w kierunku ekliptyki. Ziemia reaguje na to jak żyroskop; jej oś obrotu podlega dużemu ruchowi wokół prostopadłej do ekliptyki, wynoszącemu około 50 sekund kątowych na rok. Otwór stożka jest równy kątowi między równikiem a ekliptyką (23°26′). Ponieważ względne położenia Księżyca, Ziemi i Słońca nie są stałe w przestrzeni, oprócz tego ruchu precesyjnego istnieją ruchy okresowe, których okresy są bezpośrednio związane z okresami związanymi ze względnymi położeniami Księżyca, Ziemi i Słońca: nutacje. Największa amplituda nutacji odpowiada okresowi węzła orbity Księżyca wokół Ziemi (18,6 roku) na ekliptyce. Istnieją bardzo precyzyjne modele obliczania orientacji Ziemi w przestrzeni (na przykład do nawigacji kosmicznej). Modele te opierają się z jednej strony na obliczeniu nutacji Ziemi dla ciała sztywnego, a z drugiej na funkcji przejścia dla Ziemi niesztywnej. Serie nutacji sztywnej Ziemi obliczane są z programu CELESTIAL MECHANICS, począwszy od programu EFHEMERIDES, który podaje względne położenia Ziemi, Księżyca i Słońca (oraz, w mniejszym stopniu, względne położenia planet) jako funkcję zmienności w czasie argumentu fundamentalnego (np. długości geograficznej Księżyca). Współczesne teorie charakteryzują się dokładnością rzędu kilku mikrosekund łukowych (μas) (1 μas = 10-3 mas, a 1 mas to kąt, pod jakim z Europy można by zobaczyć piłeczkę pingpongową na szczycie Empire State Building w Nowym Jorku). Dokładność ta jest lepsza niż dokładność obserwacji nutacji. Te teorie obejmują nie tylko nutacje związane z bezpośrednim oddziaływaniem grawitacyjnym między Księżycem a Ziemią oraz między Ziemią a Słońcem, ale także wszystkie efekty drugiego rzędu, takie jak zaburzenie Słońca na oddziaływanie Ziemia-Księżyc, zaburzenie Księżyca na oddziaływanie Ziemia-Słońce, bezpośrednie i pośrednie efekty planet, efekt obecności wybrzuszenia równikowego Ziemi (efekt nachylenia J2) oraz efekty nutacji na siebie nawzajem (efekt sprzężenia). Dokładność funkcji przejścia niesztywnych nutacji Ziemi nie jest obecnie tak dobra, jak w przypadku sztywnych serii nutacji Ziemi. Używane modele ogólnie zakładają, że istnieje (1) nieelastyczne, stałe, odkształcalne jądro wewnętrzne, (2) ciekłe jądro zewnętrzne i (3) nieelastyczny, odkształcalny płaszcz. Uwzględniają one stan równowagi niehydrostatycznej Ziemi, który jest bardzo bliski elipsoidzie hydrostatycznej, ale nie do końca, ze względu na obecność niejednorodności masy wewnątrz Ziemi (widocznych na podstawie sejsmicznej tomografii płaszcza lub nieelipsoidalnych wkładów do geoidy). Globalne dynamiczne spłaszczenie Ziemi w tych modelach odpowiada wartości obserwowanej (pochodzącej z obserwowanej precesji), a topografia CMB uwzględnia nierówności niehydrostatyczne związane z deformacjami wywołanymi przez konwekcję w płaszczu. Nutacje obliczone na podstawie splotów między sztywnym szeregiem nutacji Ziemi a funkcją przejścia są uwarunkowane rezonansami z modami swobodnymi Ziemi, a zwłaszcza z nutacją swobodnego jądra (FCN), której okres wynosi około 432 dni w niebieskim układzie odniesienia. Obliczone okresy modów normalnych są bardzo bliskie wartościom obserwowanym, szczególnie ze względu na uwzględnienie równowagi niehydrostatycznej. Niektóre bardzo nowe modele uwzględniają dodatkowo sprzężenie elektromagnetyczne w CMB. Modele te są precyzyjne na poziomie submilisekundy łuku (< mas). Oprócz obliczeń nutacji w odpowiedzi na przyciąganie grawitacyjne księżycowo-słoneczne (i planetarne), atmosfera ma niezaniedbywalny wpływ na poziomie precyzji obserwacji VLBI. Atmosfera wywiera moment ciśnieniowy, moment grawitacyjny i moment tarcia na Ziemię w dobowej skali czasu w układzie odniesienia powiązanym z Ziemią. Uważa się, że moment tarcia ma nieistotny wpływ na nutację. Jednodniowy wpływ atmosfery na Ziemię indukuje zaburzenie w progresywnej nutacji rocznej na poziomie jednej dziesiątej masy. Podobnie, dobowe pływy oceaniczne indukują zaburzenia w głównych nutacjach. Należy również uwzględnić pośredni wpływ oceanu wynikający z wymuszenia atmosferycznego. Momenty obrotowe atmosferyczne i oceaniczne powodują przeniesienie momentu pędu, w związku z czym wpływ na nutacje można również obliczyć z równania bilansu momentu pędu, zamiast obliczać momenty obrotowe. Uzyskane w ten sposób zaburzenie nutacji jest rzędu dziesiątych części masy dla wpływu atmosfery i jednej dziesiątej masy dla wpływu pływów oceanicznych.
Zaćmienie
Zaćmienie Słońca to ZAKULTACJA, podczas której Księżyc znajduje się między Ziemią a Słońcem, blokując część lub całość światła słonecznego docierającego do obserwatora. Zaćmienia wynikają z przypadkowego zbiegu okoliczności, że rozmiary kątowe Słońca i Księżyca widziane z Ziemi są takie same z dokładnością do około 10%, chociaż ich średnica bezwzględna różni się aż 400-krotnie.
Rodzaje zaćmień Słońca
Zaćmienia Słońca mogą być całkowite, obrączkowe lub częściowe. Podczas całkowitego zaćmienia stożek cienia Księżyca zostaje przechwycony przez powierzchnię Ziemi. Przecięcie to wyznacza ścieżkę, która chwilowo zbliża się do elipsy, ale w ciągu kilku godzin wyznacza ścieżkę o długości tysięcy kilometrów, ale szerokości zaledwie około 300 kilometrów. Obserwatorzy znajdujący się w tej strefie cienia, od której fotosfera słoneczna jest całkowicie zasłonięta, widzą całkowite zaćmienie, podczas gdy obserwatorzy znajdujący się na znacznie większym obszarze przed, za lub po bokach strefy cienia znajdują się w półcieniu i widzą częściowe zaćmienie. Korona staje się widoczna tylko w fazie całkowitej całkowitego zaćmienia Słońca, dlatego to głównie te całkowite zaćmienia mają wartość naukową. Całkowite zaćmienia mogą trwać od ulotnych chwil do około 7 minut . Ze względu na eliptyczność orbit Księżyca wokół Ziemi i Ziemi wokół Słońca, głównie tej pierwszej, stożkowy cień Księżyca czasami nie dociera do powierzchni Ziemi. W takich momentach obserwatorzy na Ziemi widzą pierścień fotosfery otaczający Księżyc, a zaćmienie to nazywa się zaćmieniem obrączkowym. Ponieważ fotosfera jest około milion razy jaśniejsza niż Księżyc w pełni, zaćmienie obrączkowe z widocznym 10% lub nawet tylko 1% fotosfery pozwala na dotarcie tak dużej ilości światła słonecznego do atmosfery ziemskiej, że niebo pozostaje niebieskie, a korona nie jest widoczna. Zaćmienie obrączkowe może trwać nawet 12 minut. Zaćmienia całkowite i obrączkowe są znane jako zaćmienia centralne. Czasami, w mniej niż 10% czasu, cień dociera do Ziemi tylko na część zaćmienia centralnego i występuje wtedy zaćmienie obrączkowo-całkowite Słońca. Czasami stożkowaty cień Księżyca pada poza bieguny Ziemi i nie występuje na Ziemi zaćmienie całkowite ani obrączkowe. Te zaćmienia są jedynie częściowe. Chociaż średnie półśrednice Słońca i Księżyca wynoszą odpowiednio 960″ i 931″, eliptyczność wynosząca 0,055 i 0,017 dla Księżyca wokół Ziemi i Ziemi wokół Słońca zapewnia wystarczającą rozpiętość rozmiarów widocznych, aby uwzględnić zaćmienia obrączkowe i całkowite. Księżyc może wydawać się nawet o 10% mniejszy lub o 8% większy od Słońca. Średnica cienia, gdyby uderzyła w Ziemię pionowo, nie mogłaby przekroczyć około 270 km, ale rzut na globus może prawie podwoić tę wartość.
Częstotliwość zaćmień Słońca
W XX wieku odnotowano 224 zaćmienia Słońca, w tym 147 zaćmień centralnych i 77 zaćmień częściowych. W ciągu roku występuje od dwóch do pięciu zaćmień Słońca, chociaż całkowite zaćmienie jest widoczne gdzieś na Ziemi tylko co około 18 miesięcy. Obserwator oczekujący w jednym miejscu na Ziemi zobaczyłby całkowite zaćmienie Słońca średnio raz na 375 lat, a częstotliwość ta zależy od szerokości geograficznej. Jednak obserwatorzy gotowi do podróży mogą obserwować zaćmienia znacznie częściej. Nawet dla jednego kraju, statystyki z okresu 3000 lat (Williams 1996) pokazują, że całkowite zaćmienia są widoczne w Anglii średnio co 44 lata. W tym samym okresie zaćmienia są widoczne w Londynie co 330 lat, a w Edynburgu co 186 lat. Trajektorie całkowitych zaćmień z 21 czerwca 2001 r. i 4 grudnia 2002 r. przecinają się na zachodnim wybrzeżu południowej Afryki, co daje regionowi dwa całkowite zaćmienia w ciągu 18 miesięcy. Cień cienia przesuwa się po Ziemi z prędkością około 3400 km/h. Obrót Ziemi pozwala punktom na powierzchni na zmniejszenie tej prędkości względnej. Maksymalna prędkość obrotowa wynosi około 1700 km/h dla punktu na równiku, więc prędkość względna cienia zmniejsza się na pewien czas do około 1700 km/h - prędkości, z którą naddźwiękowy Concorde dotrzymywał kroku zaćmieniu z 1973 r. przez 74 minuty. Zwykłe strumienie dżetowe wydłużają jednak całkowite zaćmienie tylko nieznacznie. Orbitujące satelity przemieszczałyby się przez cień z jeszcze większą rozbieżnością prędkości, więc naturalne zaćmienia nie są obserwowane z kosmosu.
Przewidywanie zaćmień
Zaćmienia są przewidywane za pomocą metody wywodzącej się z metody opracowanej przez F. Bessela w 1824 roku. Osiem elementów Bessela jest podanych w układzie odniesienia cienia Księżyca, jak wyjaśnił Espenak (1987) oraz w Dodatku wyjaśniającym do Amerykańskich Efemeryd (1992). Elementy Bessela zaćmienia są powiązane z płaszczyzną fundamentalną, prostopadłą do cienia Księżyca i przechodzącą przez środek Ziemi. Współrzędne x, y i z są następnie zorientowane odpowiednio na wschód, północ i równolegle do osi cienia Księżyca. Elementy Bessela to zatem x i y dla cienia, promienie półcienia i cienia na płaszczyźnie fundamentalnej, odpowiednio L1 i L2, kierunek osi cienia na sferze niebieskiej, określony przez deklinację i kąt godzinny odpowiednio d i μ, oraz kąty, pod którymi odpowiednio półcień i cień przecinają oś, f1 i f2. Te elementy Bessela są zestawione w tabelach lub mogą być obliczone za pomocą różnych programów komputerowych. F. Espenak i J. Anderson, dla każdego całkowitego zaćmienia, opracowują publikację referencyjną NASA z tabelami i mapami, przejmując funkcję, która była wcześniej objęta przez US Naval Observatory Circulars. Programy są teraz dostępne nawet dla amatorów, które dokładnie przewidują ścieżki zaćmienia. W szczegółach obliczeń wykorzystano stałą k dla ułamkowego średniego promienia Księżyca i Ziemi, która została empirycznie skorygowana w celu uwzględnienia obserwowanego średniego rozmiaru Księżyca i Słońca. To, czy zaćmienie jest całkowite, zależy przecież od całkowitego pokrycia Słońca przez tarczę Księżyca, podczas gdy zjawisko znane jako koraliki Baily′ego powstaje w wyniku prześwitywania ostatnich fragmentów fotosfery słonecznej przez najgłębsze doliny na krawędzi tarczy Księżyca. Zatem, w zależności od założeń, różne obliczenia dają nieco inne wartości częstotliwości całkowitych zaćmień. Wartość IAU (1982) wynosi k = 0,272 507 6, ale do obliczenia zaćmienia całkowitego lepiej jest użyć niższej wartości k = 0,272 281. Obliczenia uwzględniające libracje Księżyca należy przeprowadzać dla poszczególnych zaćmień. Zaćmienie Słońca to po prostu nów Księżyca ustawiony w szczególnie korzystnej pozycji. Płaszczyzny orbit Księżyca wokół Ziemi i Ziemi wokół Księżyca są nachylone pod kątem 5°. Przecinają się one tylko w dwóch punktach, znanych jako węzeł wstępujący i węzeł zstępujący. Zaćmienie może wystąpić tylko wtedy, gdy Słońce i Księżyc znajdują się jednocześnie blisko węzła. Ponieważ Księżyc nie może opuścić węzła w odstępie pół miesiąca, zawsze występuje zaćmienie Księżyca 2 tygodnie przed lub po zaćmieniu Słońca, chociaż większość z tych zaćmień nie jest całkowita. Te pory zaćmień są od siebie oddalone o 173,3 dnia, co daje rok zaćmieniowy trwający 346,6 dnia. W latach z trzema porami zaćmień może wystąpić łącznie pięć zaćmień Słońca, co nastąpi dopiero w 2206 roku.
Saros
Zbieżność w cyklach Słońca i Księżyca powoduje powtarzanie się zaćmień o mniej więcej tych samych cechach co 18 lat i 11 tysięcy dni - okres nazwany przez Edmonda Halleya "SAROS". Okres ten mógł zostać odkryty przez Babilończyków. Zbieżności jest kilka, w tym: (a) 223 miesiące synodyczne = 6585,32 dni, gdzie miesiąc synodyczny to okres faz Księżyca; 242 miesiące węzłowe = 6585,36 dni, gdzie miesiąc węzłowy (nazywany również miesiącem smoczym, od mitycznego chińskiego smoka, który rzekomo pożerał Słońce podczas zaćmień) to okres, w którym Księżyc przechodzi przez kolejne węzły na swojej orbicie; 239 miesięcy anomalistycznych = 6585,54 dni, gdzie miesiąc anomalistyczny to okres, w którym zmienia się odległość Ziemia-Księżyc; 19 lat zaćmieniowych = 6585,78 dni, gdzie rok zaćmieniowy to dwukrotność odstępu między kolejnymi sezonami zaćmień, czyli 38-dniowego okresu, w którym Słońce i Księżyc znajdują się wystarczająco blisko węzłów, aby mogło dojść do zaćmienia. Koincydencja 223 miesięcy synodycznych = 242 miesięcy węzłowych oznacza, że zaćmienie następuje 6585 tys. dni = 18 lat i 11 tys. dni po poprzednim zaćmieniu. (W zależności od tego, jak wypada rok przestępny, odstęp może wynosić 18 lat i 10 tys. dni lub 18 lat i 12 tys. dni). 1/3 dnia oznacza, że trajektoria kolejnego zaćmienia wynosi 1/3 drogi dookoła globu w stosunku do poprzedniego. Dalsza koincydencja miesiąca anomalistycznego oznacza, że po całkowitych zaćmieniach następują całkowite zaćmienia, a dodatkowo po długich zaćmieniach następują długie zaćmienia po interwale saros i tak dalej. Na przykład seria saros obejmująca najdłuższe zaćmienia (z maksymalnymi czasami trwania zaćmień całkowitych w nawiasach) obejmuje 30 czerwca 1973 r. (7 min 4 s), 11 lipca 1991 r. (6 min 53 s), 22 lipca 2009 r. (6 min 39 s), 2 sierpnia 2027 r. (6 min 22 s) itd. W trakcie tego sarosa średnica Księżyca jest o 8% większa niż Słońca. Kolejne zaćmienia przesuwają się w kierunku szerokości geograficznej, a czas trwania obecnie aktywnej serii sarosa waha się od 1244 do 1514 lat.
Historyczne zaćmienia
Zapisy zaćmień można znaleźć na tabliczkach klinowych ze starożytnej Babilonii oraz w dokumentach z Chin, zawierających dane z tysięcy lat. Najstarszym zachowanym zapisem babilońskim jest zaćmienie z 731 r. p.n.e. Chińskie źródła z czasów dynastii Shang sięgają ok. 1350 r. p.n.e., choć wiarygodne zapisy datowane są dopiero na ok. 700 r. p.n.e. Stephenson (1997) przeanalizował szereg takich starożytnych zaćmień, aby określić tempo obrotu Ziemi, ponieważ to od niego zależy, czy zaćmienie jest całkowite, czy nie w danym punkcie. Starożytne dokumenty często można analizować, aby sprawdzić, czy zaćmienie było całkowite, ponieważ różnica między całkowitymi zaćmieniami a innymi zaćmieniami Słońca jest bardzo duża. Stephenson kontynuuje swoje badania, analizując średniowieczne zapisy europejskie i kroniki arabskie, aby stworzyć wykres długości dnia w czasie, oparty na ponad 400 obserwacjach zaćmień. Stwierdza różnicę w ΔT, czyli różnicy między średnim czasem słonecznym a czasem efemeryd, wynoszącą około 20 000 s w zakresie ponad 2700 lat. Znaczna część zmian w tempie obrotu Ziemi wynika z pływów księżycowych i słonecznych, ale badacz dostrzega również wpływ czynników niepływowych, być może wynikających z postglacjalnego wypiętrzania, wpływającego na spłaszczenie Ziemi. W 500 r. p.n.e. doba była krótsza o około 42 ms niż obecnie, chociaż wykres przedstawia okresowość oprócz trendu. Stephenson szczegółowo omawia każde ze starożytnych sprawozdań i ocenia ich wiarygodność. Na przykład, wiele rzekomych sprawozdań o zaćmieniach dopuszcza alternatywne interpretacje. Prawdopodobnie najsłynniejszym starożytnym zaćmieniem jest to z 28 maja 585 r. p.n.e., które, jak podaje Herodot (zm. ok. 425 r. p.n.e.) (według relacji Pliniusza z I wieku n.e.), zostało przewidziane przez Talesa z Miletu i powstrzymało wojnę między Medami a Lidyjczykami. Wniosek Stephensona jest jednak taki, że Herodot przesadził i że zaćmienia nie można było w tamtym czasie przewidzieć. Stephenson stwierdza, że "pierwszą osobą, która podała prawdziwe wyjaśnienie zaćmień, był Anaksagoras (500-428 p.n.e.)", ale cytuje Neugebauera, który doszedł do wniosku, że zaćmień nie dało się przewidzieć przez setki lat.
Zjawiska zaćmienia
Obliczenia zaćmienia określają czas kontaktów. Pierwszy kontakt to pierwsze spotkanie tarcz Księżyca i Słońca; jest on zauważalny dla obserwatora patrzącego przez filtr gołym okiem w ciągu kilku sekund. Drugi kontakt to całkowite pokrycie fotosfery słonecznej przez Księżyc; oznacza to początek fazy całkowitej. Trzeci kontakt to pierwsze pojawienie się fotosfery słonecznej po fazie całkowitej; oznacza to koniec fazy całkowitej. Czwarty kontakt oznacza odejście tarczy księżycowej od fotosfery. Jest on rzadko obserwowany, ponieważ obserwatorzy często tracą zainteresowanie po wzbudzeniu fazy całkowitej. Przerwa między pierwszym a czwartym kontaktem wynosi zazwyczaj 3 godziny, a może nawet 4 godziny. Przez większość czasu między pierwszym a drugim kontaktem zaćmienie nie byłoby zauważalne dla nikogo, kto nie wiedziałby, że ma miejsce. Jednak przez ostatnie 15 minut przed drugim kontaktem kolor nieba wyraźnie się zmienia, a cienie stają się dziwnie ostrzejsze, ponieważ teraz rzuca je sierp, a nie kula. W ciągu ostatnich kilku minut przed całkowitym zaćmieniem często obserwuje się szybko przesuwające się po krajobrazie pasma cienia, czyli niskokontrastowe zmarszczki światła i cienia. Są one bardzo trudne do sfotografowania i lepiej obserwować je fotoelektrycznie. Ponieważ powstają w wyniku zjawisk zachodzących w górnych warstwach atmosfery ziemskiej, nie interesują one zbytnio heliofizyków, ale fizycy atmosferyczni mogą być nimi bardziej zainteresowani niż zjawiskami słonecznymi, które wkrótce staną się widoczne. W miarę jak sierp księżyca się zwęża, w ciągu ostatniej minuty przed drugim kontaktem zaczyna rozpadać się na pojedyncze koraliki, znane jako koraliki Baily′ego. Nazwa pochodzi od nazwiska angielskiego astronoma Francisa Baily′ego, który zauważył je podczas zaćmienia w 1836 roku, choć wcześniej były już o nich wspominane. W zależności od jakości nieba, korona słoneczna może być widoczna w tym okresie lub nie. Ostatni koralik Baily′ego świeci tak jasno w porównaniu z innymi widocznymi zjawiskami słonecznymi - chromosferą i/lub koroną najgłębszą - że wygląda jak diament na pierścionku i jest znany jako efekt diamentowego pierścienia. Często trwa tylko kilka sekund, ale może trwać prawie minutę, w zależności od głębokości najgłębszej doliny na krawędzi Księżyca, która jest prawidłowo ustawiona, aby przepuszczać światło fotosferyczne. Blask diamentu jest często odzwierciedlany na zdjęciach przez wewnętrzne rozpraszanie w obiektywach aparatów fotograficznych. Wraz ze zmniejszaniem się diamentu, widoczna staje się różowawa, wąska obwódka na Słońcu. Nazwa "chromosfera" pochodzi od jej barwnego wyglądu podczas zaćmień. W zależności od tego, o ile większy jest rozmiar kątowy Księżyca od Słońca, można zobaczyć całą chromosferę na raz lub można zobaczyć tylko jej krawędź natarcia przy drugim kontakcie, a następnie krawędź spływu przy trzecim kontakcie. Różowy kolor pochodzi głównie z Hα i zawiera domieszkę innych chromosferycznych linii emisyjnych. Widma wykonane w tym przedziale czasowym pokazują zanikanie fotosferycznych linii absorpcyjnych i pojawianie się linii emisyjnych chromosferycznych (to znaczy pojawianie się ich nagle), czyli widmo błysków. Wraz ze znikaniem pierścienia diamentowego i chromosfery mamy do czynienia z zaćmieniem całkowitym (rysunek 3). Kształt korony staje się widoczny, z wyraźnymi STRUMIENIAMI KORONALNYMI. Kształt korony zmienia się w trakcie cyklu aktywności słonecznej. Podczas minimum słonecznego większość widocznych smug ma charakter równikowy, a kępki polarne pojawiają się w pobliżu biegunów. Izofoty korony wydają się wydłużone. Podczas maksimum słonecznego smugi są widoczne na większych szerokościach geograficznych, a izofoty korony wydają się niemal okrągłe. PROMINENCJE SŁONECZNE stają się widoczne podczas efektu pierścienia diamentowego i okresu chromosfery, a jeśli są wystarczająco duże, mogą pozostać widoczne przez cały okres całkowitego zaćmienia. Zbyt szybko, w okresie nie dłuższym niż około 7 minut i 30 sekund, a często znacznie krótszym, jaśniejszy obszar korony staje się widoczny, gdy Księżyc przesuwa się przed tarczą Słońca, różowawa chromosfera staje się ponownie widoczna, a drugi pierścień diamentowy pojawia się, oznaczając koniec całkowitego zaćmienia. Pozostałe zjawiska zaćmienia, w tym koraliki Baily′ego, ostatnie sierpy i późniejsze fazy częściowe, następują w odwrotnej kolejności od fazy ingresu.
Bezpieczeństwo podczas zaćmienia
Jasność korony słonecznej podczas fazy całkowitej jest zbliżona do jasności Księżyca w pełni, a korona w fazie całkowitej jest równie bezpieczna do obserwacji. Jednak wpatrywanie się w sierp lub inne fazy częściowe zaćmienia może być niebezpieczne dla wzroku, dlatego należy ostrzegać społeczeństwo, jak bezpiecznie obserwować zaćmienie . Zbyt często dziennikarze i opinia publiczna gubią lub nie rozumieją rozróżnienia między zagrożeniami związanymi z fazami częściowymi a bezpieczną, pełną blasku fazą całkowitą. Często spotyka się powszechne przekonanie, że podczas zaćmienia Słońce emituje pewne szczególne promienie, które sprawiają, że obserwacja, a nawet przebywanie na zewnątrz, jest niebezpieczne. To przekonanie jest oczywiście całkowicie nieprawdziwe; podczas zaćmienia jest mniej wszystkiego, w tym mniej promieniowania słonecznego. Następnie omówimy metody obserwacji faz częściowych zaćmienia; należy pamiętać, że opisane filtry są przeznaczone wyłącznie do faz częściowych lub obrączkowych i należy je usunąć, aby zobaczyć fazę całkowitą. W normalny dzień nie ma się ochoty wpatrywać w Słońce, a odruch mrugania zazwyczaj temu zapobiega. Jednak w fazie częściowego zaćmienia, zainteresowanie ludzi skupia się na Słońcu, a w fazach półksiężyca całkowite natężenie światła słonecznego może być niewystarczające do uruchomienia odruchu mrugania, mimo że intensywność poszczególnych obszarów fotosfery słonecznej, które są nadal widoczne, pozostaje wysoka. Dlatego ludzie powinni obserwować Słońce tylko przez specjalne filtry. Filtry te odcinają całe światło fotosferyczne z wyjątkiem około 1/100 000, redukując fotosferę do poziomu bezpiecznego dla obserwacji. Kluczowym czynnikiem w bezpiecznych filtrach słonecznych, poza ich pochłanianiem lub odbijaniem wystarczającego poziomu natężenia promieniowania słonecznego, jest równomierne rozłożenie tego promieniowania w całym spektrum - czyli ich neutralna gęstość (ND). Przy każdym poziomie gęstości podanym logarytmicznie, filtry przepuszczające tylko 1/100 000 światła mają ND5. Filtry słoneczne wykonane z aluminizowanego Mylaru, powlekanego tworzywa sztucznego, są bardzo popularne i niedrogie. O ile filtry Mylar są nieuszkodzone, bez zagnieceń ani dziurek, można przez nie bezpiecznie patrzeć. Niestety, obecnie często występują w formie okularów, co może kusić do patrzenia w słońce przez nie, zamiast prostych prostokątów do trzymania i patrzenia. Chociaż natężenie światła słonecznego widzianego przez nie zostało zredukowane do bezpiecznego poziomu, nadal dobrym dodatkowym środkiem ostrożności jest unikanie patrzenia w słońce. W przypadku zastosowań teleskopowych, filtry wykonane z chromu osadzonego na szkle przepuszczają odpowiednią ilość światła fotosferycznego, aby fotografować i oglądać fazy cząstkowe, zapewniając jednocześnie obrazy o doskonałej rozdzielczości. Niewielki wzrost transmisji w czerwonym końcu widma często nadaje obrazowi słonecznemu przyjemny odcień. Szkło spawalnicze nr 14 lub nr 15 jest również bezpieczne do oglądania wizualnego lub fotograficznego, chociaż kolor jest zazwyczaj mniej przyjemny. Fotograficzne filtry "ND", takie jak filtry Wrattena, nie są bezpieczne do stosowania podczas zaćmień, ponieważ są przezroczyste w podczerwieni, a nie ND w całym widmie. Podobnie, skrzyżowane polaryzatory również są niebezpieczne. Bardzo bezpiecznym sposobem na obserwację częściowych faz jest kamera otworkowa. Takie urządzenie to nic więcej niż mały otwór, o średnicy około 2 mm-5 mm, w kawałku tektury lub folii aluminiowej (być może przyklejony taśmą do większego otworu w tekturze). Ten mały otwór jest umieszczony około 0,5 m-1 m nad kawałkiem papieru lub tektury, a osoba patrzy na tę drugą powierzchnię, mając Słońce za plecami. Kształt częściowej fazy jest widoczny na tej drugiej powierzchni i jest całkowicie bezpieczny do oglądania. Szczeliny między liśćmi drzew często działają jak własne naturalne otwory, a ziemia lub inne powierzchnie pod drzewami często pokazują wiele obrazów częściowego zaćmienia i jego przebiegu w postaci otworów otworkowych. Analogiczną metodą wykorzystującą przyrząd optyczny jest "projekcja okularowa", w której okular jest wykręcany poza swoją normalną ogniskową i używany do wyświetlania obrazu częściowo zaćmionego Słońca na papierze, tekturze lub innym ekranie. Patrzy się tylko w dół na ekran, nigdy w górę przez teleskop. Chociaż oko nie ulega uszkodzeniu przez sporadyczne, nieuzbrojone spojrzenia na Słońce, które często zdarzają się przypadkowo w ciągu dnia, może zostać natychmiast i trwale uszkodzone przez skupiony obraz Słońca widziany przez teleskop lub lornetkę. Dlatego jeśli teleskop lub lornetka jest używana w trybie obserwacji bezpośredniej, filtr słoneczny musi być bardzo starannie przyklejony taśmą lub w inny sposób zabezpieczony z przodu urządzenia optycznego, aby nie mógł się oderwać ani spaść. Filtry zakładane na okular zawsze są narażone na pęknięcie lub inne uszkodzenia pod wpływem skoncentrowanego promieniowania słonecznego, dlatego są znacznie mniej bezpieczne niż filtry umieszczane na soczewce obiektywu. Obserwacja przez teleskop z odpowiednio dobranym filtrem lub za pomocą projekcji okularowej ma tę przewagę nad kamerami otworkowymi, że pozwala dostrzec plamy słoneczne, które normalnie nie są widoczne na obrazach otworkowych. Wiele osób słyszało o obserwowaniu faz częściowych przez przydymione szkło, uzyskiwane poprzez trzymanie szkła w płomieniu. Ta metoda jest niepożądana ze względu na nierówność powłoki i łatwość jej uszkodzenia. Późniejszą, tradycyjną metodą jest użycie dwóch lub trzech warstw zmatowionego i wywołanego filmu czarno-białego. Dopóki film zawiera srebro, czego nie zawierają wszystkie nowe filmy czarno-białe, i jest całkowicie naświetlony, a następnie wywołany do pełnej gęstości, powinien być bezpieczny w użyciu, ponieważ srebro zapewnia filtr ND. Kolorowe filmy i slajdy są przezroczyste w podczerwieni i nie wolno ich używać jako filtrów. Zaparowane i wywołane filmy rentgenowskie sprawdzają się dobrze, ale należy uważać, aby nie dać się źle zinterpretować podczas udzielania instrukcji, ponieważ słyszałem o kimś, kto używał zwykłych zdjęć rentgenowskich i patrzył przez jasne części, które ukazywały kości. Podobnie, niektóre płyty kompaktowe (CD) działają jak filtry słoneczne, jeśli są wystarczająco gęsto pokryte, ale nowicjuszy należy ostrzec, aby nie patrzyli przez otwór. Zbyt często potrzeba instrukcji dotyczących bezpiecznej obserwacji jest błędnie interpretowana przez władze szkolne lub prasę, sugerując, że należy ostrzec ludzi przed bezpośrednim patrzeniem na zaćmienie. Ponieważ tak wiele uroku obserwowania zaćmienia wynika z szybkich zmian w oświetleniu otoczenia i ekstremalnych kontrastów samych zjawisk zaćmienia, wiele z tego efektu traci się podczas oglądania zaćmienia w telewizji. Liczne są historie o uczniach, którym personel szkolny uniemożliwiał oglądanie zaćmień, co jest szczególnie przykre, ponieważ uczniowie mogą czerpać inspirację z obserwacji takich zjawisk naturalnych. Co więcej, gdy nauczyciele wyolbrzymiają zagrożenia, opowiadając uczniom o zaćmieniach, uczniowie mogą szybko poznać prawdziwą sytuację i żałować, że przegapili to zjawisko. Wtedy stracą zaufanie do nauczycieli i mogą nie słuchać ich rad w innych sprawach, w tym związanych ze zdrowiem, takich jak zażywanie narkotyków czy palenie. Zaćmienie to doskonała okazja do rozpowszechniania informacji naukowych. Ważne jest, aby jak najwcześniej przekazywać rzetelne informacje opinii publicznej i uczniom. Co więcej, ważne jest rozróżnienie między fazami częściowymi (lub obrączkowymi) a całkowitymi zaćmienia. Ponieważ korona ma jasność około 1/1 000 000 jasności fotosfery, nawet jeśli 99% fotosfery jest ukryte, pozostały 1% jest nadal 10 000 razy jaśniejszy od korony. Dlatego też opinia publiczna powinna być świadoma, że tak zwane zaćmienie 99% jest bardzo odległe od całkowitego zaćmienia i że aby zobaczyć ekscytujące zjawiska zaćmienia, musi udać się w strefę całkowitego zaćmienia.
Nauka o zaćmieniach
Jedną z głównych zalet zaćmień Słońca jest to, że koronę słoneczną można obserwować za pomocą najnowocześniejszych instrumentów i z uwzględnieniem najnowszych koncepcji teoretycznych. W związku z tym rodzaje odkryć, które zostały i mogą zostać dokonane podczas zaćmień, zmieniają się z czasem. Ponieważ podczas zaćmień dostępne jest maksymalnie kilka minut fazy całkowitej, zazwyczaj pożądane jest przedłużenie lub kontynuacja obserwacji podczas nadchodzącego zaćmienia. Co więcej, nowe koncepcje dotyczące atmosfery słonecznej mogą sugerować nowe obserwacje. Co więcej, zaćmienia pozwalają określić cykl aktywności słonecznej, a podczas każdego z nich widoczne są różne protuberancje i struktury koronalne. Wyprawy obserwacyjne zaćmień rozpoczęły się w XVIII wieku, a ich rozkwit nastąpił w XIX wieku. Pierwsze zdjęcie koronalne wykonano w Królewcu w 1851 roku. Podczas wyprawy do Hiszpanii w 1860 roku odkryto, że protuberancje są nieodłączną częścią Słońca, a nie artefaktami. Efekt diamentowego pierścienia został po raz pierwszy sfotografowany podczas ekspedycji w 1859 roku, a fotografie z ekspedycji w 1870 i 1871 roku zostały wykorzystane do udowodnienia, że korona jest wewnętrzna dla Słońca poprzez porównanie fotografii z bardzo odległych miejsc. Być może najsłynniejszego odkrycia zaćmienia dokonano podczas zaćmienia w Indiach w 1868 roku. Spektrograf po raz pierwszy ujawnił najjaśniejsze linie emisyjne CHROMOSFERY. Początkowo uważano, że jasnożółta linia to linia D sodu, ale wkrótce zdano sobie sprawę, że została ona przesunięta z dubletu sodu D1-D2 i została nazwana D3. D3 była tak jasna, że została zrealizowana zarówno na podstawie wyników zaćmienia, jak i niezależnie w innych miejscach, dzięki czemu można ją było obserwować poza zaćmieniem. Pierwiastek, który spowodował linię D3 w widmie, został nazwany "hel", od boga Słońca Heliosa, ponieważ wiadomo było, że występuje tylko w Słońcu. Hel został zidentyfikowany na Ziemi dopiero w 1895 roku. Widmo błysków odkryto podczas zaćmienia w 1870 roku, kiedy sądzono, że ujawnia ono "warstwę odwracającą". Począwszy od całkowitego zaćmienia w 1869 roku, odkryto dodatkowe linie emisyjne pochodzące z korony, które, jak mówiono, pochodziły z "koronium". Układ okresowy pierwiastków nie był wówczas kompletny, więc nie było oczywiste, że "koronium" jest pierwiastkiem w mniejszym stopniu niż "hel". W widmach bezszczelinowych, w których jasność chromosfery i/lub samej korony służy do określenia części obrazu, która ma zostać rozproszona, linie emisyjne chromosfery pojawiają się jako łuki, a linie koronalne jako okręgi. Najjaśniejsze linie koronalne w widzialnej części widma, które można było wówczas zbadać, to "zielona linia" przy 530,3 nm i "czerwona linia" przy 637,4 nm. W zakresie widzialnym zidentyfikowano również kilkanaście słabszych linii koronalnych. Źródło tych linii widmowych zidentyfikowano dopiero w 1939 roku i w latach następnych, kiedy to wykazano, że pochodzą one odpowiednio z 13-krotnie zjonizowanego żelaza ([Fe XIV], gdzie stanem neutralnym jest Fe I, a nawiasy kwadratowe wskazują, że linie te są zabronione przez kwantowo-mechaniczne reguły selekcji) i z 9-krotnie zjonizowanego żelaza ([Fe X]). Wynik ten był dowodem, potwierdzającym inne, powszechnie nieakceptowane dowody, że korona jest bardzo gorąca i zawiera gaz o temperaturze milionów kelwinów. Obserwacje Eddingtona i współpracowników podczas ekspedycji na zaćmienie w 1919 roku, które wykazały, że gwiazdy bardzo blisko Słońca są nieznacznie odchylone, zgodnie z przewidywaniami Alberta Einsteina zawartymi w jego ogólnej teorii względności, doprowadziły do akceptacji teorii Einsteina. Słońce znajdowało się w Hiadach podczas zaćmienia, co zapewniało szczególnie bogate tło gwiezdne. Obserwacje zaćmienia w celu przetestowania teorii względności były od tego czasu wielokrotnie powtarzane, a stare dane z 1919 i 1922 roku zostały ponownie przeanalizowane. Obecnie istnieją jednak lepsze metody weryfikacji tych samych zasad, a eksperyment Einsteina nie stanowi już istotnej części badań nad zaćmieniami. Misje rakietowe są czasami przeprowadzane podczas zaćmień. Korona Lymana-alfa została odkryta podczas lotu rakiety, która rejestrowała widma bezszczelinowe podczas zaćmienia w 1970 roku. Obraz Lymana-alfa nie był oczekiwany ze względu na wysoką temperaturę korony, ale nawet przy milionach kelwinów wystarczająca ilość wodoru pozostaje w stanie jonizacji, aby rozproszyć wystarczająco dużo światła fotosferycznego, aby można go było zaobserwować. Korona Lymana-alfa jest obecnie obserwowana z teleskopów na wahadłowcach kosmicznych i satelitach. Inne rakiety do obserwacji zaćmień są przeprowadzane w tym samym czasie co zaćmienia, ale poza fazą całkowitą, w celu porównania z wynikami zaćmień. W tym celu uzyskuje się na przykład zdjęcia rentgenowskie o wysokiej rozdzielczości. Korona obserwowana podczas zaćmienia pochodzi z kilku różnych źródeł. Korona K (od niemieckiego słowa Kontinuierlich) powstaje w wyniku rozpraszania światła fotosferycznego na elektronach koronalnych. W procesie rozpraszania, efekty Dopplera poszerzają widmo absorpcji fotosferycznej do poziomu całkowitego zapomnienia lub prawie całkowitego, i polaryzują światło. Korona F (od Fraunhofera) to światło z fotosfery, które rozprasza się na pyle w przestrzeni międzyplanetarnej. Chociaż pył odparowuje bardzo blisko Słońca, w pobliżu orbity Merkurego znajduje się go wystarczająco dużo, aby wnieść istotny wkład do korony widzianej z Ziemi. To rozproszenie zachowuje widmo absorpcyjne Fraunhofera i nie polaryzuje światła, dlatego widma i pomiary polaryzacji są powszechnie wykorzystywane do "rozdzielenia" korony F i K. Linie emisyjne silnie zjonizowanych cząstek, takie jak koronalne linie zielone i czerwone, można zmierzyć tylko bardzo blisko tarczy słonecznej, tuż nad tarczą księżycową podczas zaćmień. Sam pył można zmierzyć w podczerwieni i jest on czasami nazywany koroną T (od termalnego). Korona F to wewnętrzna część światła zodiakalnego. Ponieważ intensywność korony maleje tak szybko wraz z odległością od krawędzi tarczy słonecznej, około 1000 razy w najgłębszym promieniu słonecznym powyżej krawędzi, zwykła klisza filmowa lub CCD nie są w stanie uchwycić intensywności całej korony na jednym zdjęciu. W związku z tym, w latach 60. XX wieku G. Newkirk opracował metodę, bazując na wcześniejszych pracach Laffineura i innych, polegającą na stworzeniu kamery do zdjęć zaćmienia z filtrem ND o radialnie stopniowanej gęstości, tak aby był najgęstszy w pobliżu krawędzi tarczy i stopniowo zmniejszał gęstość promieniowo na zewnątrz. W ten sposób obraz korony przechodzący przez filtr ma bardziej płaską intensywność niż obraz oryginalny i można go uchwycić na jednym zdjęciu. Dziesięć takich zdjęć wykonano w latach 1966-1998. Filtry radialne były również używane przez innych obserwatorów. Obecnie techniki komputerowe pozwalają na tworzenie podobnych efektów za pomocą wielu obrazów wykonanych z różnymi czasami ekspozycji. Takie obrazy szczególnie dobrze pokazują kształty strumieni koronalnych, a tym samym ujawniają SŁONECZNE POLE MAGNETYCZNE. Chociaż najbardziej wewnętrzna korona była możliwa do obserwacji z niektórych obserwatoriów górskich od czasu wynalezienia koronografu przez Lyota w latach 30. XX wieku, obserwacje te ograniczały się do obszarów bliższych krawędzi niż te widoczne podczas zaćmień. Koronometr K, obecnie znajdujący się w Obserwatorium Mauna Loa, oraz niektóre inne koronografy mogą być teraz używane do obserwacji korony w dalszych rejonach, ale ich możliwości obserwacji koronalnej są nadal ograniczone. Jasność dziennego nieba, nawet na dużych wysokościach z takich miejsc koronalnych jak Mauna Loa czy Haleakala, pozostaje zbyt wysoka, aby przeprowadzić pełen zakres badań koronalnych. Dzięki satelitom słonecznym obserwującym koronę każdego dnia, wkroczyliśmy w nową erę w badaniach zaćmień koronalnych. Nadal istnieją nisze, w których Słońce można lepiej badać z Ziemi niż podczas zaćmienia, a prace naukowe dotyczące zaćmień muszą być ukierunkowane na te badania. Na przykład, obszar przestrzenny w granicach tarczy zakrywającej najgłębszego koronografu SOHO może być obserwowany podczas zaćmienia. Można osiągnąć kadencje zaćmień szybszych niż te dostępne z SOHO, Yohkoh lub TRACE, co ma potencjał rozwiązania problemu MECHANIZMÓW NAGRZEWANIA KORONALNEGO. Co więcej, obszary nakładania się można analizować z obopólną korzyścią dla badaczy zaćmień i kosmosu. Na przykład, instrumenty kosmiczne można kalibrować poprzez porównanie z wynikami zaćmienia, a linie wzbronione widoczne z Ziemi można porównać z liniami dozwolonymi tych samych gatunków jonów obserwowanych z kosmosu. Obserwacje koronalne zaćmienia mogą rozszerzyć obserwacje koronografu LASCO na krawędź tarczy słonecznej, w obrębie dysku zakrywającego LASCO o promieniu 1,8 promienia Słońca (a nawet dysku o promieniu 1,1 promienia Słońca nieczynnego elementu). Porównanie naziemnych obserwacji zaćmienia z wynikami z kosmosu może zwiększyć wartość obu typów obserwacji.
Przyszłe zaćmienia
Całkowite zaćmienia występują mniej więcej co 18 miesięcy , a zaćmienia obrączkowe występują mniej więcej z tą samą częstotliwością . Fazy częściowe są widoczne z odległości tysięcy kilometrów na obrzeżach stref całkowitego lub obrączkowego zaćmienia.
Zaćmieniowe układy podwójne
O zaćmieniowym układzie podwójnym mówimy, gdy gwiazdy z orbitującej pary okresowo przechodzą przed sobą, przyćmiewając w ten sposób światło układu. Jasne gwiazdy zaćmieniowe, takie jak Algol i Aur, wzbudzają zainteresowanie nawet przeciętnych obserwatorów, a wiele z nich znajduje się w zasięgu lornetki. W większości przypadków obie gwiazdy są zaćmione, chociaż zazwyczaj jedno z naprzemiennych zaćmień jest znacznie bardziej widoczne niż drugie, a zaćmienia tylko jednej gwiazdy są możliwe. Istnienia zaćmieniowych układów podwójnych można się spodziewać, gdy uświadomimy sobie, że wiele gwiazd występuje w układach podwójnych1, chociaż to, czy występują one często, czy rzadko, jest kwestią dalszych rozważań i obserwacji. Historycznie rzecz biorąc, odkrycie zaćmieniowych układów podwójnych było jednym z pierwszych dowodów na istnienie układów podwójnych. Chociaż początkowe obrazy mentalne mogą przedstawiać proste gwiazdy sferyczne, szereg interaktywnych zjawisk obejmuje pływy, wiatry, strumienie uderzeniowe, plamy magnetyczne i transfer energii, a wyniki dostarczają weryfikacji, spostrzeżeń i odkryć w dziedzinie struktury i ewolucji gwiazd. Klasy noszą nazwy od prototypów, takich jak liczne układy podwójne RS CVn, Algol i W UMa. Zazwyczaj klasa powstaje wraz z jej rozpoznaniem w kategoriach wspólnych cech obserwacyjnych, po którym następuje kilka fałszywych startów w kierunku zrozumienia. Klasa może osiągnąć dojrzałość, podobnie jak wspomniane klasy, gdy istnieje powszechna zgoda co do jej spójności oraz struktury i ewolucji jej członków - oczywiście z niespodziankami na każdym etapie. Centralnym wątkiem, który prowadzi od klasyfikacji do struktury i ewolucji, jest idea ograniczonych płatów i naturalnych typów morfologicznych wokół nich zbudowanych. W ten sposób powstały układy podwójne oderwane (patrz GWIAZDY PODWÓJNE: ODRĘBNE), półoderwane, nadkontaktowe i podwójnie kontaktowe - nazwy nieco obrazowe, których formalne znaczenie jest omówione poniżej. Koncepcja układu podwójnego zaćmieniowego rozszerzyła się o zaćmienia dysków okołogwiazdowych i przez nie, zaćmienia fluorescencyjnego gazu okołogwiazdowego przez jedną lub obie gwiazdy oraz zaćmienia gwiazd przez osłabiające się obłoki materii okołogwiazdowej . Najbardziej znane wyniki badań układów podwójnych zaćmieniowych to dokładne dane fundamentalne dotyczące mas, jasności i promieni gwiazd (dane MLR), podczas gdy klasyczne zagadnienia dotyczą pochodzenia, struktury, ewolucji i ogólnej natury układów podwójnych, co ma wpływ na nasze rozumienie gromad gwiazd i galaktyk.
Informacje z podwójnych układów zaćmieniowych
Podwójne układy zaćmieniowe zostały odkryte głównie za pomocą przeglądów fotograficznych, a kilka z nich przypadkowo odkryto podczas obserwacji fotoelektrycznych. Można je znaleźć w dużych odległościach, a wiele z nich jest znanych w innych galaktykach, chociaż ograniczenia wielkości gwiazdowych i rozdzielczości przestrzennej wyznaczają praktyczne ograniczenia. Większa strata światła (głębokość zaćmienia) zwiększa prawdopodobieństwo odkrycia i zazwyczaj przekłada się na większą użyteczność astrofizyczną. Orbita jest ustawiona krawędzią do obserwatora, co daje inklinację, i, 90°, a wysoki sin i oczywiście sprzyja głębokim zaćmieniom, podobnie jak duży stosunek wielkości gwiazdy do wielkości orbity. Zaćmienia całkowite (zaćmienie całej gwiazdy) i zaćmienia obrączkowe (zaćmienie tylko pierścienia powierzchni) są sprzyjane przez nierówne rozmiary gwiazd i, oczywiście, wysoki sin i. Zaćmienie całkowite to zaćmienie, które jest albo całkowite, albo obrączkowe, natomiast zaćmienie częściowe nie jest ani całkowite, ani obrączkowe. Najgłębsze zaćmienia występują, gdy gwiazda o największej jasności układu (w danym paśmie fotometrycznym) jest całkowicie zaćmiona, jak w przypadku RW Tau. Zaćmienia obrączkowe, częściowe i zaćmienia gwiazd o niskiej jasności względnej są zazwyczaj znacznie mniej głębokie i mogą być nawet niewykrywalne. Całkowite zaćmienia wykrywalne jedynie w promieniach rentgenowskich mogą wystąpić, gdy normalna gwiazda ma towarzysza w postaci gorącej gwiazdy neutronowej. W przypadku orbit kołowych, gwiazda o wyższej średniej jasności powierzchniowej w obszarze zaćmienia, co zazwyczaj oznacza gwiazdę o wyższej temperaturze powierzchni, musi mieć głębsze zaćmienie. Sytuacja jest bardziej skomplikowana w przypadku układu podwójnego o orbicie ekscentrycznej, gdzie jedno zaćmienie może znajdować się w pobliżu peryastronu i być dość głębokie, a drugie w pobliżu apastronu i być dość płytkie lub nieobecne. Zmniejszenie sin i skraca czas trwania i głębokość zaćmienia, ale tylko nieznacznie dla inklinacji bliskich 90°. Większe redukcje występują, gdy sin i staje się zbyt niski dla całkowitego zaćmienia. Jasność s jest mierzona względem rozsądnie wybranej, stałej gwiazdy porównania, znajdującej się blisko na niebie, podczas gdy przesunięcia Dopplera są mierzone względem widma nieruchomego źródła światła. Krzywe prędkości dla obu gwiazd są zazwyczaj wymagane do uzyskania pełnych wyników dotyczących wymiarów bezwzględnych. Rolę krzywych światła i prędkości można sobie wyobrazić za pomocą zmotoryzowanego modelu skalowanego ze świecącymi gwiazdami. Umieść model na niebie (pokonując trudności praktyczne) w odległości kilku kilometrów i obserwuj jego krzywą światła, która może być nieodróżnialna od krzywej rzeczywistego układu podwójnego. Wykorzystując wiedzę o zaćmieniach i innych efektach fotometrycznych, możemy znaleźć wymiary względne, ale nic na krzywej światła nie mówi nam o małych, bezwzględnych wymiarach modelu. Krzywe prędkości radialnej odnoszą się do rzeczywistych długości i mogą świadczyć o bezwzględnym rozmiarze modelu, ale nie dadzą pełnego obrazu. Dlatego potrzebujemy zarówno krzywych światła, jak i krzywych prędkości, aby uzyskać zarówno informacje o obrazie, w tym o wymiarach względnych, jak i o skali bezwzględnej. Do zjawisk, które sprawiają, że krzywe blasku są wartościowe, należą zniekształcenia pływowe i rotacyjne, wzajemne nagrzewanie, rozjaśnienie grawitacyjne, ściemnienie krawędzi, plamy gwiazd magnetycznych i gorące punkty akrecyjne. Zmiany jasności spowodowane pływami i nagrzewaniem są zbiorczo nazywane efektami zbliżeniowymi. Zwykle są one widoczne na krzywych blasku zaćmieniowego, ponieważ ta sama cecha, która sprzyja zaćmieniom, również wzmacnia pływy i nagrzewanie. Statystycznie, cechą tą jest duży rozmiar gwiazdy w stosunku do odległości orbitalnej, chociaż zniekształcenie pływowe jest bardziej bezpośrednio zależne od rozmiaru gwiazdy w stosunku do rozmiaru ograniczającego płatu. Do około 1970 roku efekty zbliżeniowe były postrzegane głównie jako utrudnienia w analizie zaćmień, podczas gdy plamy nie były powszechnie postrzegane jako rzeczywiste. Wraz z ewolucją myślenia, wszystkie te efekty są obecnie uznawane za cenne wskaźniki fizycznych i geometrycznych właściwości gwiazd podwójnych. Termin "wariacja elipsoidalna" pochodzi od w przybliżeniu elipsoidalnego kształtu gwiazdy zniekształconej pływowo. Jest ona okresowa w okresie orbitalnym, będąc wklęsłą w dół między koniunkcjami i wklęsłą w górę wokół koniunkcji. Oznacza to, że gwiazdy zniekształcone pływowo wydają się najjaśniejsze z boku i najciemniejsze z końca. W dość ekstremalnym przypadku nadmiernego kontaktu, cały układ podwójny ma kształt przypominający hantel. Używa się również terminu "efekt eliptyczności", szczególnie gdy rozróżnia się między zmiennością wynikającą z kształtu (eliptyczność geometryczna) a wynikającym z tego rozkładem jasności powierzchni (eliptyczność fotometryczna). Eliptyczność fotometryczna powstaje z powodu rozjaśnienia grawitacyjnego, gdzie lokalny strumień powierzchniowy zależy od efektywnej grawitacji. Teoria przewiduje, że strumień bolometryczny jest proporcjonalny do efektywnej grawitacji w przypadku radiacyjnego transferu energii i w przybliżeniu do 0,3 potęgi grawitacji w przypadku transferu konwekcyjnego. Pierwsza prognoza pochodzi z teorii TRANSFERU PROMIENIOWANEGO, a druga z numerycznych modeli konwekcyjnych otoczek gwiazdowych. Geometryczne i fotometryczne zmiany jasności mają w przybliżeniu równe amplitudy (przypadek radiacyjny), podobne przebiegi i sumują się do całkowitej zmienności prawie dwukrotnie większej niż wynikająca z samej geometrii . W przypadku konwekcyjnym całkowita zmienność jest tylko nieznacznie większa niż czysty efekt geometryczny. Zmienność elipsoidalna jest największa w przypadku układów podwójnych nadkontaktowych z silnymi pływami i otoczkami radiacyjnymi, takich jak TU Mus, gdzie może osiągnąć amplitudy rzędu 30% średniego światła układu. Amplitudy są dość zauważalnie mniejsze, choć nadal istotne, w przypadku bardzo licznych układów podwójnych nadkontaktowych typu W UMa z głębokimi otoczkami konwekcyjnymi. Wiele układów podwójnych ma sin 1 zbyt niski dla zaćmień, ale nadal wykazuje zmienność elipsoidalną, podobnie jak jasna gwiazda Spica, która zmienia się w ten sposób o około 3%. Zmienność elipsoidalna może również "ukrywać się" przed obserwacją, wpływając jedynie na słaby element, jak w ALGOL, gdzie gwiazda o mniejszej masie ma bardzo duży pływ, ale jasność jej prawie kulistej towarzyszki wynosi zaledwie 2% jasności jej prawie kulistej towarzyszki. Efekt grawitacyjny nie tylko rozjaśnia układ widziany z boku, ale także zmniejsza jasność każdej gwiazdy skierowanej do wewnątrz w stosunku do jej strony skierowanej na zewnątrz, tak że wydaje się ona słabsza w koniunkcji górnej niż dolnej. Amplitudy elipsoidalne są zazwyczaj małe w przypadku orbit ekscentrycznych, ponieważ gwiazdy znajdują się tylko krótko w pobliżu peryastronu, gdzie pływy są najsilniejsze. Fale elipsoidalne stają się bardziej skomplikowane wraz ze wzrostem ekscentryczności orbity, ponieważ pływy są wtedy zmienne i w najlepszym razie quasi-statyczne. Prawdopodobnym przykładem aperiodycznych pływów dynamicznych jest GP Vel, miejsce występowania źródła promieniowania rentgenowskiego Vela X1. Promieniste ogrzewanie każdej gwiazdy przez drugą powoduje efekt odbicia. Reemisja termiczna z czapki odbiciowej po stronie wewnętrznej powoduje podniesienie krzywej blasku wokół koniunkcji górnej, jako część okresowej wariacji, którą można opisać kilkoma członami Fouriera. Należy zauważyć, że ta różnica w koniunkcjach jest przeciwna znakiem do odpowiadającej jej różnicy dla eliptyczności. Typowym ogólnym rezultatem obu efektów odbicia widzianych razem jest wzniesienie wokół zaćmienia wtórnego i wariacji międzyzaćmieniowej, które jest wklęsłe ku górze. (Wklęsłość ku górze jest bardzo subtelna i zazwyczaj jest tłumiona przez wszelkie niewielkie wariacje elipsoidalne). Wzmocnienie w pobliżu zaćmienia wtórnego wynika z tego, że oddzielne efekty odbicia są przesunięte o pół cyklu, a chłodniejsza gwiazda ma większy wpływ. Można by oczekiwać lokalnego zachowania energii w promieniowaniu padającym w porównaniu z reemitowanym, ale teoria i obserwacje wskazują, że napromieniowane gwiazdy z głębokimi otoczkami konwekcyjnymi oszczędzają energię tylko globalnie i reemitują lokalnie około połowę energii padającej. Zatem bolometryczny parametr albedo (lokalnie reemitowana energia)/(energia padająca) wynosi jedność dla otoczek radiacyjnych, ale tylko około 0,5 dla otoczek konwekcyjnych, które mają zmniejszone amplitudy odbicia. Przyciemnienie krawędziowe to zjawisko zależne od długości fali, spowodowane gradientem temperatury w atmosferze gwiazdy i znane z obserwacji Słońca. Zmienia ono kształt i głębokość zaćmienia w sposób, który jest głównie subtelny, ale może być oczywisty w przypadku zaćmień obrączkowych. Krzywe blasku typu RS CVn, BY Dra i niektórych innych kategorii pokazują zmienne fale "plamkowania" spowodowane przez obszary silnie pokryte plamami. W niektórych układach podwójnych te magnetyczne plamy gwiezdne dryfują w długości geograficznej, a ich fale plamkowania migrują równomiernie w fazie, być może nakładając się na zwykłe zmiany elipsoidalne i odbiciowe. Chociaż każdy efekt krzywej blasku ma coś do powiedzenia, zaćmienia zasługują na pierwsze miejsce, ponieważ nawet minimalne zaćmienia znacznie ograniczają możliwe konfiguracje. Fakt ten staje się oczywisty, gdy próbuje się zrozumieć układ podwójny z kilkoma rodzajami zmienności, ale bez zaćmień. Obserwacje wielopasmowe są szczególnie przydatne, gdy temperatury gwiazd znacznie się różnią, ponieważ odpowiednio krótkie i długie fale podkreślają wkład gwiazd gorętszych i chłodniejszych. Parametry, które można wyprowadzić z zaćmień, wymieniono w tabeli 1 wraz z komentarzami. Spośród nich, P, e, ω, M2/M1 i czas odniesienia można również wyprowadzić z prędkości radialnych w odpowiednich okolicznościach, podczas gdy i występuje w parametrach prędkości a1,2 sin i. Zatem i z krzywych blasku pozwala na wydobycie a1 lub a2 z prędkości jednoliniowych lub obu z prędkości dwuliniowych, a tym samym przyczynia się do ustalenia skali absolutnej i mas absolutnych. Istnieje wiele aktywnych badań nad nietypowymi i osobliwymi układami podwójnymi, w których pozyskiwanie informacji może być trudne, ale warte zachodu, ponieważ może wskazać nowe kierunki ewolucji gwiazd. Kwasi-periodyczne i nieregularne zmiany zwracają uwagę na interesujące cechy i historię ewolucji. Na przykład układy podwójne RS CVn zostały po raz pierwszy zauważone dzięki falom krzywej blasku spowodowanym przez magnetyczne plamy gwiezdne, ale ewolucyjne znaczenie układów RS CVn wykracza obecnie daleko poza to zjawisko. Jednak dość regularne zachowanie w czasie czasami stymuluje falowanie badań, gdy doceni się jego implikacje. Gwiazdy układu podwójnego W UM wymieniają energię cieplną przez łączącą szyję, a jednocześnie są niezwykle stabilne i długowieczne. Kwestia ich stabilności wywołała obszerną literaturę na przestrzeni wielu dekad, więc obserwacyjnie proste układy podwójne mogą być teoretycznie skomplikowane. Natura stwarza wielu kandydatów do tytułu najdziwniejszego układu podwójnego, ale β Lyr i ε Aur pozostają czołowymi kandydatami przez większość stulecia. Podzbiory ich obserwacji wydają się pozornie proste, ale proste interpretacje szybko prowadzą do sprzeczności. Układy podwójne łamiące reguły zmuszają nas do ponownego przeanalizowania naszych założeń. Krzywe blasku różnią się również pod względem złożoności, niezależnie od tego, czy ich zachowanie jest zrozumiałe. Niektóre czerwone olbrzymy z małymi, gorącymi towarzyszami (gwiazdy symbiotyczne, zwłaszcza nowe symbiotyczne) wykazują zaćmienia fluorescencyjnych wiatrów gwiazdowych i chromosfer, które wykazują dużą szczegółowość, szczególnie w spektroskopii i fotometrii wielodługościowej. Chociaż fundamentalne zjawisko wydaje się być zrozumiane, wiele dowiadujemy się, dopasowując dobre modele do obserwacji.
Kształty gwiazd i morfologia układów
Rozpraszanie pływowe wciągnęło wiele zaćmieniowych układów podwójnych w ROTACJĘ SYNCHRONICZNĄ (w skrócie: współrotację), co w przypadku orbit kołowych oznacza, że obrót osiowy i obrót orbitalny mają ten sam okres. Ich deformacje pływowe są statyczne w układzie współbieżnym, z rozciąganiem wzdłuż linii środków. Obrót powoduje spłaszczenie biegunów, więc połączony kształt pływowy i obrotowy ma kształt jajka z węższym końcem skierowanym w stronę gwiazdy towarzyszącej, a wymiar biegunowy jest mniejszy niż wymiar boczny. Kształt ten często można przybliżyć za pomocą elipsoidy trójosiowej (modelu geometrycznego), choć nie w bardziej zniekształconych przypadkach. Dzisiejsze modele fizyczne opierają się na płaskich powierzchniach o stałej energii potencjalnej na jednostkę masy, które mogą być większe, mniejsze lub dokładnie odpowiadać pewnym krytycznym powierzchniom, odgrywającym ważną rolę w analizie krzywych blasku, a także w ewolucji układów podwójnych gwiazd. Konfigurację dla współrotacji, w której cały układ obraca się z jedną prędkością kątową, najłatwiej zaobserwować w układzie współbieżnym. Punkt zerowej efektywnej grawitacji musi znajdować się na linii środków między gwiazdami, gdzie grawitacja przeciwnych gwiazd plus siła odśrodkowa sumują się do zera. Oznacza on punkt siodłowy potencjału, z kierunkiem w dół od punktu zerowej grawitacji w kierunku obu gwiazd. Wewnętrzna powierzchnia krytyczna przechodzi przez punkt zerowy i jest największym ekwipotencjalem, jaki gwiazda może wypełnić bez rozlewania gazu na swojego towarzysza. Składa się on z płata granicznego dla każdej gwiazdy, a termin kontakt w morfologii gwiazd podwójnych odnosi się do kontaktu gwiazdy z jej płatkiem, a nie jednej gwiazdy z drugą. Zwykle gwiazda nie może być większa niż jej płat graniczny, ponieważ wtedy szybko traciłaby materię, chociaż istnieją stabilne konfiguracje nadkontaktowe, w których obie gwiazdy przekraczają swoje płaty graniczne, a żadna z nich nie jest chętnym zbiornikiem dla materii z drugiej. Jeśli podkontakt, dokładny kontakt i nadkontakt są odpowiednio oznaczone symbolami U, A i O, to układy podwójne UO i AO są praktycznie wykluczone, z wyjątkiem ekstremalnie krótkich okresów. W przeciwnym razie warstwy pod ciśnieniem byłyby zwrócone w stronę próżni. Kategorie morfologiczne, które są zazwyczaj osiągalne, to: oderwanie (UU), półoderwanie (UA) i nadkontakt (OO). Żaden znany proces ewolucyjny nie prowadzi do przypadku AA w układach podwójnych współbieżnych, a każda ewolucyjna zmiana rozmiaru przekształciłaby AA w UU, UA lub OO. Jednak przypadek AA (podwójny kontakt) prawdopodobnie występuje w układach podwójnych niesynchronicznych, gdy ekspansja ewolucyjna powoduje, że jedna gwiazda wypełnia swój płat, a szybka rotacja powoduje, że drugi płat kurczy się, obejmując swoją gwiazdę. Przykładami mogą być RZ Sct i U Cep. Istnieje również zewnętrzna powierzchnia krytyczna, która oznacza największą powierzchnię, jaką może mieć układ podwójny nadkontaktowy bez katastrofalnego przepływu z "tylnego" punktu zerowej efektywnej grawitacji. Punkt ten znajduje się za mniej masywną gwiazdą na linii środków.
Analiza
Kilka prostych reguł łączy krzywe blasku z charakterystyką układu. Załóżmy, że skala czasu jest w fazie orbitalnej (tj. jest złożona na okres), a skala jasności jest w świetle (a nie w magnitudzie gwiazdowej). Wówczas dla orbit kołowych oba zaćmienia mają równy czas trwania, natomiast dla orbit ekscentrycznych zaćmienie występujące bliżej apastronu jest dłuższe. W przypadku orbit kołowych dla gwiazd sferycznych, sinus połowy czasu trwania fazy każdego z zaćmień, sin Φe jest dolną granicą sumy promieni względnych, z bezpośrednim zastosowaniem, jeśli i = 90°. Uwzględniając nachylenie, zależność wynosi (R1 + R2)/a = (cos2 i + sin2 i sin2 Φe)1/2. Oczywistym jest, że stosunek światła utraconego do światła pozostałego na dnie całkowitego zaćmienia jest zasadniczo stosunkiem jasności mniejszej do większej gwiazdy w danym paśmie obserwacyjnym. Ta reguła staje się praktycznie ścisła w przypadku braku pływów i wzajemnego napromieniowania i pozwala na wyjątkowo dokładne określenie stosunków jasności. Stosunek promieni jest określany najsilniej w przypadku stosunkowo głębokiego zaćmienia obrączkowego, w połączeniu z zaćmieniem całkowitym. Wtedy stosunek utraty światła w zaćmieniu obrączkowym do światła pozostałego w całkowitym jest niemal kwadratem stosunku mniejszych do większych promieni gwiazd, z niewielkimi rozbieżnościami wynikającymi ze ściemnienia brzegów i innych efektów rozkładu jasności. W przypadku orbit kołowych zaćmienia są równomiernie rozmieszczone, o połowę cyklu, podczas gdy w przypadku orbit ekscentrycznych są równomiernie rozmieszczone tylko wtedy, gdy "patrzymy wzdłuż osi wielkiej", przy czym ω = 90° lub 270°. Argument peryastronu ω mówi, jak orbita jest położona pod kątem w swojej własnej płaszczyźnie. Jeśli orbita się obraca (ruch apsydalny), wówczas zaćmienia mają odchylenia wokół punktów cyklu 0,0 i 0,5, które są przesunięte w fazie o 180° (jeden przesuwa się "w lewo", a drugi "w prawo"). Kąta położenia linii węzłowej, , nie można znaleźć na podstawie krzywej prędkości światła lub radialnej, ponieważ żadna z nich nie jest zależna od obrotu układu podwójnego wokół linii widzenia. Można go jednak znaleźć na podstawie zmienności polarymetrycznej dla kilku układów podwójnych. W fizycznym modelu krzywej światła, energie potencjalne grawitacyjne dwóch gwiazd, zwykle uważane za masy punktowe, i energia potencjalna odśrodkowa są dodawane, aby utworzyć całkowitą energię potencjalną na jednostkę masy, Ψ, przy czym
Ψ = Ψ(R, θ, φ, M1, M2, Fr, D). (1)
Tutaj θ, φ to szerokość i długość geograficzna, a M1, M2 to masy. Zwykle pracuje się z wersją bezwymiarową, której jednostką długości jest wielka półoś orbity, a, i w której stosunek mas zastępuje masy bezwzględne. Parametr rotacji Fr i natychmiastowa separacja D uogólniają Ψ na niesynchronizm i orbity ekscentryczne kosztem pewnych, zazwyczaj nieistotnych, przybliżeń. Aby określić powierzchnię gwiazdy, współrzędna radialna R musi podążać za powierzchnią o stałym Ψ. Równanie (1), lub w praktyce forma bezwymiarowa, jest odwracane numerycznie ze stałym Ψ,M2/M1, Fr,D w celu obliczenia względnej współrzędnej radialnej, r = R/a, jako funkcji θ i φ (tj. w celu obliczenia siatki punktów powierzchni). Tak więc równanie (1) definiuje rodzinę powierzchni w parametrze Ψ, z których jedna odpowiada rzeczywistej powierzchni danej gwiazdy, przy czym Ψ1,Ψ21 zastępuje średnie promienie gwiazd modeli geometrycznych jako parametry rozmiaru gwiazdy. Wielkość i kierunek gradientu potencjału, Ψ, odpowiednio określają lokalną efektywną grawitację i orientację powierzchni. Opublikowano wiele schematów całkowania światła z tych powierzchni, uwzględniając zaćmienia i różne efekty jasności powierzchni. Takie obliczenia stały się praktyczne dzięki maszynom z około 1970 roku. Morfologię można włączyć do analizy krzywych blasku. Na przykład, można być dość pewnym, że układ podwójny jest półoddzielony, chociaż omówienie przyczyn przekroczyłoby dostępną przestrzeń. Jeśli tak, potencjał powierzchni gwiazdy kontaktowej nie jest parametrem swobodnym, lecz potencjałem płatu i można go obliczyć z innych parametrów, zwłaszcza ze stosunku mas. Tak zdefiniowana relacja funkcyjna może być wykorzystana do wyeliminowania całego wymiaru nieprawidłowych rozwiązań. Warunek wypełnienia płatu można wykorzystać nie tylko do ogólnej poprawy rozwiązania, ale czasami do określenia konkretnych parametrów, których inaczej nie dałoby się wyprowadzić. Najlepszym przykładem jest fotometryczny stosunek mas. Zazwyczaj oszacowanie stosunku mas wymaga pewnych środków, aby znaleźć względne położenie środka masy, czego nie zapewnia krzywa blasku. Jednakże krzywe blasku układów podwójnych półodłączonych i nadkontaktowych wskazują położenie punktu zerowego efektywnej grawitacji, który jest określany przez stosunek mas. Rozmiar płatu jest ustalony przez warunek, że płat zawiera punkt zerowy. Zatem w układzie podwójnym półodłączonym rozmiar gwiazdy determinuje rozmiar płatu, który z kolei determinuje stosunek mas. W przypadku nadkontaktowego, ogólny kształt hantli (stosunek rozmiarów wybrzuszeń) jest uwarunkowany przez zwężenie jej talii wokół punktu zerowego, więc zasadniczo R2/R1 określa stosunek mas. Powszechnym błędnym przekonaniem jest to, że fotometryczny stosunek mas wynika głównie ze zmienności elipsoidalnej. Jednak prawdziwymi źródłami informacji są zaćmienia, a w szczególności całkowite zaćmienia obrączkowe, które określają dokładne względne wymiary gwiazd. Fotometryczny stosunek mas pozwala na znalezienie wszystkich informacji o masie i wymiarach bezwzględnych, które normalnie wymagają obserwacji prędkości obu składników, nawet jeśli istnieją prędkości tylko jednego ze składników.
Najnowsze i przyszłe osiągnięcia
Pojawiło się nowe źródło danych, będące efektem kilku przeglądów mikrosoczewkowania grawitacyjnego, które automatycznie generują tysiące krzywych blasku. Chociaż precyzja nie jest tak dobra, jak w przypadku danych zbieranych w tradycyjny sposób, a prędkości radialne są niewystarczające, obserwatorzy mogą przeszukiwać krzywe blasku, aby znaleźć interesujące układy podwójne do dokładniejszej obserwacji. Zidentyfikowane w ten sposób pozagalaktyczne układy podwójne zaćmieniowe, a następnie obserwowane za pomocą dużych teleskopów, mogą poprawić stałą Hubble′a. Interferometria gwiazdowa obiecuje nową erę wkraczania w dziedzinę zdominowaną przez układy podwójne zaćmieniowe. W zasadzie obrazy interferometryczne mogłyby zastąpić analizy krzywych blasku, chociaż podstawy i ogólne możliwości potrzebne do typowych, odległych przykładów wydają się wykraczać poza przewidywalne oczekiwania. Jednak znaczne postępy w dziedzinie instrumentów są już w drodze. W bliższej perspektywie zaawansowana interferometria połączy obszary układów podwójnych zaćmieniowych i wizualnych. Chociaż zaćmienia naturalnie postrzega się w kontekście obserwacyjnym krzywych blasku, istnieją bezpośrednie powiązania między zaćmieniami a innymi obserwacjami. Jednym z nich jest rozplątywanie widmowe, czyli obliczeniowo intensywne wykorzystanie zaćmień do izolowania widm splątanych układów podwójnych. Istnieje kilka odrębnych procedur i wszystkie osiągają dobrą separację pozornie beznadziejnie połączonych widm, czasami nawet wtedy, gdy nie ma fazy bez poważnego mieszania. Zasadniczą ideą jest to, że każde zaćmienie moduluje tylko jedno z połączonej pary widm i robi to w znany lub możliwy do określenia sposób. Schematy rozplątywania bardzo skutecznie uśredniają szum losowy, ponieważ nie tylko dopasowują całe okna widmowe (w przeciwieństwie do pojedynczych linii), ale dopasowują wszystkie widma jednocześnie. Inny rodzaj rozwiązania jednoczesnego dopasowuje kombinacje typów obserwacji, takich jak krzywe światła, prędkości i polarymetrii. Główną zaletą jest zmniejszenie liczby parametrów, ponieważ niektóre parametry (np. mimośród, stosunek mas, nachylenie) są wspólne dla dwóch lub więcej typów danych. Kolejnym postępem jest pomiar rotacji z krzywych blasku, a nie z poszerzenia linii widmowej, co czasami jest możliwe, ponieważ rotacja wpływa na kształty gwiazd i rozkład jasności powierzchni, a tym samym na okoliczności zaćmienia. Pominięcia wynikające z ograniczenia objętości są uwzględnione w bibliografii i obejmują zagadnienia tła, takie jak historia, współautorzy, rola komputerów, "nieprawidłowo zachowujące się" układy podwójne, znane klasyczne problemy powiązań z układami podwójnymi spektroskopowymi oraz pełne opisy kategorii układów podwójnych zaćmieniowych. Omówiono również inne metody obserwacji zaćmień, takie jak POLARYMETRIA. W bibliografii wspomniano również o dyskach i innych strukturach okołogwiazdowych, a także o rozciągniętych atmosferach i plamach różnego rodzaju. Jednak właściwe omówienie tych zagadnień, a także egzotycznych nowych odkryć obejmujących białe karły, gwiazdy neutronowe i czarne dziury, można znaleźć jedynie w literaturze ogólnej.
Edukacja
W ankietach przeprowadzonych wśród studentów pierwszego roku kierunków ścisłych na brytyjskich uniwersytetach, astronomia i kosmos wyróżniają się jako dziedziny nauki, które najbardziej przyciągnęły studentów do nauki. Wszechświat ma w sobie coś wspaniałego i inspirującego, co motywuje młodych ludzi, a także tych starszych, do studiowania astronomii w większym lub mniejszym stopniu. Nauki ścisłe są obecnie nauczane praktycznie we wszystkich szkołach. Astronomia jest zazwyczaj traktowana jako dziedzina drugorzędna, ale za ważne uważa się zrozumienie podstawowych faktów astronomicznych, takich jak to, że Ziemia jest kulista, że jej obrót powoduje dzień i noc, że krąży wokół Słońca, a jej nachylenie orbity powoduje pory roku, że żyjemy w galaktyce pełnej gwiazd i że we Wszechświecie istnieją inne galaktyki. Zmotywowani uczniowie mogą w wielu krajach zdawać astronomię jako osobny przedmiot egzaminacyjny; na przykład w Wielkiej Brytanii corocznie w portfolio testów (GCSE) znajduje się praca z astronomii, którą zdaje się w wieku około 15 lat. Zachęca to kandydatów do realnych programów obserwacyjnych, a także do nauki z książek. Co istotne, brytyjski egzamin GCSE obejmuje jedynie najbardziej elementarną matematykę, a astronomia jest przedmiotem ponad matematycznym. Lokalne towarzystwa astronomiczne są nieocenione w edukacji, ponieważ wiele z nich posiada własne obserwatoria i prawie wszystkie organizują programy wykładowe z wykwalifikowanymi prelegentami. Programy te mogą mieć charakter nieformalny lub być zorganizowane jako kurs edukacji dla dorosłych. Oczywiście, obserwatoria publiczne mają ogromne znaczenie, a w niektórych krajach są powszechne i odnoszą duże sukcesy - zwłaszcza w Stanach Zjednoczonych i Japonii. W Wielkiej Brytanii są one rzadkością, być może dlatego, że podczas "nocy publicznej", kiedy udostępniane są teleskopy, niebo jest zbyt często zachmurzone! Obecnie istnieje szereg teleskopów robotycznych do celów edukacyjnych, umieszczonych w dobrych miejscach obserwacyjnych. W Kalifornii najbardziej zaawansowana sieć znajduje się w Obserwatorium Mount Wilson i nosi nazwę Telescopes in Education . Wielka Brytania buduje na Hawajach 2-metrowy teleskop Faulkes Telescope, dostępny dla publiczności. Jednym z najważniejszych osiągnięć jest upowszechnienie planetariów. APLANETARIUM zapewnia "sztuczne niebo"; obserwator siedzi w dużej kopule, a ciała niebieskie wyświetlane są za pomocą specjalnego projektora. Efekt może być niezwykle realistyczny, a w dużym planetarium trudno jest pamiętać, że nie patrzy się na prawdziwe niebo. Na całym świecie istnieją setki planetariów.Jedną z największych zalet planetarium jest to, że jego niebo można przedstawić w sposób, który nie jest widoczny na prawdziwym niebie, z wyjątkiem szczególnych okoliczności, na przykład całkowitego zaćmienia Słońca. Niebo można pokazać takim, jakie będzie o dowolnej porze i z dowolnego miejsca na świecie; podróże w czasie są łatwe - można na przykład zobaczyć niebo takie, jakie było w chwili Ukrzyżowania. Ruchy planet można przyspieszyć, a nawet ruchy własne gwiazd można pokazać, podczas gdy rzeczywiste gwiazdy są tak daleko, że wzory konstelacji pozostają sensownie niezmienione przez okresy wielu wcieleń. Planetaria tradycyjnie opierały się na optomechanicznych urządzeniach projekcyjnych. Najnowsze postępy w technologii komputerowej umożliwiają tworzenie projektorów cyfrowych, sterowanych w niemal nieskończonej różnorodności przez oprogramowanie. Możliwe pokazy są niemal nieograniczone pod względem tematyki i mogą obejmować zarówno czysto rozrywkowe (na przykład symulowane podróże do czarnej dziury), jak i poważnie techniczne (np. nauczanie nawigacji). Wiele uniwersytetów w taki czy inny sposób oferuje astronomię, dzięki czemu stopień można uzyskać albo w "czystej" astronomii, albo w formie modułowej (fizyka i astronomia są ulubionymi) . Około 50 brytyjskich uniwersytetów prowadzi moduły astronomiczne w ramach specjalistycznych kierunków naukowych (tj. połowa z nich). W Stanach Zjednoczonych, gdzie studia wyższe charakteryzują się większą różnorodnością niż w Wielkiej Brytanii, astronomia jest często popularnym wyborem jako element naukowy studiów humanistycznych oraz jako przedmiot specjalistyczny w ramach kierunków ścisłych. Krajowe towarzystwa astronomiczne posiadają podsekcje edukacyjne, takie jak Grupa Robocza ds. Edukacji Astronomicznej Amerykańskiego Towarzystwa Astronomicznego oraz Komitet ds. Edukacji Królewskiego Towarzystwa Astronomicznego. Towarzystwo Astronomiczne Pacyfiku (Astronomical Society of the Pacific) koncentruje się na upowszechnianiu informacji wśród społeczeństwa, w tym poprzez programy edukacyjne. Międzynarodowa Unia Astronomiczna, za pośrednictwem swojej Komisji 46 ds. Nauczania Astronomii, wspiera teleskop objazdowy i letnie szkoły dla studentów astronomii w krajach rozwijających się, gdzie zainteresowanie astronomią rośnie. W Republice Południowej Afryki nowy rząd afrykański wspiera edukację astronomiczną jako sposób na rozwijanie aspiracji mieszkańców RPA w erze nowoczesności. Amerykańskie Stowarzyszenie Edukacji Astronomicznej , brytyjskie Stowarzyszenie Edukacji Astronomicznej (wspierane przez Królewskie Towarzystwo Astronomiczne) oraz Europejskie Stowarzyszenie Edukacji Astronomicznej (z siedzibą w Europejskim Obserwatorium Południowym) oferują wydarzenia i szkolenia dla nauczycieli z zakresu astronomii , z deklarowanym zamiarem unowocześnienia edukacji astronomicznej w szkołach.
Efektywna Skala Temperatury i Poprawki Bolometryczne
Konwersja wielkości obserwacyjnej, takiej jak indeks barwy lub typ widmowy, na efektywną temperaturę (Teff) gwiazdy jest znana jako efektywna SKALĘ TEMPERATURY. Poprawki bolometryczne są wymagane do obliczenia jasności gwiazdy, jeśli strumień promieniowania z gwiazdy nie został zaobserwowany w całym WIDMIE ELEKTROMAGNETYCZNYM. Teff gwiazdy definiuje się jako temperaturę RADIATORA CIAŁA CZARNEGO o tym samym promieniu i tej samej całkowitej mocy wyjściowej (tj. jasności) co gwiazda. W praktyce Teff odpowiada dość ściśle temperaturze widocznej powierzchni gwiazdy. Znajomość dowolnych dwóch z trzech zmiennych: Teff, promienia i jasności, umożliwia obliczenie trzeciej zmiennej. Zatem, aby bezpośrednio obliczyć Teff gwiazdy, konieczna jest znajomość zarówno jasności, jak i promienia gwiazdy. Te dwie wartości można wyznaczyć tylko dla ograniczonej liczby gwiazd. Jasność gwiazdy wymaga znajomości strumienia bolometrycznego gwiazdy (obejmującego promieniowanie w całym spektrum elektromagnetycznym), a zatem wymaga obserwacji z kosmosu i jest dobrze znana tylko dla kilkuset gwiazd. Strumienie są zatem w większości mierzone tylko w ograniczonym obszarze widma - zazwyczaj optycznym. Aby wyprowadzić strumienie bolometryczne z tych pomiarów, wymagana jest poprawka, zwana poprawką bolometryczną. Promień gwiazdy wymaga znajomości średnicy kątowej gwiazdy i odległości do gwiazdy. Ponownie, ta wartość jest znana tylko dla ograniczonej liczby gwiazd. Zatem dla większości gwiazd Teff nie może być określony w sposób fundamentalny. Astronomowie muszą zatem polegać na innych metodach, w tym na pomiarze przybliżonej wartości Teff(na przykład indeksu barwy lub typu widmowego), a następnie znalezieniu sposobu na konwersję z tej przybliżonej wartości do Teff. Ta konwersja nazywana jest efektywną skalą temperatur.
Określenie temperatury efektywnej
Najprostszym sposobem wyprowadzenia skali temperatury efektywnej, tj. konwersji między wielkością obserwacyjną, taką jak indeks barwy B-V lub typ widmowy gwiazdy, a Teff, jest określenie Teff dla jak największej liczby gwiazd w szerokim zakresie temperatur, a następnie powiązanie tych temperatur efektywnych z wartością obserwowaną. Jak określić Teff gwiazdy? Podstawowe temperatury efektywne Podstawowym sposobem wyprowadzenia Teff gwiazdy jest zastosowanie prawa Stefana-Boltzmanna w następującej postaci:
L = 4πσR2T4eff (1)
gdzie L to jasność gwiazdy, σ to stała Stefana-Boltzmanna, a R to promień gwiazdy. Niestety, ani jasności, ani promienia nie można zmierzyć bezpośrednio. Z Ziemi można zmierzyć strumień monochromatyczny, Fv, czyli energię padającą z gwiazdy na jednostkę powierzchni Ziemi w jednostce czasu i w jednostce częstotliwości, oraz średnicę kątową (θD) gwiazdy. Wielkości te można powiązać z Teff w następujący sposób: Jeśli Fv reprezentuje strumień emitowany z powierzchni gwiazdy, a Fv reprezentuje, jak powyżej, strumień z gwiazdy mierzony z Ziemi, to z zasady zachowania energii (pomijając ekstynkcję międzygwiazdową i absorpcję przez atmosferę Ziemi) wynika, że 4πr2Fv = 4πR2F>sub>v, gdzie r to odległość do gwiazdy. Całkowanie strumienia promieniowania Ziemi w całym widmie elektromagnetycznym daje

Fbo, gdzie Fbol jest całkowitym lub bolometrycznym strumieniem promieniowania z gwiazdy, a

W związku z tym
Fbol = (R/r)2σT4 eff .
Obecnie średnica kątowa gwiazdy mierzona z Ziemi wynosi θD = 2(R/r). Zatem ostatecznie
Fbol = ?θ2DσT4eff .
Średnice kątowe można mierzyć dla pobliskich gwiazd za pomocą szeregu technik, w tym optycznej interferometrii fazowo-koherentnej lub amplitudowej, interferometrii intensywności, interferometrii plamkowej i OKULTACJI Księżyca. Możliwe jest określenie rzeczywistych promieni gwiazd na podstawie analizy ZAĆMIENIOWYCH GWIAZD BINARNYCH. Aby określić strumień bolometryczny gwiazdy, jej strumień musi być obserwowany w szerokim zakresie częstotliwości widma elektromagnetycznego. Dla większości gwiazd (poza najgorętszymi gwiazdami) większość strumienia od gwiazdy jest skoncentrowana w zakresie długości fal od ∿100 nm (ultrafiolet) do ∿12 μm (podczerwień). Wymaga to obserwacji z sondy kosmicznej, ponieważ ultrafiolet i znaczna część podczerwieni są silnie pochłaniane przez atmosferę Ziemi. Sondy kosmiczne, które były przydatne w tym zakresie, to International Ultraviolet Explorer (IUE), Sky Survey Telescope na satelicie ESRO TD1, Infra-Red Astronomical Satellite (IRAS), Infrared Space Observatory (ISO) i Hubble Space Telescope (HST).
Poprawki bolometryczne
Jeśli strumień bolometryczny gwiazdy nie został zmierzony bezpośrednio, nadal możliwe jest jego oszacowanie na podstawie strumienia gwiazdowego w znacznie bardziej ograniczonym zakresie długości fal za pomocą poprawek bolometrycznych. Poprawki bolometryczne są zazwyczaj definiowane w postaci wielkości gwiazdowych. Zatem, jeśli MV reprezentuje bezwzględną wielkość gwiazdową gwiazdy zmierzoną w paśmie fotometrycznym V Johnsona, a Mbol absolutną wielkość gwiazdową bolometryczną obliczoną z całego widma, to poprawka bolometryczna (B.C.) jest definiowana jako
B.C. ≡ Mbol - MV (2)
Wówczas jasność gwiazdy można obliczyć z równania

(3)
gdzie wielkości ⊙ odnoszą się do Słońca. Jeśli promień gwiazdy jest znany, to Teff wynika z równania (3) i równania (1). Tabele poprawek bolometrycznych można obliczyć, wykorzystując gwiazdy, dla których dostępne są pełne rozkłady strumienia, lub teoretyczne rozkłady strumienia gwiazdowego. Równanie (2) można zapisać w następujący sposób:

gdzie Sv jest odpowiedzią fotometru dla interesującego pasma długości fali (w równaniu (2), pasma Johnsona V). C1 jest dowolną stałą, która jest zazwyczaj wybierana zgodnie z konwencją. Najczęściej stosowana konwencja wybiera C1 tak, aby B.C.(⊙ ) = -0,07. Inna konwencja wybiera C1 tak, aby minimalne B.C. wynosiło zero, a jeszcze inna ustawia C1 tak, aby B.C.(⊙ ) = ?0,19. Nie ma znaczenia, jaką konwencję (w świetle równania (3), gdzie istotną wielkością jest różnica w poprawkach bolometrycznych Słońca i gwiazdy) - wystarczy zachować spójność. Poprawki bolometryczne są zazwyczaj zestawiane w tabelach względem B-V lub typu widmowego. Po zestawieniu w tabelach względem B-V, B.C. nie wykazuje silnej zależności od typu jasności gwiazdy.
Inne metody wyznaczania temperatury efektywnej
Wiele gwiazd jest zbyt oddalonych, aby zmierzyć ich średnice kątowe i/lub wiele z nich nie zostało odpowiednio zaobserwowanych w ultrafiolecie lub podczerwieni. Dla tych gwiazd dostępne są inne techniki wyznaczania ich temperatur efektywnych, ale nie w sposób fundamentalny. Dla wszystkich gwiazd, z wyjątkiem najgorętszych, obserwowany rozkład strumienia (tj. Fv lub Fλ w funkcji długości fali) gwiazdy można porównać z teoretycznymi rozkładami strumienia z modelu STELLAR ATMOSPHERES. Najlepsze wyznaczenie Teff tą metodą dotyczy gwiazd obserwowanych w szerokim zakresie długości fal. Rysunek 1 przedstawia przykład takiego dopasowania dla gwiazdy β Leo, którą zaobserwowano w ultrafiolecie (za pomocą satelity IUE) oraz w zakresie optycznym i bliskiej podczerwieni za pomocą teleskopów naziemnych. Nawet jeśli gwiazda nie została zaobserwowana poza zakresem optycznym, obserwacje naziemne mogą zostać wykorzystane do uzyskania odpowiedniego dopasowania z teoretycznymi rozkładami strumienia. Ponieważ używane są modele teoretyczne, ta metoda wyznaczania Teff nie może być uważana za fundamentalną; wyprowadzone efektywne temperatury są tylko tak dobre, jak modele. W przypadku bardzo gorących gwiazd (na przykład wczesnych gwiazd typu O) Teff jest tak duża, że maksimum ciągłego strumienia tych gwiazd znajduje się w skrajnym ultrafiolecie, a zatem nawet obserwacje z kosmosu leżą na długofalowym ogonie lub ogonie Rayleigha-Jeansa rozkładów strumienia tych gwiazd, którego nachylenie jest bardzo niewrażliwe na Teff. W przypadku takich gwiazd konieczne jest przyjęcie zupełnie innej techniki szacowania efektywnej temperatury. Technika ta polega na dopasowaniu profili linii widmowych pojedynczo zjonizowanego helu (He II), neutralnego helu (He I) i wodoru do teoretycznych profili linii. Takie porównania wymagają obliczenia modeli atmosfery gwiazdowej innej niż LTE, które uwzględniają wpływ promieniowania rozproszonego z wiatru gwiazdowego na fotosferę, tzw. efekt osłony wiatrowej. Uwzględnienie wpływu osłony wiatrowej może zmienić temperaturę efektywną nawet o 10%. W przypadku braku obserwowanego rozkładu strumienia, pewne cechy widmowe mogą zostać wykorzystane do określenia temperatury efektywnej. Na przykład, w gwiazdach typu B, rozmiar skoku Balmera, nieciągłości w strumieniu gwiazdowym w pobliżu 3650 ? spowodowanej fotojonizacją wodoru, jest wrażliwy na temperaturę. W gwiazdach typu F i G, profile linii Balmera wodoru są dość wrażliwe na Teff. W gwiazdach późnego typu (gwiazdy typu G i K), stosunki głębokości linii wynikające z obecności metali neutralnych mogą być dość wrażliwe na Teff, jeśli jedna z linii ma niski potencjał wzbudzenia, a druga stosunkowo wysoki. W takim przypadku linia o niskim potencjale wzbudzenia szybko rośnie wraz ze spadkiem Teff, podczas gdy linia o wysokim potencjale wzbudzenia rośnie wolniej, a nawet traci na wytrzymałości. Takie techniki mogą dać precyzję temperatury rzędu 20 lub 30 K, chociaż temperatura bezwzględna jest bardziej niepewna.
Skala temperatury efektywnej
Po określeniu temperatur efektywnych wystarczającej liczby gwiazd (najlepiej w sposób fundamentalny), można zestawić zależność między wskaźnikiem temperatury efektywnej, takim jak indeks B-V, a temperaturą efektywną. Jest to znane jako skala temperatury efektywnej. Należy zauważyć, że indeks koloru B-V nie nadaje się do tego celu w przypadku bardzo gorących gwiazd; niewielka zmiana B-V powoduje dużą zmianę Teff. Pewną poprawę można uzyskać, stosując indeks U-B, ale oba podlegają tym samym fundamentalnym ograniczeniom, o których wspomniano powyżej: w przypadku najgorętszych gwiazd obserwacje w zakresie optycznym, a nawet w bliskim ultrafiolecie, leżą zbyt daleko wzdłuż niewrażliwego na temperaturę ogona Rayleigha-Jeansa rozkładu strumienia. Alternatywnie, tabele Teff i poprawek bolometrycznych często sporządza się w odniesieniu do typu widmowego. W przypadku chłodnych, jasnych gwiazd efektywne temperatury nie są jeszcze dobrze określone. W przypadku gwiazd typu B, A i wczesnych gwiazd typu F, Teff i poprawki bolometryczne nie są silnie zależne od klasy jasności.
Zastosowania efektywnej skali temperatur i przyszłe kierunki rozwoju
Prawdopodobnie najważniejszym diagramem w astronomii gwiazd jest DIAGRAM HERTZSPRUNGA-RUSSELLA (HR). W swojej teoretycznej formie diagram ten przedstawia gwiazdy w płaszczyźnie Teff, czyli jasności. W swojej najpowszechniejszej formie obserwacyjnej, znanej również jako diagram barwa-jasność, gwiazdy są przedstawiane w płaszczyźnie indeksu barwy (zwykle B-V), czyli absolutnej jasności widzialnej (MV). Diagram HR to arena, na której toczy się większość współczesnej astrofizyki gwiazd. W szczególności, na diagramie HR nanoszone są ścieżki ewolucji gwiazd i izochrony obliczone na podstawie modeli teoretycznych. Aby porównać te obliczenia teoretyczne z obserwacjami rzeczywistych gwiazd i gromad gwiazd, konieczne jest przeliczenie teoretycznych wielkości Teff i jasności na B-V i MV lub inne podobne obserwowane wielkości. Rzeczywiście, jedną z największych barier rozwoju teorii ewolucji gwiazd jest niedokładność naszej wiedzy na temat efektywnej skali temperatur. Określenie Teff jest często pierwszym krokiem do wyprowadzenia innych fundamentalnych parametrów gwiazdy. Na przykład, znajomość Teff, jasności (z MV i poprawek bolometrycznych za pomocą równania (3)) i grawitacji powierzchniowej, które można określić za pomocą analizy widmowej, prowadzi do wyznaczenia promienia i masy gwiazdy. Wiedza o masie może następnie zostać wykorzystana, w połączeniu z teorią ewolucji gwiazd, do określenia wieku gwiazdy. Efektywne temperatury i poprawki bolometryczne dla najgorętszych i najchłodniejszych gwiazd są nadal niepewne. Nowo wystrzelony satelita FAR ULTRAVIOLET SPECTROSCOPIC EXPLORER (FUSE) (o zakresie widmowym 905-1195 Å) pomaga w lepszym poznaniu rozkładów energii najgorętszych gwiazd, a tym samym może pomóc w określeniu efektywnych temperatur. To, w połączeniu z ciągłym postępem w modelach atmosfer gwiazdowych dla tych gwiazd, powinno doprowadzić do znacznego pogłębienia naszej wiedzy na temat fundamentalnych parametrów tych gwiazd w niedalekiej przyszłości. Określenie fundamentalnych temperatur efektywnych dla najchłodniejszych gwiazd, zwłaszcza gwiazd o wysokiej jasności, prawdopodobnie nadal będzie problematyczne, ponieważ samo zdefiniowanie promienia i teffu w bardzo rozległych atmosferach tych gwiazd jest trudne.
Galaktyki Eliptyczne
Galaktyki eliptyczne to gładkie, spokojne skupiska gwiazd, pozbawione spektakularnych struktur występujących w galaktykach spiralnych (SPIRALGALAXIES). Nie posiadają dysku, struktury spiralnej i jedynie niewielkie ilości gazu i pyłu. W rezultacie nie wykazują widocznych oznak ciągłego formowania się gwiazd: nie ma obszarów H II ani młodych gromad gwiazd. Są to najprostsze układy galaktyczne składające się tylko z jednego komponentu, stosunkowo jasne w centrum, ale szybko słabnące wraz ze wzrostem promienia. Galaktyki eliptyczne występują głównie w gęstszych rejonach Wszechświata, od bogatych gromad po małe grupy; prawdziwie izolowane galaktyki eliptyczne są stosunkowo rzadkie. Rysunek 1 przedstawia centralny obszar gromady Coma, w którym dominuje populacja galaktyk eliptycznych. Najjaśniejsze galaktyki eliptyczne należą do najjaśniejszych galaktyk, jakie znamy, co w połączeniu z ich pozorną prostotą uczyniło je obiektami szczegółowych badań, nie tylko po to, byśmy mogli zrozumieć ich własną ewolucję, ale także po to, by mogły być używane jako świece standardowe do określania odległości. Prosta struktura galaktyk eliptycznych znajduje odzwierciedlenie w ich miejscu w KLASYFIKACJI HUBBLE′A. Charakteryzuje je jedna liczba, eliptyczność ε = 10(1 ? b/a), gdzie b i a to rzutowany kątowy zasięg krótkiej i długiej osi galaktyki na niebie. Galaktyki E5 mają długą oś dwa razy dłuższą niż krótka oś i są niemal najbardziej płaskimi galaktykami eliptycznymi. Niektóre galaktyki zostały sklasyfikowane jako E6 i E7, ale prawie zawsze znajdowano w nich dyski gwiezdne. Ponieważ klasyfikacja zależy od rzutowanego stosunku osi, nie jest to klasyfikacja fizyczna. Przyjmując proste założenie, że galaktyki eliptyczne mają dwie osie długie równe, a trzecia oś krótsza (tj. są spłaszczone, jak mandarynka), Hubble był w stanie odwrócić obserwowany rozkład rzutowanych kształtów, aby oszacować rzeczywisty rozkład. Oszacował, że przeciętnie galaktyki eliptyczne mają oś krótką wynoszącą około 65% długości osi długiej, z dyspersją około 15%. Obraz ten pozostawał aktualny do końca lat 70. XX wieku, ale od tego czasu uległ radykalnej rewizji. W ostatnich latach opracowano próby stworzenia fizycznej klasyfikacji galaktyk eliptycznych oraz nowe metody szacowania ich wewnętrznych kształtów . W tym artykule ograniczę się do omówienia klasycznych galaktyk eliptycznych. Obejmują one najjaśniejsze galaktyki, które są około 40 razy jaśniejsze od Drogi Mlecznej, oraz galaktyki karłowate, które są 100 razy słabsze od Drogi Mlecznej i zazwyczaj towarzyszą masywniejszym galaktykom (np. M32, towarzyszce Mgławicy Andromedy, M31). Nie uwzględnię karłowatych galaktyk sferoidalnych, które czasami, błędnie, nazywane są karłowatymi eliptycznymi. Jasne galaktyki eliptyczne mają mniej więcej takie same kolory jak gwiazdy olbrzymy typu K, co nadaje im żółto-pomarańczowy odcień; mniej jasne galaktyki mają nieco bardziej niebieskie kolory. Pod względem wyglądu i charakterystyki widmowej zgrubienia galaktyk spiralnych przypominają galaktyki eliptyczne o niskiej jasności, a historycznie składnik zgrubienia M31 był uważany za typowy dla galaktyk eliptycznych. Istnieje wiele podobieństw między galaktykami eliptycznymi a galaktykami zgrubionymi, które będę porównywać i zestawiać w tym artykule. W następnej części przedstawię sposoby, w jakie określiliśmy rozkład światła i masy jako funkcję promienia w galaktykach eliptycznych, w tym omówię próby udoskonalenia naszych poglądów na temat wewnętrznych kształtów galaktyk eliptycznych i próby wykrycia ich masywnych ciemnych halo. Następnie omówię szczególne właściwości jąder galaktyk eliptycznych, w których często znajdujemy oddzielne składniki, nawet obracające się w kierunku przeciwnym do masy galaktyki. Omówię również rozległe poszukiwania czarnych dziur w centrach galaktyk eliptycznych. Następnie opiszę, jak dowiadujemy się o ewolucji gwiazd tworzących galaktyki eliptyczne i jak właściwości galaktyk eliptycznych na dużą skalę skalują się ze sobą: jasność, masa, gęstość powierzchniowa, kolor, obfitość pierwiastków ciężkich i rotacja. Na koniec zebrałem wszystkie aspekty galaktyk eliptycznych i przedstawiłem współczesne poglądy na temat tego, w jaki sposób powstały i ewoluowały galaktyki eliptyczne.
Struktura, rozmiar, jasność i masa
Galaktyki eliptyczne zawdzięczają swoją nazwę konturom o stałej intensywności (tzw. izofotom) koncentrycznych elips. Jest to bardzo dobry opis większości galaktyk eliptycznych, ale istnieją drobne, ale istotne odchylenia od tej prostej formy. Wysokiej jakości obrazy pokazują (a) systematyczne zmiany eliptyczności wraz ze wzrostem promienia, przy czym najczęstszą formą jest stały wzrost spłaszczenia, oraz (b) zmianę kąta położenia głównej osi izofotów wraz ze wzrostem promienia. W większości przypadków zmiany te są niewielkie (jedna lub dwie klasy eliptyczności lub kilka stopni), ale w niewielkiej mniejszości mogą być drastyczne. Rozmiary galaktyk eliptycznych mierzy się, dopasowując formę analityczną do spadku jasności (uśrednionego w koncentrycznych pierścieniach kołowych) wraz ze wzrostem promienia: profilu jasności. Najczęściej stosowaną formę zaproponował Gerard de Vaucouleurs w 1948 roku na podstawie zdjęć wykonanych na kliszach fotograficznych. Zaproponował wzór
I(R) = Ieexp{?7,67[(R/Re)1/4 ? 1]} = Ie 10{?3,33[(R/Re )1/4?1]}
gdzie Re, promień efektywny, to promień zawierający połowę całkowitego światła galaktyki, a Ie to jasność powierzchniowa (ilość światła z kwadratowej sekundy łuku galaktyki) w Retot = 7,22πRe2Ie. Prawo de Vaucouleursa, jak wiadomo, doskonale pasuje do wielu najdokładniej określonych profili jasności galaktyk eliptycznych i zapewnia wygodną miarę rozmiaru i całkowitej jasności galaktyk. Promienie efektywne wahają się od ∿20-30 kpc dla galaktyk olbrzymich do setek pc dla najmniejszych. Całkowita jasność w zakresie niebieskim waha się od 100 miliardów jasności Słońca (MB ∿? ?24) do 25 milionów jasności Słońca (MB ∿ ?15). Uogólnienie tego prawa, zaproponowane przez Sersica, które zastępuje potęgę 1/4 innym swobodnym parametrem 1/n , pasuje do szerszego zakresu jasności galaktyk, a dopuszczając n = 1, dobrze pasuje nawet do profilu jasności galaktyk spiralnych. Zaproponowano inne prawa opisujące obecność stałego jądra jasności powierzchniowej w niektórych galaktykach eliptycznych i wyjaśniające rozległe halo o niskiej jasności powierzchniowej występujące w innych. Szczegóły tych praw podano w pracy Binneya i Merrifielda (1998), która stanowi doskonałe źródło do dalszych badań. Oprócz zmian eliptyczności i skręceń izofotycznych, izofoty galaktyk eliptycznych wykazują niewielkie odchylenia od czystych elips, które stały się podstawą bardziej fizycznej klasyfikacji galaktyk eliptycznych. Dokładne określenia pudełkowatej lub dyskowej natury izofotów były konsekwentnie dokonywane, mimo że ich udział w świetle wynosił co najwyżej kilka procent. Zaskakująco wiele właściwości galaktyk eliptycznych różni się w zależności od rodzaju i siły tych zniekształceń izofotycznych, a ostatnie badania łączą dyskowe galaktyki eliptyczne w sekwencji z galaktykami soczewkowatymi, co pozostawia galaktyki pudełkowate jako odrębną klasę. Kinematyka, populacje gwiazd, moc radiowa i emisja promieniowania rentgenowskiego z galaktyk eliptycznych wykazują zależność od kształtu izofoty, a te globalne różnice doprowadziły do sugestii, że te dwa typy galaktyk eliptycznych mają odmienną historię formowania się. Dalsze wskazówki dotyczące historii formowania się galaktyk eliptycznych znajdują się w słabych, niekompletnych powłokach, które zostały zidentyfikowane wokół wielu galaktyk. Te słabe struktury mogą występować nawet w 30% galaktyk eliptycznych i uważa się, że stanowią pozostałość po małej galaktyce dyskowej, która wpadła do galaktyki eliptycznej i uległa zniszczeniu. Określenie profilu jasności to pierwszy krok do obliczenia masy galaktyk eliptycznych. Najprostszym założeniem jest to, że światło podąża śladem masy, a zatem, dla danego założonego kształtu wewnętrznego, obserwowana jasność powierzchniowa (będąca całką wzdłuż linii widzenia z gęstości jasności) jest powiązana z rzutowaną gęstością masy powierzchniowej poprzez stały współczynnik, stosunek masy do światła (M/L) gwiazd.
Kinematyka i kształty wewnętrzne
Pomiary rotacji i losowych ruchów gwiazd w galaktykach eliptycznych przeprowadza się na podstawie przesunięć i szerokości linii absorpcyjnych w widmach galaktyk wzdłuż osi głównej. Ruchy losowe charakteryzują się wartością dyspersji Gaussa, która najlepiej odpowiada szerokości linii absorpcyjnych: dyspersją prędkości, σ. Wczesne pomiary wykazały, że jaśniejsze galaktyki mają szersze linie, tak że całkowita jasność L ∝ σ4. Jest to znane jako zależność Fabera-Jacksona od nazwiska pierwszych naukowców, którzy zwrócili na nią uwagę w 1975 roku. Odkrycie to wzbudziło zainteresowanie wykorzystaniem pomiarów dyspersji prędkości galaktyk do oszacowania jasności wewnętrznej galaktyk eliptycznych, a tym samym do określenia ich odległości. Ta możliwość skłoniła naukowców do przeprowadzenia badań dyspersji galaktyk, co pozwoliło na znacznie lepsze zrozumienie zależności między ich strukturą, dynamiką i populacjami gwiazd, które zostaną omówione w rozdziale "Właściwości globalne". Do końca lat 70. XX wieku zakładano, że spłaszczone kształty galaktyk eliptycznych powstały, ponieważ gwiazdy w płaszczyźnie równikowej są podtrzymywane przez obrót wokół mniejszej osi galaktyki. Jednak gdy tylko udało się zmierzyć prędkości obrotowe najjaśniejszych galaktyk eliptycznych, odkryto, że są one zbyt małe, aby wyjaśnić obserwowane spłaszczenia. Co więcej, po stworzeniu map kinematycznych galaktyk eliptycznych odkryto kilka spektakularnych przykładów znacznego obrotu wokół mniejszej osi. Odkrycie to doprowadziło do ponownej oceny natury galaktyk eliptycznych. Rysunek 3 przedstawia prędkość obrotową, znormalizowaną do centralnej dyspersji prędkości, wykreśloną w funkcji eliptyczności dla jasnych galaktyk eliptycznych, słabszych galaktyk eliptycznych oraz zgrubień galaktyk spiralnych widzianych z boku

Na rysunku przedstawiono również oczekiwaną zależność dla galaktyk spłaszczonych i podtrzymywanych obrotowo. Jasne galaktyki eliptyczne charakteryzują się znacznym niedoborem rotacji. Rotacja jest dynamicznie nieistotna dla jasnych galaktyk eliptycznych; są one wspierane przez przypadkowe ruchy gwiazd. Te przypadkowe ruchy nie są izotropowe, a ta anizotropia powoduje obserwowane spłaszczone figury. Odkrycie to podważyło również założenie, że galaktyki eliptyczne mają spłaszczone kształty i otworzyło możliwość, że mogą być one wydłużone (dwie krótkie osie równe, jak kiełbasa) lub nawet trójosiowe, gdzie wszystkie trzy osie mają różną długość (jak większość ziemniaków). Obecnie uważamy, że większość jasnych galaktyk eliptycznych jest trójosiowa i że obserwowane skręcenie izofotyczne wynika z projekcji na niebo zmieniającego się wewnętrznego stosunku osi do promienia. Hipoteza ta wyjaśnia również rotację czasami obserwowaną na rzutowanej mniejszej osi. Pogląd ten został ugruntowany statystycznie zarówno na podstawie rozkładu obserwowanych kształtów tysięcy galaktyk, jak i obserwacji i modeli kinematyki wielu dziesiątek galaktyk. Średni kształt wewnętrzny jasnych galaktyk eliptycznych jest jednak słabo ograniczony. Większość szacunków jest bliska idealnie trójosiowemu (gdzie oś pośrednia jest średnią długości osi długiej i krótkiej), np. a:b:c::1:0,85:0,7, ze znacznym rozrzutem. Te badania statystyczne sugerują, że galaktyki o kształcie sferycznym występują rzadko, ale na przykład nie mogą wykluczyć rozkładu kształtów wewnętrznych, który jest mieszanką figur spłaszczonych i wydłużonych. Odkrycie, że galaktyki eliptyczne nie są spłaszczane przez swój obrót, ma ważne implikacje dla naszych teorii na temat ich powstawania. Modele, w których izolowane, masywne obłoki gazu zapadają się w sposób dyssypacyjny i szybko tworzą gwiazdy, zawsze prowadzą do powstania galaktyk, które obracają się szybciej niż to obserwowano. Wyniki te wzmocniły pogląd, że formowanie się galaktyk eliptycznych przebiega poprzez sekwencję połączeń (obiektów na nierównoległych orbitach), prowadząc do powstania galaktyki o niskim całkowitym momencie pędu. Rysunek pokazuje również, że mniej jasne galaktyki eliptyczne i zgrubienia galaktyk spiralnych leżą na linii opisującej izotropowe galaktyki spłaszczone lub w jej pobliżu, co dowodzi, że obiekty te wykazują znaczne podobieństwa kinematyczne i różnią się jakościowo od swoich jaśniejszych odpowiedników. Podczas gdy jasne galaktyki eliptyczne mają złożoną strukturę kinematyczną, rysunek pokazuje, że galaktyki eliptyczne o niskiej jasności i zgrubienia galaktyk spiralnych charakteryzują się izotropowymi dyspersjami prędkości i spłaszczonymi figurami w wyniku rotacji. Istnieje wiele innych cech galaktyk eliptycznych, które zmieniają się wraz ze wzrostem jasności .
Anizotropia i stosunek masy do światła
Precyzyjne określenie rozkładu masy w galaktykach eliptycznych wymaga szczegółowych pomiarów ich profilu jasności i kinematyki, a także samospójnych modeli dynamicznych. Z powodzeniem stosowano zarówno modele analityczne oparte na równaniach Jeansa, jak i modele konstruujące galaktyki poprzez wybór orbit z biblioteki (metoda Schwarztschilda) . W przypadku jasnych galaktyk eliptycznych wnioskowanie o rozkładzie masy w galaktyce na podstawie tych danych i modeli jest utrudnione ze względu na degenerację między zmianami stosunku masy do światła (M/L) a zmianami anizotropii orbitalnej gwiazd. Opierając się jedynie na pomiarach rotacji i dyspersji, nie jesteśmy w stanie odróżnić wzrostu stosunku masy do światła (M/L) od wzrostu jednej składowej dyspersji prędkości kosztem innej. Opracowano techniki oparte na pomiarze kształtu profili linii absorpcyjnych, aby przełamać tę degenerację. Kształt linii absorpcyjnych jest determinowany przez rozkład jasności i liczbę gwiazd przy każdej prędkości wzdłuż linii widzenia. W centrum galaktyki wzrost dyspersji może wskazywać na wzrost proporcji M/L lub wzrost udziału orbit radialnych. To ostatnie spowoduje jednak, że profil linii będzie mniej ostry niż w przypadku linii Gaussa. Zatem mierząc odchylenia od profilu Gaussa, a także jego szerokość, możemy określić, czy gwiazdy poruszają się głównie na orbitach stycznych, czy radialnych. Tej niejednoznaczności można całkowicie uniknąć w przypadku galaktyk eliptycznych lub spiralnych o niskiej jasności, ponieważ uważamy, że mają one dyspersję izotropową, co ułatwia określenie rozkładu masy w tych układach. Podobnie, jeśli galaktyki posiadają dyski wzbudzonego lub zjonizowanego gazu, możemy prześledzić rozkład masy w taki sam sposób, jak w przypadku galaktyk spiralnych.
Ciemne halo: masa przy dużym promieniu
Krzywe rotacji galaktyk spiralnych zostały wykorzystane do wykazania, że są one osadzone w ciemnych halo, które zawierają od trzech do dziesięciu razy więcej masy niż jest widoczna w gwiazdach, gazie i pyle. Czy ciemne halo można wykryć w galaktykach eliptycznych? Dyspersja prędkości w wielu galaktykach pozostaje w przybliżeniu stała (poza obszarem centralnym) do jednego lub więcej efektywnych promieni. Czy w miarę jak galaktyki szybko słabną od centrum, oznacza to, że wykrywamy ciemne halo, czy też ułamek gwiazd na orbitach kołowych rośnie wraz z promieniem? W zewnętrznych częściach galaktyki, jeśli na orbitach kołowych znajduje się więcej gwiazd, linie absorpcyjne będą mniej spiczaste niż linie Gaussa i będą miały ścięte skrzydła. W kilku galaktykach eliptycznych, gdzie pomiary rozciągają się do dwóch do trzech efektywnych promieni, profil prędkości linii widzenia został wykorzystany do wyeliminowania możliwości anizotropii stycznej i wskazania obecności ciemnego halo. Podobne wnioski wyciągnięto z prędkości GROMAD KULISTYCH i MGŁAWIC PLANETARNYCH o dużych promieniach w galaktykach eliptycznych. Ważnym narzędziem pomiaru rozkładu masy w dużych promieniach jest gorący gaz emitujący promieniowanie rentgenowskie, który został wykryty w promieniach od pięciu do dziesięciu efektywnych w dużej liczbie galaktyk eliptycznych. Gaz ten jest wzbogacony w ciężkie pierwiastki i uważa się, że pochodzi z gwiezdnego komponentu galaktyk poprzez utratę masy w późnych stadiach ewolucji gwiazd. Zakładając, że gaz ten jest izotermiczny i znajduje się w równowadze hydrostatycznej, możliwe jest oszacowanie masy w promieniach o bardzo dużych promieniach na podstawie rozkładu emisji promieniowania rentgenowskiego. Pomiary te potwierdziły, że galaktyki eliptyczne znajdują się w masywnych halo jakościowo podobnych do halo galaktyk spiralnych. Wraz z pojawieniem się bardziej wydajnych satelitów rentgenowskich, które mogą określać temperaturę gazu rentgenowskiego, proste założenia niezbędne do oszacowania mas zostały potwierdzone dla niewielkiej liczby galaktyk. Do najjaśniejszych galaktyk eliptycznych należą te, które posiadają rozległe (w porównaniu z prawem de Vaucouleursa) halo o niskiej jasności powierzchniowej, znane jako galaktyki "typu D", często spotykane w centrach bogatych gromad, gdy są klasyfikowane morfologicznie jako "galaktyki cD". Oprócz wysokiej jasności i rozległych halo, galaktyki te często mają więcej niż jedno jądro, czyli kilka mniejszych galaktyk nałożonych na obraz centrum galaktyki. Galaktyki cD wydają się być produktem wielu oddziaływań lub fuzji galaktyk gromady z centralną galaktyką dominującą. Podjęto kilka prób zmierzenia kinematyki gwiazd w tych galaktykach o dużych promieniach, aby ustalić stosunek M/L do dużych promieni i określić, czy gwiazdy w halo poruszają się w potencjale gromady. W kilku takich galaktykach obserwujemy wzrost dyspersji prędkości wraz ze wzrostem promienia; Jednakże nie osiągają one rozproszenia klastra ani rozproszenia prędkości oczekiwanego na podstawie prędkości wielu jąder, więc interpretacja tych ruchów pozostaje kontrowersyjna.
br>
Centra galaktyk eliptycznych
Centrum galaktyki to wyjątkowe środowisko. Studnia potencjału jest najgłębsza w centrum, a każdy materiał rozpraszający energię w zderzeniach, taki jak pył lub gaz, opadnie do centrum stosunkowo szybko. W przypadku gigantycznej galaktyki zajmie to maksymalnie kilkaset milionów lat. Galaktyki wszystkich typów wykazują w swoich centrach szczególne zjawiska. Badania centrów galaktyk eliptycznych o wysokiej rozdzielczości za pomocą Kosmicznego Teleskopu Hubble′a często ujawniają skupiska lub dyski pyłu oraz centralne dyski gwiezdne. W centrach czasami znajdują się silne radioźródła, a nawet miejsca powstawania gwiazd. Uważamy, że radiogalaktyki są zasilane przez masywne czarne dziury, w związku z czym centra galaktyk eliptycznych zostały zidentyfikowane jako prawdopodobne miejsca występowania czarnych dziur.
Poszukiwania czarnych dziur
Badania kwazarów i galaktyk o wysokim przesunięciu ku czerwieni ujawniają, że aktywne jądra były znacznie częstsze przy wysokim przesunięciu ku czerwieni (z ?∿ 2), na tyle powszechne, że możemy wnioskować, iż większość jasnych współczesnych galaktyk przeszła fazę aktywności i dlatego powinna zawierać masywną centralną czarną dziurę. Poszukiwania centralnych czarnych dziur rozpoczęły się pod koniec lat 70. XX wieku od obserwacji jasnej radiogalaktyki M87 . Na podstawie szybko rosnącej dyspersji prędkości centralnej wywnioskowano, że w jądrze znajduje się czarna dziura o masie 3 miliardów mas Słońca. Interpretacja tych danych była kontrowersyjna ze względu na niepewność wprowadzoną przez degenerację między anizotropią orbitalną a rozkładem masy. Te ważne obserwacje pobudziły wiele badań nad anizotropią i stabilnością, opracowano nowe modele i przeprowadzono bardziej precyzyjne obserwacje, które zwiększyły naszą pewność co do istnienia masywnej czarnej dziury w M87. W latach 90. XX wieku pomiary prędkości gazu wzbudzonego w pobliżu jądra galaktyki, wykonane przez Kosmiczny Teleskop Hubble′a (HST), wykazały gradient prędkości ±500 km s-1 w centralnych 40 pc galaktyki, co sugeruje masę 2,4 × 109M⊙ zawartą w promieniu 20 pc. Stanowiło to silne potwierdzenie hipotezy o czarnej dziurze, niezależnie od niepewności dotyczących składu orbit gwiazd. Kosmiczny Teleskop Hubble′a (HST) przeprowadził szeroko zakrojone badania obrazowe jąder galaktyk, odkrywając wiele galaktyk z tzw. "rogami gwiazdowymi" (profile jasności, których jasność powierzchniowa stale rośnie do granicy rozdzielczości teleskopu). Odkryto również inne galaktyki z rozdzielonymi jądrami, w których profil jasności osiąga stałą jasność przy skończonym promieniu. Pomiary te są ważne dla oceny wartości dowolnej masy centralnej, ale sam "rogiem" jądra nie może być użyty do stwierdzenia obecności czarnej dziury. W połączeniu z pomiarami kinematycznymi, wykonywanymi głównie z Ziemi, udało nam się odpowiedzieć na bardziej ogólne pytanie dotyczące częstości występowania czarnych dziur w jądrach galaktyk eliptycznych. Szczegółowo zbadano ponad 20 galaktyk. Wyłonił się ogólny trend: masywniejsze galaktyki zawierają masywniejsze czarne dziury. Czarna dziura stanowi około 0,2-0,6% całkowitej masy galaktyki. Ta zależność jest bardzo niepewna i wykazuje rozrzut czynnika trzykrotny w masie czarnej dziury, ale jeśli jest prawdziwa, ma dalekosiężne implikacje (patrz AKTYWNE GALAKTYKI: OBSERWACJE). Jednak nie wszystkie galaktyki są wymagane przez obserwacje, aby zawierać czarną dziurę.
Rdzenie kinematycznie odsprzęgnięte
W miarę jak pomiary prędkości obrotowych i dyspersji prędkości były wykonywane z większą rozdzielczością i precyzją, coraz większa liczba galaktyk charakteryzowała się kinematyką centralną odsprzęgniętą od kinematyki głównej części galaktyki. Najbardziej spektakularne przykłady pokazują, że obszar centralny (zwykle 0,1-0,3Re) obraca się w kierunku przeciwnym do reszty galaktyki, niektóre mają jądra obracające się wokół osi o mniejszym odchyleniu, a w jeszcze innych jądra charakteryzują się znacznie większą rotacją i niższą dyspersją prędkości niż galaktyka główna. To ostatnie sugeruje obecność centralnego dysku osadzonego w galaktyce eliptycznej. Składniki te często występują w mniej jasnych galaktykach eliptycznych wraz z dyskowymi izofotami i wierzchołkami gwiazd. Oprócz tych rozległych składników, badania jąder galaktyk za pomocą HST ujawniły wiele małych (100 pc) składników dysku w galaktykach eliptycznych. Oddzielona kinematyka nie ogranicza się do galaktyk eliptycznych. Znaleziono jeden wczesny typ GALAKTYKI DYSKOWEJ, w którym dwa identyczne, współrozległe dyski obracają się z tą samą prędkością, ale w przeciwnych kierunkach! Chociaż początkowo takie oddzielone układy uważano za rzadkie, biorąc pod uwagę efekty projekcji i trudności w wykrywaniu małych lub słabych komponentów, obecnie uważamy, że od jednej do dwóch trzecich wszystkich galaktyk eliptycznych ma rozległe komponenty centralne o oddzielonej kinematyce (tj. o średnicy około kiloparseka i odkryte z Ziemi). Najbardziej prawdopodobnym źródłem oddzielonych komponentów centralnych w galaktykach eliptycznych wydaje się być akrecja materiału o innym właściwym momencie pędu niż moment pędu głównego ciała galaktyki. Istnienie oddzielonych jąder jest powszechnie uznawane za dowód na to, że galaktyki eliptyczne doświadczały w przeszłości znacznych akrecji; Jednakże kolory, metaliczność i wiek populacji gwiazd wydają się być nieodróżnialne od tych z samej galaktyki głównej. Do możliwego pochodzenia tych składników powrócimy w ostatniej części.
Populacje gwiazd
W Drodze Mlecznej wykorzystaliśmy koncepcję POPULACJI GWIAZDOWYCH jako ważne narzędzie w odkrywaniu historii naszej Galaktyki. Chcielibyśmy rozszerzyć te idee na galaktyki zewnętrzne. Barwy i natężenia linii absorpcyjnych zmierzone w widmach zintegrowanego światła galaktyk eliptycznych są dość podobne do tych z zgrubienia Drogi Mlecznej. Takie rozważania doprowadziły nas do przekonania, że galaktyki eliptyczne to stare, pojedyncze populacje gwiazd, pozbawione procesów gwiazdotwórczych, które obecnie są w dużej mierze uśpione. Najstarsze gwiazdy w Drodze Mlecznej znajdują się w populacji gromad kulistych. Galaktyki eliptyczne posiadają populacje gromad kulistych proporcjonalnie do ich jasności (patrz GROMADY KULISTE), a barwy tych populacji sugerują, że znaczna ich część jest tak stara jak gromady kuliste w Drodze Mlecznej, tj. najstarsze gwiazdy w galaktykach eliptycznych są tak stare, jak najstarsze gwiazdy w naszej Galaktyce. Nawet najbliższych jasnych galaktyk eliptycznych nie da się rozdzielić z Ziemi na pojedyncze gwiazdy, a jedynie garstka z nich jest w stanie rozróżnić się za pomocą teleskopu HST, dlatego jesteśmy zmuszeni do próby rozszyfrowania zintegrowanego światła wszystkich gwiazd. Analizując zintegrowane widmo, staramy się odkryć, jakie rodzaje gwiazd tworzą galaktykę eliptyczną. Osiągamy to, wykorzystując bibliotekę widm gwiazdowych lub modelowe atmosfery gwiezdne obejmujące zakres jasności i efektywnej temperatury. Łączymy je, wykorzystując naszą wiedzę o względnej liczbie gwiazd w populacji o określonym wieku i metaliczności, opartą na modelach ewolucyjnych . W ten sposób podejmujemy próbę syntezy obserwowanego zintegrowanego widma znanych składników gwiezdnych. W zakresie optycznym (λ = 0,5 μm) stwierdzamy, że około połowa światła pochodzi od gwiazd ciągu głównego, a połowa od gwiazd olbrzymów, ale galaktyki eliptyczne mają nadmiar światła w bliskiej podczerwieni (λ = 1-2 μm) i ultrafiolecie (λ = 0,2 μm). Pierwsze można przypisać gwiazdom o wyższej zawartości metali niż Słońce, podczas gdy drugie prawdopodobnie powstają z gwiazd skrajnej gałęzi horyzontalnej . Oba typy nie występują w lokalnych bibliotekach gwiazd. Chcielibyśmy wywnioskować historię formowania się gwiazd galaktyk eliptycznych na podstawie ich zintegrowanych widm, ale przypisanie unikalnego wieku i metaliczności do galaktyki eliptycznej za pomocą tej techniki okazało się niezwykle kłopotliwe. Wynik zwiększenia wieku gwiazd w modelach jest bardzo podobny do wyniku zwiększenia ich metaliczności; oba powodują, że widma są bardziej czerwone i zwiększają siłę linii absorpcyjnych. W ostatnich latach techniki wykorzystujące siłę linii Balmera wodorowych jako wskaźniki wieku umożliwiły oddzielne określenie wieku i metaliczności, a wstępne zastosowania tych metod sugerują, że galaktyki eliptyczne w bogatych gromadach tworzą stałą sekwencję wieku (powiedzmy około 10 mld lat temu), z metalicznością wahającą się od trzykrotności wartości Słońca w najjaśniejszych galaktykach do jednej trzeciej wartości Słońca w tych 100 razy słabszych. Próbki galaktyk pobrane z obszarów o niższej gęstości wykazują znacznie szerszy zakres wieku, a niektóre mają wiek ważony jasnością wynoszący zaledwie 2 mld lat temu! Objawy młodej populacji gwiazd (<5 mld lat temu) są łatwiejsze do wykrycia, ponieważ młodsze gwiazdy są znacznie jaśniejsze (w przeliczeniu na jednostkę masy) niż gwiazdy starsze, więc nawet niewielki ułamek masy może znacząco zmodyfikować zintegrowane widmo galaktyki eliptycznej. Wyniki te sugerują zależność środowiska od historii formowania się gwiazd w galaktykach eliptycznych, tak że galaktyki w gęstych obszarach powstały całkowicie we wczesnych epokach, podczas gdy w mniej gęstych obszarach proces formowania się gwiazd trwał nadal (być może angażując jedynie niewielką część całkowitej masy) aż do niedawna. Wraz z pojawieniem się teleskopów HST i dużych teleskopów naziemnych możliwe stało się obserwowanie galaktyk o dużym przesunięciu ku czerwieni z wystarczającą szczegółowością, aby ocenić, jak zmieniały się one przez znaczną część wieku Wszechświata, a tym samym bezpośrednio zmierzyć ewolucję galaktyk.
Właściwości globalne
Prawie wszystkie właściwości fizyczne galaktyk eliptycznych zmieniają się płynnie wraz ze wzrostem jasności. Omówiłem już, jak stopień wsparcia rotacyjnego maleje wraz ze wzrostem jasności, co stanowi fundamentalną różnicę w budowie orbitalnej słabych i jasnych galaktyk eliptycznych. Tendencję tę odkryto dopiero dzięki szczegółowym badaniom kinematyki dziesiątek galaktyk eliptycznych. Chociaż praca ta staje się łatwiejsza dzięki rozwojowi spektrografów obszarowych, takich jak SAURON, wiele galaktyk zostało scharakteryzowanych za pomocą widm z pojedynczego centrum. Pomiary te doprowadziły do odkrycia szeregu globalnych zależności między właściwościami, które można łatwo zmierzyć dla setek galaktyk. Co ciekawe, istnieją ścisłe korelacje między parametrami mierzonymi lokalnie w centrum galaktyki, takimi jak dyspersja prędkości, a parametrami globalnymi, takimi jak rozmiar i jasność. Podsumowuję te globalne zależności tutaj. Stanowią one podstawę naszej wiedzy o tym, jak powstały i ewoluowały galaktyki eliptyczne.
Zależność barwy od jasności
Najjaśniejsze galaktyki eliptyczne są nieco bardziej czerwone niż najsłabsze. Jest to niewielki efekt, ale charakteryzuje się bardzo małym rozrzutem (kilka setnych wielkości gwiazdowej) i jest dobrze znany w pobliskich gromadach galaktyk. Toczyła się debata nad pochodzeniem tego efektu: czy wynika on z wyższej średniej zawartości metali w jasnych galaktykach, czy też są one średnio starsze? Zależność barwy od jasności zaobserwowano jako ścisłą korelację w gromadach o przesunięciach ku czerwieni powyżej 0,5, co sprawia, że interpretacja w kategoriach zmian wieku jest mało prawdopodobna. Wynik ten został potwierdzony w przypadku gromad, a najprostszym założeniem jest to, że zależność barwy od jasności jest uniwersalna, co jednak nie zostało jeszcze udowodnione. Uważamy, że efekt barwy od jasności powstaje, ponieważ głębsze studnie potencjału jasnych galaktyk mogą skuteczniej zatrzymywać metale powstałe w wyniku wybuchów supernowych.
Relacja Mg-σ.
Ta korelacja obejmuje siłę cech absorpcji magnezu przy długości fali 0,52 μm oraz dyspersję prędkości gwiazdowej σ. Galaktyki z dyspersją o dużej prędkości mają silniejsze linie absorpcyjne magnezu. (Jest to najlepiej opracowana korelacja, ale wykorzystano również inne natężenia linii absorpcyjnych). Ta relacja charakteryzuje się również bardzo małym rozrzutem, <0,02 magnitudo, a ponieważ jest to korelacja niezależna od odległości, można uwzględnić galaktyki z szerszego zakresu środowisk. Ponownie, korelacja może wynikać ze zmian wieku lub metaliczności, ale pomiary w bogatych gromadach do z = 0,4 są zgodne z lokalną zależnością zmienioną jedynie przez ewolucję gwiazd zachodzącą w tym przedziale czasowym (około 4 mld lat). Sugeruje to, że korelacja powstaje, ponieważ galaktyki o wysokiej dyspersji ? są bogate w metale. Testy tej relacji w różnych środowiskach galaktycznych nie wykazały żadnych systematycznych różnic.
Relacja Fabera-Jacksona i płaszczyzna fundamentalna
Wcześniej przedstawiłem relację Fabera-Jacksona: wzrost dyspersji prędkości centralnej wraz z jasnością, L ∝ σ4. W latach 80. XX wieku przeprowadzono przeglądy galaktyk eliptycznych w celu pomiaru ruchów galaktyk innych niż ruchy Hubble′a. Korzystając z zebranych danych wysokiej jakości, stało się oczywiste, że dodatkowy parametr, jasność powierzchniowa galaktyki, zwiększa precyzję relacji L, σ4 jako wskaźnika odległości. W ten sposób nowa relacja, znana jako "płaszczyzna fundamentalna", zastąpiła relację L, σ4. Relacja płaszczyzny fundamentalnej ma postać:
log Re = 1,25 log σ? + 0,33 SBe + stała.
Właściwości strukturalne
Wiele właściwości strukturalnych płynnie zmienia się wraz z jasnością lub dyspersją prędkości centralnej. Omówiłem już większość z nich, ale tutaj je zestawię. Statystycznie, duże, jasne galaktyki eliptyczne o wysokiej dyspersji prędkości mają wyższą jasność w promieniowaniu rentgenowskim, zawierają silniejsze źródła radiowe, mają trójosiowe figury i anizotropowe rozkłady prędkości oraz mają pudełkowate izofoty i płaskie profile jasności centralnej. Z kolei małe galaktyki eliptyczne o niskiej jasności i spiralne wybrzuszenia mają niższą jasność w promieniowaniu rentgenowskim i radiowym, mają spłaszczone figury i izotropowe rozkłady prędkości oraz dyskowate izofoty i kanciaste profile jasności centralnej. Różnice te wykorzystano do argumentacji, że galaktyki jasnego pudełka i słabego dysku powstały i ewoluowały inaczej i powinny być częścią odrębnych sekwencji morfologicznych. Hipoteza ta jest atrakcyjna, ale nie wyjaśnia jeszcze, w jaki sposób dwie fizycznie odrębne klasy podlegają tym samym relacjom barwa-jasność, FP i Mg-σ jeśli rzeczywiście dokładne badania to wykażą.
Zależność między morfologią a gęstością
Galaktyki eliptyczne występują stadnie i najczęściej występują w regionach o dużej gęstości galaktyk. Mieszanka typów morfologicznych galaktyk jest silną funkcją środowiska. W bogatych gromadach około 40% galaktyk to galaktyki eliptyczne, kolejne 50% to galaktyki soczewkowate, a pozostałe 10% to galaktyki spiralne. W środowiskach o mniejszej gęstości odsetek galaktyk eliptycznych drastycznie spada, podczas gdy odsetek galaktyk spiralnych rośnie. W środowiskach o najniższej gęstości mniej niż 10% galaktyk jest klasyfikowanych jako eliptyczne, a galaktyki spiralne i soczewkowate występują w mniej więcej równych proporcjach. Tę samą analizę przeprowadzono dla gromad galaktyk o z ∿ 0,4 sfotografowanych przez Teleskop Hubble′a (HST). Galaktyki eliptyczne nadal dominują w populacji galaktyk w bogatych gromadach przy z ∿ 0,4, ale odsetek galaktyk soczewkowatych spadł do 20%, a galaktyki spiralne stanowią 30% populacji bogatych gromad. Jest oczywiste, że w bogatych gromadach populacja galaktyk eliptycznych jest już obecna przy z ∿ 0,4, ale galaktyk wczesnego typu z dyskami jest znacznie mniej niż obecnie w bogatych gromadach.
Jak i kiedy powstały galaktyki eliptyczne?
Uważamy, że rozmieszczenie galaktyk odzwierciedla wielkoskalową strukturę ciemnej materii, a halo ciemnej materii galaktyk układają się hierarchicznie, przy czym najmasywniejsze halo powstają najpóźniej. Tylko poprzez zrozumienie zachowania barionów w tych halo możemy mieć nadzieję na zrozumienie ewolucji jasnych galaktyk, które obserwujemy. Wysokie zagęszczenia centralne i rozluźniona struktura galaktyk eliptycznych są traktowane jako mocny dowód na to, że podczas formowania uległy one znacznemu rozproszeniu gazu. Ponadto niewielki rozrzut obserwowany w ich globalnych relacjach sugeruje, że są one stare (z przesunięciem ku czerwieni większym niż z = 2-3) i równowiekowe. Rozważania te doprowadziły do powstania modeli, w których galaktyki eliptyczne powstają poprzez dyssypatywne zapadnięcie się masywnego obłoku gazu, skutkujące potężnym wybuchem gwiazd, który przekształca niemal cały gaz w halo w gwiazdy jednocześnie, powiedzmy 10 miliardów lat temu. Najnowsze pomiary w zakresie fal submilimetrowych wykryły masy galaktyczne chłodnego pyłu o z = 2-3, które formują gwiazdy w bardzo szybkim tempie. Te submilimetrowe źródła zostały zidentyfikowane jako prekursorzy najjaśniejszych gromad eliptycznych, jakie obserwujemy obecnie. Jednak modele pokazują, że monolityczne zapadanie się masywnego obłoku gazu powoduje nierealistycznie szybką rotację w produkcie końcowym, a ponadto zapadanie się masywnych obiektów przy wysokim przesunięciu ku czerwieni wydaje się przeczyć hierarchicznemu porządkowi powstawania galaktyk. Te wady doprowadziły do alternatywnych sugestii, że galaktyki eliptyczne powstały w wyniku sekwencji łączenia się galaktyk. Istnieje wiele dowodów empirycznych na to: niskie prędkości rotacji, odsprzęgnięte jądra i powłoki są naturalną konsekwencją akrecji i łączenia. W alternatywnym modelu galaktyki dyskowe łączą się, tworząc galaktyki eliptyczne podczas formowania się grup i gromad galaktyk. Teoretyczne badania fuzji galaktyk z wykorzystaniem technik n-ciałowych z powodzeniem wykazały, że galaktyki dyskowe ulegające fuzji produkują galaktyki eliptyczne o profilach jasności zgodnych z prawem de Vaucouleursa i niskich prędkościach rotacji. W symulacjach kosmologicznych większość gwiazd tworzących współczesne galaktyki eliptyczne powstaje w wyniku fuzji, które zazwyczaj zachodzą przy z = 1-2. Masa i jasność galaktyk nadal rosną w wyniku fuzji, aż do momentu, gdy gromadzą się w masywnych gromadach, gdzie typowe prędkości galaktyk stają się tak duże, że fuzje są hamowane. Ten scenariusz wyjaśnia, dlaczego galaktyki eliptyczne występują głównie w obszarach o dużej gęstości i przewiduje, że średnio galaktyki eliptyczne w bogatych gromadach będą starsze (w sensie wieku ważonego jasnością) niż te w obszarach o mniejszej gęstości. Te dwa mechanizmy formowania przewidują różne rozkłady wieku galaktyk eliptycznych, szczególnie w zależności od środowiska galaktycznego. Chcielibyśmy wywnioskować historię formowania się gwiazd w galaktykach eliptycznych na podstawie ich zintegrowanych widm, w szczególności aby odróżnić hipotezy, że gwiazdy powstały w pojedynczym zdarzeniu przy wysokim przesunięciu ku czerwieni, z > 2 ? 3, od hipotez, że formowanie się gwiazd było znacznie bardziej rozciągnięte, być może z pewnymi zmianami zachodzącymi przy z 1. Takie testy są w toku. Sugerowano, że dwa typy galaktyk eliptycznych, jasne pudełkowate i słabe dyskowe, mogą mieć różne historie ewolucyjne, przy czym galaktyki jasne pudełkowate powstały głównie w wyniku łączenia się bez dyssypacji, które prowadzi do powstania trójosiowych galaktyk anizotropowych. Wiek ważony jasnością tych dwóch typów galaktyk eliptycznych nie został jeszcze określony. Potężne teleskopy, którymi dysponujemy obecnie, w szczególności Teleskop Hubble′a (HST), umożliwiły nam bezpośrednie badanie ewolucji galaktyk eliptycznych. Od ponad dwóch dekad wiemy, że odsetek niebieskich galaktyk w bogatych gromadach o wysokim przesunięciu ku czerwieni (z = 0,5) jest znacznie wyższy niż w gromadach lokalnych. Teleskop Hubble′a ujawnił ten niebieski nadmiar w galaktykach dyskowych i ustalił, że przy z = 0,5 galaktyki eliptyczne już się uformowały. Wydaje się bardzo prawdopodobne, że te masywne gromady eliptyczne rzeczywiście powstawały szybko i wcześnie przy z > 3, a formowanie się gwiazd zakończyło się przed z = 1. Być może okaże się, że galaktyki eliptyczne w środowiskach o niższej gęstości doświadczyły bardziej wydłużonej i niedawnej serii połączeń, co da im młodszy średni wiek. Taki scenariusz formowania się galaktyk eliptycznych opiera się na hipotezach zarówno o monolitycznym kolapsie, jak i o połączeniach, dotyczących pochodzenia galaktyk eliptycznych, ale już teraz stoi w wyraźnej sprzeczności z pomiarami empirycznymi.
Zagrożenie środowiskowe dla astronomii
Astronomia ma to szczęście, że należy do nauk, które obecnie dokonują istotnych postępów w zrozumieniu, wspieranych przez znakomitą, zaawansowaną technologię. Pozyskiwane są rewolucyjne nowe dane, które radykalnie wpływają na nasze ukochane koncepcje, od Układu Słonecznego po głębiny Wszechświata. Niestety, stan astronomii u progu XXI wieku nie napawa bezgranicznym optymizmem, ponieważ ta sama technologia, która przyniosła obecny, bezprecedensowy postęp naukowy, jest również zdolna do wyrządzenia katastrofalnych szkód astronomii obserwacyjnej - sile napędowej nauki astronomicznej. Astronomia obserwacyjna zajmuje się wykrywaniem ekstremalnie słabego promieniowania elektromagnetycznego emitowanego przez obiekty kosmiczne. Ograniczenie natężenia, które można zaobserwować, zależy od natężenia szumu tła, na tle którego wykrywane jest promieniowanie. Naturalne tła są słabe (z wyjątkiem podczerwieni), dlatego niewielkie zwiększenie poziomu naturalnego tła znacznie podniesie poziom detekcji najsłabszych obiektów. Duże tła będą katastrofalne dla wszelkich poważnych badań astronomicznych. Działalność ludzkości powoduje znaczny wzrost tła astronomicznego na wiele różnych sposobów.
Zanieczyszczenie elektromagnetyczne
Zanieczyszczenie elektromagnetyczne w zakresie fal radiowych Przeciętny telefon komórkowy, jeśli znajduje się w odległości Księżyca, ma wystarczającą moc wyjściową, aby należeć do najjaśniejszych obiektów radioastronomicznych. RADIOTELESKOPY są narażone na kaskadę sygnałów radiowych generowanych na Ziemi i w kosmosie. Sygnały te pochodzą z tak prostych czynności, jak włączenie/wyłączenie, poprzez maszyny elektryczne w ich niezliczonych formach, aż po transmisje telekomunikacyjne i sygnały z satelitów pozycjonujących. Wiele z tych sygnałów jest słabych, ale każda forma transmisji komunikacyjnej ma dużą moc (wielogawatową). Ze względu na naturę radioteleskopów, mogą one odbierać sygnały pochodzące z kierunków innych niż ten, w który skierowany jest teleskop, dzięki odpowiedziom bocznych listków. Takie odpowiedzi bocznych listków mogą zagłuszyć obserwowany sygnał kosmiczny. Obserwatoria radiowe mogą być częściowo chronione przed transmisjami generowanymi na Ziemi poprzez wycofanie się do odległych dolin dobrze osłoniętych górami, ale nie ma żadnej ochrony przed transmisjami lotniczymi ani z satelitów orbitujących. Wykorzystanie przestrzeni kosmicznej do celów telekomunikacyjnych gwałtownie rośnie wraz z wystrzeliwaniem klastrów satelitarnych, takich jak Iridium. Pomimo starannej regulacji przestrzeni radiowej przez Międzynarodową Unię Telekomunikacyjną (ITU), szum resztkowy o znacznym natężeniu przedostaje się do pasm zarezerwowanych dla RADIOASTRONOMII i innych usług pasywnych (nienadających) z sąsiednich pasm wykorzystywanych komercyjnie, poprzez niedostatecznie tłumione ogony sygnału lub częstotliwości harmoniczne sygnału, a także poprzez niezamierzone (a czasem celowe) dostrajanie się do zarezerwowanych pasm radioastronomicznych. Pomimo pomysłowych procedur opracowanych przez radioastronomów, szum ten często degraduje, a często wręcz zagłusza, obserwowane sygnały kosmiczne.
Zanieczyszczenie elektromagnetyczne w zakresie fal optycznych
Zanieczyszczenie elektromagnetyczne w zakresie fal optycznych jest szczególnie łatwe do wykazania. Jest wyraźnie widoczne . Rozwój instalacji oświetlenia zewnętrznego w ciągu ostatnich 50 lat spowodował wysoki poziom oświetlenia tła w miastach i na obszarach miejskich, które w znacznym stopniu rozprzestrzenia się na obszary wiejskie. Światło rozproszone z jednego obszaru miejskiego może nakładać się na światło rozproszone z sąsiednich obszarów miejskich. W Wielkiej Brytanii pozostało niewiele obszarów, gdzie tłem jest naturalnie występująca nocna poświata nieba - zasadniczy czynnik ograniczający obserwacje astronomiczne. Zanieczyszczenie wynika z faktu, że większość obecnie używanych opraw oświetleniowych charakteryzuje się znacznym rozproszeniem światła w górę. Nowoczesne oprawy oświetleniowe mogą nie mieć rozproszenia światła w górę i mieć wystarczające odcięcie boczne, aby skierować emitowane światło tam, gdzie jest potrzebne. Konieczność ograniczenia zużycia energii w celu zmniejszenia emisji CO2 do atmosfery wymusza tempo projektowania oświetlenia zewnętrznego. Obecnie możliwe jest oświetlenie autostrad i dróg, boisk sportowych na świeżym powietrzu, obiektów architektonicznych itp. w taki sposób, że oprawy nie emitują światła w górę, a oświetlenie jest ograniczone bocznie do obszaru, który ma być oświetlony - rozproszenie światła z tych wysokiej klasy systemów ogranicza się do światła odbitego od powierzchni ziemi i rozpraszanego przez cząstki atmosferyczne (patrz dalej). Niestety, takie wysokiej jakości projekty stanowią raczej wyjątek niż normę. Ponieważ oświetlenie zewnętrzne jest tak niezbędne w życiu codziennym w XXI wieku, jest ono rozpowszechnione na całym świecie. Oznacza to, że nie tylko obserwatoria założone ponad 50 lat temu są pochłonięte przez nadmiernie oświetlone obszary miejskie, ale nawet bardziej odległe, główne lokalizacje obserwatoriów odnotowują wzrost lokalnego oświetlenia zewnętrznego. Wraz ze wzrostem średnic teleskopów i czułości detektorów, coraz więcej obserwacji jest kierowanych na obiekty, których słabość zbliża się do naturalnego tła. Astronomowie argumentują, że oświetlenie zewnętrzne nie powinno zwiększać tła o więcej niż 10% naturalnego tła. Nawet taki nadmiar jest nie do przyjęcia dla osób badających wpływ oświetlenia na naturalną poświatę nieba. Większość środowisk miejskich przewyższa naturalne tło co najmniej stukrotnie, a w centrach dużych miast nawet milionkrotnie. Ma to poważny wpływ na obserwacje astronomiczne. Astronomowie są również zaniepokojeni charakterem widmowym lamp stosowanych w oświetleniu zewnętrznym. Niskoprężna lampa sodowa emituje praktycznie całe swoje światło w bardzo wąskim zakresie długości fal - jest niemal monochromatyczna. Oczywiście, ta lampa jest preferowana przez społeczność astronomiczną. Jest to lampa wysoce energooszczędna. Nie jest powszechnie lubiana, ponieważ słabo oddaje barwy. Jednak dodanie niewielkich ilości światła białego w miejscach, gdzie oddawanie barw jest istotne, może być bardzo skuteczne. Niemniej jednak istnieje presja na stosowanie lamp multispektralnych (np. wysokoprężnych sodowych, halogenkowych), a ostatni trend w kierunku takich lamp będzie stopniowo uniemożliwiał astronomiczne wykorzystanie niektórych zakresów widmowych - podczas gdy obecnie tylko bardzo krótki zakres widmowy zajmowany przez niskoprężne lampy sodowe jest bezużyteczny. Chociaż w przeciwieństwie do radioastronomii, w optyce istnieją trendy działające na jej korzyść, nie da się uniknąć faktu, że tło dla długości fal optycznych rośnie, podobnie jak projekty w pobliżu głównych obserwatoriów, które wymagają intensywnego oświetlenia zewnętrznego (np. na Hawajach, w pobliżu głównych obserwatoriów na Mauna Kea, gdzie znajdują się między innymi dwa największe teleskopy na świecie, planowane jest nowe więzienie).
Eksploatacja przestrzeni kosmicznej
Wykorzystanie przestrzeni kosmicznej przyniosło dodatkowe pogorszenie warunków obserwacji astronomicznych, wykraczające poza wspomniany powyżej wpływ na radioastronomię. Wykorzystanie przestrzeni kosmicznej oznaczało gromadzenie się śmieci kosmicznych. Obecnie w kosmosie znajduje się ponad 8200 śledzonych odłamków (o rozmiarze powyżej 10 cm na niskiej orbicie okołoziemskiej) oraz znacznie większa ilość mniejszych odłamków, które mogą spowodować znaczne uszkodzenia działających statków kosmicznych. Odłamki stanowią obecnie zagrożenie dla wszystkich działających satelitów, w tym orbitujących obserwatoriów astronomicznych, takich jak Kosmiczny Teleskop Hubble′a. Liczba działających i zużytych satelitów oraz dużych odłamków jest tak duża, że wiele astronomicznych zdjęć głębokiego nieba zawiera obecnie smugi spowodowane odbiciem światła słonecznego od tego rodzaju odłamków. Pięćdziesiąt procent zdjęć głębokiego nieba zawiera co najmniej jeden smug, a 25% wiele smug. Takie smugi wpływają również na znacznie mniejsze pola widzenia fotometrycznego. Ponieważ większość smug występuje w ciągu 2 godzin po zachodzie słońca lub przed wschodem słońca, społeczność astronomiczna zmaga się z degradacją obrazu lub ograniczeniem wydajności operacyjnej, które powoduje smug. Bardziej niepokojące są propozycje umieszczenia reflektorów słonecznych w kosmosie, aby uzyskać wygląd obiektów o jasności do 100 razy większej niż jasność Księżyca w pełni. Księżyc jest wystarczająco jasny, aby wstrzymać obserwacje astronomiczne najsłabszych obiektów niebieskich na dwa tygodnie z czterech. Obecnie podjęto próby testowania reflektorów słonecznych Znamya2 i Znamya2.5, ale nie udało się ich w pełni wdrożyć. Gdyby ta technologia się sprawdziła, astronomicznym koszmarem byłoby to, że pomimo możliwości działania tylko o zmierzchu, takie reflektory mogłyby być wykorzystywane w celach komercyjnych lub innych celach reklamowych. Jak dotąd agencje kosmiczne odrzuciły propozycje dotyczące reflektorów reklamowych. Nasuwa się jednak pytanie: gdyby reklamy z kosmosu stały się akceptowalne, czy reklamodawcy nie chcieliby wówczas systemów w kosmosie, które mogłyby wykorzystywać czas ciemny (w istocie, pojawiła się sugestia, aby hologramy reklamowe były generowane w kosmosie w czasie ciemnym)? Gdyby tak się stało, astronomia optyczna umarłaby. Istnieje jedna propozycja wykorzystania reflektorów kosmicznych, która budzi poważne obawy - mianowicie wykorzystanie systemu takich reflektorów do gromadzenia wystarczającej ilości energii słonecznej, aby wygenerować do 50% światowego zapotrzebowania na energię elektryczną do 2050 roku. Promieniowanie słoneczne byłoby przetwarzane w kosmosie na mikrofale, które następnie byłyby przesyłane na Ziemię, gdzie energia mikrofalowa byłaby przetwarzana na energię elektryczną. Wydajność tego procesu szacowana jest na mniej niż 10%. Co dzieje się z pozostałymi 90% utraconymi w tym procesie? Przyznaje się, że taka propozycja miałaby poważne konsekwencje dla naziemnej astronomii optycznej i byłaby katastrofalna dla naziemnej radioastronomii. Takie rozszerzenie wykorzystania kosmosu budzi ogromne zaniepokojenie społeczności astronomicznej.
Inne obszary zainteresowania
Wymieranie atmosferyczne
Atmosfera zawiera naturalnie występujące cząstki stałe i aerozole, wzbogacone o te generowane przez działalność człowieka poprzez zrzut ścieków przemysłowych do atmosfery, emisje z pojazdów, powstawanie pyłu itp. Jak wspomniano wcześniej, cząstki stałe w atmosferze zwiększają rozpraszanie oświetlenia zewnętrznego. Wygaszanie atmosferyczne zmniejsza również energię pochodzącą ze źródeł kosmicznych, a także powoduje zaczerwienienie tego światła. Wzrost wygaszania jest w dużej mierze zjawiskiem miejskim i stosunkowo lokalnym, z wyjątkiem smug kondensacyjnych samolotów. Wygaszanie na półkuli północnej wydaje się jak dotąd nie rozprzestrzeniać na półkulę południową. Jest to problem wymagający czujności i badań na wypadek rozwoju poważnego problemu - szczególnie w odniesieniu do konsekwencji smug kondensacyjnych samolotów.
Akumulacja ciężkich cząsteczek w stratosferze. Obserwatorzy podczerwieni odkryli, że akumulacja ciężkich cząsteczek w stratosferze zwiększa ekstynkcję w ograniczonych oknach atmosferycznych dostępnych dla naziemnych obserwatoriów podczerwieni. Chociaż niektóre z tych cząsteczek są obecnie zakazane (aby zapobiec dalszemu niszczeniu warstwy ozonowej), nie jest jeszcze jasne, czy cząsteczki zastępcze doprowadzą do jakiejkolwiek poprawy w zakresie PODCZERWIENI ASTRONOMICZNEJ. Jest to obszar, który ponownie wymaga ciągłej czujności.
Globalne ocieplenie i odprowadzanie ciepła do atmosfery. Powszechnie przyjmuje się, że atmosfera ziemska znajduje się w fazie ocieplenia .Konsekwencją wzrostu temperatur jest zwiększone zachmurzenie - trend wzmacniany przez tworzenie się smug kondensacyjnych przy braku szybkiego rozprzestrzeniania się (patrz wcześniej). Globalne ocieplenie może prowadzić do zmian wzorców pogodowych, których jedną z konsekwencji może być degradacja klimatu w głównych lokalizacjach obserwatoriów. W konsekwencji, na obszarach miejskich występuje odprowadzanie ciepła do atmosfery z procesów przemysłowych, aż do utraty ciepła przez budynki. Jedną z oczywistych konsekwencji takiego lokalnego i w dużej mierze miejskiego ocieplenia jest nasilenie turbulencji atmosferycznych i wynikające z tego pogorszenie WIDOCZNOŚCI astronomicznej.
Wibracje gruntu. Działalność przemysłowa i inne rodzaje działalności człowieka powodują drgania. Wibracje są zjawiskiem lokalnym, ale efekty drgań o niskiej amplitudzie mogą być odczuwalne w odległości do 10 km od źródła. Może to stanowić poważny problem, szczególnie dla obserwatoriów astrometrycznych. Obserwatoria, które w przeszłości nie były narażone na drgania, mogą stać się podatne na nie ze względu na nowy rozwój przemysłu w okolicy.
Inne obawy. Powyższa lista obszarów budzących obawy nie jest wyczerpująca. Pojawią się nowe obawy, a stare będą miały nieprzewidziane i poważniejsze konsekwencje. Nadal istnieją obawy dotyczące działań kosmicznych, które mogą skutkować zanieczyszczeniem powierzchni Ziemi pobliskich ciał Układu Słonecznego - co może wpłynąć na integralność przyszłych badań tych ciał. Istnieją obawy dotyczące konsekwencji HAPS (High Altitude Platform Systems) zarówno dla radioastronomii, jak i astronomii optycznej. W astronomii optycznej istnieją obawy dotyczące konsekwencji wykorzystania wiązek laserowych w paśmie optycznym/podczerwonym (np. SPOT4 ESA) do komunikacji satelitarnej. Niewątpliwie pojawi się wiele innych obaw w dalszej perspektywie. W związku z tym astronomia jest nauką silnie zagrożoną.
Środki ochrony
Astronomia podjęła kroki w celu samoobrony. Pomimo istnienia wielu dobrze wyposażonych obserwatoriów w miastach, od zawsze panowała tendencja do dalszego oddalania się obserwatoriów od skupisk ludności . Jednak obecnie nie ma możliwości dalszego oddalania się od nich, chyba że poprzez większe wykorzystanie Antarktydy. Kosmos nie jest już tak przyjaznym dla użytkownika, choć kosztownym miejscem, jak się kiedyś wydawało. Astronomowie zawarli zatem lokalne porozumienia, aby zapewnić szczególną ochronę najlepszym obserwatoriom. Do tej pory porozumienia te działały dobrze, ale należy pamiętać, że osoby mieszkające w pobliżu takich lokalizacji mogą w przyszłości uznać je za zbyt restrykcyjne. Radioastronomowie prowadzili szczegółowe negocjacje, na szczeblu krajowym i międzynarodowym (za pośrednictwem IUCAF, Międzyzwiązkowego Komitetu ds. Przydziału Częstotliwości), z Międzynarodowym Związkiem Telekomunikacyjnym w sprawie przydziału i ochrony pasma radioastronomicznego. Odniosło to ogromny sukces, ale staje się bardzo wymagającym przedsięwzięciem, biorąc pod uwagę komercyjny popyt na pasmo. Działania te zasługują na największe wsparcie społeczności. Astronomowie podzielili się swoimi obawami ze społeczeństwem. Zanieczyszczenie światłem to temat, który społeczeństwo łatwo rozumie i z którym może się utożsamić. Wiele osób skarży się, że nie może już oglądać spektaklu ciemnego nocnego nieba. Trudno jednak oddać tragiczną sytuację, w jakiej znalazła się radioastronomia, choć sprzeciw wobec reflektorów kosmicznych zdaje się cieszyć globalnym poparciem. W lipcu 1999 roku społeczność astronomiczna miała okazję przedstawić swoje obawy ONZ na sympozjum UNISPACE III. ONZ wzięła pod uwagę obawy astronomiczne, wykraczające poza wpływ eksploatacji kosmosu i problem, jaki telekomunikacja stwarza dla radioastronomii. Takie rozważania muszą mieć charakter długoterminowy. Jedną z konsekwencji będzie konieczność zaangażowania przez społeczność astronomiczną znacznych środków w ilościową ocenę swojego środowiska obserwacyjnego. Będzie to niezbędne dla uzyskania jakiegokolwiek przyszłego międzynarodowego porozumienia w sprawie ochrony nauki astronomicznej. Społeczność astronomiczna będzie również musiała poświęcić większą uwagę informowaniu opinii publicznej. Włożono już znaczny wysiłek, który wyraźnie się opłacił. Nadal musimy dotrzeć do szerszego grona odbiorców, ponieważ istnieje szerokie zainteresowanie i sympatia dla obserwacji astronomicznych, ale towarzyszy temu powszechna niewiedza na temat wpływu działalności człowieka na astronomię. Perspektywy mogą być ponure, ale nie pozbawione znacznej nadziei.
Efemerydy
W języku potocznym "efemerydy" oznaczają to, co dzieje się każdego dnia; efemerydy dnia to lista niezwykłych wydarzeń danego dnia. Co więcej, efemerydy astronomiczne to tabelaryczne zestawienia położeń ciała niebieskiego, pozwalające poznać jego położenie w danym momencie. Współcześnie efemerydy mogą mieć nową formę, aby zwiększyć dokładność wywnioskowanych z nich położeń. Efemerydy przedstawiają ruch ciał niebieskich. Efemerydy położeń są zatem reprezentacją ruchu. Najczęściej spotykane efemerydy mają formę tabel liczbowych. Nie jest to jednak jedyna możliwa forma i obecnie nie jest już najlepsza, ponieważ istnieją znacznie bardziej precyzyjne sposoby opisu ruchu. Jakość efemerydy w reprezentacji ruchu zależy od dwóch czynników: wykorzystania niewielkiej liczby danych (aby uniknąć zbyt dużych tabel) oraz możliwości uzyskania dobrej precyzji (aby uzyskać najmniejszy błąd w porównaniu z "rzeczywistym" położeniem). Zanim omówimy różne rodzaje reprezentacji efemeryd, przyjrzyjmy się najpierw, jak opisywane są ruchy ciał niebieskich należących do Układu Słonecznego. Później okaże się, że sama efemeryda zależy od charakteru ruchu, który ma być opisany.
Teorie planetarne i efemerydy
Historia
Efemerydy publikowane są od XIV wieku. Pierwsze efemerydy przeznaczone do wykorzystania w dynamice planetarnej pojawiły się we francuskim dziele "Connaissance des Temps", którego pierwszy tom ukazał się w Paryżu w 1679 roku. Ten pierwszy tom stanowił narzędzie do redukcji obserwacji ciał Układu Słonecznego. Zawierał on czasy wschodu i zachodu Słońca, Księżyca, Merkurego, Wenus, Marsa, Jowisza i Saturna, ich tranzyty do południka paryskiego, ich długości geograficzne, szerokości geograficzne i deklinacje. Później Lalande opracował tabele Słońca i planet, które stanowiły podstawę efemeryd publikowanych w "Connaissance des Temps" do 1808 roku. W 1767 roku w Londynie opublikowano efemerydy tego samego rodzaju, mające na celu udoskonalenie astronomii, geografii i nawigacji: "Nautical Almanac and Astronomical Ephemeris". W latach 1770-1825 Laplace badał konsekwencje zastosowania prawa grawitacji Newtona do ruchu ciał Układu Słonecznego i rozwiązał szereg problemów dotyczących teorii planetarnych. Przedstawienie tych ruchów w efemerydach ewoluowało nieustannie, ale do końca XVIII wieku "Connaissance des Temps" przedstawiało efemerydy miesiąc po miesiącu, Słońce dzień po dniu, a planety sześć dni po sześciu dniach. Odstęp czasu ewoluował (malał) w celu poprawy dokładności pozycji, dzień po dniu lub więcej, w zależności od ruchu ciała. Od 1838 roku efemerydy publikowano ciało po ciele. Były to dzienne okresy dla Słońca, trzy dni na trzy dni dla Merkurego, sześć dni na sześć dni dla Wenus i Marsa, osiem dni na osiem dni dla Jowisza, dziesięć dni na dziesięć dni dla Saturna i piętnaście dni na piętnaście dni dla Urana. W przypadku Księżyca konieczny był mniejszy odstęp czasu (por. tabela 1). W 1863 roku efemerydy podawano codziennie dla Merkurego, Wenus, Marsa, Jowisza i Saturna, a dla Urana i Neptuna co cztery dni.
Rozwój mechaniki nieba
Dziewiętnasty wiek obfitował w postęp w mechanice nieba, a ruch ciał Układu Słonecznego został dobrze zmodelowany (patrz MECHANIKA NIEBA W XVIII I XIX WIEKU): to właśnie dzięki defektom zauważonym w efemerydach Urana, Neptun został odkryty dzięki obliczeniom Le Verriera i Adamsa. Defekty te nie wynikały ze złej oceny zaburzeń pochodzących od Jowisza i Saturna: konieczne było dopuszczenie istnienia dodatkowego ciała poza Uranem. Po odkryciu Neptuna przez Galle w Berlinie, przeprowadzono obserwacje, a elementy ruchu eptunów były wówczas na tyle znane, że możliwe było opublikowanie precyzyjnych efemeryd. Po takim osiągnięciu mechaniki nieba, Le Verrier podjął się całkowitej przebudowy teorii ruchu głównych planet. Wyprowadził teorie i tablice tych ciał. Gaillot, współpracownik Le Verriera, udoskonalił następnie teorie czterech dużych planet: Jowisza, Saturna, Urana i Neptuna. Jednocześnie prace teoretyczne Hansena dały początek teorii Neptuna rosyjskiego astronoma Kowalskiego, a zwłaszcza globalnej teorii planet Newcomba. Tabele Le Verriera i Gaillota były wykorzystywane w efemerydach Connaissance des Temps do 1984 roku, ale tablice Kowalskiego i Newcomba były źródłem efemeryd Neptuna publikowanych w Connaissance des Temps w latach 1863-1883. W przypadku Urana tablice Newcomba były wykorzystywane w latach 1877-1883. Almanach Żeglarski również wykorzystywał tablice Le Verriera; Amerykańskie Efemerydy korzystały z prac Hansena i tablic Newcomba dla Słońca i planet, a tablic Hansena i Browna dla Księżyca, aż do 1983 roku. W 1960 roku brytyjskie i amerykańskie efemerydy opublikowały te same tablice, które w 1981 roku przyjęły nazwę The Astronomical Almanac. Za czasów Le Verriera i Gaillota efemerydy publikowane w Connaissance des Temps przyjęły formę, która była używana nieprzerwanie do 1979 roku (por. tabela 2). Warto zauważyć, że w 1877 roku wprowadzono prostokątne współrzędne Słońca, a efemerydy Urana i Neptuna były codziennie podawane w Connaissance des Temps.
Efemerydy współcześnie
W ciągu ostatnich kilku lat efemerydy uległy znaczącym przekształceniom. W 1980 roku tabelaryczna prezentacja efemeryd z Connaissance des Temps została zastąpiona reprezentacją w wielomianach Czebyszewa (patrz dalej); znacznie bardziej zwartą i dobrze dostosowaną do rozwoju mikrokomputerów . Od 1984 roku Connaissance des Temps korzysta z nowych teorii analitycznych ruchów Słońca, Księżyca i planet, opracowanych w Bureau des Longitudes i dostosowanych do całkowania numerycznego Jet Propulsion Laboratory (JPL) DE200. W 1984 roku Astronomical Almanac zmienił źródła swoich efemeryd i wykorzystał całkowanie numeryczne DE200/LE200 JPL. JPL korzysta obecnie z ulepszonej efemerydy DE405/LE405.
Teorie ruchów
Od początków astronomii modelowanie ruchu ciał Układu Słonecznego stanowiło wyzwanie. Po pierwsze, ruchy te były empiryczną ekstrapolacją przeprowadzonych obserwacji; pierwsze tabele powstały zatem w wyniku czysto kinematycznej analizy obserwowanych ruchów. Precyzja tych pierwszych tabel była oczywiście niska i mogła zostać zwiększona jedynie dzięki poprawie precyzji samych obserwacji. Następnie pojawiły się obliczenia oparte na teoriach grawitacji, w których parametry wyprowadzano z obserwacji. Od czasów Newtona znane były prawa dynamiki, i wówczas ważne było uwzględnienie ich w równaniu oraz uwzględnienie wszystkich efektów grawitacyjnych, które mają pewien wpływ na ciała. Teoretyczne poszukiwania Lagrange′a dotyczące problemu planetarnego doprowadziły do modelowania długoterminowej ewolucji orbit za pomocą liniowego układu różniczkowego, który sprzężył mimośrody i inklinacje. Ten wynik jest fundamentalny. Efemerydy można tworzyć z równań teoretycznych, rozwiązując je w szeregi trygonometryczne, których obliczenie bez użycia komputerów jest czasochłonne. Innym sposobem jest bezpośrednie obliczenie poprzez całkowanie numeryczne.
Elementy mechaniki nieba
Ogólne uwagi dotyczące teorii planetarnych
Ruch planet wokół Słońca jest szczególnym przypadkiem PROBLEMU N-CIAŁ, który nie ma dokładnego rozwiązania dla N większego niż 2. Wszystkie ciała przyciągają się wzajemnie zgodnie z prawem grawitacji, ale zakłada się, że planety mają niewielką masę w porównaniu z masą ciała centralnego (Słońca). Przybliżone rozwiązania tego problemu można uzyskać dzięki teorii zaburzeń, gdzie współrzędne są funkcjami czasu t, mas ciał biorących udział w ruchu oraz stałych całkowania. Rozwiązania te uzyskuje się poprzez wyprowadzenie teorii analitycznych lub przeprowadzając całki numeryczne.
Teorie analityczne
Współrzędne uzyskuje się w postaci kombinacji analitycznych funkcji algebraicznych i trygonometrycznych czasu t oraz parametrów problemu, mas i stałych całkowania. Obliczenie położenia za pomocą tych teorii jest długie, ale proste, ponieważ wystarczy podstawić parametr czasu w szereg.
Całkowanie numeryczne
Całkowanie numeryczne podaje wartości liczbowe współrzędnych i prędkości dla pewnych wartości t0, t0 + h, t0 + 2h itd., gdzie t0 jest czasem początkowym, a h krokiem całkowania. Metody całkowania numerycznego są dobrze dostosowane do obliczeń komputerowych i były szczególnie wykorzystywane w Jet Propulsion Laboratory w USA.
Argument czasowy efemeryd
Warto teraz powiedzieć kilka słów o argumencie "czasowym" efemeryd. Aby poznać położenie w danym momencie, którego momentu szukać w efemerydach? Do 1834 roku w Connaissance des Temps posługiwano się rzeczywistym czasem słonecznym Paryża. Następnie, ze względu na istnienie bardziej niezawodnych zegarów, zaczęto używać czasu średniego Paryża. W 1916 roku, po Międzynarodowej Konwencji, zaczęto używać czasu średniego Greenwich. Wszystkie te skale czasu były związane z obrotem Ziemi, znanym wówczas jako równomierny. Gdy ujawniono nieregularności tego obrotu, astronomowie wprowadzili nową, jednolitą skalę czasu do stosowania w efemerydach, opartą na obrocie Ziemi wokół Słońca. Zastosowano czas efemeryd opracowany na podstawie teorii Słońca Newcomba, lub, jak w Connaissance des Temps, czas jednolity opracowany na podstawie teorii Słońca Le Verriera. Od 1984 roku wprowadzono czas ziemski, jednolitą skalę czasu opartą na zegarach atomowych, które były znacznie bardziej stabilne niż ruchy ciał niebieskich.
Układy odniesienia
v
Znajomość położeń i ruchów ciał niebieskich wymaga precyzyjnego pojęcia o przestrzennych i czasowych układach odniesienia, w których można określić położenia opisane przez efemerydy. Wcześniej widzieliśmy, że argument czasowy efemeryd nie może być rozpatrywany w żadnej skali czasowej. Podobnie, zobaczymy, że współrzędne przestrzenne, których należy użyć, muszą być powiązane z układem odniesienia poprzez układ odniesienia. Można wyróżnić układ odniesienia niebieski i ziemski. Układy odniesienia niebieskiego są albo dynamiczne (oparte na dynamicznych badaniach ruchów ciał Układu Słonecznego), albo kinematyczne (oparte na statystycznych badaniach ruchów odległych ciał, takich jak gwiazdy, galaktyki i kwazary). Dynamiczne układy odniesienia ciał niebieskich, pierwotnie zbudowane w mechanice Newtona, są obecnie budowane w mechanice relatywistycznej, która wiąże argument czasowy ze zmiennymi przestrzennymi . Dla potrzeb obecnych efemeryd definicje podane wcześniej dla argumentu czasowego są wystarczające. Aby powiązać położenia ciał niebieskich z obserwatorem znajdującym się na Ziemi, konieczne będzie również zdefiniowanie ziemskiego układu odniesienia. Ziemski układ odniesienia wymaga znajomości modelu Ziemi, jej kształtu i deformacji zależnych od czasu. Określenie położenia topocentrycznego wymaga, aby taki układ znał położenie obserwatora względem położeń ciał niebieskich, które są powszechnie określane w geocentrycznym niebieskim układzie odniesienia.
Niebiańskie układy odniesienia
Układ odniesienia jest koncepcją teoretyczną, a konstrukcja efemeryd wymaga znajomości układu odniesienia, który jest konkretną materializacją układu odniesienia. Niebiański układ odniesienia będzie zatem powiązany z teoriami dynamicznymi, stałymi i katalogami gwiazd. Układ odniesienia jest definiowany przez płaszczyznę odniesienia i dany kierunek. W przypadku efemeryd obecnie publikowanych, płaszczyzną odniesienia jest równik Ziemi (równikowy układ odniesienia) lub płaszczyzna ekliptyki orbity Ziemi wokół Słońca (ekliptyczny układ odniesienia). Kierunkiem odniesienia jest równonoc, węzeł wstępujący ekliptyki na równiku, przecięcie tych dwóch płaszczyzn. Te płaszczyzny i ten kierunek są powiązane z Ziemią i zdefiniujemy różne układy odniesienia w zależności od teorii i stałych użytych do ich zbudowania. Następnie, dla każdego tak utworzonego układu odniesienia, ustalimy płaszczyzny i kierunek odniesienia, aby uzyskać idealnie zdefiniowany układ odniesienia.
Układy odniesienia związane z gwiazdami
Te układy odniesienia są definiowane przez położenia i RUCHY WŁASNE gwiazd. Katalogi gwiazd podają wartość ruchów własnych, co umożliwia uzyskanie, poprzez proste obliczenia, położenia gwiazd w danym dniu. Jednakże, Astronomisches Rechen Institut w Heidelbergu w Niemczech, publikuje corocznie od 1960 roku, zgodnie z międzynarodowym porozumieniem, widoczne położenia 1535 gwiazd z katalogów FK4 i FK5 w "Apparent Places of Fundamental Stars". Nowe układy odniesienia wykorzystujące gwiazdy z katalogu HIPPARCOS i bardzo odległe radioźródła są opracowywane w celu stworzenia międzynarodowego układu odniesienia. Dynamiczne układy odniesienia związane z ciałami Układu Słonecznego. Modele dynamiczne ciał Układu Słonecznego, skorygowane za pomocą obserwacji radarowych lub laserowych, są niezależne od gwiazd z katalogów i definiują płaszczyznę oraz kierunek odniesienia. W powiązaniu z teorią PRECESJI-NUTACJI, definiują one układ odniesienia. Przytoczmy układ odniesienia odnoszący się do całkowania numerycznego DE405/LE405 Jet Propulsion Laboratory oraz układ odniesienia odnoszący się do teorii analitycznych ELP2000/VSOP82 Księżyca i planet Biura Długości Geograficznych.
Układy współrzędnych
Po podaniu układu odniesienia należy wybrać współrzędne, które zostaną użyte w celu określenia położeń w efemerydach. Z każdym układem odniesienia związana jest teoria precesji-nutacji, która definiuje:
• położenia w średnim układzie odniesienia (płaszczyzna fundamentalna jest płaszczyzną średnią, tj. podlega jedynie precesji). Aby ustalić układ odniesienia, należy podać epokę; epoka ta jest umowna (na przykład 1950 r. dla układu odniesienia FK4 i 2000 r. dla układu FK5).
• położenia w prawdziwym układzie odniesienia (płaszczyzna fundamentalna podlega precesji i nutacji). Epoka układu odniesienia to ta, do której przypisuje się położenia: układ odniesienia nie jest ustalony, ale jest to jedyny układ odniesienia bezpośrednio dostępny dla obserwatora.
W tak zdefiniowanych układach odniesienia współrzędne mogą być:
• geometryczne - są to położenia rzeczywiście zajmowane przez ciało w danej dacie, bez uwzględnienia prędkości światła;
• pozorne - są to położenia widziane przez obserwatora znajdującego się w centrum układu odniesienia. Odnosi się je do rzeczywistego układu odniesienia dla danej daty. Uwzględnia się prędkość światła i aberrację roczną.
• astrometryczne lub astrograficznie - współrzędne te są bezpośrednio porównywalne z katalogami gwiazd. Można je wywnioskować ze współrzędnych pozornych poprzez transformację precesji-nutacji, aby powrócić do stałego układu odniesienia (tego, który odpowiada dacie katalogów gwiazd) oraz poprzez tłumienie aberracji rocznej. Czas świetlny nadal jest brany pod uwagę.
Efemerydy położenia
W zależności od pozycji, które mają być reprezentowane w efemerydach, musimy wybrać płaszczyznę fundamentalną i kilka współrzędnych. W przypadku efemeryd dla obserwatora ziemskiego płaszczyzną fundamentalną będzie równik ziemski, a współrzędnymi, które należy podać, będą rektascensja (kąt liczony w kierunku wschodnim, począwszy od równonocy, wzdłuż równika ziemskiego) i deklinacja (kąt liczony w kierunku północnym od płaszczyzny równikowej). Można również podać promień rotacyjny, czyli odległość od środka układu odniesienia do rozpatrywanego ciała niebieskiego. Odległość ta nie zależy od układu odniesienia, z wyjątkiem czasu padania promienia świetlnego. Efemerydy Księżyca, Słońca i głównych planet dają współrzędne widoczne, głównie do naprowadzania teleskopów. Dla Plutona, planetoid i komet dostarczają one współrzędnych astrometrycznych, bezpośrednio porównywalnych z katalogami gwiazd. W przypadku satelitów naturalnych podawane są współrzędne różnicowe względem planety w płaszczyźnie stycznej do sfery niebieskiej, bezpośrednio porównywalne z ekspozycjami fotograficznymi lub obrazami z kamer CCD. Przytoczmy współrzędne topocentryczne, których centrum stanowi obserwator znajdujący się na Ziemi: współrzędne te powinny być obliczone dla każdego obserwatora, więc aby przekształcić współrzędne pozorne na topocentryczne, należy wprowadzić niewielką korektę. Położenia można również podawać we współrzędnych niesferycznych, takich jak współrzędne prostokątne: oś x jest skierowana w stronę równonocy układu odniesienia, a oś z w stronę bieguna północnego tego układu odniesienia. Takie efemerydy są podawane głównie do nawigacji kosmicznej.
Efemerydy dotyczące gwiazd
Ruchy własne gwiazd nie są na tyle istotne, aby uzasadniać publikację efemerydy dziennej. Tylko efemerydy gwiazdy polarnej są podawane codziennie w kilku ALMANACHACH, ponieważ umożliwiają one ustawienie teleskopów.
Efemerydy do obserwacji fizycznych
Aby móc obserwować z Ziemi powierzchnie ciał Układu Słonecznego, konieczne jest zdefiniowanie parametrów charakteryzujących obrót ciała wokół własnej osi, podanie wartości liczbowych oraz określenie układu współrzędnych, w którym mogą znajdować się punkty na powierzchniach (planetograficzny lub planetocentryczny układ odniesienia). Następnie oblicza się punkty ciała widoczne z Ziemi w danym dniu. Przydatna jest również znajomość wielkości związanych z oświetleniem widocznej tarczy. Podane poniżej definicje zostały zatwierdzone przez Międzynarodową Unię Astronomiczną.
Definicja parametrów obrotu
Biegun północny to, zgodnie z definicją, biegun dwóch biegunów osi obrotu, która znajduje się po północnej stronie niezmiennej płaszczyzny Układu Słonecznego (w pobliżu ekliptyki). Parametry obrotu ciał Układu Słonecznego dla każdego ciała to:
• oś obrotu, która jest określona przez rektascensję i deklinację w układzie J2000 kierunku jego bieguna północnego, zależną od czasu;
• położenie początku linii południka, określone przez kąt oddzielający węzeł wstępujący równika planety na jej orbicie od początku tej linii południka, kąt liczony na równiku planety i zależny od czasu. Stała w początku czasu zostanie dodana, jeśli początek linii południka jest powiązany z dostrzegalnym szczegółem charakterystycznym na powierzchni ciała.
Definicja układu współrzędnych
Do zlokalizowania punktu na powierzchni ciała niebieskiego potrzebne są dwa różne układy współrzędnych:
• planetocentryczny układ współrzędnych, w którym szerokość geograficzna planetocentryczna punktu to kąt utworzony przez wektor łączący środek ciała niebieskiego i punkt z płaszczyzną równikową; a długość geograficzna planetocentryczna to kąt dwuścienny między południkiem punktu a początkiem południka, liczony dodatnio w kierunku wschodnim na ciele niebieskim, niezależnie od obrotu. Układ ten jest używany do badania ruchu satelity nad ciałem niebieskim.
• planetograficzny układ współrzędnych używany do mapowania powierzchni ciała niebieskiego. Szerokość geograficzna planetograficzna punktu na powierzchni to kąt utworzony przez normalną do powierzchni w tym punkcie z płaszczyzną równikową. Jeśli ciało niebieskie jest przyrównane do elipsoidy o promieniu równikowym a i promieniu biegunowym b (b < a), szerokości geograficzne planetocentryczne i planetograficzne φ i ?′ punktu elipsoidy są połączone wzorem
tanφ′. = tan φ//(1 - f )2
gdzie f jest płaskością elipsoidy zdefiniowaną wzorem f = (a ? b)/a. Długość planetograficzną definiuje się w podobny sposób jak długość planetocentryczną. Jest ona również liczona od początku południka, ale w kierunku przeciwnym do kierunku obrotu. Wynika z tego, że dla odległego obserwatora długość planetograficzna środka widocznego dysku zawsze rośnie z czasem, niezależnie od kierunku obrotu ciała. Aby uszanować tradycję historyczną i móc nadal korzystać ze starych map, zasada ta dopuszcza wyjątki, na przykład dla Ziemi, Słońca i Księżyca, których obroty są proste.
Dokładność efemeryd
Dokładność efemeryd jest wynikiem trzech skumulowanych precyzji wybranych do kompilacji efemeryd.
• Wewnętrzna precyzja teorii dynamicznych używanych do modelowania ruchów zależy od istotności pominiętych wyrazów szeregu i może być oceniana poprzez porównanie z całkowaniem numerycznym. Należy zauważyć, że całki numeryczne mają swoją własną dokładność wewnętrzną, zależną od użytych algorytmów i komputerów. Precyzja wewnętrzna jest zazwyczaj najlepsza.
• Zewnętrzna precyzja teorii zależy od dokładności obserwacji użytych do dostosowania stałych całkowania (precyzja zewnętrzna ogranicza całkowitą precyzję efemeryd).
• Precyzja reprezentacji jest wybierana podczas dostosowywania liczby współczynników i długości przedziałów ważności (precyzja ta jest wybierana w celu uniknięcia pogorszenia uzyskanej dokładności).
Przedstawienie efemeryd
Efemerydy w formie tabelarycznej
Najstarszą formą efemeryd jest publikacja w formie tabel położeń, których odstęp zależy od zmienności wartości tych położeń. Im szybsza ta zmienność, tym mniejszy powinien być odstęp między dwiema wartościami. Proste odczytanie tabeli i interpolacja wizualna wystarczą do znalezienia obserwowanego obiektu na niebie. Jednak w celu uzyskania większej precyzji konieczna jest interpolacja nieliniowa. Wymaga to bardziej złożonych obliczeń z wykorzystaniem opublikowanych danych. Aby uzyskać większą precyzję, rozwiązaniem jest zmniejszenie odstępu czasowego między dwiema wartościami, a tym samym zwiększenie objętości publikowanych danych. Efemerydy astronomiczne (Astronomical Ephemerides) i "Annuaire du Bureau des Longitudes" (obecnie Annuaire du Bureau des Longitudes), a do 1979 roku "Connaissance des Temps" (dosł. "Znajomość Temperatur"), zawierają efemerydy w formie tabelarycznej. Przytoczmy ruch Księżyca: aby zapewnić wewnętrzną precyzję kilku jednostek rzędu 0,01 sekundy łuku, efemerydy są tabelowane z interwałem 3h. Dla każdej współrzędnej ta reprezentacja z krokiem 3 h wymaga 2920 wartości rocznie . Natomiast w przypadku efemeryd tabelarycznych, aby osiągnąć tę samą dokładność, potrzebnych było 7440 wartości, ale z większą liczbą obliczeń komputerowych (tabela 2). Przytoczmy również przypadek galileuszowych satelitów Jowisza, które poruszają się wokół niego niezwykle szybko. Atabulowane efemerydy wymagałyby kroku co 20 minut, co prowadziłoby do ilości danych zbyt dużej, aby opublikować je w drukowanej efemerydzie. Rozwiązanie było dwojakiego rodzaju. Pierwszy sposób polegał na dostarczeniu wzorów, złożonych i długich, które miałyby zapewnić precyzję jednej dziesiątej sekundy stopnia. Drugi sposób polegał na zaoferowaniu czytelnikowi wykresu graficznego, którego odczytanie prowadziłoby do precyzji jednej sekundy stopnia. Ta ostatnia metoda jest dość słaba, ale wystarczająca do identyfikacji ciał w momencie obserwacji. Powszechne użycie kalkulatorów kieszonkowych i mikrokomputerów oznacza, że prostota formuły nie jest już fundamentalna w kompilacji efemeryd. Ważniejsze jest zachowanie dobrej precyzji reprezentacji w okresie objętym efemerydami. Zatem zamiast obliczać funkcję f(t) jako tabelę obliczonych wartości w krótkich odstępach czasu, lepiej jest ustalić poprawne funkcje aproksymacji f(t) w dużych odstępach czasu, dbając o minimalizację błędów i całkowitej objętości danych.
Aproksymacja funkcji
Celem efemeryd jest zatem przedstawienie funkcji f(t), wyprowadzonej albo z wyniku całkowania numerycznego, albo z analitycznej funkcji czasu, opisującej ruch ciała lub ewolucję czasową zjawiska. W większości przypadków do realizacji efemeryd wykorzystuje się obecnie szereg Czebyszewa. Dlaczego? W rzeczywistości każdą funkcję można aproksymować w danym przedziale czasu za pomocą wielomianu, którego stopień i liczba wyrazów rosną wraz ze wzrostem przedziału czasu. Takie przybliżenie nie jest zoptymalizowane, a ilość danych do opublikowania jest znaczna. Z drugiej strony, jego użycie jest bardzo proste, ponieważ wystarczy podstawić czas do tak zbudowanych wielomianów. Inne reprezentacje są znacznie lepsze: spróbujmy wyjaśnić dlaczego.
Aproksymacja Czebyszewa
Funkcje, które mają być aproksymowane, są zawsze zdefiniowane dla wszystkich wartości przedziału. Zasada aproksymacji Lagrange′a polega na dostosowaniu wielomianu stopnia n do n + 1 wartości tabelarycznych. Oczywiście bardziej pożądane byłoby uwzględnienie wszystkich wartości funkcji. Z tego powodu wybrano aproksymację Czebyszewa: wielomiany Czebyszewa mają interesującą cechę regularnego rozkładu błędu w rozpatrywanym przedziale i są stabilne podczas estymacji. Ponadto, spośród różnych typów aproksymacji wielomianowych, aproksymacja Czebyszewa to aproksymacja niższego stopnia i ta, w której błąd nie przekracza zadanej wartości. Inną interesującą kwestią jest to, że ostatnie zachowane wyrazy dają oszacowanie dokładności reprezentacji wielomianowej. Funkcja aproksymacyjna efemeryd będzie zatem reprezentować funkcję prawdziwą poprzez rozwinięcia wielomianów Czebyszewa zdefiniowanych w kolejnych przedziałach czasu. Ta metoda reprezentacji umożliwia kompresję objętości danych i szybkie obliczenie położeń ciał. Z tych powodów jest on bardzo dobrze dostosowany do potrzeb astronomów (amatorów, profesjonalistów, teoretyków, astrometrystów itp.). Efemerydy Czebyszewa pojawiają się jako ciąg współczynników a0, a1,… an dla współrzędnej danej w przedziale [t1, t2]. Zastosowanie tych efemeryd jest następujące. Obliczenie wartości współrzędnej w czasie t przedziału [t1, t2] odbywa się poprzez zamianę zmiennej: x = ?1+{2(t -t1)}/{t2 - t1}. Zatem x należy do przedziału [?1, +1]. Wielomiany Czebyszewa pierwszego rodzaju Tn(x) są dane zależnością: Tn(x) = cos(n arccosx). Można je również obliczyć, korzystając z zależności rekurencyjnej: Tn(x). = 2x.Tn-1(x) - Tn-2(x) gdzie T0(x) = 1 i T1(x) = x. Następnie położenie oblicza się poprzez następującą sumę: a0.T0(x) + a1.T1(x) +… + an.Tn(x) da wynik.
Aproksymacja funkcjami mieszanymi
Jak widzieliśmy, aproksymacja wielomianowa nie jest jedyną. Wprowadzenie funkcji mieszanych umożliwia uwzględnienie quasi-okresowego charakteru funkcji występujących w efemerydach. Rzeczywiście, funkcja o charakterze quasi-okresowym może być aproksymowana na danym przedziale przez rozwinięcie wielomianów stosunkowo niskiego stopnia n, ale fakt, że funkcja jest quasi-okresowa na tym przedziale, co ma miejsce w ruchu ciał Układu Słonecznego, nie jest brany pod uwagę. Zobaczmy na przykładzie, jak wykorzystać quasi-okresową naturę funkcji. Niech funkcją parzystą będzie f(x) = cos x + cos 2x. Znacznie lepiej reprezentuje ją baza funkcji 1, cos x, cos 2x, cos 3x... niż baza wielomianów 1, x2, x4, x6,… lub dowolna inna baza wielomianów parzystych. Jednakże efemeryda nie jest tak prosta, ale możliwe jest, w danym przedziale czasu, dokonanie przybliżenia za pomocą kilku funkcji okresowych, których okres wynika z fizycznej natury problemu (na przykład okresu obiegu ciała niebieskiego), a także za pomocą pewnych terminów świeckich (lub pewnych wielomianów czasu) ze względu na nieściśle okresową naturę opisywanego ruchu. Reprezentacja z wykorzystaniem funkcji mieszanych jest szczególnie dobrze dostosowana do ruchów naturalnych satelitów planet, a ogólniej do ruchów ciał o krótkim okresie, których ruch nigdy nie jest daleki od ruchu okresowego. W książce "Connaissance des Temps" współrzędne różniczkowe naturalnych satelitów planet są opisane współczynnikami funkcji mieszanych na przedziałach obejmujących kilka obrotów satelitów i są łatwe do obliczenia za pomocą następującego wzoru:
f (t) = a0 + a1t + b0 sin(vt+ φ0) + b1t sin(vt + φ1) + b2t2 sin(vt + φ2) + c0 sin(2vt + Ψ0)
gdzie 2π/v to okres bliski okresowi obrotu ciała; aj, bj i cjj to amplitudy; φjj i Ψj to fazy (j = 0, 1, 2). Wzór ten wynika z wyboru wybranej bazy. Wyrazy mieszane mają postać: atk sin(pvt +Ψ) (k i p: liczby całkowite; a: amplituda; Ψ: faza). Maksymalne wartości k i p są dostosowywane zgodnie z wymaganą precyzją. Jeśli przedział reprezentacji zostanie poszerzony, konieczne będzie wzbogacenie bazy o wyrazy mieszane w potędze czasu i wielokrotności częstotliwości bazowej. Jeśli jednak przedział się zmniejszy, konieczna będzie modyfikacja bazy, aby uniknąć utraty precyzji (nie dotyczy to reprezentacji wielomianowej, której precyzja rośnie wraz ze zmniejszaniem się przedziału).
Stan aktualnych badań nad efemerydami
Pierwszym sposobem na udoskonalenie efemeryd (tj. zwiększenie dokładności wyznaczania pozycji przez efemerydy) jest udoskonalenie teorii ruchu ciał niebieskich. Obecnie podejmowane są wysiłki mające na celu uwzględnienie wszystkich oddziaływań grawitacyjnych występujących w Układzie Słonecznym, a także uwzględnienie oddziaływań relatywistycznych. Potrzebne są udoskonalone obserwacje, a w przypadku planet wewnętrznych (od Merkurego do Marsa) metoda obserwacji radarowej doprowadziła do porzucenia obserwacji optycznych. W przypadku planet olbrzymów obserwacje optyczne są nadal jedynym sposobem na określenie pozycji planet, wraz z niewielką liczbą pozycji wysyłanych przez sondy kosmiczne. Obserwacja satelitów planetarnych jest obecnie preferowana w stosunku do bezpośrednich obserwacji samych planet. Wreszcie, określenie DYNAMICZNEGO UKŁADU ODNIESIENIA (układu odniesienia wyprowadzonego z ruchu Ziemi wokół Słońca) i powiązanie go z niezależnym gwiezdnym układem odniesienia (opartym już nie na gwiazdach, ale na bardzo odległych źródłach) to ostatni krok w kierunku udoskonalenia efemeryd, rozwiązany dzięki obserwacjom przestrzennym ze sztucznych satelitów, takich jak Hipparcos w przeszłości, a Fame lub Gaia w przyszłości. Drugim sposobem na udoskonalenie efemeryd jest wykorzystanie lepszych reprezentacji ruchów. W rzeczywistości problem polega głównie na zmniejszeniu ilości danych. Przybliżenie Czebyszewa jest nadal wykorzystywane w tym celu.
Różne nośniki wykorzystywane do publikacji efemeryd
Efemerydy drukowane
Chociaż mikrokomputery są wszechobecne w obliczeniach astronomicznych, drukowane efemerydy są nadal powszechnie wykorzystywane przez astronomów zawodowych i amatorów. Dlaczego? Przede wszystkim obserwator często potrzebuje potwierdzenia lub prostej przybliżonej pozycji. Otwarcie książki i bezpośrednie odczytanie pozycji jest łatwe. Można również znaleźć:
• godziny wschodu i zachodu Słońca i Księżyca (a także głównych planet);
• pozycje ciał Układu Słonecznego i jasnych gwiazd dla obserwatora ziemskiego;
• efemerydy do fizycznych obserwacji tych ciał.
Efemerydy te są na ogół mało precyzyjne i wystarczająca jest forma tabelaryczna. Przytoczmy również kilka specjalistycznych efemeryd, takich jak "Almanach Żeglarski" lub "Eph′em′erides Nautiques", opublikowanych do celów nawigacyjnych. Jednak nie wszystkie drukowane efemerydy zawierają pozycje tabelaryczne. Mogą być dostępne reprezentacje graficzne (głównie dla galileuszowych satelitów Jowisza), a także współczynniki dla wielomianów (w przypadku efemeryd o wysokiej precyzji), wymagające użycia kalkulatora kieszonkowego lub mikrokomputera. Tak jest w przypadku "Connaissance des Temps" od 1979 roku, który wcześniej był wykorzystywany do ręcznego programowania teleskopów lub, po prostu, do testów i kontroli bardziej złożonego oprogramowania. Poniżej znajduje się lista głównych drukowanych efemeryd publikowanych obecnie:
• przez Institut de Mécanique Céleste/Bureau des Longitudes, Francja: "Connaissance des Temps, Annuaire du Bureau Des longitudes, Eph′em′erides Nautiques";
• przez H M Nautical Almanac Office dawnego Royal Greenwich Observatory, obecnie w Rutherford Appleton Laboratory, Wielka Brytania; oraz przez Nautical Almanac Office USNO, USA: Astronomical Almanac, Nautical Almanac;
• przez Institute of Applied Astronomy, Sankt Petersburg, Rosja: Ephemerides of Minor Planets;
• Astronomisches Rechen Institut, Heidelberg, Niemcy: Widoczne miejsca gwiazd fundamentalnych
Efemerydy elektroniczne
Papierowy nośnik jest tradycyjnym nośnikiem efemeryd, które istnieją od wieków. Obecnie wykorzystanie drukowanych efemeryd ogranicza się do konkretnych zastosowań. Poszukiwanie ciała niebieskiego lub śledzenie szybkiego obiektu Układu Słonecznego za pomocą teleskopu odbywa się teraz automatycznie za pomocą elektronicznych efemeryd. Pierwszym sposobem jest umieszczenie drukowanych efemeryd na nośniku (dyskietkach, CD-ROM-ie) powiązanym z programem odczytu i obliczenia położenia w danym dniu. Oczywiste jest, że obliczanie położenia z wykorzystaniem podstawowych teorii dynamiki nie jest możliwe w czasie rzeczywistym ze względu na złożoność obliczeń i ilość przetwarzanych danych. Obecnie powszechnie stosuje się odczyt wartości tabelarycznych, a następnie ich interpolację (co nie jest łatwe) lub, lepiej, odczyt współczynników, a następnie precyzyjne obliczenie powiązanych z nimi pozycji. W przypadku obliczeń pozycji, które nie odbywają się w czasie rzeczywistym, możliwe jest również przeprowadzanie interaktywnych obliczeń online za pomocą wyspecjalizowanego serwera. Serwery WWW w Internecie umożliwiają obecnie takie obliczenia, dzięki czemu efemerydy o wysokiej precyzji są dostępne dla wszystkich. Efemerydy o wysokiej precyzji wykorzystywane przez profesjonalnych astronomów i agencje kosmiczne są oczywiście udostępniane w formie elektronicznej.
Europa
Europa jest najmniejszym z czterech dużych satelitów galileuszowych JOWISZA. Tabela 1 przedstawia jego podstawowe parametry. Mało znana przed 1979 rokiem, kiedy sonda kosmiczna VOYAGER przesłała pierwsze zdjęcia z bliska, ostatnio stała się głównym celem misji GALILEO okrążającej Jowisza, która przyniosła znaczące postępy w naszej wiedzy o Europie. Jej lodowa powierzchnia i skaliste wnętrze, a także dziwna topografia powierzchni z płaskorzeźbionymi grzbietami i chaotycznym terenem, czynią Europę jednym z najbardziej niezwykłych obiektów w Układzie Słonecznym. Najbardziej intrygująca jest możliwość, że ta niezwykła powierzchnia pokrywa ciekły ocean, który potencjalnie mógłby podtrzymywać życie.
Właściwości Europy
Promień : 1561 km
Gęstość 3005 kgˇm-3
Średnia odległość od Jowisza : 671 000 km
Mimośrodowość orbity : 0,0101
Skład powierzchni: lód H2O, minerały uwodnione (być może sole lub H2SO4); SO2; O2; CO2; H2O2
Skład wnętrza: skała krzemianowa; Fe/FeS; H2O
Pochodzenie
Europa prawdopodobnie powstała w tym samym czasie co jej trzy siostrzane obiekty, IO, GANYMEDES i CALISTO, z tego samego obłoku materii, mgławicy protojowiszowej, z której uformował się sam Jowisz. Temperatury w mgławicy protojowiszowej byłyby najwyższe w pobliżu Jowisza, a lód kondensował się jedynie w jej zewnętrznych częściach. Europa powstała w pobliżu wewnętrznej krawędzi strefy lodowej, w związku z czym oprócz skał i żelaza zgromadziła również trochę lodu. Stały materiał w mgławicy gromadził się w coraz większe fragmenty, które były przyciągane do siebie przez wzajemne przyciąganie grawitacyjne, aż cztery duże ciała, rodzące się satelity Galileusza, stały się wystarczająco duże, aby porwać pozostały szczątek. Po uformowaniu satelity zostały odsunięte od Jowisza przez oddziaływanie pływowe z planetą. Ostatecznie wewnętrzna trójka została zablokowana przez wzajemne zaburzenia grawitacyjne, tworząc obecny rezonans orbitalny, w którym Io okrąża Jowisza dwa razy na każde okrążenie Europy, a Europa okrąża Ganimedesa dwa razy na każde okrążenie, co ma daleko idące konsekwencje.
Wnętrze
Średnia gęstość Europy, wynosząca 3000 kg m-3, jest znacznie większa niż gęstość wody, wynosząca 1000 kg m-3, ale jest znacznie mniejsza od gęstości około 3500 kg msup>-3, której można by oczekiwać, gdyby wnętrze było w całości zbudowane ze skał krzemianowych. Jej wnętrze jest silnie zróżnicowane, z prawdopodobnym jądrem żelaznym lub z siarczku żelaza, grubym płaszczem ze skał krzemianowych i zewnętrzną warstwą wody lub lodu. ZRÓŻNICOWANIE Europy wskazuje, że w pewnym momencie jej wnętrze było wystarczająco gorące i ruchliwe, aby cięższe składniki mogły osiadać w kierunku centrum. Odpowiedzialne za to mogło być ogrzewanie podczas jej formowania, rozpad promieniotwórczy lub ogrzewanie pływowe. W przeciwieństwie do swojego sąsiada Ganimedesa, Europa nie generuje znaczącego wewnętrznego pola magnetycznego, choć ponieważ pochodzenie pola Ganimedesa pozostaje tajemnicą, nie jesteśmy jeszcze pewni, co to oznacza dla Europy. Europa jednak zaburza pole magnetyczne Jowisza w sposób sugerujący istnienie warstwy przewodzącej prąd elektryczny, takiej jak ciekły ocean, tuż pod powierzchnią Europy. To samo wydaje się dotyczyć Kallisto, geologicznie martwego księżyca, który poza tym wygląda zupełnie inaczej niż Europa. Rezonans orbitalny z Io i Ganimedesem sprawia, że orbita Europy jest znacząco niekołowa, więc chociaż Europa obraca się synchronicznie, zachowując tę samą stronę względem Jowisza, wybrzuszenie pływowe uniesione przez Jowisza nieznacznie zmienia rozmiar i orientację podczas orbity, wraz ze zmianą odległości Europy od Jowisza. To ciągłe zniekształcenie rozprasza energię wewnątrz Europy, w łagodniejszej wersji ogrzewania pływowego, które powoduje powstawanie wulkanów na Io. Dysypacja jest największa w częściach wnętrza, które najbardziej odkształcają się podczas orbity, ale stopień odkształcenia lodu lub skały zależy od ich lepkości, która z kolei zależy od temperatury, a ta z kolei od ilości ciepła pływowego, co powoduje występowanie złożonych mechanizmów sprzężenia zwrotnego, które są trudne do modelowania. Wydaje się jednak prawdopodobne, że większość dyssypacji zachodzi w dolnej, cieplejszej części stałej warstwy lodu, a tempo nagrzewania wynosi około 0,05 W/m2 lub mniej.
Geologia powierzchni
Powierzchnię Europy można podzielić na kilka bardzo różnych typów terenu (rysunek 1), z których każdy opisano osobno poniżej.
Grzbiety
Duża część powierzchni Europy składa się z niezliczonych, zachodzących na siebie grzbietów o wysokości od dziesiątek do setek metrów i długości do tysięcy kilometrów. Nowsze grzbiety są zazwyczaj wyższe niż starsze i często flankują je rozproszone obszary o niższym ALBEDO. Najczęściej grzbiety są podwójne, z centralną bruzdą, ale niektóre składają się z wielu elementów. Niektóre są niezwykle proste, inne mają nieregularne, płatowate brzegi, a jeszcze inne uderzająco regularne, "guzkowate" formy, przypominające tor odbijającej się piłki widzianej z boku. Najprawdopodobniej powstały one z propagujących się pęknięć, które rozprzestrzeniają się w kierunku zmieniającym się okresowo podczas każdego obiegu Europy z powodu zmieniających się naprężeń wywołanych pływami Jowisza. Najbardziej rozległe grzbiety mają zasięg globalny i wraz z ciemnymi brzegami tworzą ciemne "pęknięcia", które są najbardziej charakterystyczną cechą Europy w widokach globalnych. Podwójne grzbiety zdają się powstawać jako proste pęknięcia, które następnie stopniowo przekształcają się w grzbiety po obu stronach. Jeśli pęknięcie rozszerzy się bardziej, w centralnej bruździe mogą pojawić się dodatkowe grzbiety, tworząc złożone układy grzbietów. Grzbiety mogą powstawać w wyniku wypaczenia materiału po obu stronach pęknięć przez płytkie intruzje wzdłuż pęknięć lub przez akumulację szczątków po obu stronach pęknięcia. Szczątki mogą gromadzić się albo w wyniku erupcji "wulkanicznej" wzdłuż pęknięcia, albo przez wyciskanie materiału ze szczeliny poprzez jej okresowe otwieranie i zamykanie, być może przez codzienne pływy. Grzbiety tworzą globalny wzór, który stanowi dowód na to, że zewnętrzna powłoka Europy jest oderwana od jej wnętrza i z powodu pływów Jowisza obraca się nieznacznie szybciej niż wnętrze, wykonując pełny obrót względem Jowisza w ciągu tysięcy, a nawet milionów lat. Powłoka będzie odkształcana i naprężana podczas obrotu nad wybrzuszeniem pływowym, które zawsze jest zwrócone w stronę Jowisza, a oczekiwane naprężenia wynikające z tego procesu doskonale wyjaśniają globalne ułożenie grzbietów i widoczne zmiany ich orientacji w czasie. Rytmiczne zmiany kierunku naprężeń podczas każdej orbity Jowisza mogą nawet wyjaśniać niezwykłe grzbiety "zakończone", jeśli każde "odbicie" grzbietu powstaje w ciągu jednego dnia europejskiego.
Cechy rozciągania
W wielu obszarach grzbiety są przerwane przez gładsze, ciemniejsze pasma, gdzie powierzchnia wyraźnie się rozciągnęła: cechy po obu stronach pasma idealnie do siebie pasują, jak na rysunku 1. Gładki materiał w pasie to nowy materiał, który wypełnił lukę, gdy powierzchnia po obu stronach się rozstąpiła, podobnie jak rozprzestrzenianie się dna morskiego na Ziemi. Globalne rozmieszczenie i orientacja cech rozciągania sugeruje, że otwierają się one w odpowiedzi na naprężenia wywołane przez codzienne pływy. Gdzieś na Europie musiała nastąpić kompresja powierzchni, aby zrobić miejsce dla obserwowanego rozprzestrzeniania się, i dziwne jest, że nie zidentyfikowano jeszcze żadnych jednoznacznych cech kompresji.
Chaos i soczewkowate
Duże obszary powierzchni Europy zostały spękane i rozbite, tworząc "chaos". Duże obszary chaosu mogą mieć ponad 100 km średnicy, podczas gdy mniejsze, ale podobne obszary soczewkowe mają zazwyczaj średnicę 10 km. Można wnioskować o możliwej sekwencji ewolucyjnej obszarów soczewkowych. W niektórych miejscach pierwotna powierzchnia jest po prostu wybrzuszona; w innych miejscach kopuła jest spękana, często do tego stopnia, że pierwotna tekstura powierzchni jest nierozpoznawalna. Obszary chaosu są podobne, ale większe. Spękane bloki pierwotnej powierzchni były często przesuwane poziomo, obracane, a nawet przechylane: znaczna część pobliskiej pierwotnej powierzchni musiała zostać zniszczona, aby umożliwić ten ruch. Obszar chaosu i obszary soczewkowe są na ogół ciemniejsze niż pierwotna powierzchnia: ciemny, plamisty teren widoczny w widokach globalnych to w większości chaos. Oba typy terenu wydają się powstawać w wyniku rozerwania powierzchni od dołu, prawdopodobnie w wyniku wzmożonego lokalnego ogrzewania. Nie jest jednak jasne, czy ogrzewanie to wiązało się z topnieniem na dużą skalę, w którym odłamki skorupy unoszą się niczym góry lodowe, czy też po prostu z unoszeniem się ciepłego, ruchomego, stałego lodu w kierunku powierzchni. Omówione powyżej sprzężenie zwrotne między lepkością lodu a ogrzewaniem pływowym może powodować lokalną ucieczkę termiczną i wyjaśniać nierównomierne rozmieszczenie obszarów chaosu.
Cechy uderzeń
Powierzchnia Europy jest mniej pokryta kraterami niż większość POWIERZCHNI PLANET, co wskazuje na jej stosunkowo młody wiek. Największe zaobserwowane dotąd kratery, Tyre i Callanish, o średnicy około 80 km, składają się z wielu koncentrycznych, okrągłych pęknięć otaczających nierówny obszar centralny. Koncentryczne pęknięcia sugerują, że uderzenia przebiły sztywną warstwę zewnętrzną Europy do znajdującej się poniżej warstwy płynu: pęknięcia mogły powstać w wyniku szybkiego przepływu materiału w kierunku środka otworu powstałego w wyniku uderzenia. Sonda kosmiczna Galileo wykazała, że kratery o średnicy większej niż 25 km są wyjątkowo płaskie w porównaniu z kraterami o podobnej wielkości na innych ciałach niebieskich i są również otoczone wieloma koncentrycznymi pierścieniami. Jest prawdopodobne, że kratery te przebiły lód do prawdopodobnego oceanu poniżej. Mniejsze uderzenia, takie jak jasny krater promienisty Pwyll (rysunek 2) o średnicy 25 km, wyglądają powierzchownie jak kratery księżycowe, z ostrą krawędzią i centralnym szczytem, a zatem prawdopodobnie nie przebiły warstwy płynu. Łącznie te ograniczenia implikują grubość 10-20 km, choć modele są niekompletne, a dla sztywnej warstwy zewnętrznej nadal istnieją wątpliwości. Nie dowodzą one również, że leżąca pod spodem warstwa płynu jest wodą w stanie ciekłym: możliwe są również bardzo ciepłe i ruchliwe lodowce. Kratery wielkości Pwylls są wyjątkowo płaskie w porównaniu z kraterami księżycowymi, co pokazuje, że nawet "sztywna" warstwa zewnętrzna jest wystarczająco miękka pod powierzchnią, aby płynąć i wypełnić pierwotną pustkę.
Wiek powierzchni
Wiek formacji geologicznych na powierzchni Europy jest trudny do precyzyjnego określenia. W ciągu 17 lat między zdjęciami z sond Voyager i Galileo nie zaszły żadne wykrywalne zmiany: jeśli założymy, że zmiany zachodzą płynnie i równomiernie na powierzchni Europy, implikuje to średni wiek powierzchni wynoszący co najmniej 30 milionów lat. Wiek powierzchni można również oszacować na podstawie liczebności KRATERÓW uderzeniowych w połączeniu z szacunkami przewidywanego tempa uderzeń. Tempo powstawania kraterów można określić, choć niezbyt dokładnie, na podstawie liczby zaobserwowanych komet i asteroid w pobliżu Jowisza. Nasze szacunki sugerują, że wiek powierzchni Europy wynosi od 10 do 300 milionów lat. Jeśli ten szacunek wieku jest prawidłowy, jest bardzo prawdopodobne, że aktywność geologiczna na Europie trwa do dziś: prawdopodobieństwo, że aktywność trwała przez 95-99% historii Europy, a następnie ustała tuż przed pojawieniem się człowieka, jest niewielkie. Rodzi to jednak kolejną zagadkę. Chaotyczny teren na Europie jest młodszy niż równiny grzbietowe w prawie wszystkich dotychczas zbadanych obszarach Europy. Jeśli powierzchnia Europy jest młoda, dlaczego aktywność geologiczna zmieniła się tak dramatycznie i tak niedawno? Jedną z możliwości jest to, że aktywność na Europie ma charakter cykliczny, napędzany złożonymi interakcjami między jej wnętrzem a orbitą, i że w przyszłości styl aktywności zmieni się z chaotycznego formowania terenu na formowanie równin grzbietowych.
Oddziaływanie z magnetosferą Jowisza
Europa jest zanurzona w ogromnej magnetosferze Jowisza, która obraca się wraz z nim raz na dziesięć godzin , znacznie szybciej niż 3,5-dniowy okres orbitalny Europy. Magnetosfera niesie ze sobą gęstą plazmę wysokoenergetycznych jonów, zdominowaną przez jony siarki i tlenu, które uciekły z Io. Z powodu braku silnego, wewnętrznego pola magnetycznego, które mogłoby odchylić plazmę, powierzchnia Europy, a zwłaszcza tylna półkula (strona zwrócona do tyłu, gdy Europa krąży wokół Jowisza), jest nieustannie bombardowana wysokoenergetycznymi jonami. Bombardowanie ma dwa główne skutki: implantację i erozję. Najsilniejszym bezpośrednim dowodem implantacji jest absorpcja w ultrafioletowym widmie Europy, spowodowana albo dwutlenkiem siarki, albo wiązaniami siarka-tlen w innej formie. Cecha ta jest najsilniejsza na tylnej półkuli, gdzie bombardowanie jest najsilniejsze. Występuje również powszechne ciemnienie tylnej półkuli Europy w zakresie dłuższych fal ultrafioletowych. Jest prawdopodobne, że część bombardujących jonów siarki osadza się w lodzie wodnym na powierzchni Europy i łączy się z tlenem z otaczającej wody, tworząc zjawisko absorpcji promieniowania UV. Możliwe jest również, że zjawisko to jest spowodowane obecnością siarki wrodzonej Europie, skoncentrowanej po stronie tylnej w wyniku rozpylania lodu wodnego, jak wyjaśniono w następnym akapicie. Każdy jon, który zderza się z lodem wodnym Europy, wyrzuca z powierzchni wiele cząsteczek wody lub fragmentów cząsteczek wody - proces ten znany jest jako rozpylanie. Większość materiału ponownie uderza w Europę w innych miejscach jej powierzchni, ale znaczna jego część porusza się na tyle szybko, że ucieka w przestrzeń kosmiczną. Szacuje się, że średnio co milion lat Europa traci 5-20 cm lodu, a 20-80 cm jest transportowane na duże odległości po powierzchni. Fakt, że formacje geologiczne na Europie, o rozmiarach zaledwie kilkudziesięciu metrów, nie zostały całkowicie zniszczone przez ten proces, stanowi dodatkowy dowód na to, że powierzchnia jest stosunkowo młoda, ma mniej niż 100 milionów lat. Rozpylanie lodu powierzchniowego również potwierdza istnienie rzadkiej atmosfery tlenowej wokół Europy, która została wykryta przez Kosmiczny Teleskop Hubble′a. Wokół Europy występuje również słabe, ale wykrywalne halo sodu, prawdopodobnie również pochodzące z Io. Najnowsze zdjęcia z Kosmicznego Teleskopu Hubble′a ukazują słaby, daleki ultrafioletowy "ślad" zorzy polarnej w górnych warstwach atmosfery Jowisza w miejscu, gdzie linia pola magnetycznego Jowisza łączy Europę z Jowiszem. Dowodzi to, że Europa przewodzi prąd elektryczny, prawdopodobnie poprzez swoją rozrzedzoną jonosferę, i generuje prądy elektryczne między sobą a Jowiszem, przemieszczając się przez pole magnetyczne Jowisza. Io i Ganimedes wykazują podobne, ale silniejsze ślady zorzy polarnej.
Ocean? Życie?
Najbardziej intrygującym pytaniem dotyczącym Europy jest to, czy pod lodem istnieje OCEAN ciekłej wody, który mógłby w ogóle podtrzymywać życie. Wiele obserwacji, w tym struktury rozrywające, dowody na niesynchroniczną rotację zewnętrznej skorupy, spękane i obrócone bloki w regionach chaosu oraz nietypowy wygląd kraterów uderzeniowych Europy, wskazują na istnienie miękkiej, ruchomej warstwy kilka kilometrów pod sztywną skorupą zewnętrzną. Kluczowym pytaniem jest zatem, czy ta warstwa to ciepły lód, znajdujący się tuż poniżej temperatury topnienia, czy też jest w rzeczywistości ciekła. Dowody na niesynchroniczną rotację i elektromagnetyczne dowody na obecność ciekłej warstwy pod powierzchnią są prawdopodobnie najsilniejszymi dowodami na istnienie oceanu, a nie ciepłego lodu. Modele hybrydowe, w których "litosfera" zimnego, sztywnego lodu pokrywa cieplejszy, konwekcyjny lód, który z kolei pokrywa ciekły ocean, są również prawdopodobne. Jeśli ocean istniał przez większość historii Europy, warunki tam panujące mogą sprzyjać rozwojowi i podtrzymaniu życia. Cząsteczki organiczne (oparte na węglu), które stanowią surowiec do życia, są powszechne w Układzie Słonecznym i chociaż światło słoneczne prawdopodobnie nie przenika przez zewnętrzną skorupę lodową, ciepło pływowe mogło dostarczyć wystarczającej ilości energii do reakcji chemicznych niezbędnych do życia. Często przywoływaną analogią są społeczności żywe, które istnieją niezależnie od światła słonecznego, podtrzymywane jedynie przez energię chemiczną i cieplną z WNĘTRZA ZIEMI, wokół kominów hydrotermalnych, czyli "czarnych dymników" na dnach oceanów. Obecnie jednak nie dysponujemy bezpośrednimi dowodami na istnienie życia na Europie i konieczne będą dalsze badania, aby ustalić, czy oceany lub życie rzeczywiście tam istnieją.
Przyszłe eksploracje
Trwają plany misji Europa Orbiter, która mogłaby zostać wystrzelona już w 2003 roku i wejść na orbitę około 2008 roku. Jej głównym celem byłoby ustalenie istnienia (lub braku) oceanu podpowierzchniowego. Oprócz standardowych kamer i spektrografów, sonda prawdopodobnie byłaby wyposażona w radar do sondowania pod powierzchnią, z możliwością bezpośredniego wykrycia dowolnego oceanu. Wysokościomierz laserowy i pomiary grawitacyjne bezpośrednio wykrywałyby zniekształcenia powierzchni Europy w miarę zmiany jej odległości od Jowisza - cienka powłoka lodowa nad oceanem zniekształcałaby bardziej niż gruba warstwa lodu stałego. Po misji orbitera rozważane są lądowniki, które mogłyby bezpośrednio pobierać próbki powierzchni, a docelowo sondy, które mogłyby przewiercić się przez lód do oceanu (o ile istnieje). Wyzwania techniczne związane z tymi misjami, w szczególności duża ilość paliwa potrzebna do spotkania z Europą oraz trudne warunki radiacyjne, są ekstremalne i ich pokonanie będzie trudne. Europa jeszcze przez jakiś czas będzie kryć wiele swoich tajemnic.
Wzbudzenie i jonizacja
Wzbudzenie: właściwości ogólne
Wzbudzenie obszaru odzwierciedla warunki fizyczne panujące w środowisku astrofizycznym. Stan wzbudzenia jest zazwyczaj określany na podstawie obserwacji linii widmowych powstających z różnych stanów wzbudzonych atomu, jonu lub cząsteczki. Analiza widma emitowanego pozwala na określenie gęstości kolumn1 poziomów emitujących, pod warunkiem uwzględnienia PRZENIESIENIA PROMIENIOWANIA wyemitowanego widma i znajomości podstawowych danych fizyki atomowej lub molekularnej. W niektórych przypadkach badania absorpcji pozwalają również na wyprowadzenie warunków wzbudzenia. Jest to obecnie wykonywane w badaniach absorpcji w zakresie widzialnym i ultrafioletowym różnych form atomowych i molekularnych w kierunku rozproszonych i półprzezroczystych obłoków znajdujących się przed jasną gwiazdą tła. Temperaturę wzbudzenia można zdefiniować na podstawie stosunku gęstości kolumnowych dwóch stanów wzbudzonych, wyrażonego za pomocą prawa Boltzmanna, gdzie temperaturę kinetyczną zastępuje się temperaturą wzbudzenia Texc:
N(J)/N(J-1) = (gJ /gJ-1) exp(-ΔEJ->J-1/kTexc)
gdzie N(J) to gęstość kolumnowa poziomu oznaczonego liczbą kwantową J, gJ to odpowiadająca waga statystyczna, EJ->J?1 to różnica energii poziomów, a k to stała Boltzmanna. Ocenia się, że stosunek gęstości kolumnowych jest taki sam jak stosunek liczebności. Fizyczne znaczenie temperatury może być kwestionowane, ale jej wartość jest użyteczna jako wskazówka dotycząca procesu wzbudzenia. Całkowita zmienność czasowa populacji na poziomie atomowym, jonowym lub molekularnym jest wyrażona jako równowaga procesów wzbudzenia i deekscytacji i może zostać zredukowana do zera w stanie ustalonym, jeśli skale czasowe są krótsze niż czas ewolucji obszaru astrofizycznego. Ogólny układ równań jest wyrażony jako:

Yu->k oznacza współczynnik częstości zderzeń w cm3s-1, który indukuje przejście z u do k z powodu zaburzenia o gęstości n. Dla uproszczenia w wyrażeniu zapisano tylko jeden typ zaburzenia, ale może być zaangażowanych kilka partnerów. W gorącym zjonizowanym gazie elektrony i protony są najskuteczniejszymi zaburzeniami, w atomowych obłokach międzygwiazdowych, atomowy wodór i hel są czynnikami wzbudzającymi, podczas gdy w kometach cząsteczki wody występują najliczniej. Współczynniki częstości zderzeń wzbudzenia i deekscytacji spełniają tzw. mikroskopowe szczegółowe równania bilansu:
guYu->k exp(-Eu/kT ) = gkYk -> u exp(-Ek/kT ).
Współczynniki częstości zderzeń deekscytacji zależą na ogół płynnie od temperatury i często są wyrażane jako równanie potęgowe temperatury. Au->k reprezentuje prawdopodobieństwo emisji spontanicznej w s?1. Emitowane linie mogą być różnego rodzaju. Linie dozwolone to elektryczne przejścia dipolowe. Środowiska astrofizyczne często sprzyjają emisji wzbronionej, ponieważ są dalekie od stanu równowagi. Znanym przykładem są zielone linie tlenu mgławicowego łączące poziom podstawowy 3P z poziomem jednowymiarowym 1D, które są elektrycznym przejściem kwadrupolowym, lub zielona koronalna linia Fe13+ łącząca dwa poziomy struktury subtelnej stanu podstawowego 2P, która jest magnetycznym przejściem dipolowym. Rk->u reprezentuje procesy stymulowane fotonami. Wzbudzenie radiacyjne jest opisane przez Rk->u, prawdopodobieństwo absorpcji. Emisja wymuszona może również wystąpić w określonych warunkach, na przykład po zakończeniu inwersji obsadzeń: emisja masera jest rzeczywiście obserwowana w gęstych chmurach związanych z niektórymi wbudowanymi źródłami energii i zazwyczaj charakteryzuje się zarówno zmiennością, jak i wysoką polaryzacją. Procesy stymulowane są proporcjonalne do natężenia padającego pola promieniowania, które zależy od środowiska astrofizycznego, oraz do współczynnika Einsteina Bk->u, który jest właściwością czysto atomową lub molekularną. Jeśli pole promieniowania zaangażowane w procesy indukowane radiacyjnie zależy od samej linii, to od populacji poziomów, równania stają się nieliniowe i układ musi być rozwiązywany iteracyjnie. Dzieje się tak w przypadku otoczek supernowych, jak w supernowej 1987A, lub w emisji molekularnej licznych związków, takich jak CO, w gęstych obłokach międzygwiazdowych. W stanie równowagi termicznej dominują zderzenia, a temperatura wzbudzenia jest równa temperaturze rzeczywistej (kinetycznej). Wygodną koncepcją jest gęstość krytyczna, która jest dolną granicą, powyżej której spełniona jest równowaga termodynamiczna. Jest ona definiowana jako stosunek prawdopodobieństwa deekscytacji radiacyjnej do współczynnika szybkości deekscytacji kolizyjnej łączącego dwa poziomy. Populacje różnych poziomów zależą jedynie od równowagi między wzbudzeniem kolizyjnym a deekscytacją kolizyjną. Jednakże środowiska astrofizyczne są najczęściej dalekie od równowagi termicznej i wzbudzenie następuje wówczas w wyniku szczegółowych procesów mikroskopowych.
Źródła wzbudzenia
Wzbudzenie kolizyjne
W mgławicach gazowych wiele powszechnych jonów ma nisko położone poziomy energetyczne o potencjałach wzbudzenia rzędu kTe, gdzie Te jest temperaturą elektronów. Wówczas elektrony w rozszerzonym ogonie rozkładu Maxwella, odpowiadające około 10 000K, mają wystarczającą energię (≈2-4 eV), aby wzbudzić pierwsze człony widmowe O+, O2+, N+, S+. Po wzbudzeniu tych poziomów, promieniują one spontanicznie z powrotem do stanu podstawowego poprzez przejścia wzbronione. Emisyjności odpowiednich linii wynoszą po prostu jλ = NuAu->lhc/λ, gdzie A jest współczynnikiem Einsteina przejścia zachodzącego przy długości fali λ. Badając stosunki intensywności linii odpowiadających bliskim lub bardzo różnym energiom wzbudzenia, można zbadać warunki gęstości lub temperatury. Ważne jest, aby zdać sobie sprawę, że te przejścia nie tylko diagnostyką warunków fizycznych, ale także reprezentują ścieżkę, po której energia kinetyczna padających cząstek jest przekształcana w energię fotonów, obrazując w ten sposób proces chłodzenia. W chłodniejszych, głównie atomowych środowiskach międzygwiazdowych, linia struktury subtelnej C+, której energia przejścia wyrażona w K wynosi 92 K, jest głównym chłodziwem tych obszarów w temperaturze około 100 K. Przy długości fali 158 μm, w dalekiej podczerwieni, przejście to było szeroko badane przez satelitę Infrared Space Observatory (ISO), wystrzelonego w listopadzie 1996 roku przez Europejską Agencję Kosmiczną . ISO wykrywa również elektryczne linie kwadrupolowe wodoru cząsteczkowego obserwowane w gęstych, ciepłych obszarach szokowych w temperaturze około 500-1000 K. W gęstych, zimnych obłokach molekularnych, przejścia rotacyjne CO i jego izotopów, a także innych gatunków cząsteczkowych, stają się cennymi sondami ośrodka i głównych chłodziw.
Wzbudzenie radiacyjne
Wcześniej rozpoznano, że zaangażowane są inne mechanizmy wzbudzenia. Dotyczy to fluorescencji, tzw. linii Bowena, w zakresie widzialnym obserwowanej w widmach mgławic planetarnych o wysokim wzbudzeniu od 1935 roku. Ważnym czynnikiem jest wydajność fluorescencji, definiowana jako stosunek szybkości emisji fotonów fluorescencyjnych do szybkości tworzenia fotonów pompujących. W stanie równowagi szybkość tworzenia fotonów pompujących jest równa całkowitej szybkości destrukcji, wliczając wszystkie procesy strat. Padające promieniowanie pompujące jest dostarczane przez dostępne fotony He+ Ly α, których długość fali przy 30,3780 nm jest niemal zbieżna z linią rezonansową O2+ przy 30,3799 nm. Emisja wzbudzonego wibracyjnie wodoru cząsteczkowego w mgławicach refleksyjnych jest kolejnym przejawem wzbudzenia radiacyjnego. Fotony wytwarzane przez pobliskie jasne gwiazdy wzbudzają przejścia elektronowe wodoru cząsteczkowego, który następnie fluoryzuje i kaskadowo przechodzi do podstawowego stanu elektronowego poprzez wibracyjne przejścia w podczerwieni. Na koniec przyjrzyjmy się warunkom wzbudzenia wyprowadzonym z badań absorpcyjnych cząsteczki CN w rozproszonych i półprzezroczystych obłokach. Okazuje się, że temperatura rotacji wynosząca około 2,8 K odzwierciedla wzbudzenie przez kosmiczne pole promieniowania tła, w którym cząsteczka znajduje się w quasi-równowadze. Ta interpretacja wymagała ponad dwudziestu lat.
Jonizacja: właściwości ogólne
JONIZACJA ośrodka jest określona przez obfitość elektronów. Gęstość jonów jest następnie obliczana na podstawie warunku, że całkowity ładunek wynosi zero. Jednoczesna obecność elektronów i jonów może sugerować obecność stałych pól elektrycznych. Jednakże, ze względu na działanie siły odwrotnych kwadratów między ładunkami elektrycznymi, odległość, na jaką naładowana cząstka zanurzona w plazmie może wytworzyć znaczące pole elektrostatyczne, jest określona przez długość Debye′a L:

Zwykle bardzo małe w porównaniu ze skalą kosmiczną. Dla w pełni zjonizowanego wodoru L = 69(T/n)1/2 w jednostkach SI. Siły elektrostatyczne mogą jednak wchodzić w grę, gdy na dużych odległościach obecne są również silne pola magnetyczne. Jonizacja ośrodka ma kluczowe znaczenie dla jego właściwości w dużej skali. W wybranych zakresach szybkości jonizacji kilka faz może współistnieć w równowadze ciśnieniowej. Każda stabilna faza jest determinowana przez początek nowego mechanizmu chłodzenia lub zanik mechanizmu ogrzewania, z których wszystkie są silnie zależne od odpowiednich mikroskopowych procesów atomowych i molekularnych. Zjonizowane formy obecne w regionach astrofizycznych obejmują dużą różnorodność dodatnich jonów atomowych, niektóre z bardzo dużym ładunkiem jądrowym ze względu na ekstremalne warunki gęstości i temperatury. Jony molekularne występują również w zimnych regionach, takich jak obłoki międzygwiazdowe i środowiska komet. Jony ujemne są rzadko brane pod uwagę ze względu na ich niską stabilność wobec otaczających fotonów lub zderzeń. Rola jonu H? jest jednak niezaprzeczalna, a jego obecność w atmosferach chłodnych gwiazd jest widoczna ze względu na nieprzezroczystość kontinuum powstającą w procesie fotooderwania. Duże cząsteczki, takie jak wielopierścieniowe węglowodory aromatyczne (WWA) lub uwodornione węgle amorficzne (HAC), które są przywoływane do wyjaśnienia niezidentyfikowanych linii emisyjnych w podczerwieni o długości fali 3,3, 6,2 i 12 μm, mogą być nieco ujemnie naładowane ze względu na ich duże prawdopodobieństwo wiązania. Cząsteczki pyłu międzygwiazdowego mogą być również częściowo zjonizowane; ich ładunek jest dodatni na zewnętrznych krawędziach obłoków międzygwiazdowych i może być ujemny w centralnych częściach obłoków molekularnych. W stanie równowagi termodynamicznej liczebność jonów zależy od temperatury i gęstości elektronowej zgodnie z równaniem Sahy. Jeśli rozważymy gatunek atomowy A w dwóch dowolnych stanach jonizacji r i r + 1, wówczas gęstości liczbowe odpowiadających im populacji są powiązane następującym wzorem:
nr+1ne/nr = fr+1fe/fr . fr , fr+1 i fe to funkcje podziału odpowiednio jonów o ładunku r i r+1 oraz elektronów. Jeśli w funkcjach podziału jonów zachowamy jedynie wkład stanu podstawowego, oznaczony indeksem górnym 0, równanie Sahy ma bardziej znane wyrażenie:

g0r, g0r+1 to wagi statystyczne jonów w ich warstwie przyziemnej, a Φr to energia jonizacji jonu Ar+. To przybliżenie jest często używane do obliczania źródeł nieprzezroczystości przejść wiązania-wiązania i wiązania-swobody dostępnych pierwiastków we wnętrzach gwiazd dla różnych etapów ich jonizacji.
Źródła jonizacji
Fotojonizacja
W mgławicach gazowych jony powstają w wyniku równowagi między fotojonizacją atomów, a następnie rekombinacją radiacyjną. Fotojonizacja jest indukowana przez energetyczne fotony emitowane przez centralne jasne gwiazdy otoczone głównie gazem wodorowym. Wyrzucone elektrony rekombinują następnie z protonami, dając z powrotem wodór atomowy. Jednak wzbudzone poziomy elektronowe są skutecznie zapełniane w procesie rekombinacji, który następnie kaskadowo emituje przejścia radiacyjne w zakresie fal radiowych, milimetrowych, widzialnych i ultrafioletowych. Piękne niebieskie lub czerwone kształty widoczne w obserwacjach mgławic rzeczywiście pochodzą z linii Balmera α i Balmera β, powstających w wyniku rekombinacji. Inne pierwiastki śladowe są obecne w tych obszarach, ukazując się w widmach emisyjnych w całym zakresie widma elektromagnetycznego. W zakresie radiowym emisja występuje pomiędzy poziomami Rydberga o dużych wartościach głównej liczby kwantowej (n ≈ 100). Analiza widma rekombinacji pozwala na określenie gęstości elektronowej i temperatury, która jest o kilka tysięcy K, znacznie niższa od temperatury odpowiadającej jonizacji termicznej. Oprócz dyskretnych linii widmowych, oddziaływanie elektronów z jonami powoduje powstanie słabego promieniowania ciągłego, które w zakresie radiowym i podczerwonym jest zdominowane przez przejścia swobodne-swobodne wynikające z promieniowania hamowania. Odpowiednie fotony wyznaczają rozkład gazu mgławicowego i pozwalają na wyznaczenie gęstości elektronów poprzez tzw. miarę emisji. Fotojonizacja jest również czynnikiem jonizującym w supernowych, gdzie zwarte galaktyczne źródło promieniowania rentgenowskiego oświetla gaz. Fotojonizacja może wówczas obejmować elektrony z powłoki wewnętrznej i często następuje po niej emisja jednego lub więcej elektronów Augera. Te procesy jonizacji są mechanizmami nagrzewania gazu, podczas gdy późniejsza emisja gazu jest procesem chłodzenia. Inne procesy mogą przyczyniać się do nagrzewania, na przykład bezpośrednie rozpraszanie Comptona na elektronach. Jonizacja i temperatura gazu mogą osiągnąć stan stacjonarny w zależności od ciśnienia gazu oraz strumienia i widma promieniowania. Miarą emisji jest całka wzdłuż linii widzenia kwadratu gęstości elektronowej. Jej jednostką jest zazwyczaj cm-6 pc. Równowaga jonizacji może być modyfikowana przez dodatkowe procesy, gdy skutecznie konkurują one z jednym z podstawowych mechanizmów wymienionych powyżej. Przeniesienie ładunku z wodorem atomowym może doprowadzić równowagę w kierunku stadiów jonizacji, których modele fotojonizacji, w tym procesy rekombinacji radiacyjnej i dielektronowej, nie są w stanie uwzględnić. Dzieje się tak w mgławicach planetarnych dla kilku niskich i pośrednich linii wzbudzenia w C2+, N+, O+ itd. To odkrycie było źródłem wielu teoretycznych badań nad zderzeniami z przeniesieniem ładunku z udziałem jonów o wielu ładunkach.
Jonizacja kolizyjna
W przypadku braku promieniowania jonizującego, lokalny stan jonizacji jest kontrolowany głównie przez zderzenia jonów z elektronami termicznymi, jak na przykład w koronie słonecznej. Jonizacja zderzeniowa elektronów zachodzi również w gorącym składniku gazu międzygwiazdowego, co zostało odkryte dzięki absorpcji O5+. Dominującymi procesami są wzbudzenie i jonizacja zderzeniowa elektronów, a następnie rekombinacja radiacyjna, rekombinacja dielektronowa i promieniowanie hamowania. Rekombinacja dielektronowa zachodzi przy określonych energiach rezonansowych odpowiadających słabo związanym stanom autojonizującym, co prowadzi do znacznie wyższych współczynników szybkości, tak że rekombinacja dielektronowa dominuje nad rekombinacją radiacyjną w plazmie wysokotemperaturowej, około stukrotnie. Jeśli jonizacja pochodzi wyłącznie z elektronów termicznych, równania główne opisujące zmienność w czasie frakcji fr pierwiastka X w każdym etapie jonizacji uwzględniają gęstość elektronową przed każdym członem. Zatem w stanie ustalonym, gdzie d/dt = 0, gęstość elektronowa jest usuwana, tak że bilans jonizacji frakcji jonowych zależy jedynie od temperatury. Należy zauważyć, że sytuacji tej nie można opisać stanem równowagi termodynamicznej, ponieważ nie wynika ona ze szczegółowej równowagi procesów odwrotnych w czasie (np. fotojonizacja kontra rekombinacja radiacyjna, zderzenie elektronów kontra rekombinacja trójciałowa). W gęstych obłokach molekularnych jonizacja wynika z oddziaływania gazu z PROMIENIAMI KOSMICZNYMI, czyli cząstkami energetycznymi, takimi jak protony i cząstki alfa, prawdopodobnie wytwarzanymi podczas eksplozji supernowych. Stopień jonizacji ośrodka jest prawdopodobnie niewielki i nie można go określić bezpośrednio, ponieważ nie wszystkie obecne jony są obserwowalne. Następnie jonizację wyprowadza się z milimetrowych obserwacji jonów cząsteczkowych (HCO+) i interpretuje na podstawie modeli chemicznych. Rodnik OH jest kolejnym wskaźnikiem promieniowania kosmicznego w zimnych obłokach międzygwiazdowych, ponieważ pierwszy etap jego reakcji chemicznej obejmuje obecność protonów lub jonów H+3. Przewidywana szybkość jonizacji kosmicznej wynosi około 10-17s-1.
Egzobiologia
Egzobiologia (=bioastronomia, astrobiologia) to nauka o życiu we wszechświecie. Dokładniej, jest to badanie pochodzenia, ewolucji i rozmieszczenia życia we wszechświecie oraz struktur i procesów związanych z samym życiem .
Tło historyczne
Od mitów do powstania nowej dziedziny nauki: Czy istnieje życie gdzie indziej? To z pewnością jedno z najstarszych pytań zadawanych przez ludzkość. Wzmianki o nim można znaleźć na przykład w "Liście do Herodota" Epikura z 300 r. p.n.e. Od czasów starożytnych na całym świecie wielu autorów rozważało, omawiało i pisało swoje odczucia na temat tego fundamentalnego problemu. W XIII wieku chiński filozof Teng Mu napisał: "Jakże nierozsądne byłoby założenie, że poza Ziemią i niebem, które widzimy, nie ma innych nieb ani innych Ziem". Niektórzy zginęli z powodu tej idei. GIORDANO BRUNO (1548-1600) został spalony przez Kościół rzymskokatolicki, ponieważ, jak napisał w swoim "Del′ infinito universo e mondi′", uważał, że "istnieją niezliczone słońca i niezliczone ziemie krążące wokół swoich słońc, dokładnie tak jak nasze siedem planet krąży wokół naszego Słońca. Istoty żywe zamieszkują te światy". GALILEO GALILEI (1564-1642) promował analogiczne idee, ale na szczęście uniknął podobnego losu, wyrzekając się swoich "błędów i herezji" przed Sądem Najwyższej i Powszechnej Inkwizycji. Później kwestię życia gdzie indziej rozważało wielu pisarzy, filozofów, a nawet naukowców, takich jak Kepler, Fontenelle, Kant, Goethe i Huygens. FLAMMARION, pod koniec XIX wieku, był prawdopodobnie jednym z pierwszych, którzy zadali pytanie: "Co zrobić, aby dostarczyć dowodów na istnienie tych innych światów?". Długa historia odkrycia tzw. kanałów na powierzchni Marsa przyniosła fałszywą odpowiedź na pytanie o życie na Marsie aż do początku XX wieku. Rozwój coraz potężniejszych narzędzi do eksploracji innych światów, za pomocą teledetekcji, a ostatnio technik in situ, otworzył nowe możliwości w tej dziedzinie i zapoczątkował prawdziwe pojawienie się nowej dziedziny nauki - egzobiologii.
Narodziny nowej dziedziny
Kiedy NASA rozpoczęła program Apollo, którego celem było wysłanie ludzi na Księżyc i sprowadzenie próbek księżycowych na Ziemię, logicznie pojawiło się pytanie o ewentualną obecność (rdzennego) życia na naszym naturalnym satelicie. Problem był w istocie podwójny: jeśli na Księżycu istniały formy życia, konieczne było uniknięcie jakiegokolwiek biologicznego zanieczyszczenia naszego satelity organizmami ziemskimi, a - co ważniejsze - Ziemi hipotetycznymi organizmami księżycowymi obecnymi w próbkach księżycowych przywiezionych na naszą planetę. Dlatego w latach 60. XX wieku planetolodzy i mikrobiolodzy zaczęli wspólnie pracować nad tym zagadnieniem. To właśnie wtedy laureat Nagrody Nobla (1958) w dziedzinie medycyny i fizjologii, Joshua Ederberg, wymyślił termin "egzobiologia". Stała się ona następnie w pełni uznaną dziedziną naukową, obejmującą wiele klasycznych dziedzin, w tym astrofizykę, astronomię, planetologię, fizykę, chemię, biochemię i biologię, a także nauki humanistyczne, a nawet matematykę.
Różnorodne podejścia
Rzeczywiście, podejść jest mnóstwo. Bardziej logicznym i bezpośrednim sposobem jest poszukiwanie życia na pozaziemskich obiektach planetarnych. Można to zrobić za pomocą pomiarów teledetekcyjnych, a nawet, przy dostępności technologii kosmicznych, poprzez eksplorację in situ. Można to również przeprowadzić poprzez badania próbek pozaziemskich przeniesionych na Ziemię w wyniku procesów naturalnych (meteorytów, mikrometeorytów, cząstek pyłu kosmicznego i materiałów kometarnych) lub zebranych w kosmosie przez roboty lub misje załogowe. Techniki teledetekcyjne można nawet zastosować do poszukiwania aktywności biologicznej na planetach pozasłonecznych, gdy techniki te staną się wystarczająco skuteczne, aby wykryć obiekty podobne do Ziemi oraz obecność dużych ilości tlenu cząsteczkowego i ozonu w ich atmosferze (zakładając, że jest to jednoznaczny znak życia). Drugie podejście zakłada, że to, co wydarzyło się na Ziemi, jest powszechnym zjawiskiem we wszechświecie i że w naszej Galaktyce istnieje wiele miejsc, w których życie powstało i ewoluowało w kierunku inteligentnych i technologicznie rozwiniętych systemów żywych. Następnie, słuchając wszechświata we właściwym kierunku, na właściwej częstotliwości (prawdopodobnie fal radiowych) i we właściwym czasie, powinniśmy być w stanie wykryć sygnały pochodzące od cywilizacji pozaziemskich. Jest to podejście SETI (poszukiwania inteligencji pozaziemskiej) oparte głównie na obserwacjach radiowych. Istnieje podejście mniej bezpośrednie, ale w pełni logiczne: badanie przykładu ziemskiego, a przede wszystkim pochodzenia życia na Ziemi. Układając elementy układanki pochodzenia pierwszego systemu żywego na naszej planecie, powinniśmy być w stanie nałożyć pewne ograniczenia na warunki niezbędne do powstania życia, ogólnie rzecz biorąc, na ciele planetarnym. Co więcej, różnorodność rozmieszczenia i ograniczenia życia na Ziemi dałyby - jak dotąd - unikalny przykład rozmieszczenia i ewolucji życia we wszechświecie.
Przykład lądowy
Czym jest życie?
Jedyny przykład, jakim dysponujemy - przykład lądowy - pozwala nam scharakteryzować życie poprzez zestaw cech, których jednoczesne występowanie jest specyficzne dla systemów żywych. Najważniejsze z nich to właściwości autoreprodukcji, ewolucji i mutacji, z bardzo wysokim poziomem informacji zawartym w strukturach systemów żywych, a także z właściwością autoregulacji wbrew ograniczeniom narzucanym przez środowisko. Przykład lądowy pokazuje, że począwszy od prostego jednokomórkowego systemu żywego, naszego ostatniego uniwersalnego wspólnego przodka (LUCA), prymitywnej komórki prokariotycznej, ewolucja biologiczna była w stanie wywołać fantastyczną różnorodność biologiczną. Pomimo wielu różnic między niezwykle szeroką różnorodnością gatunków żyjących obecnie na Ziemi, życie na Ziemi wykazuje dużą jedność. W rzeczywistości różnice te widoczne są głównie na poziomie makroskopowym. Gdy tylko spojrzymy na systemy żywe pod mikroskopem, zauważymy, że wszystkie zbudowane są z komórek. Od jednej komórki jednokomórkowej do miliardów w wielokomórkowych, komórkę można uznać za jednostkę strukturalną życia. Eukarionty mają komórki z wyraźnie zróżnicowanym jądrem komórkowym, a prokarionty to komórki bezjądrowe, ale wszystkie komórki mają mniej więcej taką samą strukturę i zawierają ten sam rodzaj makrocząsteczek, izolowanych od zewnątrz błoną lipidową. Ta granica selektywności pozwala, poprzez złożone mechanizmy chemiczne, na selekcję i koncentrację wszystkich cząsteczek niezbędnych do budowy komórki, jej rozwoju i replikacji. Komórka jest mikroskopijną instalacją chemiczną życia, miejscem, w którym zachodzą wszystkie specyficzne dla życia procesy chemiczne, z udziałem cząsteczek również specyficznych dla życia.
Cegiełki
Jedność życia jest jeszcze wyraźniejsza na poziomie molekularnym. Wszystkie systemy żywe na Ziemi wykorzystują ten sam rodzaj cząsteczek, a przede wszystkim makrocząsteczki: kwasy nukleinowe i białka. We wszystkich (lądowych) systemach żywych rozmnażanie komórek jest programowane przez chromosomy, zbudowane z kwasów nukleinowych. Te makrocząsteczki zawierają informację genetyczną, która odróżnia jeden żywy system od drugiego. Wiadomość jest przechowywana w kwasie deoksyrybonukleinowym (DNA). Jest ona transkrybowana i przenoszona do rybosomu (komórki roślinnej), gdzie ulega translacji i konwersji za pomocą kodu genetycznego, umożliwiając syntezę białek, innych makrocząsteczek fundamentalnych dla życia. Białka odgrywają kluczową rolę w niemal wszystkich procesach biologicznych. Mogą działać jako bardzo specyficzny i silny katalizator, wraz z enzymami białkowymi, jako cząsteczka transportująca i magazynująca (np. hemoglobina transportująca tlen) lub jako nośnik mechaniczny, taki jak kolagen itp. Kwasy nukleinowe składają się z bardzo dużej liczby jednostek, zwanych nukleotydami, składających się z pięciowęglowego cukru, rybozy w RNA lub deoksyrybozy w DNA, połączonych z cząsteczką fosforanu i jedno- lub dwupierścieniową cząsteczką organiczną zwaną zasadą nukleotydową (taką jak adenina). Najmniejsza cząsteczka DNA składa się z kilku tysięcy nukleotydów, a największa z kilku miliardów. Jednak wszystkie używają tylko czterech różnych nukleotydów, różniąc się jedynie zasadą nukleotydową. Podobnie, wszystkie RNA na Ziemi zbudowane są tylko z czterech różnych nukleotydów, wykorzystując te same rodzaje zasad co DNA. Z tego alfabetu składającego się zaledwie z czterech liter natura może stworzyć bardzo dużą liczbę słów, używając wielu liter i zmieniając ich sekwencję z jednego kwasu nukleinowego na inny. Pierwszorzędowa struktura białek opiera się na tej samej zasadzie, chociaż ich elementy budulcowe - zwane aminokwasami - są prostsze niż nukleotydy. Spośród bardzo dużej liczby różnych aminokwasów białka wykorzystują tylko 20. Ten 20-literowy alfabet zapewnia, ponownie, fantastycznie bogate słownictwo, oparte na długich słowach, wykorzystujących dużą różnorodność sekwencji. Co więcej, cząsteczki te (z wyjątkiem najprostszego aminokwasu, glicyny) posiadają asymetryczny atom węgla i w związku z tym mogą występować w dwóch różnych konfiguracjach, zwanych enancjomerami i oznaczonych jako "L" i "D", symetrycznych, ale nienakładających się na siebie (ta właściwość nazywa się "chiralnością", a cząsteczki określa się mianem "chiralnych"). Życie wykorzystuje tylko jedną konfigurację: konfigurację "L" dla aminokwasów i "D" dla cukrów, a w konsekwencji dla nukleotydów. Aby zrozumieć pochodzenie życia, niezbędne jest zrozumienie pochodzenia białek i kwasów nukleinowych, a także pochodzenia chiralności w organizmach żywych.
Początki życia
Badania nad początkami życia na Ziemi były prawdopodobnie jednym z najskuteczniejszych podejść w egzobiologii, jeszcze przed pojawieniem się tej dziedziny. Historycznie, problem pochodzenia życia przez wieki miał niemal tylko jedną odpowiedź: samorództwo. Chociaż był on przedmiotem debaty i został odrzucony, przynajmniej w odniesieniu do życia makroskopowego, w połowie XIX wieku wielu nadal uważało, że życie może powstać spontanicznie i nagle z materii nieożywionej. W swoim - obecnie historycznym - eksperymencie nad samorództwem Pasteur wykazał w latach 60. XIX wieku, że obserwacja samorództwa mikroorganizmów z materii nieożywionej jest jedynie fałszywą interpretacją danych obserwacyjnych i można ją wytłumaczyć biologicznym zanieczyszczeniem próbek przez mikroorganizmy obecne w powietrzu. Następnie, przez ponad 50 lat, teoria pochodzenia życia opierała się głównie na koncepcji panspermii. Zakłada ona, że żywe drobnoustroje są obecne wszędzie we wszechświecie i mogą przemieszczać się w kosmosie, popychane jedynie przez ciśnienie promieniowania emitowanego przez gwiazdy. Dotarliby do Układu Słonecznego i zasiali Ziemię. Teoria panspermii nie jest dziś całkowicie porzucona; jednak powszechnie akceptowana teoria opiera się obecnie na zupełnie innej koncepcji "ewolucji chemicznej". Koncepcja ewolucji chemicznej, pojawiająca się już w kilku pismach XIX wieku, w szczególności w listach Darwina, została po raz pierwszy jasno wprowadzona i opisana przez radzieckiego biochemika Oparina w 1924 roku. Główną ideą jest założenie, że życie powstało na Ziemi po długiej ewolucji organicznych (zawierających chemicznie zredukowany węgiel, tj. węgiel w formie nieutlenionej), ale obojętnych materiałów poprzedzających biologiczną ewolucję Darwina i umożliwiających, poprzez naturalne procesy chemiczne obecnie tak zwanej "chemii prebiotycznej", tworzenie struktur o rosnącej złożoności, aż do pierwszego systemu replikacyjnego. Dla Oparina nasz przodek byłby mikroorganizmem "heterotroficznym" (żywym systemem niezdolnym do syntezy potrzebnych mu cząsteczek organicznych), odżywiającym się licznymi związkami organicznymi obecnymi na pierwotnej Ziemi, wytwarzanymi w atmosferze i pierwotnych oceanach w procesach abiotycznych (bez udziału życia). Ta wizja uległa obecnie znacznej zmianie i wydaje się bardziej prawdopodobne, że pierwszy żywy system był "autotrofem" (żywym systemem zdolnym do syntezy potrzebnych mu cząsteczek organicznych), odżywiającym się cząsteczkami nieorganicznymi, w szczególności dwutlenkiem węgla, obecnymi w jego środowisku. Ponadto przywołuje się kilka scenariuszy wyjaśniających pochodzenie prostych związków organicznych zaangażowanych w tę prebiotyczną chemię. Jednak ogólna koncepcja ewolucji chemicznej od prostych do złożonych związków organicznych i do pierwszych biomakrocząsteczek zdolnych do replikacji pozostaje ta sama. Pierwszy eksperymentalny dowód tej teorii został dostarczony w 1953 roku wraz z publikacją znanego obecnie eksperymentu Stanleya Millera. Symulując w reaktorze ewolucję modelu pierwotnej atmosfery Ziemi w warunkach depozycji energii, w obecności ciekłej wody, Miller był w stanie uzyskać aminokwasy. Otworzyło to również nową dziedzinę chemii prebiotycznej. Od 1953 roku przeprowadzono setki podobnych eksperymentów, wykorzystując różne warunki (źródła energii, skład mieszaniny gazowej itp.). Pokazują one, że produkcja cząsteczek organicznych, w tym aminokwasów i zasad nukleotydowych, jest możliwa, ale tylko wtedy, gdy atmosfera początkowa jest chemicznie redukująca. Pokazują one również znaczenie kilku prostych cząsteczek organicznych, takich jak formaldehyd, HCHO, cyjanowodór, HCN, cyjanoacetylen, HC3N i inne nitryle, ze względu na ich właściwości chemiczne w ciekłej wodzie. Chociaż nie dysponujemy bezpośrednimi informacjami na temat warunków panujących na pierwotnej Ziemi, obecne modele faworyzują atmosferę utleniającą. To drastycznie zmniejsza znaczenie procesów atmosferycznych w powstawaniu substancji organicznych na pierwotnej Ziemi. Można jednak rozważyć inne źródła. Głębinowe kominy hydrotermalne, które zawierają wiele składników chemicznych zdolnych do indukowania syntez prebiotycznych, są obecnie uważane za możliwe miejsce na pierwotnej Ziemi, gdzie rozpoczęła się chemiczna ewolucja w kierunku życia. Inną możliwością jest założenie, że znaczna część początkowych składników węglistych, niezbędnych do chemii prebiotycznej, została sprowadzona z kosmosu. Rzeczywiście, Ziemia jest stale bombardowana materiałami pozaziemskimi (meteorytami, mikrometeorytami, pyłami międzyplanetarnymi i materią kometarną), z których znaczna część zawiera substancje organiczne. Jest prawdopodobne, że te bombardowania były jeszcze ważniejsze na pierwotnej Ziemi i dlatego mogły być źródłem substancji organicznych. Niezależnie od scenariusza, dziś powszechnie wiadomo, że życie było w dużej mierze obecne na Ziemi 3,5 miliarda lat temu, od czasów najstarszych stromatolitów (małych struktur geologicznych powstałych w wyniku interakcji mikroorganizmów z ich środowiskiem). Pokazują one również, że było to już złożone życie, zdolne do fotosyntezy. Prawdopodobnie pierwsze systemy żywe były prostsze. Niedawne odkrycie właściwości katalitycznych RNA i "Świata RNA" sugeruje, że te biomakromolekuły mogły być pierwszym systemem replikującym. Jednak wielu wciąż ma wątpliwości ze względu na trudności eksperymentalne w prebiotycznej syntezie tych cząsteczek, a nawet ich elementów budulcowych (nukleotydów). Wręcz przeciwnie, aminokwasy i ich polimery są znacznie łatwiejsze do uzyskania. Pytanie pozostaje otwarte. Jeśli istnieje życie gdzie indziej, nie ma powodu, by zakładać, że musi ono mieć taki sam wygląd jak życie, które znamy na Ziemi, ze względu na różnorodność i zróżnicowanie życia lądowego na poziomie morfologicznym. Jednak na poziomie molekularnym przykład ziemski może być bardziej ogólny. Znaczenie wody w stanie ciekłym i chemii węgla w prebiotycznych procesach lądowych prawdopodobnie nie ogranicza się do Ziemi: woda jest powszechnie występującą cząsteczką, a węgiel jest powszechnie występującym pierwiastkiem we wszechświecie. Odkrycie aktywnej chemii organicznej w obłokach międzygwiazdowych wyraźnie potwierdza tezę o uniwersalnym charakterze chemii organicznej. Można zatem zasadnie założyć, że życie pozaziemskie również opiera się na chemii węgla i wodzie w stanie ciekłym, nawet jeśli hipotetyczna biochemia pozaziemska niekoniecznie musi być identyczna z tą, którą znamy.
Egzobiologia w Układzie Słonecznym
Wiele obiektów Układu Słonecznego budzi zainteresowanie z punktu widzenia egzobiologii: nie tylko Ziemia, ale także komety, Mars, Europa, a nawet planety olbrzymy i niektóre ich satelity, takie jak Tytan i Tryton, ze względu na bardzo złożoną chemię organiczną zachodzącą w ich środowiskach. Meteoryty, mikrometeoryty i komety. Do 1969 roku jedynymi pozaziemskimi próbkami dostępnymi w naszym laboratorium były METEORYTY, w szczególności węgliste CHONDRYTY. Szczegółowe badania meteorytów nie wykazały obecności pozaziemskich mikroorganizmów w tych obiektach. Niedawna historia marsjańskiego meteorytu ALH 84001 nie podważa tego stwierdzenia. Jednakże, obecnie, dzięki dokładnej analizie chemicznej chondrytów węglistych, jest w pełni udowodnione, że ta klasa meteorytów jest bogata w związki organiczne. Kilka procent materii węglistej zawiera cząsteczki o znaczeniu biologicznym, takie jak aminokwasy, a nawet zasady nukleotydowe. Co więcej, niedawne ponowne analizy niektórych z tych meteorytów wykazują obecność nadmiaru enancjomerów L w zawartości aminokwasów pochodzenia pozaziemskiego. Powinno to mieć istotny wpływ na naszą wiedzę na temat pochodzenia chiralności w ziemskich systemach życia. KOMETY mogły również odegrać istotną rolę w powstaniu życia na Ziemi, importując wodę i substancje organiczne na pierwotną Ziemię. W każdym razie są one ważnymi obiektami dla egzobiologii ze względu na kometarną chemię organiczną. Chociaż skład molekularny jądra komety nadal nie jest znany, zakłada się, że komety są bardzo bogate w substancje organiczne, zbudowane z atomów C, H, O i N. Przyszłe misje kometarne, w szczególności misja Rosetta ESA z analizą in situ jądra komety, powinny dostarczyć w pierwszej dekadzie 2000 roku istotnych informacji na temat jądra komety.
Mars i Europa
Jak dotąd dwa obiekty planetarne wydają się najbardziej obiecujące dla bezpośrednich poszukiwań życia pozaziemskiego w Układzie Słonecznym. Pierwszym z nich jest planeta MARS, a drugim EUROPA, jeden z galileuszowych satelitów Jowisza. Pomimo rozmiarów (około połowy Ziemi) i braku - obecnie - gęstej atmosfery i ciekłej wody, Mars jest nadal uważany za najlepszy cel. VIKING nie był w stanie wykryć obecności mikroorganizmów (autotrofów lub heterotrofów, patrz definicje powyżej) w glebie Marsa. Wykazał jednak, że Czerwona Planeta była prawdopodobnie pokryta ciekłą wodą i miała gęstą atmosferę w czasie, gdy na Ziemi pojawiło się już życie. Ponieważ w tamtym czasie Ziemia i Mars były bardzo podobne, logiczne jest założenie, że to, co wydarzyło się na Ziemi, miało również miejsce na Marsie. Następnie obie planety ewoluowały inaczej. Z powodu aktywności tektonicznej, zbyt słabej, aby recyrkulować dwutlenek węgla (niezbędny do utrzymania ciepła powierzchni przez efekt cieplarniany), Mars stracił większość swojej atmosfery i stawał się coraz zimniejszy. Stracił również ciekłą wodę powierzchniową, która może teraz być uwięziona jako stała "wieczna zmarzlina" w glebie Marsa. Ponadto, w takich warunkach atmosfera stała się silnie utleniająca; Utleniacze, takie jak nadtlenek wodoru, rozprzestrzeniły się w glebie, a całe życie na Marsie stopniowo zniknęło z tego nieprzyjaznego środowiska, przynajmniej na jej powierzchni i w jej pobliżu. Chociaż obecność życia na Marsie nie jest całkowicie wykluczona, przyszłe misje na Marsa będą musiały zostać wyposażone w instrumenty naukowe w celu poszukiwania śladów wymarłego życia w glebie Marsa, na tyle głęboko (co najmniej kilka metrów), aby dotrzeć do głębokości, na których procesy utleniania są uznawane za nieistotne. Takie misje są obecnie przygotowywane. Zainteresowanie egzobiologów Europą jest nowsze. Dane z sondy VOYAGER dotyczące zewnętrznych obszarów Układu Słonecznego dostarczyły wystarczających informacji do stworzenia modeli struktury wewnętrznej wielu planet olbrzymów i ich satelitów. Spośród trzech głównych modeli Europy jeden zakłada, że lodowa powierzchnia satelity Jowisza odpowiada skorupie lodowej o głębokości kilku kilometrów, pokrywającej ocean ciekłej wody na głębokości kilkudziesięciu kilometrów. Jeśli taki ocean charakteryzuje się aktywnością hydrotermalną, nie można wykluczyć obecności organizmów żywych, mikroorganizmów prokariotycznych, a nawet makroskopowych eukariontów. Jednak wykrycie takich żywych systemów nie będzie łatwym zadaniem.
Tytan
Misja Voyager zbadała kolejny obiekt planetarny, który następnie stał się obiektem zainteresowania egzobiologii: TITAN. Voyager wykazał, że największy satelita Saturna, drugi pod względem wielkości w Układzie Słonecznym, ma gęstą atmosferę, zbudowaną głównie z azotu cząsteczkowego (ponad 90%), z zauważalnym stężeniem metanu (kilka procent). Chociaż Tytan jest znacznie chłodniejszy niż Ziemia, jego profil termiczny atmosfery jest bardzo podobny do ziemskiego, z troposferą (95-74 K), tropopauzą (74 K) i stratosferą (74-170 K), ze względu na obecność gazów cieplarnianych (głównie metanu i wodoru) oraz składników antycieplarnianych (chmur i aerozoli). Taki główny skład chemiczny atmosfery jest bardzo korzystny dla syntez organicznych. Na podstawie eksperymentów laboratoryjnych i modelowania teoretycznego można spodziewać się wielu związków organicznych w atmosferze Tytana, głównie węglowodorów i nitryli. Rzeczywiście, wykryto już kilka związków organicznych: wszystkie należą do dwóch klas związków organicznych. Co więcej, w atmosferze Tytana wykryto najważniejsze nitryle ziemskiej chemii prebiotycznej - cyjanowodór, cyjan i cyjanoacetylen. Środowisko to jest również bardzo bogate w aerozole i prawdopodobnie w chmury. Jest to zatem jedyny znany satelita, którego powierzchnia nie jest widoczna z zewnątrz. Chociaż natura chemiczna tych aerozoli nie została dotychczas bezpośrednio określona, wydaje się prawdopodobne, że są one głównie organiczne, z jądrem o charakterze makrocząsteczkowym. Co więcej, modele powierzchni i jej interakcji z atmosferą silnie sugerują, że jest ona częściowo pokryta morzami i jeziorami ciekłego metanu i etanu (odpowiednio niezbędnym źródłem i pochłaniaczem tych dwóch związków na Tytanie). Z wyjątkiem ciekłej wody, nieobecnej na tym zbyt zimnym obiekcie planetarnym, ze względu na jego środowisko, bardzo bogate w związki organiczne, w fazie gazowej i aerozolowej, oraz możliwą obecność ciał ciekłych na powierzchni, Tytan wykazuje wiele podobieństw do pierwotnej Ziemi. Badania Tytana powinny dostarczyć wielu kluczowych informacji na temat możliwych sprzężeń w procesach związanych z substancjami organicznymi między różnymi częściami planetarnego geofluidu. Co więcej, badanie chemii Tytana, ze względu na brak ciekłej wody, może również dostarczyć kluczowych danych na temat roli, jaką odgrywa ciekła woda w egzobiologii. Misja Cassini-Huygens, wystrzelona w październiku 1997 roku, dotrze do układu Saturna w 2004 roku (patrz MISJA CASSINI). Następnie sonda Cassini-NASA stanie się sztucznym satelitą Saturna i wypuści sondę Huygens-ESA, która wejdzie w atmosferę Tytana. Podczas 2,5-godzinnego opadania sześć instrumentów naukowych na pokładzie sondy przeprowadzi szczegółową analizę fizyczną i chemiczną atmosfery Tytana (gazu i aerozoli) oraz powierzchni. W nominalnym czasie trwania misji (do 2008 roku) 12 instrumentów naukowych sondy Cassini dostarczy również istotnych informacji o znaczeniu egzobiologicznym na temat środowiska Tytana.
Egzobiologia poza Układem Słonecznym
Medium międzygwiazdowe
Chemia organiczna nie jest specyficzna ani dla Ziemi, ani dla Układu Słonecznego. Wydaje się, że jest szeroko obecna w całym Wszechświecie. W ośrodku międzygwiazdowym wykryto już sto dziesięć różnych cząsteczek: znaczna większość z nich (87) to związki organiczne (a tylko siedem zawiera atomy krzemu). Złożona chemia organiczna prawdopodobnie występuje w obłokach międzygwiazdowych, w gazie i w fazie stałej pyłu międzygwiazdowego. Taka chemia mogła również występować w obłoku molekularnym, z którego powstała mgławica przedsłoneczna, a następnie Układ Słoneczny. Badanie tej chemii i jej ewolucji w fazie akrecji mgławicy przedsłonecznej i Układu Słonecznego ma ogromne znaczenie egzobiologiczne.
Planety pozasłoneczne
Od czasu pierwszego - obecnie potwierdzonego - wykrycia planety wokół gwiazdy 51 Peg przez szwajcarskich astronomów Mayora i Queloza w 1996 roku, odkryto ponad 20 EGZOPLANET wokół pobliskich gwiazd. Ze względu na nasze obecne technologie, takie odkrycia ograniczają się do planet wielkości Jowisza. Jednak już teraz wskazują one na szeroką gamę obiektów planetarnych we Wszechświecie, ponieważ wykryte planety olbrzymy bardzo różnią się od tych z Układu Słonecznego - są znacznie bliżej swojej gwiazdy i znacznie cieplejsze. Wokół tych gigantycznych egzoplanet mogą krążyć satelity podobne do Tytana, posiadające gęste atmosfery, a w przeciwieństwie do Tytana - również wodę w stanie ciekłym. Te układy planetarne mogą również posiadać planety podobne do Ziemi, które powinny być wykrywalne dzięki naszym przyszłym technologiom. Powinniśmy nawet być w stanie wykryć, za pomocą teledetekcji, ślady życia na tych hipotetycznych planetach. Chociaż oczekuje to na potwierdzenie, obecność dużej ilości tlenu cząsteczkowego, a tym samym ozonu, w atmosferze planety może okazać się wiarygodnym wskaźnikiem. Wykrycie intensywnych pasm ozonu w podczerwieni na egzoplanecie powinno silnie sugerować obecność życia na niej.
SETI
Inne podejście zakłada, że życie ewoluowało, podobnie jak na Ziemi, w kierunku inteligencji i zaawansowanych technologicznie cywilizacji: musimy zatem poszukiwać sygnałów pochodzących od takiej hipotetycznej inteligencji pozaziemskiej (SETI). Zgodnie z propozycją Cocconiego i Morrisona już w 1959 roku, domena fal radiowych wydaje się być najbardziej odpowiednia do komunikacji międzygwiezdnej. Co więcej, we Wszechświecie mogą istnieć "magiczne" długości fal, odpowiadające liniom emisyjnym bardzo powszechnych związków, takich jak specyficzna linia radiowa wodoru na 21 cm. Pierwszy eksperyment SETI został przeprowadzony przez Franka Drake′a w 1960 roku. W ramach swojego projektu "Ozma" przez kilka tygodni nasłuchiwał dwóch pobliskich gwiazd (Epsilon Eridani i Tau Ceti) na magicznej długości fali 21 cm. Od tego czasu przeprowadzono kilkadziesiąt podobnych eksperymentów, w tym ostatnio za pomocą dedykowanego detektora o kilku milionach kanałów. Wykryto (jeszcze) niezidentyfikowany sygnał inteligencji pozaziemskiej. Jednak do tej pory zbadano tylko bardzo mały fragment naszego wszechświata. Chociaż nie otrzymaliśmy jeszcze żadnego wyraźnego przekazu od cywilizacji pozaziemskiej, wysłaliśmy już kilka na zewnątrz. Statki kosmiczne Pioneer X i XI, wystrzelone na początku lat 70. XX wieku, które obecnie podróżują poza Układem Słonecznym, niosą metalową ramę z wygrawerowanymi informacjami o Układzie Słonecznym, Ziemi i życiu na Ziemi. Podobnie, Voyager 1 i 2, wystrzelone w 1977 roku, niosą na pokładzie dysk wideo o naszej planecie. Wiadomość została również wysłana z radioteleskopu Arecibo w kierunku Messier 31. Oczywiście wszystkie te działania mają charakter symboliczny, ale wyraźnie pokazują, że obecnie idea istnienia życia gdzie indziej, w tym życia inteligentnego, jest powszechnie akceptowana zarówno przez społeczność naukową, jak i polityczną.
Aktualne badania i perspektywy
Egzobiologia jest obecna w każdej dziedzinie i prawie wszystkie podejścia egzobiologiczne są skutecznie realizowane do dziś. Szeroka społeczność naukowa zajmuje się badaniem pochodzenia życia, o czym świadczy liczebność (około 500 członków) Międzynarodowego Towarzystwa Badań nad Pochodzeniem Życia (ISSOL). W tej dziedzinie prawdopodobnie przyszłe uprzywilejowane badania będą obejmować poszukiwanie replikujących się cząsteczek prostszych niż RNA, syntezę prebiotyczną w podmorskich kominach hydrotermalnych (poprzez modelowanie teoretyczne, a także eksperymenty laboratoryjne) oraz badania procesów prebiotycznych w mikrometeorytach. W tysiącleciu 2000 nastąpi znaczny wzrost liczby egzobiologicznych eksploracji Układu Słonecznego. Wiele misji na Marsa jest już zaplanowanych w latach 2000-2010, z dedykowaną aparaturą do poszukiwania przeszłego i obecnego życia na Czerwonej Planecie. Okres ten powinien również doprowadzić do ważnych odkryć dotyczących komet, w przypadku misji Rosetta, oraz Tytana, w przypadku misji Cassini-Huygens. Możemy nawet spodziewać się misji na Europę, z poszukiwaniem życia w jej hipotetycznych oceanach. W latach 2010-2020, jeśli nie wcześniej, można by oczekiwać, dzięki technologii podobnej do tej planowanej w misji IRSI (dawniej Darwin), wykrycia planet pozasłonecznych podobnych do Ziemi oraz pozaziemskiej aktywności biologicznej poprzez odkrycie ozonu. Niezależnie od tych odkryć, jasne jest, że nowe tysiąclecie powinno radykalnie zachęcić do multidyscyplinarności. Egzobiologia, jako jedna z największych dziedzin multidyscyplinarnych, powinna zatem, umieszczona na pierwszym planie, być dziedziną przyszłości.
Rozciągnięte Atmosfery
Podczas całkowitego ZAĆMIENIA Słońca, gdy Księżyc zasłania intensywnie jasny dysk słoneczny, wokół Słońca można dostrzec słabą białą "aureolę" . Ta aureola, oficjalnie nazywana "KORONĄ" Słońca (tj. "koroną"), istnieje głównie dzięki elektronom w zewnętrznej atmosferze słonecznej: mimo że dysk słoneczny jest ukryty przed bezpośrednim wzrokiem, elektrony rozpraszają ułamek światła z dysku w kierunku naszych oczu. Ułamek rozpraszany w naszym kierunku jest niewielki, zazwyczaj nie więcej niż około 1 część na milion wszystkich fotonów emitowanych przez Słońce. (W dalszej odległości od Słońca występuje również pewne rozpraszanie przez cząsteczki pyłu). Ułamek 1 na milion należy porównać z jasnością nieba w pobliżu Słońca, wynikającą z obecności cząsteczek i pyłu w naszej atmosferze: w najlepszych górskich miejscach obserwacyjnych na Ziemi intensywność czystego, błękitnego nieba może być na tyle niska, że najgłębsza korona jest widoczna gołym okiem. Zazwyczaj jasność czystego nieba w pobliżu poziomu morza jest tysiąc razy większa niż korona. To wyjaśnia, dlaczego korona jest zbyt słaba, by można ją było dostrzec gołym okiem poza zaćmieniem. Jednak gdy korona jest widoczna, może mieć dość nieregularny kształt, rozciągając się w niektórych kierunkach znacznie bardziej niż w innych. Najmniejszy zasięg korony występuje nad biegunami północnym i południowym Słońca, zwłaszcza gdy Słońce znajduje się blisko minimalnego poziomu aktywności plam słonecznych. Największy zasięg korony występuje w formacjach zwanych "strumieniami", które można zobaczyć z odległości nawet równej promieniowi Słońca lub dalej poza to, co zwykle uważa się za "krawędź" Słońca. Widoczna jest również przez krótki czas podczas niektórych faz całkowitego zaćmienia różowa aureola światła blisko Słońca . Ta kolorowa aureola, znana jako "CHROMOSFERA" (tj. "sfera barw"), również rozciąga się poza zwykłą "krawędź" Słońca, choć nie tak daleko jak korona. Chromosfera i korona razem tworzą to, co można nazwać "rozszerzoną atmosferą" Słońca. Obecnie wiadomo, że takie rozszerzone atmosfery występują również wokół innych gwiazd.
Przypadek nie rozciągłości
Aby docenić znaczenie rozciągłych atmosfer w Słońcu i innych gwiazdach, warto najpierw omówić atmosfery, które można określić jako "nierozciągłe". Niniejsza dyskusja posłuży podkreśleniu warunków, które muszą być spełnione, aby gwiazda mogła wytworzyć atmosferę, którą można by rzeczywiście określić jako "rozciągłą". Dwa obiekty, które są charakterystycznymi elementami nieba, wydają się mieć ostre krawędzie: Księżyc i Słońce. Wydaje się to trywialną obserwacją, ale mówi nam coś pouczającego. Jeśli chodzi o Księżyc, nie dziwi fakt, że zawsze widzimy ostrą krawędź: w końcu Księżyc jest zbudowany z materiału stałego, na tyle stałego, że po jego powierzchni chodziło dwunastu ludzi. Patrząc na krawędź Księżyca, widzimy obszar, w którym kończy się stała powierzchnia, a zaczyna próżnia kosmiczna. Ponieważ jest to przejście nieciągłe, nic dziwnego, że krawędź wydaje nam się ostra. Słońce jednak nie ma stałej powierzchni: składa się z gazu, który ma tendencję do dyfuzji we wszystkich kierunkach. Czy to nie powinno powodować, że "krawędź" Słońca będzie wydawać się rozmyta? A jednak Słońce wydaje się mieć ostrą krawędź: kiedy obserwujemy zachód Słońca, nadchodzi moment, gdy ostatni skrawek tarczy słonecznej jest ledwo widoczny, a potem, w jednej chwili, znika z pola widzenia. Dlaczego krawędź Słońca wydaje się ostra? Powód wiąże się z faktem, że światło, które widzimy, patrząc na Słońce, pochodzi z gazu, który nie może swobodnie dyfundować, dokądkolwiek zechce: siła grawitacji utrzymuje gaz. Gdyby grawitacja działała po swojemu, ściągnęłaby cały gaz w dół, do centrum przyciągania w centrum Słońca. Ale grawitacja nie działa po swojemu: siła grawitacji działająca do wewnątrz jest równoważona przez ciśnienie wywierane przez gaz. Ciśnienie gazu wynika z faktu, że poszczególne atomy nie są ściśle ze sobą związane, ale mogą swobodnie poruszać się we wszystkich kierunkach. Ze względu na tę swobodę ruchu cząsteczek składowych, gaz ma naturalną tendencję do dyfundowania i wypełniania całej dostępnej przestrzeni. W pewnych warunkach przeciwstawne tendencje grawitacji i ciśnienia mogą się równoważyć, a gaz może pozostać nieruchomy. Czasami jednak znalezienie równowagi między grawitacją a ciśnieniem jest niemożliwe: w takim przypadku gaz nie może pozostać nieruchomy. Oba te przypadki dotyczą różnych części atmosfery słonecznej i pomagają nam zrozumieć, dlaczego Słońce ma atmosferę nierozciągłą w jednym obszarze, a rozciągłą w innym.
Równowaga hydrostatyczna
Gdy siła przyciągania grawitacyjnego jest w idealnej równowadze z tendencją gazu do dyfuzji, mówi się, że gaz znajduje się w "równowadze hydrostatycznej" (HSE). Równanie opisujące HSE można wyprowadzić, wymagając, aby po dodaniu do atmosfery dodatkowej porcji gazu, dodatkowy ciężar tej porcji został zrównoważony przez dodatkowe ciśnienie. Równanie opisujące tę równowagę to
dp/dr = ?gρ (1)
gdzie p to ciśnienie gazu, r to odległość radialna od środka Słońca, g to przyspieszenie grawitacyjne, a ρ to gęstość gazu. Szczególnie proste rozwiązanie równania HSE można uzyskać, jeśli rozważymy szczególny przypadek gazu doskonałego o jednorodnej temperaturze. W takim gazie ciśnienie wywierane przez gaz jest związane z jego gęstością zgodnie z prawem Charlesa:
p = RgρT/μ (2)
T to temperatura gazu (w skali bezwzględnej), μ to średnia masa cząsteczkowa gazu (w skali, w której atom wodoru ma masę równą jedności), a Rg jest nazywane "stałą gazową". Wartość Rg definiuje się jako stosunek stałej Boltzmanna do masy atomu wodoru: Rg (≈8,3 J mol-1K-1) jest miarą energii w przypadkowych (termicznych) ruchach 1 g atomów wodoru w temperaturze 1 K powyżej zera absolutnego. Podstawiając równanie (2) do równania (1) i zakładając na chwilę, że g i μ są również stałe, możemy wyznaczyć gęstość ? jako funkcję promienia r:
ρ = ρ0 exp[?(r?r0)/H]. (3)
Tutaj ρ0 jest gęstością na poziomie atmosfery, gdzie odległość radialna jest równa r0. Wielkość H, która ma wymiar długości, jest powiązana z parametrami atmosfery wyrażeniem
H = RgT/gμ. (4)
Aby zrozumieć znaczenie długości H, zauważ, że gdy mierzymy gęstość gazu na wysokości H powyżej r = r0, równanie (3) mówi nam, że lokalna gęstość jest mniejsza od gęstości przy r = r0 o współczynnik e. Za każdym razem, gdy przesuwamy się o odległość liniową H, gęstość spada o współczynnik e. Tak więc, jeśli przesuniemy się na wysokość 10H powyżej r0, lokalna gęstość będzie mniejsza niż przy r = r0 o współczynnik e10, tj. o współczynnik około 22 000. Oznacza to, że na każde 22 000 atomów przy r =r0 przypada tylko około jednego atomu przy r = r0 + 10H. Innym sposobem spojrzenia na to jest rozważenie, że spośród 22 000 atomów przy r = r0, z których wszystkie mają tendencję do dyfundowania na zewnątrz w przestrzeń kosmiczną, tylko jeden ma wystarczającą energię (tj. wystarczająco dużą prędkość), aby wznieść się wbrew grawitacji na wysokość 10H powyżej r0. Liczba atomów zdolnych do wzniesienia się na jeszcze większe wysokości (powiedzmy 20H) jest jeszcze mniejsza (o kolejny czynnik 22 000). Oczywiste jest, że gęstość atomów spada bardzo szybko wraz ze wzrostem wysokości w tym przykładzie HSE. Wielkość H, która mierzy, jak szybko gęstość spada wraz z wysokością, jest nazywana "wysokością skali" atmosfery. Fizycznie rzecz biorąc, istotna rola wysokości skali ma związek z ilością gazu w atmosferze: gdyby cały gaz w atmosferze musiał mieć tę samą gęstość, wówczas grubość atmosfery byłaby równa H. Oznacza to, że jeśli wyobrażę sobie, że stoję w obszarze atmosfery, w którym lokalna gęstość gazu wynosi n0, wówczas całkowita liczba cząstek leżących w kolumnie o powierzchni A nad moją głową jest równa n0 razy H razy A. Wynik ten będzie przydatny poniżej, gdy oszacujemy gęstość liczby cząstek w koronie. Mając teraz wyrażenie na H, możemy zrozumieć, dlaczego krawędź Słońca jest ostra: ma to związek z wartością liczbową H w warstwach atmosfery słonecznej, które możemy zobaczyć gołym okiem.
Skala wysokości w fotosferze słonecznej
Warstwy Słońca, które widzimy, nazywane są "FOTOSFERA SŁONECZNA" (dosłownie "sfera światła"): warstwy te zawierają atomy gazu, które rozpraszały fotony światła po raz ostatni, zanim światło rozpoczęło swoją podróż przez (względną) próżnię przestrzeni międzyplanetarnej w kierunku naszych oczu. Gaz w fotosferze ma temperaturę T około 5000 K. Ponadto gaz składa się w około 90% z neutralnych atomów wodoru i w około 10% z helu: prowadzi to do μ ≈ 1,3. Przyspieszenie grawitacyjne w fotosferze gphot można oszacować ze wzoru Newtona gphot = GM⊙ /R2⊙ , znając masę Słońca M⊙ ≈ 2 × 1030 kg i promień fotosfery R ≈ 7 × 108 m. (G ≈ 6,67×10-11Nm2kg-2 to stała grawitacji Newtona). Podstawiając powyższe wartości, otrzymujemy gphot ≈ 270 m s-2. Teraz możemy oszacować wysokość skali Hphot w fotosferze: Hphot ≈ 120 km.
"Krawędź" fotosfery: jak ostra jest?
Załóżmy, że skieruję teleskop na krawędź Słońca i ustawię krzyż nitek dokładnie na fotosferze. Gęstość gazu w tym miejscu ma określoną wartość, ρ0, co wystarcza, aby rozproszyć fotony ze Słońca po raz ostatni i skierować je w moją stronę. Mierzę natężenie światła, licząc, ile fotonów dociera do mojego detektora w każdej sekundzie od tego pierwszego ustawienia, P1. Teraz załóżmy, że przesunę ustawienie teleskopu w drugą pozycję: ustawię krzyż nitek na gazie znajdującym się 1200 km nad fotosferą. Gęstość gazu w tej nowej pozycji, która jest 10Hfot powyżej pierwszej pozycji, jest 22 000 razy mniejsza niż w pierwszej pozycji. Przy tak niskiej gęstości wystąpi około 22 000 mniej rozproszeń, w rezultacie liczba fotonów, które policzę od tego drugiego wskazania P2, będzie mniejsza o 22 000 od P1. Ponieważ P2 jest znacznie mniejsze od P1, gaz w punkcie 2 wydaje się ciemny w porównaniu z fotosferą. Zatem, przemieszczając się z P1 do P2, przeniosłem się z jasnego światła słonecznego w to, co w istocie jest ciemnością: zgodnie z wszelkimi definicjami, minąłem "krawędź" (lub brzeg) Słońca. Teraz, w kontekście tego, jak ostra wydaje się nam krawędź Słońca, pytanie brzmi: jak daleko, w kategoriach kątowych, musiałem przesunąć teleskop, aby przejść od wskazania 1 do wskazania 2? Odpowiedź zależy od odległości od Słońca. Wiadomo, że wynosi ona około 150 milionów km. Przy takiej odległości, aby przesunąć celownik teleskopu o odległość 1200 km, muszę przesunąć teleskop o kąt od 1 do 2 sekund łuku. Ludzkie oko nie jest w stanie rozróżnić tak małego kąta (tak małego jak piłka golfowa widziana z odległości kilku mil). W rezultacie, patrząc na krawędź Słońca, widzę, jak Słońce przechodzi od jasności (fotosfera) do ciemności (gaz na wysokości 10Hphot) w odległości kątowej tak małej, że nie jestem w stanie go rozróżnić. Krawędź Słońca wydaje mi się zatem zasadniczo nieciągła, mimo że w zasadzie gęstość gazu spada płynnie i stale, zgodnie z przewidywaniami HSE.
Chromosfera
Podczas zaćmienia, gdy chromosfera pojawia się ponad krawędzią Księżyca, światło pochodzi głównie z linii widmowych emitowanych przez wodór. Najsilniejsza z nich w widmie widzialnym nosi nazwę Hα. Długość fali Hα wynosi 6563 Å i znajduje się w czerwonym obszarze widma. To właśnie przewaga tej linii nadaje chromosferze jej czerwonawy kolor. Dokładne pomiary sposobu, w jaki intensywność Hα i innych linii widmowych zmienia się wraz z wysokością, umożliwiają obserwatorom określenie "wysokości skali" dla każdej linii: jest to wysokość, na której intensywność linii spada o współczynnik e. Różne linie dają nieco odmienne wyniki, ale średnie wartości wynoszą setki kilometrów, a nawet 1000 km. Chociaż do ścisłej interpretacji intensywności linii widmowych w kategoriach lokalnych gęstości gazu wymagany jest model, dane wskazują, że wysokości skali w chromosferze są z pewnością większe niż Hphot. Równowaga hydrostatyczna, gdzie H = RgT/gμ, jest dobrym przybliżeniem dla chromosfery, w związku z czym chromosfera wymaga temperatur wyższych niż w fotosferze. Wymagana jest nadwyżka temperatury w chromosferze w porównaniu z fotosferą o kilka tysięcy stopni.
Korona: jakie są temperatury?
Obraz korony wskazuje, że korona rozciąga się w pewnych kierunkach na znaczną część promienia słonecznego, zanim zaniknie. Pomiary sposobu, w jaki jasność zanika, mogą posłużyć do przypisania gęstości materiału koronalnego "wysokości skali" Hcor. Typowe wartości Hcor wynoszą jedną lub dwie dziesiąte promienia słonecznego, tj. Hcor ≈ 108 m. Jest to prawie 1000 razy więcej niż wysokość skali w fotosferze. Ten współczynnik, wynoszący prawie 1000, wskazuje, że Słońce rzeczywiście posiada zewnętrzną atmosferę, która jest "rozciągnięta" w porównaniu z tym, co widzimy w fotosferze. Czy równowaga hydrostatyczna dotyczy korony? Odpowiedź zależy od tego, o której części korony mówimy. Najpierw omówmy obszary blisko Słońca, w odległości kilku dziesiątych promienia słonecznego od fotosfery. (Wrócimy w następnej sekcji do regionów położonych dalej.) Blisko Słońca, HSE jest prawdopodobnie dobrym przybliżeniem. Dlatego, aby odtworzyć wysokość Hcor w skali koronalnej, która jest prawie 1000 razy większa niż w fotosferze, potrzebujemy temperatury koronalnej, która jest prawie 1000 razy wyższa niż w fotosferze. Oznacza to, że temperatury koronalne muszą wynosić kilka milionów stopni. Czy to możliwe? Czy gaz w rozszerzonej atmosferze Słońca może być naprawdę prawie 1000 razy gorętszy niż gaz w fotosferze? Odpowiedź brzmi: tak! Najpewniejszym dowodem obecności tak gorącego gazu są instrumenty wykrywające promieniowanie rentgenowskie ze Słońca. SXT reaguje głównie na fotony emitowane przez gaz o temperaturze 2-3 milionów K. Obraz SXT pokazuje, że korona nie emituje promieniowania równomiernie: występują jasne punkty (gdzie natężenie fotonów jest duże) i ciemne punkty (tzw. "dziury koronalne"), gdzie natężenie fotonów jest tak niskie, że detektor "niczego" nie rejestruje. W ciemnych "dziurach koronalnych" możemy dostrzec okrągły zarys tego, co widzą nasze oczy patrząc na Słońce: fotosferę. Nasze oczy są wrażliwe na fotony o długości fali kilku tysięcy ?, a przy takich długościach fali fotosfera Słońca (o temperaturze około 5000 K) jest bardzo intensywna. Dlatego Słońce (a ściślej jego fotosfera) wydaje się naszym oczom tak jasne. Detektory w SXT poszukują jednak fotonów o długości fali kilku Å: fotosfera emituje ich bardzo niewiele, w związku z czym SXT "widzi" fotosferę jako ciemny obiekt. Najjaśniejsze elementy na obrazie SXT to zwarte obszary, w których wprawne oko może dostrzec tzw. "PĘTLE KORONALNE": wyglądają one jak częściowe łuki okręgów, które zaczynają się w jednym miejscu na powierzchni Słońca, zapętlają się w górę do określonej wysokości, a następnie powracają na powierzchnię Słońca. Porównując obrazy Słońca w promieniach rentgenowskich z danymi pola magnetycznego, okazuje się, że pętle rentgenowskie są powiązane z obszarami silnego pola magnetycznego. Każda pętla wznosi się z obszaru, w którym pole magnetyczne ma jedną biegunowość (np. na północ) i powraca do Słońca w obszarze o przeciwnej biegunowości. Odkrycie, że pola magnetyczne służą do organizacji struktury korony słonecznej, było kluczowym krokiem w próbach astronomów zrozumienia, w jaki sposób gaz w koronie może zostać podgrzany do temperatur prawie 1000 razy wyższych niż temperatura fotosfery. W "DZIURACH KORONALNYCH" linie pola magnetycznego są otwarte w przestrzeń międzyplanetarną: zjonizowany gaz może swobodnie wypływać wzdłuż tych otwartych linii pola. Zasadnicza różnica między obszarami koronalnymi, które są ciemne w promieniach rentgenowskich, a tymi, które są jasne w promieniach rentgenowskich, wiąże się z topologią pola magnetycznego: pola są otwarte lub zamknięte (odpowiednio) w ciemnych lub jasnych obszarach korony. Korona nie ma unikalnej temperatury. W obszarach aktywnych część materiału może osiągnąć temperatury Tmax nawet do kilku milionów stopni. W spokojnym słońcu Tmax może wynosić zaledwie 1-2 miliony stopni. W rozbłyskującym Słońcu Tmax może wynosić dziesiątki milionów stopni. Ale we wszystkich przypadkach istnieją również mierzalne ilości gazu o temperaturach poniżej Tmax: w rzeczywistości, obserwując Słońce w liniach widmowych, które powstają w różnych temperaturach, można określić, ile gazu jest obecne w różnych temperaturach. Rozkład materiału w różnych temperaturach nazywa się miarą emisji różnicowej (DEM). Zazwyczaj kształt DEM jest rozkładem potęgowym o nachyleniu dodatnim w zakresie temperatur rzędu 105 K do Tmax. Poniżej 105 K DEM ma nachylenie ujemne. Szczegółowe badanie kształtu DEM może ostatecznie pozwolić na wyciągnięcie wniosków na temat fizycznej natury mechanizmu odpowiedzialnego za nagrzewanie korony.
Korona: jakie są gęstości?
Teraz, gdy znamy wysokość skali Hcor w dolnej koronie (gdzie obowiązuje HSE), możemy wykorzystać obserwowaną jasność do przybliżonego oszacowania gęstości materiału u podstawy korony, ncor elektronów m-3. Aby to zrobić, wyobraźmy sobie, co dzieje się z fotonami, które wychodzą z 1 m2 fotosfery słonecznej podczas zaćmienia Słońca. Fotony te odpływają ze Słońca, głównie wzdłuż kierunku radialnego, a po przejściu przez koronę całkowita liczba elektronów Ne, które minęły w swojej kolumnie o powierzchni 1 m2, wynosi ncor × Hcor ≈ 108ncor. Istnieje skończone prawdopodobieństwo pes, że foton przechodzący obok elektronu zostanie rozproszony: wielkością, która określa pes, jest tzw. przekrój czynny Thomsona, σe, który wynosi około 10-28m2. (Wartość σe kilka razy πr2e, gdzie re jest klasycznym promieniem elektronu: re = e2/mc2. Tutaj e i m są ładunkiem i masą elektronu, a c jest prędkością światła.) Prawdopodobieństwo, że foton rozproszy się po przejściu przez Ne elektronów cm-2 wynosi pes ≈ Ne × ?σe. Podstawiając powyższe wartości, stwierdzamy, że
pes ≈ 10-20ncor. (5)
Teraz obserwowane natężenie korony jest około 10-6 razy większe od natężenia fotosferycznego. Oznacza to, że pes ma wartość empiryczną rzędu 10-6. Odnosząc się do równania (5) powyżej, widzimy, że ncor, gęstość liczby elektronów w niskiej koronie, musi być rzędu 1014 m-3. Ponieważ głównym składnikiem Słońca jest wodór, najobficiej występującym pierwiastkiem w koronie jest również wodór. W fotosferze wodór występuje w formie niemal całkowicie obojętnej elektrycznie, z jednym elektronem związanym z każdym protonem. W koronie temperatura jest wystarczająco wysoka, aby jonizować wodór zasadniczo całkowicie: na każdy wolny elektron przypada zatem jeden wolny proton.
Załamanie równowagi hydrostatycznej: atmosfera "superrozciągnięta"
Wspomnieliśmy powyżej, że w nisko położonych częściach korony słonecznej równowaga hydrostatyczna (HSE) jest prawdopodobnie spełniona. Jednak gdy założymy istnienie gazu w temperaturach rzędu miliona stopni lub więcej, założenia HSE ostatecznie upadają. Aby zrozumieć, dlaczego tak jest, wróćmy do równania (1). Do tej pory traktowaliśmy przyspieszenie grawitacyjne g jako stałą: jest to dobre przybliżenie, o ile rozważamy gaz w odległości kilku skal od fotosfery. (Wartość g w odległości radialnej r = R⊙ + 10Hphot różni się od wartości przy r = R⊙ tylko o kilka dziesiątych 1%.) Ale gdy rozważymy rzeczy w większej skali, g nie może być już uważane za stałe: w odległości radialnej r od Słońca, musimy użyć lokalnej wartości g, tj. GM⊙/r2. To zmienia rozwiązanie równania (1) w fundamentalny sposób. Wstawiając radialnie zmieniające się g do równania (1) i ponownie zakładając dla uproszczenia, że gaz ma unikalną temperaturę, odkrywamy, że rozwiązanie przyjmuje teraz uderzająco inną postać:
ρ = ρ0 e{[A(r0/r-1)]} . (6)
Tutaj A = GM⊙ μ/RgTr0 jest miarą tego, jak skutecznie basen termalny wypełnia studnię grawitacyjną Słońca. Równanie (6) opisuje, jak zachowywałaby się gęstość w koronie słonecznej, gdyby korona znajdowała się w równowadze hydrostatycznej. Niezwykłą cechą rozkładu gęstości w równaniu (6) jest to, że wraz ze wzrostem odległości od Słońca, tj. gdy r dąży do nieskończoności, gęstość materiału koronalnego nie spada do zera. Zamiast tego gęstość zbliża się do stałej wartości: ρ(∞) -> ρ0e-A. Podstawiając T = 106 K i używając parametrów słonecznych wymienionych powyżej (z wyjątkiem tego, że μ ≈ 0,5 w całkowicie zjonizowanym wodorze), otrzymujemy A ≈ 12. Jak już widzieliśmy, gaz u podstawy korony słonecznej ma gęstość liczbową około 1014 protonów m-3. W nieskończoności korona w równowadze hydrostatycznej miałaby gęstość liczbową mniejszą od tej o e-12, czyli 6 × 10-6. Zatem gęstość liczbowa korony słonecznej w nieskończoności wynosiłaby około 6 × 108 protonów m-3. Taka gęstość jest znacznie większa niż gęstość gazu w ośrodku międzygwiazdowym (ISM): ten ostatni zawiera zazwyczaj 106 protonów m-3. Ponieważ ISM ma gęstość (i ciśnienie) wielokrotnie mniejszą niż korona w równowadze hydrostatycznej, ISM nie może utrzymać korony: ta ostatnia ma ciśnienie zbyt wysokie, aby mogła być w niej uwięziona. Co się dzieje, gdy HSE ulega rozpadowi? Aby odpowiedzieć na to pytanie, zauważmy, że równanie HSE jest jedynie szczególnym przypadkiem bardziej ogólnego równania opisującego prawo zachowania pędu. Dla gazu o gęstości ? poruszającego się radialnie na zewnątrz z prędkością v, pęd na jednostkę objętości wynosi ρv. Zachowanie pędu dla tego gazu jest opisane równaniem:
ρdv/dt= -dp/dr - ρg + F (7)
gdzie F jest ogólnym symbolem wszelkich innych sił, które mogą występować w koronie poza ciśnieniem i grawitacją. (Pola magnetyczne mogą powodować dodatkowe siły, które są istotne dla korony). W przypadku, gdy F = 0 i spełniony jest warunek HSE (patrz równanie (1) powyżej), prawa strona równania (7) wynosi dokładnie zero, a równanie (7) może być spełnione przez rozwiązanie, w którym gaz się nie porusza, v = 0: brak ruchu uzasadnia termin "statyczny" w "równowadze hydrostatycznej". Ale jeśli siły ciśnienia nie równoważą grawitacji, to prawa strona równania (7) jest niezerowa. W wyniku niezrównoważonych sił gaz zaczyna przyspieszać zgodnie ze słynną drugą zasadą dynamiki Newtona. Zamiast warunków hydrostatycznych mamy teraz do czynienia z siłami niezrównoważonymi (tj. dynamiką). Początek przyspieszenia w kierunku promieniowym oznacza, że korona musi się rozszerzać. To rozprężanie się gazu koronalnego powoduje przepływ, który nazywa się "SŁONECZNYM WIATREM". Należy zauważyć, że mówiąc o wietrze słonecznym, nie mamy na myśli parowania, tak jakby niewielka część materiału koronalnego "wyparowywała": w procesie opisanym równaniem (7) nie ma nic z parowania. Wiatr słoneczny wiąże się z prawdziwie hydrodynamiczną ekspansją całej korony. W najprostszym przypadku przepływu ustalonego prędkość wypływu v nie zależy od czasu, ale zmienia się wraz z odległością radialną. W tym przypadku równanie (7) można zapisać w postaci
vdv/dr = -1/ρ dp/dr - GM⊙/r2 + F. (8)
Szczegóły dotyczące szybkości przyspieszania wiatru, tj. kształt v jako funkcji odległości radialnej r, zależą od temperatury (która kontroluje ciśnienie), a zwłaszcza od charakteru wszelkich dodatkowych sił F. Jednak niezależnie od szczegółów F, oczekujemy, że w dużych odległościach od Słońca wszystkie wyrazy po prawej stronie równania (8) staną się małe. Oznacza to, że dv/dr -> 0 w dużych odległościach od Słońca. Innymi słowy, v dąży do stałej wartości (prędkości granicznej) z dala od Słońca. Wartość prędkości granicznej zależy od miejsca na Słońcu, z którego pochodzi wiatr: empirycznie stwierdzono, że wiatr z obszarów polarnych Słońca ma najwyższą prędkość graniczną, około 700-800 km s-1. Najwolniejsze obserwowane prędkości wiatru (około 300 km s-1) pochodzą ze strumieni, które występują częściej w pobliżu równikowych obszarów Słońca. Różnice między wiatrami z różnych miejsc na Słońcu wynikają przynajmniej częściowo z różnic w członie wymuszającym F w równaniu (8). Nad biegunowymi dziurami koronalnymi fale w polu magnetycznym mogą pomóc w nadaniu wiatrowi pędu i energii. Wiatr słoneczny rozciąga się daleko poza widoczną krawędź Słońca, daleko poza to, co widzi oko podczas zaćmienia: w rzeczywistości wiatr rozszerza się poza orbitę Ziemi i poza orbity wszystkich znanych planet. Nikt jeszcze nie wie na pewno, jak daleko wiatr się rozszerza. Najodleglejsze sondy kosmiczne, które były w stanie zbadać wiatr (Voyagery 1 i 2), znajdują się w momencie pisania tego artykułu (kwiecień 1999) około 50% dalej od Słońca niż średnia odległość Plutona i nadal obserwują ekspansję wiatru słonecznego. Niektóre teorie przewidują, gdzie wiatr słoneczny zostanie zatrzymany przez wpadnięcie w ośrodek międzygwiazdowy (ISM): jednak sondy Voyager jeszcze nie dotarły do tego punktu (patrz MISJA VOYAGER). Fakt, że korona słoneczna rozciąga się na cały Układ Słoneczny, nadaje nowy sens definicji "rozciągniętej atmosfery": może to być szokiem, gdy po raz pierwszy uświadomimy sobie, że Ziemia, na której żyjemy, sama jest zanurzona w (super)rozciągniętej atmosferze Słońca.
Strumień masy niesiony przez wiatr słoneczny
Jaką masę unosi wiatr słoneczny ze Słońca? Pomiary wiatru słonecznego przeprowadzane przez sondy kosmiczne podczas jego przechodzenia przez orbitę Ziemi wskazują, że średnia gęstość wiatru słonecznego wynosi około 5-10 × 106 protonów m-3, a średnia prędkość 300-400 km s-1. Pomiary te wskazują, że Słońce traci masę w tempie kilku milionów ton na sekundę. Jest to porównywalne z tempem, w jakim masa jest tracona w jądrze Słońca w wyniku reakcji termojądrowych. Jeśli Słońce traciło masę ze stałą szybkością podczas swojej ewolucji (trwającej do tej pory około 1017 s), wiatr nie spowodował żadnych znaczących zmian masy Słońca w trakcie jego istnienia: zmiana masy nie przekracza 0,1%.
Inne gwiazdy
Istnienie chromosfer w gwiazdach o klasach widmowych G, K i M jest znane od dziesięcioleci: chromosfery ujawniają swoje istnienie w postaci linii emisyjnych wodoru i innych pierwiastków w widmie. Od około 1980 roku, kiedy to pierwsze teleskopy rentgenowskie na statkach kosmicznych o czułości wystarczającej do wykrywania gwiazd stały się operacyjne, odkryto, że gwiazdy niemal wszystkich typów emitują promieniowanie rentgenowskie. Najsilniejsze źródła promieniowania rentgenowskiego wśród pojedynczych gwiazd występują w karłach o klasie widmowej M: niektóre karły M emitują prawie 1% swojej całkowitej jasności w postaci promieniowania rentgenowskiego. W porównaniu ze Słońcem (gdzie emisja promieniowania rentgenowskiego stanowi zaledwie jedną część 105 lub 106 całkowitej jasności), karły M są naprawdę wydajnymi generatorami koron. Co więcej, korony w karłach M zawierają składniki znacznie gorętsze niż w Słońcu: promieniowanie rentgenowskie z niektórych karłów M wymaga temperatury źródła rzędu kilkudziesięciu milionów stopni. Na Słońcu temperatury tak wysokie jak te osiągane są jedynie tymczasowo podczas krótkotrwałych eksplozji (rozbłysków). Na podstawie danych z Ziemi wiadomo od dziesięcioleci, że karły M2 są miejscami dużych rozbłysków i silnych pól magnetycznych. Wydaje się prawdopodobne, że silne nagrzewanie się ich koron jest związane z aktywnością magnetyczną. Chłodne olbrzymy wykazują ślady obecności materii chromosferycznej, ale nie koronalnej. W takich gwiazdach występują jednak stosunkowo gęste, ale stosunkowo powolne wiatry, których tempo utraty masy przekracza wartość wiatru słonecznego o kilka rzędów wielkości. Wiatry te można uznać za rozszerzone atmosfery takich gwiazd: chociaż fotosfera Betelgezy (czerwonego nadolbrzyma) ma rozmiary kilkuset promieni słonecznych (tj. kilka jednostek astronomicznych), emisję wiatru w niektórych liniach można prześledzić do odległości rzędu 10 000 jednostek astronomicznych.
Co ogrzewa rozszerzoną atmosferę?
Jak widzieliśmy, obecność rozszerzonej atmosfery zależy od nadmiaru temperatur. Co powoduje to nadmierne ogrzewanie? Próby odpowiedzi na to pytanie przyciągnęły wiele uwagi w ciągu ostatnich kilku dekad. Poszukiwanie odpowiedzi sprowadza się do zidentyfikowania źródła energii mechanicznej, które może wykonać pracę nad gazem. Jeśli chodzi o ogrzewanie chromosfery, wydaje się wyłaniać konsensus: fale akustyczne pochodzące z konwekcji turbulentnej pod fotosferą mogą ogrzewać przynajmniej dolne obszary chromosfery. W miarę jak fale te rozprzestrzeniają się w górę w atmosferze, docierając do gazu o stopniowo mniejszej gęstości, fluktuacje ciśnienia fal akustycznych rosną w intensywności, aż do powstania fal uderzeniowych. Fale uderzeniowe powodują lokalne ogrzewanie gazu, wystarczające do odtworzenia wielu obserwowanych cech emisji chromosferycznej. Rozproszenie fal jest na tyle poważne, że na Słońcu prawie żadne fale nie przetrwają nawet do górnej chromosfery. W innych gwiazdach generowanie fal akustycznych poprzez konwekcję może w niektórych przypadkach (zwłaszcza w przypadku karłów typu M) mieć właściwości sprzyjające przetrwaniu fal akustycznych w górnej chromosferze: w takich gwiazdach fale akustyczne o najdłuższych okresach mogą nawet pomóc w dostarczeniu ciepła do dolnej korony. W chromosferze depozycja energii mechanicznej jest równoważona promieniowaniem w liniach widmowych pierwiastków w pewnych stadiach jonizacji. Dopóki linie te pozostają dostępne dla promieniowania, depozycja energii niekoniecznie prowadzi do silnego lokalnego nagrzewania: zdeponowana energia może być po prostu wypromieniowana efektywnie poprzez niewielki wzrost temperatury. W wyniku tej konkurencji między zyskiem a stratą energii przez promieniowanie, chromosfera może średnio zawierać jeden lub więcej obszarów, w których temperatura pozostaje niemal stała wraz ze wzrostem wysokości. Te "płaskowyże" temperaturowe mogą występować w zakresie od około 6000 K do 20 000 K. Proces jonizacji wodoru służy również do pochłaniania energii mechanicznej bez znacznego wzrostu lokalnej temperatury: w rezultacie średnia chromosfera w Słońcu wykazuje niezwykłą właściwość, że średnia gęstość protonów pozostaje zasadniczo stała (w granicach czynnika ±2) w zakresie wysokości, gdzie średnia gęstość atomów wodoru spada o czynnik 104. Ale ogólnie rzecz biorąc, występuje średnio nieubłagany wzrost temperatury wraz ze wzrostem wysokości, a każdy z pierwiastków staje się stopniowo bardziej zjonizowany. W końcu osiąga się wysokość, na której temperatura jest taka (pomiędzy 104 K a 105 K), że żaden z powszechnie występujących pierwiastków nie znajduje się w stadium jonizacji, w którym dostępne są silne linie widmowe. W takich warunkach dodanie dodatkowej energii mechanicznej nieuchronnie powoduje szybki wzrost temperatury do milionów stopni. To szybkie przejście do temperatur koronalnych następuje w wąskim zakresie wysokości. Jeśli chodzi o nagrzewanie korony, w źródle energii mechanicznej muszą dominować efekty magnetyczne. Jednym z szeroko dyskutowanych kandydatów są fale rozchodzące się wzdłuż pola magnetycznego: fale te mogą rozpraszać swoją energię na wiele sposobów. Na przykład, w obszarach aktywnych pętla magnetyczna może działać jak rodzaj wnęki rezonansowej, którą fala może wywołać w taki sposób, że jej energia jest deponowana w pętli. Z kolei w dziurach koronalnych fale w polu magnetycznym mogą rozpraszać się i deponować zarówno pęd, jak i energię w gazie koronalnym. W obszarach aktywnych miniaturowe eksplozje magnetyczne ("nanorozbłyski") mogą występować na tyle często, że mogą utrzymywać niektóre zamknięte pętle magnetyczne w wysokiej temperaturze. Dane z sondy SOHO mogą pomóc w ustaleniu mechanizmu powodującego nagrzewanie korony. Na przykład istnieją już dowody na to, że w dziurach koronalnych mechanizm nagrzewania korony nagrzewa protony wydajniej niż elektrony. Ciężkie jony (takie jak tlen) nagrzewają się nawet bardziej niż protony.
Astronomia pozagalaktyczna ok. 1900-1950
W 1931 roku holenderski astronom WILLEM DE SITTER (1872-1934) oświadczył, że "nigdy w historii nauki nie było okresu, w którym nowe teorie i hipotezy powstawały, rozkwitały i były porzucane w tak krótkim odstępie czasu, jak w ciągu ostatnich piętnastu czy dwudziestu lat". De Sitter wspominał okres zawirowań i przewrotów w naukach fizycznych, w którym - co być może najważniejsze dla astronomów - rozstrzygnięto długotrwałą debatę na temat natury MGŁAWIC i w którym zaproponowano i powszechnie zaakceptowano całkowicie nieoczekiwaną ekspansję Wszechświata. Te dwa epokowe wydarzenia były głównie zasługą astronomów, którzy w pierwszych trzech dekadach XX wieku prowadzili obserwacje za pomocą gigantycznych teleskopów optycznych mgławic spiralnych, które - jak powszechnie przyjęto po połowie lat dwudziestych XX wieku - były galaktykami. W istocie, w ciągu tych trzech dekad narodziła się astronomia pozagalaktyczna, tak jak astronomowie będą ją później rozumieć. Ta nowa dziedzina była pod wieloma względami typowo amerykańską działalnością - w dużej mierze dlatego, że to właśnie w Stanach Zjednoczonych znajdowały się najpotężniejsze teleskopy i najlepiej wyposażone obserwatoria astrofizyczne, a także liczna grupa dobrze wyszkolonych astrofizyków zainteresowanych problematyką mgławic.
Wczesna historia
W XVIII i XIX wieku panowały szerokie rozbieżności opinii na temat natury mgławic, z których dwie najbardziej skrajne głosiły, że wszystkie mgławice są układami gwiezdnymi zewnętrznymi wobec naszej Galaktyki, tzw. "wszechświatami wyspowymi", lub że wszystkie mgławice są w istocie mgławicowe. Jednak pod koniec XIX wieku powszechnie uznano, że żadna z widocznych mgławic nie jest galaktyką zewnętrzną. Galaktyki zewnętrzne mogą istnieć, ale jeśli tak, to leżą poza zasięgiem nawet najpotężniejszych teleskopów. Większość astronomów uznała, że trzy główne dowody przemawiają zdecydowanie przeciwko teorii wyspowego wszechświata: (1) rozmieszczenie mgławic (ogólnie uważano, że mgławice w dużej mierze unikają płaszczyzny Drogi Mlecznej, ale jeśli mgławice są prawdziwie niezależnymi galaktykami, dlaczego ich położenie miałoby być skorelowane z orientacją naszej Galaktyki?), (2) dobrze udokumentowana gazowa natura niektórych mgławic oraz (3) "nowa" z 1885 roku (obecnie uznawana za supernową), która rozbłysła w sercu Andromedy. (Nowahada osiągnęła jasność około 1/10 jasności całej mgławicy. Astronomowie pytali, jak pojedyncza gwiazda mogłaby dorównać jasności ogromnego skupiska gwiazd? Ich odpowiedź brzmiała, że nie. Mgławica nie była ogromnym skupiskiem gwiazd.) Na początku XX wieku większość astronomów również uznała, że zdecydowana większość mgławic to "mgławice spiralne", czyli o kształcie spiralnym. Lord ROSSE i obserwatorzy z Parsonstown w połowie XIX wieku jako pierwsi dostrzegli spiralny kształt wielu mgławic, ale pod koniec lat 90. XIX wieku JAMES E. KEELER (1857-1900), fotografując mgławice i gromady gwiazd za pomocą 36-calowego reflektora Crossleya w Obserwatorium Licka w Kalifornii, zarejestrował na swoich kliszach znacznie więcej spiral, niż się spodziewał; W rzeczywistości, jak oszacował, 120 000 z nich znajdowało się w zasięgu jego teleskopu. W 1899 roku niemiecki astrofizyk Julius Scheiner (1858-1913) - pracujący w Poczdamie, wiodącym niemieckim ośrodku astrofizyki - wykrył linie absorpcyjne w widmie największej, a zatem prawdopodobnie jednej z najbliższych galaktyk spiralnych, Mgławicy Andromedy. Ponieważ powszechnie wiadomo było, że widma gromad gwiazd wykazują linie absorpcyjne, Scheiner twierdził, że sama Mgławica Andromedy jest układem gwiezdnym znajdującym się poza Galaktyką. Początkowo argumenty Scheinera zyskały niewielu zwolenników, ponieważ prawie wszyscy astronomowie byli przekonani, że mgławice spiralne rozwijają się w pojedyncze gwiazdy lub rzadkie gromady. Jednak około 1910 roku kilku badaczy zaczęło kwestionować to stanowisko. Pod kierownictwem E. A. Fatha w Lick i Maxa Wolfa w Heidelbergu, rozszerzyli badania Scheinera nad widmami galaktyk spiralnych i odkryli, że chociaż niektóre galaktyki spiralne wykazywały jasne linie - powszechnie znane wówczas jako charakterystyczne dla obłoków gazowych - widma większości badanych galaktyk zdominowane były przez ciemne linie absorpcyjne. Być może jednak, jak doszli niektórzy astronomowie, galaktyki spiralne to gromady gwiazd, a może nawet odległe galaktyki. W latach 90. XIX wieku Keeler zmierzył przesunięcia linii widmowych wielu mgławic planetarnych i, interpretując te przesunięcia jako przesunięcia Dopplera, określił ich prędkości radialne, czyli prędkości w linii widzenia. Ich prędkości radialne były na ogół nieco wyższe niż prędkości gwiazd, ale zasadniczo do nich podobne. Pomiar prędkości radialnej galaktyki spiralnej okazał się znacznie trudniejszym problemem ze względu na niską jasność powierzchniową galaktyk spiralnych, ale w 1913 roku V. M. Slipher (1875-1969) z Obserwatorium Lowella w Arizonie argumentował, że mgławica Andromedy pędzi w kierunku Słońca z prędkością 300 km/s, co stanowiło najwyższą prędkość odnotowaną wówczas dla obiektu astronomicznego. Odkrycie Sliphera było tak zagadkowe, że niektórzy podejrzewali jego poprawność. Wątpliwości zostały jednak szybko rozwiane, gdy inni potwierdzili wynik Sliphera, a on sam uzyskał podobne wartości dla kolejnych galaktyk spiralnych. Obserwacje widm galaktyk spiralnych przekonały niektórych astronomów, że galaktyki te są, lub mogą być, galaktykami zewnętrznymi, a zmierzone prędkości radialne jeszcze bardziej przemawiały za tym poglądem. Prędkości były tak znacznie wyższe niż prędkości potwierdzonych członków Galaktyki, że niektórzy astronomowie uznali, że galaktyki spiralne nie mogą być częścią tego samego układu dynamicznego. Jednym z rezultatów było to, że w połowie lat 10. XX wieku teoria wyspiarskiego wszechświata, która jeszcze dziesięć lat wcześniej była niemal zupełnie niepopularna, stała się głównym tematem debaty. Zmiana poglądów na temat galaktyk zewnętrznych była również spowodowana dwoma innymi czynnikami: (1) powszechnym podejrzeniem, że sama Galaktyka ma strukturę spiralną oraz (2) "wspaniałością" teorii wyspowego wszechświata. Na przykład w 1911 roku genialny angielski astrofizyk A. S. EDDINGTON (1882-1944) oświadczył, że teoria wyspowego wszechświata "otwiera przed naszą wyobraźnią prawdziwie wspaniały widok na system poza systemem - wszechświat poza wszechświatem". Samo odwoływanie się do naukowego "gustu" astronomów nie wystarczyło jednak: zmiana poglądów na temat galaktyk zewnętrznych wymagała również twardych dowodów w postaci obserwacji widma i prędkości radialnej galaktyk spiralnych.
Nowe w mgławicach spiralnych
W 1917 roku astronomowie znaleźli więcej dowodów, które wpłynęły na debatę na temat mgławic, gdy nowe gwiazdy zostały przypadkowo wykryte w wielu mgławicach spiralnych. Pierwsze zostały odkryte przez HDCURTIS (1872-1942), astronoma z Obserwatorium Licka, a podobnego odkrycia dokonał wkrótce potem G. W. RITCHEY w Obserwatorium Mount Wilson, również w Kalifornii. Astronomowie z zapałem przeszukiwali teraz stare płyty obrazów spiralnych w poszukiwaniu kolejnych nowych. Pod koniec 1917 roku zlokalizowano wystarczającą liczbę nowych, aby Curtis mógł odrzucić nową z 1885 roku w Mgławicy Andromedy jako nienormalnie jasną, a tym samym niebędącą wiarygodnym wskaźnikiem odległości do mgławicy. Curtis porównał jasność typowych nowych w galaktykach spiralnych ze średnią jasnością nowych w Galaktyce i w ten sposób oszacował, że galaktyki spiralne są sto razy bardziej odległe niż nowe galaktyczne, dostarczając tym samym, zdaniem Curtisa i innych astronomów, kolejnych dowodów na poparcie teorii wyspowego wszechświata. W istocie, pod koniec 1917 roku niemal wszyscy czołowi badacze mgławic spiralnych uznali za prawdopodobne, że są one galaktykami zewnętrznymi. Kluczową kwestią jest to, że Galaktyka była również miarą, względem której mierzono domniemane galaktyki, a współczesne szacunki rozmiarów Galaktyki odegrały rolę w określeniu statusu teorii wyspowego wszechświata. Ten punkt stał się szczególnie ważny, gdy pod koniec 1917 roku HARLOWSHAPLEY opracował i skonstruował śmiały, nowy model Galaktyki, w którym jej średnica wynosi około 300 000 lat świetlnych - około 10 razy więcej niż powszechnie akceptowane szacunki - a Słońce znajduje się w odległości kilkudziesięciu tysięcy lat świetlnych od jego środka. Z pewnością Shapley z niechęcią przyjął, że spirale są porównywalne z jego gigantycznym systemem gwiezdnym i zasugerował, że są one w rzeczywistości mgławicami, ale wahał się co do statusu spiral i między 1917 a 1920 rokiem trzykrotnie zmieniał zdanie na temat ich związku z Galaktyką. Prace Shapleya na temat spirali przyniosły mu jednak zaproszenie do udziału w wydarzeniu, które stało się jednym z najbardziej znanych, choć często źle rozumianych, wydarzeń w astronomii XX wieku: tak zwanej "Wielkiej Debacie".
"Wielka Debata" i ruchy wewnętrzne
W kwietniu 1920 roku Shapley i Curtis wygłosili wykłady na temat "Skali Wszechświata" przed Narodową Akademią Nauk, jedną z najbardziej prestiżowych amerykańskich instytucji naukowych. Shapley postanowił przemawiać na bardzo popularnym poziomie (prawdopodobnie jego głównym celem podczas Debaty było zaspokojenie potrzeb publiczności, która rozważała wybór kolejnego dyrektora Obserwatorium Harvard College, stanowiska, o którym Shapley marzył), i dopiero po Debacie, po opublikowaniu prac Shapleya i Curtisa, główni bohaterowie faktycznie zmierzyli się ze swoimi argumentami. W swoim opublikowanym artykule Curtis twierdził, że galaktyki spiralne są galaktykami zewnętrznymi, opierając się głównie na znanych już obserwacjach ich widm, prędkości radialnych i gwiazd nowych. Curtis zakwestionował również szacunki Shapleya dotyczące rozmiaru Galaktyki. Curtis i wielu innych opowiadało się za teorią galaktyk porównywalnych (tj. teorią, w której galaktyki spiralne nie były jedynie galaktykami zewnętrznymi, ale dodatkowo były porównywalne rozmiarem z Galaktyką). Przyznał, że gdyby galaktyki spiralne były tak duże, jak twierdził Shapley w odniesieniu do układu galaktycznego, to galaktyki spiralne znajdowałyby się w tak ogromnych odległościach, że nowe w ich wnętrzu musiałyby być niemożliwie jasne, co podważałoby argumentację za teorią galaktyk porównywalnych. Pod koniec lat 10. i na początku lat 20. XX wieku inna klasa obserwacji zaczęła odgrywać wiodącą rolę w debacie o wyspie wszechświata: pomiary wewnętrznych ruchów galaktyk spiralnych. ADRIAAN VAN MAANEN (1884-1946), astronom z Mount Wilson, rozpoczął badania nad tym tematem w 1915 roku, kiedy to zbadał wykonane w odstępie kilku lat płyty fotograficzne gigantycznej spirali M101 (czyli numer 101 w katalogu mgławic Charlesa Messiera). Jego celem było wykrycie i zmierzenie wielkości wszelkich zmian w wyglądzie w międzyczasie i doszedł do wniosku, że M101 rzeczywiście wykazuje rotację lub, co jego zdaniem było bardziej prawdopodobne, ruchy wzdłuż ramion spiralnych. Początkowo ruchy wewnętrzne nie były w oczywisty sposób sprzeczne z teorią wszechświata wyspowego. Angielski matematyk stosowany i astronom teoretyk J. H. Jeans (1877-1946) w rzeczywistości wykorzystał pomiary van Maanena do promowania teorii wszechświata wyspowego i do poparcia własnych teorii na temat pochodzenia i rozwoju mgławic spiralnych. Teorie Jeansa były bardzo wpływowe, zwłaszcza wśród astronomów z Mount Wilson, i zostały zaprezentowane szerokiej publiczności w jego pracy "Problemy kosmogonii i dynamiki gwiazd" z 1919 roku. W swoim artykule "Wielka debata" Shapley niewiele pisał o galaktykach zewnętrznych i ograniczył się głównie do argumentowania, że ich los jest nierozerwalnie związany z jego teorią Galaktyki. Shapley powołał się jednak na pomiary ruchów wewnętrznych galaktyk spiralnych wykonane przez van Maanena, twierdząc, że nie pasują one do schematu, w którym galaktyki spiralne byłyby galaktykami o średnicy 300 000 lat świetlnych - wielkości, jaką przypisywał naszej Galaktyce - ponieważ rozmiary ruchów wewnętrznych implikowały prędkości w obszarach zewnętrznych większe niż prędkość światła. Uznał to za wyraźne sprowadzenie teorii wszechświata wyspowego do absurdu. Na początku lat dwudziestych XX wieku van Maanen zmierzył kilka kolejnych galaktyk spiralnych i stwierdził, że jego wyniki bardzo dobrze zgadzają się z jego wcześniejszymi wynikami dla M101. Niektórzy astronomowie mieli jednak wątpliwości co do ruchów wewnętrznych. Ruchy te były niemal jedynym dowodem przeciwko teorii wszechświata wyspowego o galaktykach spiralnych; a jeśli galaktyki spiralne nie były galaktykami, to czym były? W szczególności, jak można interpretować widmo, prędkość radialną i obserwacje nowych? Te rozważania przekonały niektórych astronomów, że badania van Maanena nie ujawniły rzeczywistych ruchów. Tak więc, choć teoria wszechświata wyspowego straciła nieco na popularności, wielu uznało ją za, ogólnie rzecz biorąc, wciąż najlepsze dostępne wyjaśnienie właściwości mgławic spiralnych.
Hubble i cefeidy
Nagłe i nieoczekiwane rozwiązanie debaty na temat istnienia galaktyk zewnętrznych nastąpiło pod koniec 1923 i 1924 roku dzięki serii odkryć dokonanych przez astronoma z Mount Wilson, EDWINA P. HUBBLE′A (1889-1953). Hubble ukończył swoją rozprawę doktorską na temat "Fotograficzne badania słabych mgławic" w 1917 roku, w czasie gdy teoria wyspowego wszechświata była bardzo modna i od tego czasu zdaje się skłaniać ku niej. Po krótkim okresie służby w armii amerykańskiej, w 1919 roku dołączył do personelu Mount Wilson. W 1923 roku postanowił zdobyć klisze Mgławicy Andromedy, mając nadzieję na zarejestrowanie rozbłysków nowych w mgławicy. Dla kogoś, kto chciał ustalić dokładną odległość do mgławicy, program ten był bardzo polecany. W szczególności, obserwując więcej nowych, mógłby z większą precyzją określić średnią jasność widoczną nowych w mgławicy, a tym samym oszacować ich odległość - a tym samym odległość mgławicy - z większą pewnością niż dotychczas. Był również w doskonałej pozycji do realizacji takiego programu, ponieważ miał dostęp do najpotężniejszego teleskopu świata, Mount Wilson 100 cali, oraz bogatych zasobów czołowego obserwatorium astrofizycznego na świecie. Rzeczywiście znalazł nowe w mgławicy, ale na początku 1924 roku, ku swojemu zaskoczeniu, doszedł również do wniosku, że gwiazda, którą wcześniej zidentyfikował jako nową, była w rzeczywistości zmienną cefeidą. Hubble skonstruował krzywą blasku dla zmiennej cefeidy i szybko obliczył jej okres. Następnie, zakładając (jak Shapley wcześniej w swoich badaniach Galaktyki), że cefeidy o tym samym okresie mają taką samą jasność wewnętrzną, niezależnie od miejsca ich występowania, Hubble był w stanie wykorzystać zależność między okresem cefeid a jasnością do obliczenia odległości mgławicy. Jego wynik, wynoszący 900 000 lat świetlnych, umieścił ją daleko poza granicami nawet modelu Galaktyki Shapleya. Astronomowie szybko zgodzili się również, że Hubble rozdzielił zewnętrzne części mgławicy na roje gwiazd. Co więcej, wkrótce odkrył więcej cefeid w mgławicy Andromedy i niektórych innych galaktykach spiralnych, co potwierdziło jego wczesne odkrycia. Przeciwnicy teorii wyspowego wszechświata uznali cefeidy za dokładne wskaźniki odległości do galaktyk spiralnych, a jednoznaczny przekaz cefeid brzmiał, że galaktyki spiralne są rzeczywiście galaktykami zewnętrznymi, co potwierdzały niemal wszystkie inne dowody. Jedyna rozbieżność dotyczyła ruchów wewnętrznych, ale wkrótce prawie wszyscy odrzucili je jako beznadziejne przesady jakichkolwiek rzeczywistych ruchów, a argumenty za ich dokładnością upadły pod ciężarem przeciwstawnych dowodów. W ciągu roku lub dwóch od natknięcia się Hubble′a na pierwszą cefeidę, debata na temat istnienia wszechświatów wyspowych praktycznie dobiegła końca. Gdy Hubble rozstrzygnął kwestię galaktyk, astronomowie zaczęli coraz częściej zwracać uwagę na inne problemy związane z galaktykami spiralnymi. Jednym z nich była ich klasyfikacja. W latach 10. XX wieku Curtis podzielił mgławice na trzy główne grupy: mgławice rozproszone, mgławice planetarne i spiralne. Chociaż decyzja Curtisa o utworzeniu jednej grupy "spirali" zwróciła uwagę na nie jako na możliwe galaktyki zewnętrzne, w połowie lat 20. XX wieku schemat ten wydał się niektórym astronomom zbyt restrykcyjny i opracowano alternatywne klasyfikacje. Najbardziej wpływowa była klasyfikacja Hubble′a, zaproponowana po raz pierwszy w 1922 roku, a następnie przez niego rozwinięta. Chociaż Hubble twierdził, że schemat jest czysto opisowy i niezależny od jakiejkolwiek teorii, był entuzjastycznym zwolennikiem teorii Jeansa na temat pochodzenia i rozwoju mgławic pozagalaktycznych, co wyraźnie ujawniło się w jego schemacie. Do 1926 roku Jeans odrzucił pomiary van Maanena jako bezwartościowe, ale w Hubble′u znalazł kolejnego orędownika swoich własnych teorii. Hubble zgodził się z Jeansem, że istnieje jeden podstawowy typ mgławic pozagalaktycznych i że różne stadia rozwoju tego jednego typu mogą wyjaśnić pojawienie się niemal wszystkich obserwowanych mgławic pozagalaktycznych. Jeans umieścił mgławice eliptyczne, które uważał za ogromne, wielkości galaktyk, obłoki pyłu i gazu, na początku sekwencji ewolucyjnej tych mgławic. Twierdził, że koniec etapu eliptycznego jest oznaczony budową ramion spiralnych z materiału obszarów jąder. W miarę postępu tego procesu, rozmiary mgławicy rosną, aż ramiona stają się szeroko otwarte, a jądro staje się niewidoczne. Wraz ze starzeniem się spirali jej ramiona zaczynają rozpadać się na skupiska. Są to protogwiazdy lub gromady protogwiazd, a wraz z rozwojem spirali obszar formowania się gwiazd przesuwa się nieubłaganie do wewnątrz. Teorię ewolucji mgławic Jeansa odrzucili między innymi Shapley i szwedzki badacz mgławic, Knut Lundmark (1889-1958), który twierdził, że nawet mgławice eliptyczne są układami gwiezdnymi, i obaj podkreślali znaczenie możliwych oddziaływań grawitacyjnych z innymi galaktykami dla ewolucji pojedynczej galaktyki. Z tego powodu Hubble zawsze używał określenia "mgławice pozagalaktyczne", podczas gdy Shapley używał określenia "galaktyki", a terminy te stały się szyboletami dzielącymi astronomów ze wschodniego i zachodniego wybrzeża Stanów Zjednoczonych (właściwie dopiero po śmierci Hubble′a w 1953 roku termin "galaktyki" został powszechnie przyjęty). Shapley i Lundmark zaproponowali hipotezy, zgodnie z którymi Galaktyka składa się z szeregu mniejszych, oddziałujących ze sobą galaktyk. Uczynili tak częściowo dlatego, że pomimo niepewności co do rozmiaru Galaktyki, w 1930 roku większość astronomów uważała, że jest ona znacznie większa niż jakikolwiek inny znany układ gwiezdny.
Rozszerzanie się wszechświata
Wkrótce po tym, jak poważnie zajął się klasyfikacją mgławic, Hubble zaczął zajmować się kolejnym nierozstrzygniętym i zagadkowym problemem badań pozagalaktycznych: czy istnieje związek między odległością galaktyki a rozmiarem jej PRZESUNIĘCIA KU CZERWONI. V.M. Slipher, jak widzieliśmy wcześniej, jako pierwszy zmierzył prędkość radialną mgławicy spiralnej, a do 1914 roku był w stanie określić prędkości radialne 15 galaktyk spiralnych. Aby zabezpieczyć te wyjątkowo słabe i nieuchwytne widma, potrzebował długich czasów naświetlania, czasami nawet 80 godzin. Postępy Sliphera były zatem powolne, a inni zazwyczaj zadowalali się pozostawieniem mu tej trudnej i żmudnej pracy. Jednak w miarę jak Slipher uparcie mierzył kolejne prędkości, zaczął wyłaniać się ciekawy wzór: prawie wszystkie z nich były przesunięciami w kierunku czerwonego krańca widma; to znaczy, jeśli przesunięcia widmowe interpretować jako przesunięcia Dopplera, wszystkie, z wyjątkiem kilku, były prędkościami recesji. Ponadto prędkości radialne były generalnie znacznie większe niż prędkości gwiazd lub mgławic gazowych, a ich rozmiary skłoniły niektórych do zakwestionowania interpretacji Dopplera, czyli prędkości, przesunięć widmowych. Tymczasem inne odkrycie sugerowało, że prędkości radialne mogą być skorelowane z takimi zmiennymi związanymi z odległością, jak średnice spiral. Możliwość ta pojawiła się głównie dzięki hipotezie wysuniętej przez holenderskiego astronoma Willema de Sittera. W 1917 roku de Sitter odkrył alternatywne rozwiązanie równań pola ogólnej teorii względności, do tego znalezionego przez Alberta Einsteina (1879-1955). Rozwiązanie de Sittera przewidywało ponadto związek między przesunięciem ku czerwieni a odległością dla odległych gwiazd i galaktyk. W rozumieniu astronomów związek ten nie był jedynie wynikiem recesji odległych ciał. Przeciwnie, wewnętrzne właściwości przestrzeni i czasu w rozwiązaniu de Sittera powodują, że zegary chodzą wolniej, im dalej znajdują się od obserwatora. W związku z tym drgania atomów w odległej galaktyce zdają się zwalniać, częstotliwość światła maleje, długość fali rośnie i obserwuje się przesunięcie ku czerwieni. Rozwiązanie de Sittera odnosi się ściśle do pustego wszechświata, ale sam de Sitter i wielu jego współczesnych uważało, że gdyby gęstość materii była wystarczająco niska, można by je zastosować do rzeczywistego wszechświata. Jeszcze zanim doceniono znaczenie modelu de Sittera, spekulowano na temat zależności między przesunięciem ku czerwieni a odległością. Jednak wraz z szerszą dyskusją na temat ogólnej teorii względności i ugruntowaniem się idei opracowywania teoretycznych modeli całego wszechświata, które można by porównać z rzeczywistymi obserwacjami, model wszechświata de Sittera zyskał na wiarygodności i w latach dwudziestych XX wieku powszechnie uznano, że jeśli model de Sittera aproksymuje rzeczywiste właściwości wszechświata, to należy oczekiwać zależności między przesunięciem ku czerwieni a odległością. Chociaż toczyły się liczne dyskusje na temat dokładnej formy tej zależności, powszechnie przyjęto, że im większa odległość ciała, tym większe powinno być jego przesunięcie ku czerwieni. Wczesne próby C. A. Wirtza, Lundmarka i innych, mające na celu ustalenie tej zależności, nie zyskały poparcia, głównie dlatego, że odległości do galaktyk spiralnych nie były dokładnie znane, a ci pionierzy, z braku lepszych rozwiązań, zmuszeni byli posługiwać się bardzo prymitywnymi i - dla innych astronomów - nieprzekonującymi wskaźnikami odległości o stałych wielkościach bezwzględnych i stałych średnicach bezwzględnych. Hubble jednak, dzięki teleskopowi zwierciadłowemu Mount Wilson 100, był znacznie lepiej wyposażony niż jego konkurenci do badania przesunięć ku czerwieni i odległości mgławic pozagalaktycznych. Mógł również skorzystać z pomocy Miltona Humassona (1891-1972), wybitnego obserwatora, który przeprowadził wymagające i czasochłonne pomiary przesunięć ku czerwieni. Aby określić odległości galaktyk, Hubble wykorzystał starannie skonstruowaną "drabinę" odległości, która używała serii powiązanych ze sobą wskaźników odległości, z których najważniejszym szczeblem była zależność okres cefeidy od jasności. Stosując tę drabinę Hubble uzyskał odległości do 24 z 46 pozagalaktycznych mgławic, których przesunięcia ku czerwieni zostały określone, prawie wszystkie przez Sliphera. Pozostałe 22 mgławice nie zostały wykorzystane w jego głównym dowodzie, ponieważ uznał, że nie są w grupach i nie można było obliczyć średnich wielkości gwiazdowych. Kiedy Hubble naniósł przesunięcia ku czerwieni 24 mgławic na ich odległości, uznał, że liniowa zależność przesunięcie ku czerwieni od odległości była najprostszym sposobem przedstawienia jego danych, wskazując na systematyczną recesję mgławic reprezentowaną przez V = kr (gdzie człon k jest dziś znany jako stała Hubble′a H, V to prędkość, a r to odległość). Co więcej, gdy obliczono odległości (za pomocą wielkości gwiazdowych) do pozostałych 22 mgławic, których przesunięcia ku czerwieni zostały zmierzone, one również, zdaniem Hubble′a, dobrze pasowały do liniowej zależności. Do 1929 roku taka zależność nie była nieoczekiwana; w 1930 roku sam Hubble powiedział de Sitterowi, że "możliwość istnienia zależności prędkości od odległości między mgławicami wisiała w powietrzu od lat - ty, jak sądzę, byłeś pierwszym, który o tym wspomniał". Próby Wirtza, Lundmarka i innych, mające na celu obserwacyjne określenie natury tej zależności, nie zyskały powszechnej akceptacji, ale niewątpliwie pomogły utorować drogę badaniom Hubble′a. Hubble pracował w ściśle określonym obszarze problemowym, stosując ściśle określoną metodę, i formułował swoją argumentację z ostrożnością, podkreślając solidne podstawy obserwacyjne tej zależności, a w szczególności wiarygodność swoich pomiarów odległości. Jego osiągnięciem było przekonanie kolegów, że rzeczywiście istnieje liniowa zależność, przynajmniej w pierwszym przybliżeniu. Liniowa zależność została szybko włączona do teoretycznych modeli wszechświata. Na początku lat 30. XX wieku kosmolodzy matematyczni zdali sobie sprawę z niedoskonałości statycznych rozwiązań równań pola ogólnej teorii względności jako reprezentacji Wszechświata. W tym momencie jednak artykuł belgijskiego kosmologa GEORGES′A LEMAÎTRE′A (1894-1966), zignorowany po pierwszej publikacji w 1927 roku, został "ponownie odkryty" i przyjęty z entuzjazmem. Połączenie teorii Lema?ître′a i sposobu, w jaki Hubble potraktował obserwacje, przekonało wielu, że statyczne rozwiązania zawiodły, ponieważ Wszechświat w rzeczywistości się rozszerza, a relacja przesunięcia ku czerwieni do odległości jest naturalną konsekwencją tej ekspansji. Modele rozszerzające, powszechnie zaniedbywane w latach 20. XX wieku, były teraz chętnie badane i po 1930 roku zyskały centralną rolę w astronomii i kosmologii pozagalaktycznej. Rzeczywiście, w tym czasie narodziło się przedsięwzięcie badawcze koncentrujące się na naturze i ewolucji galaktyk, a także na związkach między różnymi rodzajami galaktyk i ich miejscu w rozszerzającym się wszechświecie. Hubble wolał jednak nie identyfikować przesunięć ku czerwieni jednoznacznie jako przesunięć Dopplera. Ponadto, traktował swoją pracę z 1929 roku jako wstępny raport, a nie publikację ukończonego dzieła badawczego. Szczególnie zależało mu na przetestowaniu liniowej zależności w odniesieniu do bardziej odległych mgławic i w 1931 roku on i Humason ogłosili swoje najnowsze odkrycia . Teraz obliczył, że najodleglejsza mgławica pozagalaktyczna znajduje się w szacowanej odległości 32 × 106 pc, co stanowi znaczny wzrost w porównaniu z najdalszą, wynoszącą 2 × 106 pc na wykresie z 1929 roku. Co więcej, na diagramie z 1931 roku było znacznie więcej punktów, ponieważ dostępnych było o 40 przesunięć ku czerwieni więcej, a Hubble uznał, że zależność liniowa jest znacznie wyraźniejsza niż w 1929 roku. To szybkie rozszerzenie było możliwe dzięki połączeniu niezwykle wydajnego obiektywu spektrograficznego w 100-calowym teleskopie Mount Wilson - w tamtym czasie wciąż najpotężniejszym na świecie - oraz umiejętności Humasona jako obserwatora. W artykule z 1931 roku Hubble starał się również dokładnie rozróżnić obserwację od interpretacji. Podkreślił, że Humason zmierzył przesunięcia ku czerwieni i że niekoniecznie były to przesunięcia Dopplera. Chociaż, jak zauważyliśmy, wielu astronomów i matematyków uważało, że relacja przesunięcia ku czerwieni z odległością oznacza ekspansję wszechświata, inni z niedowierzaniem przyjmowali rozmiary "prędkości" odkryte przez Humason: jeśli przesunięcie ku czerwieni jednej mgławicy było rzeczywistą prędkością radialną, to oddalała się ona z oszałamiającą prędkością 19 700 km s-1. Co więcej, gdyby po prostu ekstrapolować obecną ekspansję wstecz w czasie, nie uwzględniając ewentualnego przyspieszenia, relacja przesunięcia ku czerwieni z odległością implikowałaby, że istniał czas około 2 × 109 lat temu, gdy cała materia we wszechświecie była już skondensowana. Dla licznych astronomów, którzy zaakceptowali szacunki Jeansa dotyczące wieku Galaktyki na 10 13 lat, ten czas był zdecydowanie zbyt niedawny, zwłaszcza że oczekiwano, iż skala czasowa ewolucji gwiazd również będzie tego rzędu. Jak, pytali, wiek Galaktyki i jej gwiazd mógł być znacznie większy niż wiek wszechświata? W rezultacie problem skali czasu zapoczątkował kilka (ogólnie uznanych za nieprzekonujące) prób wynalezienia alternatywnego mechanizmu dla efektu Dopplera, który mógłby wyjaśnić przesunięcia ku czerwieni. Chociaż debata na temat natury przesunięć ku czerwieni wciąż nie została ostatecznie rozstrzygnięta, na początku lat 50. XX wieku problem skali czasu został rozwiązany: astronomowie doszli do wniosku, że rewizja skali odległości kosmicznych oznacza, że obecne tempo ekspansji nie jest sprzeczne z szacunkami wieku gwiazd i galaktyk. Istniały dwa główne powody tej zmiany opinii. Po pierwsze, astronomowie doszli do wniosku, że Hubble pomylił obszary H II - obłoki zjonizowanego gazu - z najjaśniejszymi gwiazdami w mgławicach pozagalaktycznych. Ponieważ obłoki te są z natury jaśniejsze niż gwiazdy, oznaczało to, że odpowiadające im odległości zostały niedoszacowane. Po drugie, zależność między okresem a jasnością cefeid została radykalnie zmieniona przez Waltera Baade (1893-1960). Baade, astronom urodzony w Niemczech, dołączył do zespołu Mt. Wilson w 1931 roku. Jednak gdy Stany Zjednoczone przystąpiły do II wojny światowej, został uznany za wrogiego kosmitę. Otrzymał jednak specjalne pozwolenie na korzystanie z teleskopów Mount Wilson i dzięki wykorzystaniu płyt fotograficznych czułych na światło czerwone oraz wojennej przerwy w dostawie prądu w Los Angeles (miasto to było już znaczącym źródłem zanieczyszczenia światłem dla obserwatorium), Baade zdołał rozdzielić gwiazdy w centralnych obszarach mgławicy Andromedy. Baade argumentował, że w galaktykach spiralnych występują dwa odrębne typy gwiazd: populacja I (młode niebieskie gwiazdy występujące w obszarach zakurzonych) i populacja II (stare czerwone gwiazdy występujące w obszarach bezpyłowych). Później doszedł do wniosku, że istnieją dwa różne związki okres-jasność, a czynnikiem decydującym o przynależności cefeidy do tej grupy jest typ jej populacji. Główną konsekwencją ustaleń Baade′a było to, że odległości wyznaczone za pomocą cefeid populacji I musiały zostać zwiększone dwukrotnie, co spowodowało, że astronomowie postanowili podwoić skalę odległości galaktycznych.
Gromady
Do 1926 roku badania rozmieszczenia mgławic ograniczały się głównie do ich rozmieszczenia na niebie, ale w tym roku Hubble przekształcił badanie w model trójwymiarowy, badając rozkład częstości średnic i jasności widzialnych (oba te wskaźniki były przybliżonymi wskaźnikami odległości) około 400 mgławic pozagalaktycznych. Odkrył, że liczba mgławic w różnych granicach (z grubsza, granicach odległości) była proporcjonalna do objętości przestrzeni reprezentowanej przez te granice. W ten sposób argumentował, że istnieje w przybliżeniu jednolita gęstość mgławic we wszystkich kierunkach (z wyjątkiem Galaktyki i gromady galaktyk w Pannie), przy założeniu, że względna liczba galaktyk olbrzymich, normalnych i karłowatych była taka sama w każdej z jego próbek. W latach 30. XX wieku Hubble przeprowadził dalsze, szeroko zakrojone badania gęstości przestrzennej mgławic pozagalaktycznych w funkcji odległości od naszej Galaktyki. Jego metoda polegała na liczeniu mgławic pozagalaktycznych do różnych magnitudo na rozległych obszarach nieba. Takie liczenia potwierdziły jego przekonanie, że chociaż mgławice występują pojedynczo, w grupach, a nawet sporadycznie w dużych gromadach, to przy porównywaniu bardzo dużych obszarów kosmosu tendencja do tworzenia skupisk jest uśredniona, a jeden obszar jest bardzo podobny do każdego innego. Shapley argumentował jednak, że Hubble się mylił. W 1932 roku opublikował katalog galaktyk Shapleya-Amesa, który, jak uważał, był kompletny do magnitudo 12,9. Według niego katalog ujawnił ogólną nierównomierność rozmieszczenia, przy czym galaktyki miały tendencję do tworzenia gromad i skupisk, z których najbardziej zauważalną była gromada w Pannie. Shapley później rozszerzył zakres swoich przeglądów do 18 magnitudo; ponownie uznał, że gromadzenie się było charakterystyczną cechą. Rzeczywiście, na początku lat 50. XX wieku zjawisko klastrowania zostało powszechnie zaakceptowane jako główna cecha wielkoskalowego rozmieszczenia galaktyk, a hipoteza Hubble′a o ogólnym polu okresowo zakłócanym przez grupy lub gromady galaktyk straciła na popularności. W 1952 roku G. de Vaucoleurs, korzystając z katalogu Shapleya-Amesa i rozwijając szereg wcześniejszych spekulacji, również argumentował za istnieniem gromad gromad, czyli supergromad, aby wyjaśnić rozmieszczenie jasnych galaktyk na niebie.
Uwagi końcowe
Na początku XX wieku astronomowie wierzyli, że nasza Galaktyka stanowi cały widzialny Wszechświat, ale w ciągu 30 lat przyjęto, że przestrzeń zawiera wiele widocznych galaktyk. Co więcej, stwierdzono, że galaktyki te wykazują zależność przesunięcia ku czerwieni od odległości, którą powszechnie uznawano za dowód rozszerzania się Wszechświata. Te triumfy przekonały astronomów, że przyszły postęp w kosmologii prawdopodobnie będzie zależał od budowy coraz potężniejszych teleskopów optycznych. Gigantyczny, 200-calowy reflektor na Mount Palomar, ukończony w 1948 roku, był po części efektem tego przekonania.Zależność przesunięcia ku czerwieni od odległości oraz modele rozszerzającego się Wszechświata rzeczywiście doprowadziły do wymiany między teorią a danymi w badaniach nad wielkoskalowymi właściwościami Wszechświata, o której nie śniło się na początku XX wieku. Jednak to nieoczekiwane rozszerzenie obserwacji poza wąski zakres długości fal optycznych, na fale radiowe o długościach większych niż 10 m i fale γ
o długościach krótszych niż 10-12 m, miało w największym stopniu przyczynić się do ukształtowania kolejnego etapu rozwoju astronomii pozagalaktycznej.
Pozagalaktyczne światło tła
Pozagalaktyczne światło tła (EBL) to zintegrowany strumień ze wszystkich źródeł pozagalaktycznych, w tym tych, które nie są wykrywane indywidualnie. Zgodnie z ZASADĄ KOSMOLOGICZNĄ - że Wszechświat powinien wydawać się jednorodny i izotropowy dla typowego obserwatora - oczekuje się, że EBL będzie miało jednolity średni poziom w dużych skalach kątowych na niebie. Kosmologiczne znaczenie EBL zostało po raz pierwszy dostrzeżone już w XVIII wieku, kiedy astronomowie wyobrażali sobie Wszechświat jako statyczną przestrzeń, równomiernie wypełnioną gwiazdami. W tym kosmologicznym obrazie liczba gwiazd w pewnej odległości, r, rośnie wraz z r2, niwelując spadek 1/r2 w pozornej jasności pojedynczej gwiazdy i sprawiając, że całkowity strumień z obiektów zapełniających każdą powłokę kosmiczną ma wartość stałą. Ten pogląd doprowadził HEINRICHA WILHELMA OLBERSA i innych do wniosku, że nocne niebo powinno być tak jasne, jak dzienne. Dylemat wynikający z faktu, że niebo jest (stosunkowo) ciemne w nocy, stał się znany jako PARADOKS OLBERSA. Ten pozorny konflikt można obecnie łatwo wyjaśnić ekspansją Wszechświata, skończoną prędkością światła i, co najważniejsze, skończonym czasem życia gwiazd. Jednak paradoks Olbersa stanowi doskonałą ilustrację potencjału pomiarów tła w testowaniu naszego modelu Wszechświata. Jak na ironię, podczas gdy nocne niebo jest dalekie od ciemności, źródła pozagalaktyczne odpowiadają za mniej niż 1% jasności nieba, od ultrafioletu (UV) do podczerwieni (IR). Źródła ziemskie, zodiakalne i galaktyczne wytwarzają emisję pierwszego planu, która dominuje w strumieniu nieba, co utrudnia pomiar rozproszonego EBL, a także powoduje silne odchylenie w zakresie indywidualnej detekcji słabych lub o niskiej jasności powierzchniowej galaktyk i gwiazd międzygalaktycznych. Pomiary rozproszonego EBL są odporne na efekty selekcji jasności powierzchniowej. EBL zapewnia zatem kompletny spis gęstości energii we Wszechświecie, co czyni ją bardzo silnym ograniczeniem dla modeli FORMOWANIA SIĘ GWIAZD i zawartości barionów we Wszechświecie.
Źródła EBL
Większość EBL w zakresie fal od UV do IR jest generowana przez gwiazdy o wszystkich PRZESUNIĘCIACH KU CZERWONOŚCI od momentu powstania pierwszych gwiazd. W dalekim ultrafiolecie (∿1000-1600 Å), absorpcja w kontinuum Lymana przez wodór w ośrodku międzygalaktycznym ogranicza obiekty przyczyniające się do EBL do tych o przesunięciach ku czerwieni poniżej z ∿1600 Å/912 Å - 1 ∿ 0,8. Ponadto, światło UV z galaktyk jest wytwarzane przez gorące, masywne gwiazdy, które są również odpowiedzialne za większość jądrowego przetwarzania wodoru w hel i cięższe pierwiastki (nazywane ogólnie "metalami"). Daleki-UV EBL śledzi zatem globalne formowanie się gwiazd i tempo produkcji metali w drugiej połowie okresu Hubble′a. Źródła EBL stają się bardziej skomplikowane w zakresie długości fal optycznych (3000 Å -1 μm) i podczerwonych (1-1000 μm), ponieważ światło, które wykrywamy w tych pasmach, pochodzi od obiektów o szerszym zakresie przesunięć ku czerwieni, a co za tym idzie, emitowanych długości fal. Optyczna EBL obejmuje bezpośrednią emisję z POPULACJI GWIAZDOWYCH do przesunięć ku czerwieni z ∿ 10. Gęstość energii z populacji gwiezdnych osiąga szczyt na poziomie 1-1,5 μm w przypadku większości wieku gwiazd, tak więc optyczna EBL będzie obejmować zarówno starsze populacje o niskim przesunięciu ku czerwieni, jak i młode populacje o wysokim przesunięciu ku czerwieni. Wreszcie, znaczna część emisji gwiazdowej we Wszechświecie będzie przyczyniać się do tła w dalekiej podczerwieni, zarówno dlatego, że światło pochodzące z najwcześniejszych generacji gwiazd (najbardziej odległych gwiazd) zostanie przesunięte ku czerwieni do fal dłuższych, jak i dlatego, że fotony ultrafioletowe (UV) zostaną pochłonięte przez ziarna pyłu w emitującej galaktyce i ponownie wypromieniowane jako emisja termiczna w podczerwieni (λ 10 μm). Tłumienie światła krótkofalowego przez pył jest bardzo wydajne i może zapobiec bezpośredniej detekcji ponad 30% procesów formowania się gwiazd we Wszechświecie na falach krótszych niż 1 μm. Emisja niegwiazdowa, taka jak energia potencjalna grawitacji z akreujących czarnych dziur i emisja rozpadających się cząstek, również będzie przyczyniać się do EBL. Możliwe jest również, że znaczna część barionów we Wszechświecie może znajdować się w pierwotnym ŚRODKU MIĘDZYGALAKTYCZNYM zjonizowanego gazu, który można zidentyfikować na podstawie jego wkładu do EBL. Podczas gdy gorący gaz o temperaturze T ∿ 106 K emitowałby promieniowanie rentgenowskie, a chłodny gaz (T ∿ 104 K) wytwarzałby dramatyczne cechy absorpcji w widmach kwazarów, gaz o temperaturze T ∿ 105 K można by wykryć jedynie na podstawie jego wkładu w EBL poprzez przesuniętą ku czerwieni emisję He II przy 304 Å i Lyα przy 1216 Å.
Pomiar EBL
Rysunek przedstawia jasność powierzchniową źródeł pierwszoplanowych jako funkcję długości fali wzdłuż linii widzenia, gdzie źródła te są najsłabsze - na szerokościach galaktycznych powyżej 65° i szerokościach ekliptycznych powyżej 30°.

Dla porównania, detekcje EBL i górne granice przedstawiono na rysunku 2, wraz z modelami oczekiwanej EBL i dolnych granic uzyskanymi poprzez zsumowanie strumienia pochodzącego z rozdzielonych źródeł pozagalaktycznych (tj. wykrytych galaktyk) i modeli EBL.

Dla wszystkich długości fal skumulowany strumień ze źródeł pierwszoplanowych jest około 100 razy większy niż EBL.
Ultrafiolet (1000-2500 Å)
Ponieważ atmosfera jest nieprzezroczysta dla fotonów o długościach fal krótszych niż około 3100 Å, obserwacje w zakresie UV muszą być wykonywane z rakiet lub z kosmosu. Wczesne próby wykrycia tła dalekiego ultrafioletu (FAT) były inspirowane faktem, że jedyne udokumentowane wówczas jasne źródło promieniowania na pierwszym planie - ŚWIATŁO ZODIAKALNE - gwałtownie spada poniżej 4000 Å i staje się nieistotne poniżej 2000 Å. Pomiar okazał się jednak trudniejszy niż oczekiwano, a wyniki różniły się o 3 rzędy wielkości. Z perspektywy czasu jasne jest, że słaba rozdzielczość przestrzenna utrudniała odejmowanie gwiazd Galaktyki w tych eksperymentach, a instrumentalne tła były słabo poznane. Ponadto emisja liniowa atomów i prostych cząsteczek (H I, O i NO) na wysokościach powyżej 300 km oraz fotonów Ly? Słońca przyczyniły się do znacznego strumienia promieniowania w pomiarach rakietowych. Szybki postęp nastąpił około 1980 roku, wraz z pojawieniem się detektorów UV o lepszej rozdzielczości i większej czułości. Wyniki z ostatnich kilku dekad konsekwentnie wskazują, że większość promieniowania UV pochodzi z Galaktyki, a jedynie niewielka jego część jest izotropowa, a zatem prawdopodobnie pozagalaktyczna. Większość wkładu Galaktyki to rozproszone, rozproszone w pyle światło gwiazd. Rozproszony strumień można oszacować na podstawie intensywności emisji termicznej z tego samego pyłu, która identyfikuje gęstość pyłu w kolumnie, oraz prostych modeli rozpraszania uwzględniających empirycznie i teoretycznie określone właściwości pyłu. Wcześniejsza słaba zgodność między modelami wydaje się obecnie dobrze wyjaśniona dowodami na silne rozpraszanie pyłu międzygwiazdowego do przodu. Rozproszony strumień UV zależy zatem od kąta rozpraszania między linią widzenia a padającym światłem gwiazd z centrum i płaszczyzny Galaktyki. Emisję liniową z [O III] 5007 Å, C IV 1550 Å i O III] 1663 Å wykryto również w korelacji z gęstością kolumny neutralnego wodoru, podobnie jak fluorescencję H2 (1550-1650 Å), dwufotonową emisję kontinuum związaną-wolną i wolną-wolną oraz emisję liniową Lyα (1216 Å) i Hα, wszystkie z ciepłego (T ∿? 105 K) gazu wysokich szerokości geograficznych. Intensywność tych składników jest proporcjonalna do kosekansa szerokości geograficznej Galaktyki, która przybliża długość drogi przez gładko rozłożony gaz. Pomiary i ograniczenia w ciągu ostatnich 10 lat zbiegły się w kierunku strumieni EBL w zakresie 2-5 nW m-2 sr-1, z minimalnym szacunkiem 1 nW m-2sr-1 na podstawie skumulowanego strumienia w wykrytych źródłach. Za większość tego strumienia odpowiada najprawdopodobniej emisja z galaktyk, podczas gdy szacuje się, że kwazary i aktywne jądra galaktyk przyczyniają się do mniej niż 0,2 nWm-2sr-1, a strumień z dowolnego ośrodka międzygalaktycznego jest ograniczony do mniej niż 0,2 nW m-2sr-1 w zakresie od 912 do 1216 Å.
Optyczny (3000 Å -1 μm)
Własna atmosfera Ziemi stanowiła największą przeszkodę dla wczesnych prób pomiaru optycznego pasma EBL. Emisja atmosferyczna (AIRGLOW) jest nie tylko co najmniej 100 razy jaśniejsza niż EBL, ale także może się zmieniać o kilka procent w skali minut, podobnie jak ekstynkcja atmosferyczna. Efekty te sprawiają, że korekcja emisji i ekstynkcji atmosferycznej z wymaganą dokładnością jest praktycznie niemożliwa. Jedyną udowodnioną, skuteczną metodą radzenia sobie z atmosferą jest unikanie jej poprzez wykonywanie pomiarów EBL z kosmosu. Dominującym źródłem promieniowania na pierwszym planie spoza atmosfery Ziemi jest światło słoneczne rozpraszane na dużych ( ≥ 10 μm), szorstkich ziarnach PYŁU MIĘDZYPLANETARNEGO, które koncentrują się w płaszczyźnie ekliptyki. To rozproszone światło zodiakalne jest również co najmniej 100 razy jaśniejsze niż strumień EBL, nawet na ekliptycznych szerokościach geograficznych |b| > 35°. Ponieważ z Układu Słonecznego trudniej jest uciec niż z atmosfery ziemskiej, na szczęście rozpraszanie jest dobrze opisane przez teorię rozpraszania Mie i jest tylko słabo zależne od długości fali, przy czym rozpraszanie staje się wydajniejsze o ∿5% na 1000 Å w kierunku fal dłuższych. Średni strumień światła zodiakalnego można zatem zmierzyć, wykorzystując natężenie cech absorpcji słonecznej (LINIE FRAUNHOFERA), które są zachowane w jego widmie. Optyczne detektory CCD zazwyczaj mają rozdzielczość subsekundową, co sprawia, że rozdzielczość i odejmowanie gwiazd w naszej Galaktyce są stosunkowo łatwe. Jednak, podobnie jak w ultrafiolecie (UV), pył międzygwiazdowy rozprasza padające światło gwiazd, wytwarzając rozproszone światło galaktyczne w zakresie fal optycznych. Emisja termiczna z pyłu i korelacja pyłu z neutralnym wodorem mogą być wykorzystane do identyfikacji linii widzenia o najniższej gęstości kolumny pyłu, a proste modele rozpraszania mogą być użyte do oszacowania i odjęcia pozostałego niskiego poziomu wkładu. Właściwości rozpraszania pyłu wywnioskowano z obserwacji rozproszonego światła galaktycznego w zakresie fal bliskich ultrafioletowi (UV), gdzie dominuje ono na niebie, a także z obserwacji kilku obłoków neutralnego wodoru (H I) i mgławic planetarnych, gdzie gęstość słupów pyłu jest wysoka. Naziemne próby pomiaru optycznego EBL rozpoczęły się w latach 70. XX wieku. Poświatę niebieską identyfikowano albo poprzez modelowanie geometryczne, albo poprzez przełączanie wiązki między czystą linią widzenia a "ciemnym" obłokiem pyłu na wysokiej szerokości galaktycznej, w celu odizolowania pierwszego planu od źródeł tła. W 1980 roku sonda Pioneer 10 Explorer uzyskała dane nie tylko znad atmosfery, ale także spoza zodiakalnego obłoku pyłu, w odległości 3 AU od Słońca. Chociaż unikała ona zarówno poświaty niebieskiej, jak i światła zodiakalnego, słaba rozdzielczość sondy Explorer bardzo utrudniała odjęcie nawet dyskretnych źródeł galaktycznych (tj. gwiazd). Podobnie jak w zakresie ultrafioletu (UV), szybki postęp nastąpił wraz z pojawieniem się detektorów o wysokiej rozdzielczości nad atmosferą na pokładzie Kosmicznego Teleskopu Hubble′a. Detekcje EBL w zakresie 3000, 5500 i 8000 Å zostały ostatnio zgłoszone na podstawie skoordynowanego obrazowania HST i spektroskopii naziemnej.
Podczerwień (1 μm-1000 μm)
Każde ciepłe ciało emituje promieniowanie cieplne, w tym teleskopy, atmosfera ziemska i sama Ziemia. Obserwacje EBL w podczerwieni muszą być zatem przeprowadzane z kosmosu za pomocą detektorów chłodzonych kriogenicznie. Z kosmosu emisja cieplna pochodzi z pyłu uwięzionego w Układzie Słonecznym i Galaktyce. Odejmowanie tych pierwszych planów zależy od modelowania widmowego z wykorzystaniem obserwacji wielodługościowych i modelowania geometrycznego opartego na pokryciu całego nieba. Najbardziej ambitny i udany jak dotąd pomiar w podczerwieni został przeprowadzony za pomocą sondy Cosmic Background Explorer (COBE), wystrzelonej w 1989 roku. Przed COBE postęp w badaniach dokonywał się za pomocą krótkotrwałych teleskopów rakietowych i satelitów przeznaczonych do obserwacji dyskretnych źródeł, takich jak Infrared Astronomical Satellite (IRAS). Światło zodiakalne z rozproszenia zanika przy długości fali kilku mikronów, ale termiczna reemisja pochłoniętego światła słonecznego z tego samego pyłu osiąga szczyt około 10 μm. Ta emisja termiczna jest rozpoznawalna na podstawie ruchu Ziemi po orbicie przez pył zodiakalny. Roczną zmianę jasności nieba we wszystkich kierunkach można modelować empirycznie i odejmować. Po usunięciu termicznej składowej zodiakalnej, niektóre pojedyncze źródła galaktyczne można rozróżnić i odjąć. Strumień z nierozpoznanych, dyskretnych źródeł galaktycznych można określić dla każdej długości fali w oparciu o szczegółowe modele statystyczne źródeł galaktycznych i ich rozkład przestrzenny. Rozproszona emisja pyłu międzygwiazdowego jest najjaśniejsza przy około 100 ?m. Składową tę można oszacować i odjąć dla długości fal dłuższych niż 100 μm, skalując obserwacje zodiakalne, odjęte od światła z zakresu 100 μm, z wykorzystaniem modelu temperaturowego pyłu. Obserwacje COBE doprowadziły do wykrycia 3σ przy długościach fali 140 i 240 μm oraz górnych granic 2σ przy długościach fali 100 μm i krótszych.
Testowanie szerszego obrazu
Różnica między skumulowanym strumieniem w źródłach wykrytych optycznie a wykrytym optycznym EBL wskazuje, że około 50% strumienia z poszczególnych źródeł przekracza spektroskopowy limit detekcji obecnych przeglądów przesunięć ku czerwieni . Najnowsze wyniki pokazują, że różnicę tę można częściowo wyjaśnić obiektami o niskiej jasności powierzchniowej, które nie są uwzględniane w standardowych katalogach, oraz pominiętym strumieniem w obszarach o niskiej jasności powierzchniowej skatalogowanych obiektów. Jednak na dłuższych falach pojedyncze źródła generujące EBL w podczerwieni nie zostały w pełni zidentyfikowane i mogą być zasilane przez źródła gwiezdne lub niegwiezdne. Mówiąc bardziej ogólnie, górne i dolne granice oraz detekcje EBL zdają się wskazywać, że gęstość energii w źródłach pozagalaktycznych jest w przybliżeniu stała w zakresie 4 rzędów wielkości długości fali (0,1-1000 μm). Sam ten kształt widmowy stanowi bardzo interesujące ograniczenie dla naszych modeli Wszechświata. Średnia EBL dla dowolnej długości fali jest skomplikowaną funkcją tempa emisji gwiazd, ekstynkcji pyłowej, ewolucji galaktyk oraz początkowej funkcji masy i ewolucji samych populacji gwiazd. Dlatego racjonalna interpretacja EBL wymaga modelowania tych zmiennych jako funkcji przesunięcia ku czerwieni. Takie modele - charakteryzujące nasz obraz Wszechświata - są konstruowane na podstawie obserwacji rozdzielonych źródeł jako funkcji przesunięcia ku czerwieni. Jedna z metod modelowania EBL opiera się na pomiarach emisji UV w układzie spoczynkowym poszczególnych galaktyk, co wskazuje tempo formowania się gwiazd jako funkcję przesunięcia ku czerwieni, a następnie EBL jako funkcję długości fali. Niepewności dotyczące tłumienia promieniowania UV i optycznego przez pył w emitujących galaktykach ograniczają dokładność tych modeli. Inne niepewności obejmują początkową funkcję masy gwiazd i widmowy rozkład energii, które razem identyfikują liczbę formujących się gwiazd o danej masie oraz widmowy sygnał wyjściowy tych gwiazd. Modele EBL oparte na tej metodzie muszą uwzględniać znaczące (30%) przesłonięcie pyłem i repromieniowanie, aby zapewnić rozsądną zgodność z obserwacjami EBL w podczerwieni. Ta konieczność wskazuje, że obszary formowania się gwiazd we wszystkich przesunięciach ku czerwieni są w dużej mierze pokryte pyłem i optycznie ciemne. Szybkość konwersji neutralnego wodoru w gwiazdy jako funkcję przesunięcia ku czerwieni można wywnioskować ze statystyk cech absorpcyjnych w widmach kwazarów. Stanowi to kolejną metodę modelowania EBL. Podobnie jak w przypadku modeli opartych na emisji w ultrafiolecie w układzie odniesienia spoczynkowym, dominującą niepewnością w tych modelach jest ułamek światła optycznego osłabionego przez pył oraz charakterystyczna temperatura pyłu. Ponieważ metale są wytwarzane poprzez NUKLEOSYNTEZĘ w tych samych gorących, młodych gwiazdach, których emisja dominuje w EBL, średnią EBL można również przewidzieć na podstawie całkowitej gęstości masy metali w lokalnym wszechświecie. GROMADY GALAKTYK to wygodne miejsce do pomiaru gęstości metali, ponieważ wszelkie metale, które mogą zostać wyrzucone z galaktyk, zostaną uwięzione w potencjale gromady. Tempo produkcji metali można również prześledzić na podstawie cech absorpcji wywołanych przez układy pośredniczące w widmach kwazarów, jako funkcji przesunięcia ku czerwieni. Całkowite wzbogacenie metali we Wszechświecie, zidentyfikowane obiema metodami, zgadza się z całkowitą gęstością energii EBL wykrytą do tej pory z dokładnością do czynnika 2-5. Po ponad 25 latach pracy w tym obszarze, znaleziono pomiary lub dobrze określone górne granice dla EBL w pełnym zakresie długości fal, od ultrafioletu do podczerwieni. Wyniki dla wszystkich długości fal, mieszczące się w granicach niepewności pomiarów i modelowania, dają zasadniczo spójny obraz całkowitego tempa formowania się gwiazd we Wszechświecie, całkowitej ilości metali wytwarzanych w gwiazdach oraz całkowitej energii generowanej przez nukleosyntezę. Ponadto, dla długości fal krótszych niż 1 ?m, rozproszone tło można wyjaśnić źródłami, które są dobrze poznane i w dużej mierze obecne w przeglądach indywidualnie wykrytych galaktyk. Prace nad dokładniejszym określeniem długości fal promieniowania ultrafioletowego (UV) i średniej podczerwieni (IR) EBL są prowadzone w formie nowych misji satelitarnych i programów mających na celu identyfikację źródeł promieniowania podczerwonego.
Pozagalaktyczne układy odniesienia
Podstawy koncepcyjne układów odniesienia definiowanych przez obiekty pozagalaktyczne są proste: Wszechświat jako całość nie obraca się, więc obiekty bardzo odległe nie mogą wykonywać ruchu obrotowego. Doświadczalnie, globalny obrót Wszechświata jest mniejszy niż 10-12 sekundy łuku rok-1, co wynika z mikrofalowego promieniowania tła o temperaturze 3 K. W odległości 108 parseków, nawet gdyby obiekt poruszał się poprzecznie z prędkością światła, jego prędkość kątowa byłaby mniejsza niż 0,6 × 10-3 sekundy łuku rok-1, podczas gdy obiekt poruszający się z fizycznie bardziej rozsądną prędkością, porównywalną ze Słońcem, wykazywałby ruch 10-6 sekundy łuku rok-1, całkowicie niewykrywalny przez obecną technologię. Ponieważ ani systematyczny ruch uniwersalny, ani ruch losowy w tak dużej odległości nie są mierzalne, uzasadnione jest skonstruowanie statycznego niebieskiego układu odniesienia na podstawie założenia, że takie obiekty są nieruchome na niebie. Pomysł wykorzystania obiektów pozagalaktycznych do zdefiniowania niebieskiego układu odniesienia jest dość stary, gdyż omawiali go Herschel i Laplace około 200 lat temu, jeszcze zanim udowodniono istnienie takich obiektów. Odkrycie galaktyk zewnętrznych i ich odległości na początku XX wieku stworzyło możliwość ich wykorzystania jako obiektów odniesienia dla niebieskiego układu odniesienia. Jednak ich rozmyte, słabe obrazy optyczne znacznie to utrudniały, a ASTROMETRIA nadal wykorzystywała jasne gwiazdy, pomimo komplikacji związanych ze znacznymi, przypadkowymi i systematycznymi ruchami. Na szczęście obserwacje w zakresie częstotliwości radiowych w latach 60. XX wieku ujawniły klasę obiektów, które okazały się odpowiednie do astrometrii najwyższego rzędu, aczkolwiek z pewnymi ograniczeniami. Są to KWAZARY, kompaktowe źródła radiowe, które są punktowe w paśmie optycznym, ale z dużymi PRZESUNIĘCIAMI KU CZERWONI, co implikuje odległości kosmologiczne. Interferometria o bardzo dużej bazie. Techniką pomiaru położenia kwazarów i podobnych obiektów jest VLBI (interferometria o bardzo dużej bazie). W tym zastosowaniu VLBI to technika geometryczna, która mierzy kierunki w przestrzeni z dużą dokładnością. Schematycznie, za pomocą pary odległych anten, różnica czasu dotarcia do dwóch stacji sygnałów emitowanych przez źródło radiowe jest mierzona z dokładnością kilku pikosekund. Dla typowej linii bazowej o długości 5000 km odpowiada to ułamkowi milisekundy kątowej. Ta różnica czasu (opóźnienie) i jej pierwsza pochodna (stopa opóźnienia) są rekonstruowane poprzez korelację offline sygnałów (w rzeczywistości szumu radiowego, zazwyczaj ukrytego w szumie termicznym elektroniki) zarejestrowanych na obu końcach linii bazowej. Kluczowym elementem wyposażenia stacji jest zegar używany do pomiaru czasu zdarzeń. VLBI wykorzystuje masery wodorowe o stabilności jednej części na 10-1, zarówno dla czasu, jak i częstotliwości, a surowe dane są rejestrowane cyfrowo z szybkością do 1 Gbit/s-1. W obecnej praktyce sieć składająca się z maksymalnie 20 stacji obserwuje 50-80 źródeł radiowych na niebie wielokrotnie w ciągu 24-godzinnej sesji. Ponieważ opóźnienie i współczynnik opóźnienia są generowane z każdej pary stacji dla każdej obserwacji źródła, w ramach jednej sesji obserwacyjnej może być zebranych ponad 20 000 punktów danych o opóźnieniu/współczynniku opóźnienia. Obserwacje VLBI odpowiednie dla astrometrii o wysokiej precyzji rozpoczęły się pod koniec lat 70. XX wieku wraz z rozwojem odbiorników dwuczęstotliwościowych i systemu akwizycji danych Mark III VLBI, a aktywny program obserwacji na całym świecie jest nadal kontynuowany. Analiza danych VLBI do celów astrometrycznych i geodezyjnych wymaga oszacowania pozycji źródeł, pozycji stacji, poprawek nutacyjnych oraz parametrów charakteryzujących zachowanie zegara i atmosfery na każdej stacji, a także starannego modelowania wszystkich efektów geofizycznych i astronomicznych. Każda oddzielna sesja dostarcza względnych pozycji obserwowanych źródeł z pewną dozą niepewności. W różnych dniach obserwowane są różne zestawy źródeł. To nakładanie się danych niektórych wspólnych źródeł z jednego dnia na drugi łączy wszystkie pozycje. Ze wszystkich nakładek i bezpośrednio zmierzonych pozycji powstaje kompletny zestaw pozycji względnych. Powtarzane pomiary, bezpośrednio w ciągu jednego dnia lub pośrednio w różnych dniach, poprawiają precyzję wnioskowanych pozycji. Zróżnicowane kombinacje linii bazowych i zestawów obserwowanych źródeł wzmacniają ogólną geometrię i osłabiają korelacje między współrzędnymi źródła a licznymi zjawiskami modelowanymi w analizie. W szczególności, do określenia obu składowych położenia źródła potrzebna jest kombinacja linii bazowych północ-południe i wschód-zachód. Ponieważ pomiary VLBI dają położenia względne, orientację zespołu pozycji, tj. bieguna i początku rektascensji, należy określić na podstawie informacji zewnętrznych. Jest to niezbędny krok w przypisywaniu liczbowych wartości położenia, które definiują układ odniesienia. W praktyce wyniki pośrednie są przetwarzane jak zwykłe wartości rektascensji i deklinacji, ale podstawowe pomiary VLBI dotyczą długości łuków między źródłami, których precyzja jest zawarta w pełnej macierzy kowariancji zbioru położeń źródeł. Najwcześniejsze położenia VLBI w 1971 roku nie były dokładniejsze niż kilka sekund łukowych, ale w połowie lat 80. osiągnięto kilka milisekund łukowych. W przeciwieństwie do astrometrii gwiazdowej, która musi opierać się na konwencjonalnej teorii PRECESJI i NUTACJI, aby przekształcić rzeczywiste współrzędne daty na współrzędne średnie epoki standardowej, astrometria VLBI jest wrażliwa na błędy w modelu precesji/nutacji standardowej, które wynoszą kilka milisekund łukowych. Aby osiągnąć pełną dokładność inherentną dla stabilności położeń pozagalaktycznych, konieczne jest uwzględnienie poprawek do teorii precesji/nutacji. Można to osiągnąć na dwa sposoby: albo dostosowując stałą precesji i różne współczynniki nutacji, albo szacując przesunięcie między rzeczywistym biegunem a modelowanym biegunem dla każdego dnia obserwacji.
Podstawy pozagalaktycznego układu odniesienia
Proces tworzenia podstaw koncepcyjnych dla pozagalaktycznego układu odniesienia, identyfikacji jego obiektów odniesienia i opracowania podstawowego katalogu rozpoczął się na XX Zgromadzeniu Ogólnym Międzynarodowej Unii Astronomicznej w Baltimore w 1988 roku rezolucją stwierdzającą, że "Międzynarodowa Unia Astronomiczna powinna przyjąć niebiański układ odniesienia oparty na spójnym zestawie współrzędnych dla wystarczającej liczby obiektów pozagalaktycznych, gdy wymagane dane obserwacyjne zostaną pomyślnie uzyskane i odpowiednio przeanalizowane. Ten układ odniesienia prawdopodobnie będzie oparty, przynajmniej początkowo, wyłącznie na radioastrometrii". Powołano Grupę Roboczą ds. Układów Odniesienia, kierowaną przez J. Hughesa, z podgrupami ds. czasu (B. Guinot), układów współrzędnych i początków (J. Kovalevsky), stałych astronomicznych (T. Fukushima) oraz teorii nutacji (D. McCarthy). Podstawowe koncepcje obecnego ICRF (Międzynarodowego Układu Odniesienia Niebiańskiego) zostały opracowane przez podgrupy i szeroko omówione na Kolokwium 127 IAU na temat Układów Odniesienia, które odbyło się w Virginia Beach w 1990 roku. Ogólna teoria względności dla przestrzeni i czasu, wykorzystanie pozagalaktycznych obiektów radiowych oraz ciągłość między istniejącymi gwiezdnymi i przewidywanymi pozagalaktycznymi układami odniesienia niebieskiego zostały podsumowane w dziewięciu zaleceniach przyjętych jako rezolucja przez XXI Zgromadzenie Ogólne IAU w Buenos Aires w 1991 roku. Powołano grupę roboczą pod przewodnictwem C. de Vegta w celu wybrania źródeł radiowych, które mają być używane, ze szczególnym uwzględnieniem potrzeby połączenia ram radiowych i optycznych. XXII Zgromadzenie Ogólne IAU w Hadze w 1994 roku przyjęło listę około 600 źródeł i powołało nową grupę roboczą pod przewodnictwem L. Morrisona w celu określenia stanowisk. Prace te wykonała podgrupa specjalistów VLBI i astronomicznych układów odniesienia. Powstały katalog ICRF został przyjęty przez Dwudziestą Trzecią Sesję Zgromadzenia Ogólnego Międzynarodowej Unii Astronomicznej (IAU) w Kioto w 1997 roku i wszedł w życie 1 stycznia 1998 roku, zastępując katalog FK5. Powołano Grupę Roboczą ds. Międzynarodowego Astronomicznego Układu Odniesienia (ICRS) pod kierownictwem F. Mignarda, której zadaniem było kontynuowanie prac nad ICRF, rozszerzenie zakresu o inne obiekty i częstotliwości oraz wyjaśnienie konsekwencji istnienia ICRF.
Definicja pozagalaktycznego układu odniesienia ICRF
Zgodnie z nowo przyjętymi zasadami, podstawowe kierunki niebieskiego układu odniesienia pozostaną niezmienne w przestrzeni; nie będą już zależne od modelowania ruchu obiektów Układu Słonecznego. Obiekty fiducialne będą monitorowane. Przyjęte pozycje mogą zostać zrewidowane w miarę dostępności lepszych informacji, ale osie współrzędnych zostaną zachowane dzięki zastosowaniu warunku statystycznego, zgodnie z którym współrzędne wybranych źródeł definiujących nie wykazują globalnej rotacji od starego układu współrzędnych do nowego układu. Dane wykorzystane do określenia pozycji źródeł radiowych ICRF obejmowały 1,6 miliona par opóźnień i częstotliwości dwuczęstotliwościowych od 1979 do połowy 1995 roku. Dane te pochodziły z kilku geodezyjnych i astrometrycznych programów obserwacyjnych, przy czym zdecydowana większość obserwacji pochodziła z pierwszego, ale większość ze źródeł z drugiego. Projekt analizy miał na celu (1995) dostarczenie najnowocześniejszych pozycji źródeł, w szczególności w celu uwolnienia wyników od zanieczyszczeń wynikających z błędów precesji/nutacji, anomalii w zachowaniu źródeł, szumu geodezyjnego i systematycznych efektów atmosferycznych. Jednoczesne obserwacje dwuczęstotliwościowe umożliwiły kalibrację dyspersji jonosferycznej. Przesunięcia biegunów niebieskich pod względem nachylenia i długości geograficznej szacowano dla każdego dnia. Pozycje źródeł o nadmiernym rozproszeniu lub ruchu pozornym (określonym na podstawie rozwiązań testowych) szacowano oddzielnie dla każdego dnia, podobnie jak pozycje stacji. Przyjęto limit wysokości 6°, aby zrównoważyć potrzebę maksymalnej geometrii obserwacji z trudnościami w prawidłowym modelowaniu atmosfery na niskich wysokościach. Oszacowano gradienty atmosferyczne w celu wyeliminowania istotnego efektu systematycznego. Zarówno opóźnienia, jak i wskaźniki wykorzystano w celu maksymalizacji dostępnych informacji i zmniejszenia korelacji. Ze względu na dużą liczbę i wysoką jakość obserwacji, formalne błędy pozycji były wyjątkowo małe i nie stanowiły miarodajnej miary niepewności. Konieczne było uwzględnienie kilku innych efektów, aby przypisać realistyczne błędy. Jednym z nich była ważność statystyczna błędów formalnych. Drugim był skumulowany wpływ wszystkich błędów modelowania i decyzji edycyjnych. Jeszcze innym była skala konkretnych, identyfikowalnych błędów, które mogły zniekształcić wyniki. Uwzględnienie wszystkich znanych źródeł błędów wskazało, że realistyczną ocenę błędu można uzyskać poprzez zawyżenie błędów formalnych o współczynnik 1,5, a następnie zwiększenie sumy kwadratów o 0,25 milisekundy kątowej. Dla najczęściej obserwowanych źródeł dominującym błędem było 0,25 milisekundy kątowej. Źródła z rozwiązania ICRF podzielono po fakcie na trzy kategorie: 212 źródeł definiujących, które spełniały szereg kryteriów jakości; 294 źródła kandydujące, które nie spełniały jednego lub więcej kryteriów jakości, np. zbyt mała liczba obserwacji lub zbyt krótki interwał obserwacji, oraz 102 źródła "inne" (których pozycje szacowano każdego dnia). Chociaż rozkład ICRF na niebie jako całości jest dość równomierny, źródła definiujące są rzadsze na półkuli południowej z powodu braku stacji VLBI i ograniczonych programów obserwacyjnych. "Inne" źródła obejmują szereg stosunkowo jasnych odpowiedników optycznych, które mogłyby zostać użyte do połączenia ramek radiowych i gwiezdnych. Osie ramki zostały wyrównane z realizacją ICRS przez Międzynarodową Służbę Obrotu Ziemi (IERS) z błędem ∿0,020 milisekundy łuku. Katalog Hipparcos, który jest optyczną realizacją niebieskiego układu odniesienia , został wyrównany z ICRF, głównie poprzez obserwacje radiogwiazd VLBI. ICRF zapewnia również ramy dla różnych technik geodezji kosmicznej do pomiaru pozycji i prędkości ziemskich, które stanowią ziemski układ odniesienia, oraz do monitorowania zmian w obrocie Ziemi.
Przyszłe ulepszenia
Dwa główne zjawiska prowadzące do błędów losowych i systematycznych w ICRF to atmosfera i struktura źródła. O ile opóźnienie propagacji w zenicie od suchej atmosfery można dokładnie skalibrować na podstawie lokalnych danych meteorologicznych, opóźnienie od suchej atmosfery w linii widzenia do obserwowanego źródła jest obarczone błędem modelowania. Opóźnienia od pary wodnej nie można dokładnie skalibrować, a oba opóźnienia podlegają losowym fluktuacjom czasowym i przestrzennym, które należy oszacować na podstawie danych z VLBI lub innych danych mikrofalowych. Kwazary nie są promieniami punktowymi. Struktura źródła może powodować, że ich położenie będzie się nieznacznie różnić w zależności od geometrii linii bazowej, a zmiany w strukturze źródła mogą powodować pozorny ruch. Szczegółowe mapy źródeł pokazują, że wewnętrzne zróżnicowanie struktury może być dość ekstremalne, od stosunkowo zwartych obiektów z odkrytym jądrem, przez zwarte źródła podwójne, po złożone obiekty z rdzeniem strumieniowym. Sytuację komplikuje fakt, że zwarte pozagalaktyczne ŹRÓDŁA RADIOWE charakteryzują się zmienną intensywnością i zależną od częstotliwości i czasu strukturą wewnętrzną. W konsekwencji, nieznane i niezmodelowane efekty struktury źródła mogą zostać wprowadzone do układu odniesienia. Źródła można scharakteryzować po mapowaniu na podstawie stopnia, w jakim opóźnienie i szybkość opóźnienia są zależne od struktury w pełnym zakresie możliwych geometrii bazowych, a najgorsze źródła można odrzucić dla większości celów astrometrycznych. Do początku 1999 roku, od czasu budowy ICRF w 1995 roku, programy geodezyjne i astrometryczne pozyskały około 800 000 kolejnych obserwacji, w tym około 50 nowych źródeł. Zostały one zintegrowane z danymi i analizami wykorzystanymi w ICRF w celu aktualizacji pierwotnego katalogu. Pierwotna analiza ICRF nie została dokładnie skopiowana w celu uwzględnienia nowych danych, ale nowe pozycje są zgodne z ICRF przy deklarowanym poziomie dokładności, około 0,25 milisekundy łuku w ogólnych pozycjach źródeł i około 0,020 milisekundy łuku w orientacji. Pozycje określono dla nowych źródeł, a zaktualizowane pozycje i błędy znaleziono dla źródeł kandydackich z dodatkowymi obserwacjami. Pozycje i niepewności źródeł definiujących nie zostały zmienione, ponieważ stanowią one rzeczywistą realizację modelu ICRF, a prace nad uwzględnieniem nowszych danych nie prowadzą bezpośrednio do zastąpienia istniejącego modelu ICRF. Źródła definiujące będą używane w warunkach braku rotacji netto względem modelu ICRF, aby zapewnić, że pozycje z nowych analiz są zgodne z modelem ICRF. Istnieje kilka cech, które odróżniają model ICRF od konwencjonalnych katalogów gwiazd, które wcześniej definiowały niebiański układ odniesienia. Po pierwsze, kwazary są słabe optycznie, więc połączenie z układem gwiezdnym jest skomplikowane. Po drugie, chociaż znana jest historia położenia źródeł radiowych, nie można przewidzieć wyników przyszłych obserwacji. W związku z tym konieczne jest obserwowanie nowych źródeł, aby uzupełnić i rozszerzyć listę kandydatów. Po trzecie, w miarę gromadzenia nowych obserwacji powinno być możliwe przesuwanie potencjalnych źródeł w górę lub w dół skali użyteczności w kolejnych realizacjach modelu ICRF. Problem zmian położenia związanych ze zmiennością struktury źródła może zostać rozwiązany w przyszłości, jeśli zastosowanie informacji o strukturze źródła umożliwi identyfikację i wykorzystanie prawdziwie kinematycznie statycznych punktów na niebie. Ponieważ oryginalne opóźnienie i wskaźniki opóźnień VLBI są dostępne, można je zawsze ponownie wykorzystać w udoskonalonej analizie. Po znacznym ulepszeniu modeli i technik estymacji oraz zgromadzeniu wystarczającej ilości danych, możliwe będzie skonstruowanie nowego ICRF de novo.
Pozasłoneczne planetarne towarzysze i brązowe karły
Pierwsze przekonujące odkrycie zarówno planet pozasłonecznych (EGZOPLANETY), jak i brązowych karłów miało miejsce w latach 90. XX wieku. Pierwszy układ planetarny odkryty wokół innej gwiazdy to w rzeczywistości bardzo szczególny przypadek: planetą macierzystą jest pulsar o okresie orbitalnym 6,2 ms, gwiazda neutronowa licząca miliard lat, która powinna wybuchnąć jako supernowa. Na podstawie precyzyjnego czasu impulsów radiowych, A. Wolszcan i D. A. Frail określili w 1992 roku orbity trzech domniemanych towarzyszy o masie Ziemi. Wiodący model formowania się planet pulsarowych zakłada, że po supernowej niewielka ilość materii z istniejącego wcześniej towarzysza zostaje przechwycona przez DYSK AKRECYJNY. Pozorne istnienie planet w tak egzotycznym środowisku może wskazywać, że formowanie się planet może zachodzić w bardzo zróżnicowanych warunkach, ale nie będziemy tu dalej rozważać tego przypadku. Wnioskowane istnienie pierwszej planety pozasłonecznej o masie Jowisza w normalnym środowisku gwiezdnym zostało potwierdzone poprzez wykrycie okresowych zmian prędkości radialnej w widmie optycznym gwiazdy typu G, 51 Peg, podobnej do Słońca; odkrycie 51 Peg B zostało ogłoszone w 1995 roku przez M. Mayora i D. Queloza z Uniwersytetu Genewskiego. W ciągu następnych kilku lat kilka zespołów wykorzystało tę technikę Dopplera do zgłoszenia dziesiątek odkryć. W tym samym, kilkumiesięcznym okresie 1995 roku, grupa naukowców z Uniwersytetu Johnsa Hopkinsa i Kalifornijskiego Instytutu Technologicznego zgłosiła odkrycie pierwszego prawdziwego brązowego karła - natychmiast rozpoznawalnego jako obiekt podgwiazdowy. W przeciwieństwie do pierwszego przypadku, drugi był bezpośrednim wykryciem brązowego karła jako wyraźnego, odległego towarzysza pobliskiego karła typu M, Gliese 229. Ponieważ obiekt ten, oznaczony jako GL 229B, w swoim widmie podczerwonym charakteryzuje się metanem (CH4), a nie tlenkiem węgla (CO), jego temperatura powierzchni wynosiła około 1000 K - zdecydowanie zbyt niska, aby mogła być gwiazdą. Metan jest również dominującą formą węgla w atmosferze Jowisza. Na rysunku 1 przedstawiono niedawno opublikowane widmo w podczerwieni GL 229B z zaznaczonymi pasmami metanu i wody. Dla porównania przedstawiono widma o podobnych długościach fal późnego karła typu M, vB10, i karła typu L, GD 165B . Te znacznie cieplejsze obiekty wykazują obecność H2O i CO, ale nie CH4. Z perspektywy czasu, jak zostanie omówione, GL 229B mógł nie być pierwszym odkrytym brązowym karłem. W ciągu ostatnich 10 lat kilka różnych technik pozwoliło na odkrycie obiektów o masie podgwiazdowej. W następnej sekcji podsumowujemy techniki, które zostały wypróbowane lub są planowane w przyszłości. Następnie krótko podsumowujemy niektóre odkrycia i ich implikacje z początku 1999 roku. Rozkład większości znanych planet pozasłonecznych i brązowych karłów z początku 1999 roku jest przedstawiony jako wykres masy (w MJ) w funkcji półosi wielkiej orbity (w jednostkach astronomicznych).
Techniki bezpośredniej detekcji
Bezpośrednia detekcja GL 229B była możliwa dzięki jej promieniowaniu fotosferycznemu. W dalszej części omówione zostaną odkrycia jaśniejszych kandydatów na brązowe karły, zarówno w młodych gromadach gwiazd, jak i w polu. Oczywiście, znacznie trudniej jest bezpośrednio wykryć zimną planetę. W zakresie widzialnym światło odbite od analogu Jowisza ma zazwyczaj kontrast ∿10-9 światła gwiazdy głównej. W podczerwieni termicznej (5 μm i więcej) kontrast ten może wynosić zaledwie 10-4 dla starej planety. Bezpośrednie obrazowanie towarzyszącej planety lub zimnego brązowego karła wymaga odpowiedniej redukcji szumu w funkcji rozproszenia punktowego profilu światła gwiazdy głównej. W przyszłości opracowywane są systemy ADAPTIVE OPTICS z funkcją koronograficzną dla nowej generacji teleskopów 8-10 m. Na przykład w 2001 roku instrument ADONIS (Adaptive Optics Near Infrared System) zamontowany na 3,6-metrowym teleskopie Europejskiego Obserwatorium Południowego (ESO) w Obserwatorium La Silla uzyskał obraz dysku pyłowego wokół gwiazdy iota Horologii, o której wiadomo już, że posiada planetę co najmniej dwa razy cięższą od Jowisza, krążącą po orbicie podobnej do ziemskiej. Dysk pyłowy wokół iota Horologii jest dość rozciągnięty; został wykryty w odległości około 65 AU (10 000 milionów km) od gwiazdy. Na podstawie wydłużenia wydaje się, że nachylenie dysku wynosi około 42?. Obiecujące pod względem bezpośredniego wykrywania planet jest również naziemne obrazowanie interferometryczne w podczerwieni . Bezpośrednie obrazowanie planet podobnych do Ziemi będzie wymagało opracowania kosmicznego interferometru o bazie ∿100 m i aperturze około 4 m.
Detekcja astrometryczna
Astrometryczną sygnaturą orbitującej planety jest okresowe drgania proporcjonalne zarówno do masy planety, jak i jej promienia orbitalnego . Stanowi to zatem doskonałe uzupełnienie techniki prędkości radialnej Dopplera, która faworyzuje pobliskie obiekty towarzyszące; technika ta jest również niewrażliwa na obserwowane nachylenie orbity. Jowisz w odległości 4 AU od gwiazdy typu słonecznego oddalonej o 10 pc wygenerowałby amplitudę astrometryczną wynoszącą zaledwie 0,5 milisekundy łuku (mas). Czułość pomiaru astrometrycznego na 1 mas jest przedstawiona na rysunku 2 jako długa i krótka przerywana linia ukośna, biegnąca od lewego górnego rogu do prawego dolnego rogu. Obiekty spadające na prawo od linii są wykrywalne tą metodą, o ile okresy orbitalne nie są zbyt długie. Sam Jowisz byłby marginalnym wykryciem w klonze Układu Słonecznego. W przyszłości, wraz ze wzrostem precyzji astrometrycznej z milisekund łuku do mikrosekund łuku (z kosmosu), technika ta może stać się niezwykle skuteczna. Rzeczywistość przypuszczalnego astrometrycznego towarzysza dla Lalande 21185 jest obecnie kwestionowana. Do tej pory nie udało się jednoznacznie wykryć towarzysza planetarnego metodą astrometryczną.
Detekcja fotometryczna
Prowadzone są liczne programy i propozycje naziemne i kosmiczne, które będą miały na celu wykrycie planet i brązowych karłów przechodzących przez gwiazdę macierzystą. Planeta Jowisza będzie przyćmiewać gwiazdę typu G o około 1% (stosunek powierzchni), a planetę skalistą o zaledwie 0,01%. Inną sygnaturą fotometryczną, którą można wykorzystać, jest MIKROSOCZEWANIE grawitacyjne. Dzięki odpowiednio wysokiej rozdzielczości czasowej pobierania próbek, badania mikrosoczewkowania mogą ujawnić sygnatury fotometryczne obiektów podgwiazdowych na pierwszym planie w świetle gwiazd tła, takich jak te obserwowane w zatłoczonych polach Zgrubienia Galaktyki.
Wykrywanie za pomocą okresowych zmian prędkości radialnej.
Jak omówiono we wstępie, to właśnie technika Dopplera przyniosła obfite odkrycia planet pozasłonecznych w ciągu kilku lat badań. Ogólne wyrażenie na półamplitudę, K, prędkości radialnej gwiazdy indukowanej przez orbitującego towarzysza to

Udoskonalenie trzeciego prawa Keplera przez Newtona daje mp sin i i promień orbity a. Wysoka dokładność, z jaką obecnie mierzy się współczynnik K, wynika z rozwoju precyzyjnych spektrografów zaprojektowanych do tego celu . Słońce okrąża barycentrum Układu Słonecznego z typową prędkością zaledwie 13 m s-1. Kilka grup uzyskało błędy pomiarowe sięgające zaledwie 3 m s-1, co jest wystarczająco dokładne, aby wykryć wpływ Jowisza i Saturna, przynajmniej w niewielkim stopniu, gdyby obserwowali klon Układu Słonecznego. Ich różne techniki polegają na nakładaniu skali kalibracji długości fali bezpośrednio na widmo gwiazdowe, aby wyeliminować nawet niewielkie efekty ugięcia spektrografu podczas ruchu teleskopu. Dokładność techniki Dopplera w wykrywaniu okresowych zmian prędkości radialnej w widmach gwiazd typu słonecznego jest bezpośrednio ograniczona przez "szum" spowodowany ruchami w atmosferach gwiazd. Rozrzut pomiarów prędkości rośnie liniowo wraz z prędkością obrotową gwiazdy, co jak wiadomo, koreluje z ogólną aktywnością gwiazd. Aktywna gwiazda może nawet wykazywać sygnaturę prędkości podobną do efektu Dopplera w okresie rotacji. Linia przerywana, w przybliżeniu prostopadła do linii astrometrycznej na rysunku 2, odwzorowuje czułość amplitudy prędkości radialnej wynoszącej 30 m s-1; pokazuje to komplementarny charakter tych technik. Ponieważ praktycznie wszystkie odkrycia planet pozasłonecznych dokonano za pomocą techniki Dopplera, znane przypadki znajdują się powyżej i na lewo od tej linii. Strzałki wskazują, że wyznaczone masy są zawsze dolnymi granicami, ponieważ nachylenie orbity jest generalnie nieznane. Zatem wiele potencjalnych brązowych karłów w lewym górnym rogu może w rzeczywistości być gwiazdami o małej masie, co jest wynikiem błędu selekcji. W rzeczywistości obecnie istnieją dowody na to, że w pobliżu gwiazd w otoczeniu Słońca znajduje się niewiele brązowych karłów. Niektóre obiekty w prawym górnym rogu zawierają pojedynczych kandydatów na brązowe karły, co zostanie omówione później.
Właściwości planet pozasłonecznych
Poprzednia dyskusja wskazuje, że obecna lista znanych obiektów jest obciążona ograniczeniami wyboru metod Dopplera i astrometrycznych. W szczególności czułość na planety Jowisza w odległościach obserwowanych dla planet w naszym Układzie Słonecznym jest marginalna, a okresy bazowe są nadal zbyt krótkie, aby w pełni zbadać choćby jeden okres orbitalny. To, że planety Jowisza można znaleźć w odległości 1 AU, jest teraz oczywiste i oczywiście najłatwiej je znaleźć. Dwie odrębne grupy zasługują na szczególne omówienie. Jedna grupa, obejmująca pierwszy obiekt 51 Peg B, znajduje się na orbitach kołowych o odległości mniejszej niż 0,1 AU. Obiekty znajdujące się na lewo od krzywej ciągłej w pobliżu 0,1 AU znajdują się tak blisko gwiazdy macierzystej, że ich orbity muszą być kołowe, co zaobserwowano. Prace teoretyczne dotyczące powstawania planet Jowisza silnie dowodzą, że nie mogły one akreować i rosnąć do masy Jowisza w gorącym, wewnętrznym obszarze mgławicy okołogwiazdowej. Uważa się, że musiały migrować do wewnątrz, zanim zakończyła się faza gazowa dysku, ponieważ rozpraszanie orbitalnego momentu pędu zależy od obecności lepkiego gazu. Możliwe, że niektóre planety Jowisza akreują na gwiazdę macierzystą i mogą nawet zwiększać obfitość niektórych pierwiastków na powierzchni. Drugą osobliwą grupą są planety Jowisza i potencjalne brązowe karły krążące po ekscentrycznych orbitach. Znajdują się one na prawo od linii cyrkularnej pływów, co jest słuszne. Planetą o najbardziej wydłużonej orbicie wykrytej do tej pory (wrzesień 2001) jest HD 80606, która porusza się w odległości od 5 do 127 milionów kilometrów od gwiazdy centralnej. Ponieważ standardowy model akrecji w gazowym dysku, prowadzący do powstania masywnej planety, powinien nadawać jej orbitę kołową, prawdopodobne jest, że doszło do dynamicznej interakcji dwóch z tych ciał. Możliwe jest również wyrzucenie planety z układu. Układ słoneczny ypsilon Andromedae obejmuje oba typy: jest to planeta o masie >0,7 MJ i okresie 4,6 dnia na orbicie kołowej, planeta o masie >2 MJ i okresie 241 dni na orbicie lekko ekscentrycznej oraz planeta o masie >4,6 MJ na orbicie ekscentrycznej o okresie 3,5 roku.
Brązowe karły w młodych gromadach i obszarach formowania się gwiazd
Młode, pobliskie gromady dały możliwość wykrycia brązowych karłów, gdy są one stosunkowo jasne i mają przewidywaną jasność i wiek. Przede wszystkim na podstawie badań naziemnych w zakresie fal 0,8-2 μm, dziesiątki kandydatów na brązowe karły zostały znalezione w fotometrycznych badaniach kilku młodych GROMAD, takich jak Plejady oraz obszary formowania się gwiazd w Orionie i rho Ophiuchus. Systemową przynależność kandydatów można potwierdzić pomiarami astrometrycznymi i prędkości radialnej, a także faktem, że kandydaci znajdują się w sekwencji na diagramie barwa-jasność przewidywanym przez modele grawitacyjnie kurczących się obiektów protogwiazdowych. W 2001 roku obserwacje za pomocą Teleskopu Nowej Technologii Europejskiego Obserwatorium Południowego (ESO) ujawniły pyłowe dyski otaczające brązowe karły w Mgławicy Oriona, co sugeruje, że są one bardziej podobne do gwiazd niż planet i mogą tworzyć towarzyszące im układy planetarne. Odkrycie to opiera się na szczegółowych obserwacjach za pomocą SOFI, specjalistycznego instrumentu czułego na podczerwień, znajdującego się na 3,5-metrowym Teleskopie Nowej Technologii (NTT) Europejskiego Obserwatorium Południowego (ESO) w Obserwatorium La Silla. Wykrycie litu stanowi kolejne istotne ograniczenie istnienia obiektów poniżej granicy masy gwiazdowej. W szczególności uważa się, że lit ulega destrukcyjnym reakcjom syntezy jądrowej w temperaturze wewnętrznej (∿(2-3)×106 K) nieznacznie poniżej granicy syntezy proton-proton. Na szczęście obliczenia dotyczące struktur wewnętrznych gwiazd o bardzo małej masie i brązowych karłów przewidują, że energia jest transportowana głównie poprzez ruchy konwekcyjne z centrów do samych powierzchni. Oznacza to, że jeśli lit jest wystarczająco gorący, aby wyczerpać się w centrum, gdzie temperatura jest najwyższa, ostatecznie zostanie wyczerpany w całej konfiguracji. Zatem, jeśli linie rezonansowe Li są obserwowane w atmosferach gwiazd (z natężeniem oczekiwanym dla obfitości, z jaką powinno powstać ciało gazowe), wodór również nie ulega fuzji w głębokim wnętrzu - tj. konfiguracja jest brązowym karłem. Zgłoszono liczne takie detekcje linii Li, a w Plejadach znaleziono granicę jasności Li zgodną z teorią. Ten "test litu" zwiększa zatem prawdopodobieństwo, że kandydaci na obiekty podgwiazdowe w Plejadach - Teide 1, Calar 3 i obiekty Roque - są częścią podgwiazdowego rozszerzenia funkcji masy Plejad o wartości zaledwie 30 MJ.
Brązowe karły w lokalnym dysku galaktycznym
Kolejne obserwacje punktowych źródeł "polowych" wykrytych w ramach przeglądów nieba w bliskiej podczerwieni DENIS (Deep Near Infrared Survey) i 2MASS (Two Micron All Sky Survey) wykazały, że brązowe karły występują w polu jako pojedyncze obiekty. W szczególności 2MASS odkrył około 100 kandydatów na brązowe karły (w chwili pisania tego tekstu). Choć cieplejsze niż GL 229B, te obiekty wykryte w podczerwieni są chłodniejsze niż gwiazdy karła M, z temperaturą Teff < 2000 K. W 2001 roku odkryto dwa przykłady małych, chłodnych gwiazd, które przypominają brązowe karły, ale w rzeczywistości są pozostałościami zwykłych gwiazd, które przez miliardy lat zostały zredukowane do chłodnych ciał wielkości Jowisza poprzez przelanie materii na towarzyszącą im gwiazdę, białego karła. Za pomocą Teleskopu Podczerwonego UK (UKIRT) na Hawajach uzyskano pierwszy bezpośredni dowód na istnienie takich gwiazd, rejestrując widma w podczerwieni za pomocą instrumentu CGS4 dwóch zmiennych układów podwójnych gwiazd: LL Andromedae i EF Eridani. Obserwatorzy wykorzystali okresy, w których przepływ materii między dwiema gwiazdami w tych układach podwójnych tymczasowo się zatrzymuje. W tych okresach spoczynku UKIRT może rozróżnić promieniowanie pochodzące od chłodnej gwiazdy-dawcy. W przypadku LL Andromedae ślad metanu został wykryty przy długości fali 2,2 mikrona. Oznacza to, że temperatura gwiazdy-dawcy wynosi około 1300 K, podobnie jak temperatura brązowego karła metanowego typu T. W EF Eridani gwiazda-dawca jest nieco cieplejsza, około 1650 K, podobnie jak temperatura brązowego karła typu L. Według teorii szacuje się, że masa tych chłodnych gwiazd wynosi około czterech setnych masy Słońca lub 40 razy więcej niż masa planety Jowisz, a ich odległość od Ziemi wynosi od 100 do 130 lat świetlnych. Ocena kompletnej podpróbki karłów L z sondy 2MASS sugeruje, że obiekty podgwiazdowe są porównywalne z gwiazdami w otoczeniu Słońca lub przewyższają je liczebnie, choć ich udział w masie lokalnego dysku jest jedynie niewielki . Wydaje się, że w zakresie temperatur karłów L obserwowane są jedynie młode brązowe karły - lub te stosunkowo nieliczne, które prawdopodobnie mają masy tuż poniżej granicy masy gwiazdowej - i są łatwo wykrywalne przez 2MASS i DENIS. Oznacza to, że zdecydowana większość ostygła do znacznie niższych temperatur. W rzeczywistości, obiekty polowe wykazujące obecność metanu w widmach i o temperaturach zbliżonych do GL 229B (∿1000 K) zostały również odkryte przez Sloan Digital Sky Survey (SDSS) i 2MASS. Może się okazać, że większość podgwiazdowych sąsiadów Słońca ostygła do temperatur kilkuset kelwinów, nawet niższych niż GL 229B.
Wiadomości (31 stycznia 2002 r.)
Obserwacje gazowego olbrzyma, planety krążącej wokół żółtej, podobnej do Słońca gwiazdy HD209458, oddalonej od Ziemi o 150 lat świetlnych, przeprowadzone przez Kosmiczny Teleskop Hubble′a NASA, ujawniły obecność sodu w świetle przepuszczonym przez atmosferę planety podczas jej przejścia przed tarczą gwiazdy widzianej z Ziemi. Planeta została odkryta w 1999 roku dzięki subtelnemu oddziaływaniu grawitacyjnemu na gwiazdę. Masa planety wynosi 70% masy Jowisza. Jej orbita jest nachylona niemal krawędzią do Ziemi, co umożliwia wielokrotne obserwacje tranzytowe. Planeta znajduje się zaledwie około 6 milionów km (4 miliony mil) od gwiazdy. W tej odległości atmosfera planety jest rozgrzana do około 1000 K. W momencie publikacji tej aktualizacji potwierdzono istnienie 66 pozasłonecznych układów planetarnych, w tym 74 planet i 7 układów wielokrotnych. Wśród ostatnich odkryć znajdują się trzy planety wielkości Jowisza poruszające się po orbitach kołowych podobnych do orbit Ziemi i Marsa w naszym Układzie Słonecznym.
Planety pozasłoneczne
Odkrycie pierwszych planet wokół PULSARA (1992) oraz wokół gwiazdy ciągu głównego innej niż nasze Słońce (1995) otworzyło, po wiekach spekulacji, nową erę w astronomii. Przedstawiono motywacje do poszukiwań "innych światów". Dokonano przeglądu porównawczego różnych technik ich detekcji. Szczególną uwagę zwrócono na parametry planetarne, które można wyznaczyć każdą z metod. Przedstawiono pierwsze odkrycia i ich astrofizyczne konsekwencje. Przedstawiono przegląd nowych pytań i przyszłych projektów wykraczających poza te pierwsze odkrycia.
Wprowadzenie
Poszukiwanie "innych światów" to jedno z najstarszych, dobrze sformułowanych pytań naukowych. Po raz pierwszy w "nowoczesnym" ujęciu zostało ono poruszone przez Greków (Demokryt, Epikur). Od tego czasu inspirowało ono wielu myślicieli (Giordano Bruno, Fontenelle, Goethe, Kant i in.), ale była to jedynie spekulacja. Pierwszą próbę podjął w XVII wieku HUYGENS (1698), który próbował dostrzec planety krążące wokół innych gwiazd. Szybko zdał sobie sprawę, że ta obserwacja znacznie przekraczała możliwości jego skromnego teleskopu. Później, przez stulecia, zobaczenie takich planet mogło być jedynie marzeniem. Nowa nadzieja pojawiła się na początku XX wieku po astrometrycznym i spektroskopowym wykryciu (wyjaśnionym szerzej w tym artykule) "niewidzialnych" towarzyszy gwiazd (tj. bardzo słabych gwiazd). Jednak oczekiwane masy planet były zbyt małe, aby można je było osiągnąć tymi metodami. Astronomowie musieli znów uzbroić się w cierpliwość. Niewielką nadzieję wzbudził holenderski astronom P. VAN DE KAMP w latach 50. XX wieku: myślał, że wykrył planetę wokół GWIAZDY BARNARDA (jednej z naszych najbliższych gwiezdnych sąsiadek), ale później okazało się, że była to artefakt. Pierwszy ważny krok poczynili Frail i Wolszczan, gdy wykryli pierwsze planety wokół pulsara. Było to wielką zachętą dla łowców planet, chociaż sama gwiazda (gwiazda neutronowa) była zbyt dziwna, by przypominać nasze Słońce. Dobra nowina nadeszła w październiku 1995 roku, kiedy szwajcarscy astronomowie Mayor i Queloz ogłosili wykrycie, dzięki metodzie RADIAL VELOCITY z użyciem teleskopu w Obserwatorium Haute Provence (na południu Francji), planety krążącej wokół gwiazdy 51 Peg, podobnej do Słońca. Zrozumiałe, że po dekadach błędów pojawił się pewien sceptycyzm, ale tylko na kilka tygodni. To wielkie odkrycie sprawia, że żyjemy w wyjątkowej epoce, w której postęp w poszukiwaniu odpowiedzi na pytanie sprzed 23 wieków: "Czy jesteśmy sami we wszechświecie?", poczynił znaczący krok naprzód i pytanie to można zbadać naukowo. Po tym pierwszym odkryciu nastąpiło wiele innych; Od tego czasu co roku odkrywano coraz więcej planet (na podstawie pomiarów prędkości radialnej gwiazdy macierzystej), a obecnie (wrzesień 2001) jest ich 66 . Ponadto, dla jednej z gwiazd (ypsilon Andromedae) wykryto trzy planety. Dla innej gwiazdy można było zmierzyć promień planety (o 30% większy niż Jowisz); ta obserwacja jest niepodważalnym dowodem, że kołysanie się gwiazdy jest rzeczywiście spowodowane przez olbrzymią, gazową planetę. W 2001 roku wykryto układ dwóch planet (wokół gwiazdy HD 82943), w którym jeden okres orbitalny jest prawie dokładnie dwa razy dłuższy niż drugi. HD 74156 to kolejny układ dwóch planet z planetą podobną do Jowisza i masywniejszą planetą dalej. Wykryto olbrzymią planetę poruszającą się po orbicie wokół gwiazdy centralnej podobnej do Słońca (HD 168443), o której wiadomo już, że posiada planetę, a także planetę o najbardziej wydłużonej orbicie wykrytej do tej pory (HD 80606), poruszającą się w odległości od 5 do 127 milionów kilometrów od gwiazdy centralnej. W jednym z układów, 55 Cnc, wokół gwiazdy wykryto dysk pyłowy, najpierw jako nadmiar podczerwieni (ISO) , a następnie jako obraz z IRTF. Nachylenie dysku, wywnioskowane z kształtu obrazu, wynosi ∿25°. Po tym punkcie zwrotnym możliwe jest dalsze badanie, a astronomowie są teraz gotowi odpowiedzieć na kilka pytań.
1. Jak często występują inne układy planetarne?
2. Czy są one podobne do naszego (liczba, masy, promienie, albedo planet; promienie, mimośrody, nachylenia ich orbit)?
3. Jakie rodzaje środowisk (atmosfery, magnetosfery, pierścienie itp.) posiadają i jakie są ich właściwości?
4. Jakie są inne właściwości fizyczne planet (okres rotacji, cyrkulacja atmosferyczna, obecność oceanów itp.)?
5. Jak powstają i ewoluują?
6. Jak te cechy zmieniają się w zależności od rodzaju gwiazdy centralnej (masa, typ widmowy, skład chemiczny, wiek, binarność itp.)?
Oprócz tych czysto astrofizycznych pytań istnieje powiązane pytanie, które nurtuje każdego człowieka: "czy istnieje życie gdzie indziej we Wszechświecie?". To pytanie rodzi problem różnych form życia, których możemy się spodziewać poza Układem Słonecznym, oraz problem definicji życia. Powszechnie przyjmuje się, że życie może rozwinąć się na planetach podobnych do Ziemi, w "strefie nadającej się do zamieszkania" (gdzie temperatura wynosi około 300 K) wokół gwiazd. Poza wykryciem tych planet, możliwe jest nawet poszukiwanie spektroskopowych śladów życia na tych "siedliskach".
Metody wykrywania planet pozasłonecznych
Aby badać te układy planetarne, astronomowie stosują kilka metod detekcji i obserwacji. Planety pozasłoneczne można wykrywać metodami bezpośrednimi lub pośrednimi. Każda metoda detekcji charakteryzuje się pewnymi obserwablami, które są związane z wewnętrznymi parametrami fizycznymi planety. Parametrami tymi są: masa MP, promień RP, temperatura TP, odległość a od gwiazdy macierzystej, okres orbitalny P, jasność LP i odległość D od Układu Słonecznego. Potencjalny sukces danej metody zależy naturalnie od jej ograniczeń instrumentalnych.
Obrazowanie bezpośrednie
Najbardziej naturalnym gestem wykrywania planety jest próba jej "zobaczenia". Jednak planety zazwyczaj nie emitują własnego promieniowania, przynajmniej w zakresie długości fal optycznych. Można wykryć ich oświetlenie jedynie przez gwiazdę macierzystą. Pojawia się jednak wówczas poważny problem: światło odbite od planety jest niezwykle słabe, a jednocześnie planeta znajduje się bardzo blisko swojej gwiazdy, przez co bardzo trudno je rozdzielić. Rzeczywiście, dla planety krążącej w odległości a od gwiazdy o jasności L*, światło gwiazdy jest rozproszone na całym obszarze 4πa2 sfery o promieniu a, na której znajduje się planeta. Planeta otrzymuje jedynie niewielką część tego światła, proporcjonalną do powierzchni ?RP? tarczy planetarnej widzianej przez obserwatora. Planeta uzyskuje zatem poprzez odbicie jasność LP, określoną wzorem

Ponieważ promień planety jest znacznie mniejszy niż jej odległość od gwiazdy, stosunek jasności LPP/L* jest bardzo mały: wynosi 2,5 × 10-9 dla Jowisza. Z drugiej strony, planeta jest widoczna dla obserwatora w odległości kątowej α= a/D od gwiazdy, tj. bardzo blisko niej (ułamki sekund łuku). Planeta, oprócz tego, że jest bardzo słaba, jest wówczas zanurzona w jasnym halo gwiazdy ze względu na dyfrakcję teleskopu. Dodanie słabego blasku planety i jej bliskości do gwiazdy sprawia, że jej wykrycie jest bardzo trudne. Aby obejść tę trudność, wymyślono kilka sztuczek: "obrazowanie zerujące", "obrazowanie ciemnych plamek", "koronografia z maską fazową", "hiperteleskop", … Wszystkie z nich mają na celu maksymalne wygaszenie gwiazdy (bez wygaszenia planety). Wykorzystują falowe właściwości światła, powodując destrukcyjną interferencję gwiazdy ze sobą, bez wpływu na pobliską planetę. W przypadku obserwacji z Ziemi istnieje dodatkowe źródło degradacji obrazów: turbulencje atmosferyczne. W takim przypadku można zwiększyć ostrość obrazów za pomocą "optyki adaptacyjnej", techniki, która równoważy deformację obrazów przez atmosferę, nieznacznie deformując w czasie rzeczywistym zwierciadło teleskopu . Instrument ADONIS (Adaptive Optics Near Infrared System) zamontowany na 3,6-metrowym teleskopie Europejskiego Obserwatorium Południowego (ESO) w Obserwatorium La Silla uzyskał obraz dysku pyłowego wokół gwiazdy jota Horologii, o której wiadomo już, że posiada planetę co najmniej dwa razy cięższą od Jowisza na orbicie podobnej do ziemskiej. Dysk pyłowy wokół joty Horologii jest dość rozległy; jest wykrywany w odległości około 65 AU (10 000 milionów km) od gwiazdy. Z wydłużenia wynika, że nachylenie tarczy wynosi około 42°. Pomimo trudności, jakie stwarza to bezpośrednie wykrycie, astronomowie włożyli w to wiele wysiłku, ponieważ jest to jedyny sposób na uzyskanie dostępu do kilku właściwości planety. Na przykład, dokładne badanie ewolucji czasowej odbicia planety, w różnych barwach, może ujawnić jej dobowy okres obrotu, jej zmienność sezonową, względną ilość wody na powierzchni (oceany) itp.
Dynamiczne zaburzenie gwiazdy przez planetę
Zamiast obserwować planetę bezpośrednio, można poszukiwać jej wpływu na gwiazdę macierzystą. Pierwszym z tych efektów jest grawitacyjne zaburzenie położenia gwiazdy przez planetę. Gdy planeta okrąża swoją gwiazdę macierzystą, w rzeczywistości oba obiekty krążą wokół wspólnego środka masy. W ten sposób gwiazda tworzy małą orbitę kołową o promieniu a* = aMP/M* i okresie naturalnie równym okresowi orbitalnemu planety P. Dla obserwatora ta mała orbita powoduje zaburzenia trzech obserwowalnych wielkości gwiazdy: jej prędkości radialnej VR (prędkości w kierunku linii widzenia gwiazdy), jej położenia α na niebie względem gwiazdy stałej oraz czasu nadejścia sygnałów regularnie emitowanych przez gwiazdę. Te trzy obserwowalne wielkości są zaburzane z okresem równym okresowi orbitalnemu planety i amplitudą proporcjonalną do masy planety. Pomiar tej amplitudy pozwala zatem określić masę planety. W rzeczywistości, w przypadku pomiaru prędkości radialnej i pomiaru czasu przybycia pojawia się niewielkie utrudnienie: jeśli nachylenie orbity planetarnej nie jest znane, metoda ta daje jedynie minimalną wartość masy. Najlepszym przykładem sygnałów o regularnych odstępach jest okresowa emisja pulsarów. Pierwsze planety (a właściwie trzy, a być może cztery) zostały odkryte tą metodą przez Wolzsczana i Fraila wokół pulsara PSR 1257+12. Amplituda zmian prędkości radialnej wynosi 13 m s-1 dla Jowisza oddalonego o 5 AU od swojej gwiazdy macierzystej. Rysunek 2 przedstawia okresową zmianę prędkości radialnej gwiazdy 51 Peg w funkcji czasu (Φ = 1 odpowiada t = 4,23 dnia) zmierzoną przez Mayora i Queloza. Była to pierwsza planeta kiedykolwiek wykryta wokół gwiazdy podobnej do Słońca. Po tym pierwszym odkryciu, interesującym nowym krokiem było wykrycie, tą samą metodą, trzech planet krążących wokół gwiazdy ypsilon Andromedae. Dokładność pomiarów prędkości radialnej wynosi obecnie 3 m s-1. Dzięki temu możliwe staje się wykrywanie Saturnów za pomocą pomiarów prędkości radialnej. Nie ma jednak nadziei na wykrycie Ziemi, ponieważ zaburzenie prędkości radialnej wywołane przez taką planetę wynosi zaledwie 10 cm s-1.
Tranzyty planet
Planeta może powodować spadek jasności gwiazdy podczas tranzytów planety przez jej tarczę. Wykrycie TRANZYTU na krzywej blasku gwiazdy wymaga spełnienia dwóch warunków.
1. Płaszczyzna orbity planety musi być prawidłowo zorientowana: w przypadku orientacji losowych prawdopodobieństwo geometryczne p wynosi p = R*/a. Dla Jowisza (Ziemi) wokół gwiazdy 1R⊙ prawdopodobieństwo to wynosi 10-3 (odpowiednio 0,5%).
2. Precyzja fotometrii gwiazdy musi być lepsza niż głębokość ΔF/F = (RP/R*)2 tranzytu. Dla planety 1RJup(1R⊕) spadek wynosi 1% (odpowiednio 10-4). W obserwacjach naziemnych precyzja fotometryczna wynosi co najwyżej 0,1%. W kosmosie może sięgać kilku 10-5. Zatem, podczas gdy planety wielkości Jowisza można w ten sposób wykryć z Ziemi, planety wielkości Ziemi można wykryć z kosmosu. W rzeczywistości jest to obecnie jedyna metoda umożliwiająca wykrywanie i badanie kolejnych planet pozasłonecznych podobnych do Ziemi.
Pod koniec 1999 roku wykryto pierwszy tranzyt planetarny z Ziemi (wokół gwiazdy HD 209458), co doprowadziło do pierwszego określenia promienia planety pozasłonecznej; tranzyt ten został potwierdzony przez inspekcję archiwów fotometrycznych satelity Hipparcos. Soczewkowanie grawitacyjne Planeta może wytwarzać wzmocnienie grawitacyjne AG światła gwiazd tła, rosnące wraz z masą planety i jej odległością od obserwatora. To wzmocnienie może osiągnąć współczynnik nawet 100, gdy planeta znajduje się w odległości kilku kiloparseków, tj. tak daleko, jak centrum Galaktyki. Metoda SOCZEWKOWANIA GRAWITACYJNEGO nadaje się zatem tylko do bardzo odległych planet, trudnych do późniejszego zaobserwowania inną metodą. Ponadto zjawisko soczewkowania jest widoczne tylko raz i nie jest możliwe zbadanie planety w odległości 4 kpc dalej żadną inną metodą. To sprawia, że metoda soczewkowania jest mniej atrakcyjna. Jednakże astronomowie niedawno wykazali tą metodą, że mniej niż 25% gwiazd ma towarzyszy o masie Jowisza w odległości większej niż 3 AU.
Pierwsze wnioski z obecnych odkryć
Jak to często bywa w nauce, odkrycia były w dużej mierze nieoczekiwane. Pierwsze odkrycia planet pozasłonecznych przyniosły wielkie niespodzianki i można już wyciągnąć kilka wniosków. Z tych odkryć płyną trzy główne wnioski, wszystkie równie ważne. Po pierwsze, globalny wynik jest taki, że około 5% gwiazd ciągu głównego ma planetę-olbrzyma w odległości mniejszej niż 2 AU. Przed 1995 rokiem astronomowie nie mieli pojęcia, czy układy planetarne są bardzo rzadkie, czy nie. Na przykład na 1000 gwiazd mógł przypadać mniej niż jeden układ planetarny. Sama ta wiedza jest niezwykle cenna dla teorii formowania się planet. Teoretycy muszą teraz wyjaśnić tę proporcję. Co więcej, natychmiast pojawia się nowe, ważne pytanie. Skoro ta proporcja dotyczy planet olbrzymów, czy dotyczy ona również planet tellurycznych (tj. małych ciał stałych)? Te ostatnie rzeczywiście a priori mogą być bardzo różne, ponieważ ich mechanizmy powstawania i ewolucji są znacząco różne. To pytanie jest oczywiście ważne dla przyszłych poszukiwań życia na planetach podobnych do Ziemi. Drugą istotną koncepcyjnie konsekwencją jest odkrycie pierwszej planety przejściowej HD 209458. Ponieważ zaobserwowano ciało przejściowe i zmierzono jego promień (dający wartość o 30% większą niż Jowisza), stanowi to pierwszy dowód na to, że wahania gwiazdy są spowodowane przez planetę, a nie przez inne przyczyny (takie jak oscylacja gwiazdy, mała czarna dziura towarzysząca itp.). Wyklucza to również możliwość a priori: że planeta jest ciężką (0,6 masy Jowisza) planetą w całości zbudowaną ze skały stałej, a nie gazu. W takim przypadku jej promień wynosiłby ∿0,3, a nie 1,3 promienia Jowisza. Zatem z tranzytów możemy dowiedzieć się wiele o budowie planety. Trzecia lekcja jest taka, że te odkrycia przyniosły nieoczekiwane rezultaty.
1. Podczas gdy astronomowie spodziewali się znaleźć planety wokół gwiazd ciągu głównego, pierwsze planety odkryto wokół gwiazd, których się nie spodziewano, a mianowicie wokół pulsarów. Nie jest jasne, jak mogą powstawać te obiekty o masie planetarnej: czy przetrwały eksplozję supernowej, czy też skondensowały się w pozostałości po supernowej? Gdyby były to planety pochodzące z protoplasty pulsara, powinny mieć bardzo ekscentryczne orbity, podczas gdy dla PSR 1257+12 mimośród jest bliski zeru. Rzeczywiście, ze względu na zachowanie momentu pędu J = [M*aP(1 - e2)]1/2 i całkowitej energii Epot + Ekin po utracie masy M*1 -> M*2 podczas wybuchu supernowej, uzyskują one mimośród określony wzorem 1 - e2 = M*1(2M*2 - M*1)/M*2
. Co więcej, orbita pozostaje ograniczona tylko wtedy, gdy M*2 ≥ ?M*1/2.
2. Pierwsze planety olbrzymy znaleziono 100 razy bliżej ich gwiazdy macierzystej niż oczekiwano. Rzeczywiście, w przypadku gwiazd ciągu głównego o masach od 0,1 M⊙ do 1 M⊙, oczekiwano, że planety powstaną w odległości od 4 do 5 AU. Jest to odległość, w której temperatura równowagi jest niższa niż 160 K, co umożliwia formowanie się lodowych jąder planet olbrzymów. Znalezienie planet w odległości zaledwie 0,05 AU od ich gwiazdy macierzystej było zatem niezrozumiałym zaskoczeniem. W rzeczywistości rozwiązanie tego problemu wydaje się tkwić w pojęciu "migracji orbitalnej", wprowadzonym 10 lat przed odkryciem planet. Kiedy jądro planetarne zaczyna rosnąć do masy MP w dysku protoplanetarnym, tworzy, poprzez przyciąganie grawitacyjne otaczającego gazu i pyłu, przerwę o promieniu RH ≈ aP(MP/M*)1/3; jest to promień "sfery Hilla", w której przyciąganie grawitacyjne jądra planetarnego jest większe niż przyciąganie gwiazdy macierzystej. Występują wówczas siły pływowe między jądrem a wewnętrzną i zewnętrzną krawędzią przerwy, których nierównowaga zależy od różnicy gęstości między krawędziami. Nierównowaga ta może być taka, że te siły pływowe przyciągają orbitę w kierunku gwiazdy.
3. Niektóre planety mają orbity o nieoczekiwanie dużych mimośrodach. To sprawia, że jest mało prawdopodobne, aby powstały w protoplanetarnym dysku pyłowym, ponieważ wewnętrzna dyssypacja nadaje orbitom ziaren pyłu kształt kołowy. Było zatem bardziej prawdopodobne, że powstały w sposób podobny do gwiazd o bardzo małej masie, tj. poprzez grawitacyjną kondensację gazu, bez stałego jądra. W przypadku 16 Cyg B mimośrodowość pochodzi prawdopodobnie z zaburzeń wywołanych przez gwiazdę towarzyszącą 16 Cyg A. Mimośrodowość orbit może być również wynikiem migracji: podczas migracji (w różnym tempie) jedna planeta może wyrzucić inną z układu; z zasady zachowania momentów kątowych wynika, że powstałe orbity muszą być bardzo mimośrodowe.
Perspektywy na przyszłość
Te pierwsze odkrycia zachęciły astronomów do przyspieszenia poszukiwań, a wiele projektów jest obecnie w trakcie realizacji lub jest w trakcie badań.
Przyszłe obiekty naziemne i kosmiczne
Poszukiwania prędkości radialnych. ESO będzie prowadzić poszukiwania prędkości radialnych w ramach dedykowanego programu (który rozpocznie się w 2001 roku) z wykorzystaniem 3,6-metrowego teleskopu w La Silla z precyzją 1-2 m s-1. Istnieje również szwajcarski program monitorowania 800 gwiazd za pomocą dedykowanego 1,5-metrowego teleskopu, który rozpoczął się w 1998 roku w La Silla. W 10-metrowym teleskopie Kecka Marcy i inni rozpoczęli monitorowanie 400 gwiazd z precyzją 3 m s-1. Kilka innych grup prowadzi lub planuje prowadzić takie poszukiwania prędkości radialnych z bardziej umiarkowaną precyzją.
Poszukiwania astrometryczne. Misja astrometryczna FAME, której start NASA planuje na 2004 rok, ma na celu zmierzenie w ciągu kilku lat położenia milionów gwiazd z dokładnością 50 μs (μas). Powinna ona wykryć nawet kilkaset Jowiszy. Misja Interferometryczna Kosmiczna (SIM) to projekt NASA, poświęcony głównie astrometrii, a w drugiej kolejności obrazowaniu. Nominalny cel precyzji astrometrycznej wynosi 4 μas. Jeśli chodzi o planety pozasłoneczne, dałoby to SIM możliwość wykrywania planet o masie Saturna (masie Ziemi) z dokładnością do 15 pc (odpowiednio 5 pc). Projekt GAIA, jeśli zostanie w przyszłości wybrany przez ESA, zmierzyłby położenia 109 gwiazd w Galaktyce z dokładnością 1 μas (10 μas) dla gwiazd o V = 5 (odpowiednio V = 15). W przypadku gwiazd typu słonecznego GAIA mogłaby wykryć "duże Ziemie" (o masie 10 mas Ziemi) w okolicach ∿100 gwiazd o masie do 10 pc oraz planety o masie Jowisza o masie do 200 pc wokół około 5 × 105 gwiazd. W tym drugim przypadku, jeśli utrzyma się proporcja ∿5% gwiazd posiadających układy planetarne, można oszacować, że GAIA wykryłaby ∿25 000 Jowiszy poza Układem Słonecznym.
Obrazowanie. Na Ziemi duże teleskopy, takie jak teleskop Kecka, VLT i Duża Lornetka, będą w przyszłości próbować poszukiwać planet za pomocą obrazowania, wykorzystując różne techniki interferometryczne. Jednak ich wydajność obrazowania nie jest jeszcze dobrze znana. W kosmosie projekty są lepiej zidentyfikowane (choć sytuacja może się zmienić wraz z nowymi planami). Projekt NASA NGST (Teleskop Kosmiczny Następnej Generacji), który ma zostać wystrzelony po 2007 roku, jeśli zostanie zatwierdzony, to duży (∿8 m) teleskop. Jego orbita nie została jeszcze ostatecznie ustalona; być może wokół punktu Lagrange′a L2 Ziemia-Słońce. Gdyby wdrożono tryb koronograficzny, mógłby on wykrywać Jowisze wokół pobliskich gwiazd.
Inne projekty kosmiczne, oparte na zerowaniu interferometrycznym, były początkowo motywowane celami egzobiologicznymi. Doprowadziły one do projektu DARWIN, zaprezentowanego w 1993 roku jako kandydat na kamień węgielny dla ESA, a wkrótce potem do projektu NASA Terrestrial Planets Finder (TPF). DARWIN, w swojej pierwotnej konfiguracji, jest misją swobodnego lotu, złożoną z pięciu 1,5-metrowych teleskopów oddalonych od siebie o 20-100 m, podczas gdy TPF początkowo opiera się na sztywnej strukturze liniowej. Główną trudnością napotykaną przez te projekty jest to, że aby wykryć planety o średnicy 10 μm, konieczne jest uniknięcie emisji termicznej w podczerwieni pyłu zodiakalnego Układu Słonecznego; jedynym rozwiązaniem pozwalającym na obejście tego problemu jest wysłanie misji na odległość 5 AU od Słońca. Całkowicie niewiadomą pozostaje również poziom emisji termicznej w podczerwieni zodiakalnej innych układów planetarnych. Pozasłoneczne światło zodiakalne w podczerwieni, podobne do światła zodiakalnego Układu Słonecznego, daje tło 300 razy większe niż emisja planety. Przykład 55 Cnc wskazuje na niebezpieczeństwo, że takie tła mogą być nawet 10 razy większe niż światło zodiakalne Układu Słonecznego. Niedawno zaproponowano inny projekt, w zakresie widzialnym: projekt Epicurus, zaproponowany przez A. Labeyrie dla ESA. W zakresie widzialnym i bliskiej podczerwieni problem światła zodiakalnego został rozwiązany. Trwają badania nad znacznie ambitniejszym projektem, mającym na celu uzyskanie wielopikselowych obrazów pozasłonecznej planety wielkości Ziemi: projektem Planet Imager, wielokilometrowym interferometrem kosmicznym, który mógłby zostać zbudowany około 2030 roku (należy pamiętać, że od teraz do 2030 roku jest taki sam przedział czasowy jak od 1970 roku do dziś).
Tranzyty. Programy z kosmosu są w toku, o różnym statusie.
• Kosmiczny Teleskop Hubble′a przeprowadził w lipcu 1999 roku, nieprzerwanie przez 9 dni, monitoring fotometryczny 20 000 gwiazd w gromadzie kulistej 47 Tuc. Powinien wykryć kilkadziesiąt Jowiszy na bliskich orbitach. Wstępne wyniki wskazują na brak wykrycia planet; może to wynikać z submetaliczności gwiazd gromady.
• COROT to misja ESA/CNES (planowana na 2004 rok), poświęcona w połowie asterosejsmologii, a w połowie tranzytom planet. Jest to w rzeczywistości jedyna obecnie zatwierdzona misja kosmiczna poświęcona głównie poszukiwaniom planet pozasłonecznych. Dzięki aperturze 25 cm, w ciągu dwóch i pół roku działania powinna wykryć dziesiątki planet o promieniach do ∿2R⊕ w odległościach orbitalnych do ∿0,5 AU od ich gwiazdy macierzystej. W przypadku gwiazd typu M, niektóre z tych planet powinny znajdować się w "strefie nadającej się do zamieszkania" gwiazdy (definiowanej jako odległość, w której temperatura planety pozwala na obecność wody w stanie ciekłym).
• Projekt KEPLER jest w całości poświęcony poszukiwaniu tranzytów planetarnych. Jest on znacznie bardziej ambitny niż COROT, ale nie został jeszcze zatwierdzony. Dzięki aperturze 1 metra i polu widzenia 100 stopni kwadratowych, po 5 latach pracy powinien być w stanie wykryć kilkaset planet podobnych do Ziemi w ekosferach gwiazd.
• Istnieje również podobny projekt ESA, który jest obecnie przedmiotem badań: Eddington.
Pozasłoneczne środowiska planetarne i komety. Biorąc pod uwagę ekstremalną trudność w wykrywaniu planet pozasłonecznych, wydaje się przedwczesne wykrywanie ich otoczenia, takiego jak PIERŚCIENIE PLANETARNE itp. i KOMETY pozasłoneczne. Co zaskakujące, większość tych otoczeń jest wykrywalna, a niektóre z nich nawet łatwiej niż same planety. Pierścienie. Pierścienie planet pozasłonecznych mają tak małą masę (mniejszą niż masa Ziemi), że nie wywierają obserwowalnego dynamicznego wpływu na ruch gwiazdy. Jednakże, jak pokazuje przykład pierścienia Saturna, mogą być znacznie bardziej rozległe niż planety olbrzymy (ich powierzchnia jest czterokrotnie większa od rzutowanej powierzchni planet olbrzymów). Są zatem oczywiście łatwiejsze do zaobserwowania metodami czułymi na powierzchnię obiektów, a mianowicie obrazowaniem bezpośrednim i tranzytami.
Satelity. Olbrzymie satelity planet są, przynajmniej w Układzie Słonecznym, co najwyżej tak duże, jak planety telluryczne. Ponieważ do ich wykrycia za pomocą obrazowania konieczne jest oddzielenie ich od planety macierzystej, wymagana moc separacji wymaga kilometrowych baz w przestrzeni kosmicznej. Metoda tranzytowa jest bardziej obiecująca i może być wykorzystana na dwa różne sposoby.
• Wykrycie tranzytu samego satelity jest marginalnie możliwe w przypadku satelitów olbrzymów (podobnych do Tytana) znajdujących się przed gwiazdą o małym promieniu (M lub K) monitorowaną z dokładnością fotometryczną 10-4 lub lepszą (jak w przypadku misji COROT i projektu Kepler).
• Nawet jeśli sam tranzyt satelity nie zostanie wykryty z powodu braku dokładności fotometrycznej, zaburza on czas tranzytu planety olbrzyma o wartość ΔTS ≈ 15 min (bardzo łatwą do wykrycia) dla satelity o masie Ziemi na orbicie wokół planety podobnej do Saturna.
Magnetosfery. Przynajmniej jedna planeta w Układzie Słonecznym ma radiodekametrową emisję silniejszą niż (spokojne) Słońce. Jest to prawdopodobnie spowodowane silnym kwazidipolowym polem magnetycznym pochodzenia wewnętrznego, wytwarzającym rozszerzoną MAGNETOSFERĘ PLANETARNĄ, w której następuje przyspieszenie cząstek, indukując silną nietermiczną emisję radiową. Emisje te byłyby wykrywalne przy 15 pc za pomocą najlepszych receptorów (sam Jowisz byłby wykrywalny przy 0,5 pc). Planetarne pola magnetyczne są zwykle przypisywane turbulentnemu ruchowi rotacyjno-konwekcyjnemu materiału przewodzącego wewnątrz jądra. Prawa skalowania przewidują pole magnetyczne o wartości kilku gaussów dla już odkrytych planet pozasłonecznych. W dalszej przyszłości radioteleskop po ciemnej stronie Księżyca byłby wolny od pasożytów antropogenicznych i absorpcji jonosferycznej. Umożliwiłby on detekcję radiową poniżej 10 MHz.
Komety. W przypadku gwiazdy β Pictoris intensywny monitoring spektroskopowy wykazuje szybko (w skali dni) zmieniające się linie absorpcyjne. Można je interpretować w kategoriach absorpcji poprzez opadanie parujących komet z częstotliwością około jednego opadania dziennie. Jeśli ta interpretacja jest poprawna, ta metoda mogłaby się sprawdzić w przypadku tej konkretnej gwiazdy, ponieważ jest ona otoczona wyjątkowym rezerwuarem małych ciał, o czym świadczy obecność dysku pyłowego. W przypadku losowych gwiazd łatwiej jest wykryć komety poprzez tranzyt ich warkocza pyłowego, w sposób podobny do wykrywania planet. Dla liczby komet równej liczbie komet w naszym Układzie Słonecznym, częstotliwość wykrywania tą metodą wynosi około jednej komety miesięcznie.
Poszukiwanie życia na planetach pozasłonecznych
Strefy nadające się do zamieszkania. To, co można by nazwać "życiem", jest przedmiotem ogromnej debaty. Ograniczmy się tutaj do standardowego, konserwatywnego wyboru chemii organicznej opartej na węglu na planecie stałej z wodą w stanie ciekłym. Planeta musi być wystarczająco masywna, aby utrzymać atmosferę, ale nie na tyle masywna, aby zatrzymać wodór, który byłby śmiertelny dla standardowego życia. Jej masa musi zatem mieścić się w przedziale od 0,1 M⊕ do 10 M⊕. Przy ciśnieniu podanym w tym zakresie mas, woda w stanie ciekłym może występować, jeśli temperatura planety wynosi około 300 K. Planeta krążąca w odległości a wokół gwiazdy o promieniu R* i temperaturze T* osiąga poprzez ogrzewanie temperaturę równowagi TP, określoną wzorem

gdzie A jest średnim "albedo" (współczynnikiem odbicia) powierzchni planety. Z równania (2) wynika, że planeta o temperaturze ≃300 ± 20 K musi znajdować się w odległości a od gwiazdy określonej wzorem (dla A = 0,55) a = 0,7R*(T*/300)2. W zależności od rodzaju gwiazdy centralnej, odległość ta waha się od ≃0,1 AU dla chłodnych (T* = 3000 K) karłów do ≃2 AU dla gorących (T* = 6500 K) większych gwiazd. W przypadku gorętszych gwiazd ekosfera jest większa niż 2 AU, ale ewoluują one zbyt szybko, aby zapewnić stabilne warunki temperaturowe przez miliardy lat niezbędne do rozwoju życia (chyba że przyjmiemy mniej konserwatywne scenariusze).
Zdalne wykrywanie oznak życia. Załóżmy, że planeta podobna do Ziemi zostanie odkryta w ekosferze swojej gwiazdy macierzystej. Czy możliwe jest wykrycie na niej obecności życia? Odpowiedź brzmi, że możliwe jest wykrycie spektroskopowych sygnatur tego, co prawdopodobnie jest spowodowane złożoną chemią organiczną. Można wyróżnić dwa rodzaje sygnatur.
1. Poszukiwanie tlenu. Pierwsze podejście opiera się na obserwacji, że na Ziemi cały tlen cząsteczkowy i ozon w atmosferze mają pochodzenie biogeniczne. Aby następnie oddzielić planetę od jej gwiazdy macierzystej, potrzebny jest interferometr w kosmosie z bazą o długości co najmniej 20 m (projekt DARWIN). Jednak ta metoda jest obarczona co najmniej jednym artefaktem spowodowanym fotodysocjacją wody w pewnych warunkach (takich jak ciągłe dostarczanie wody przez dużą liczbę spadających komet). Ponadto dostarczanie tlenu jest wtórną konsekwencją fotosyntezy typu ziemskiego i nie wiemy, w jakim stopniu jest ono przypadkowe, a w jakim powszechne. Na przykład na Ziemi istnieje wiele gatunków bakterii fotosyntetyzujących, które nie dostarczają tlenu jako produktu ubocznego swojej aktywności fotosyntetycznej (produkując zamiast tego siarkę).
2. Poszukiwanie chlorofilu. Bardziej ogólny opis opiera się na uwadze, że niezależnie od szczegółów biochemii pozasłonecznej, musi ona wykorzystywać konwerter molekularny, który absorbuje światło gwiazdy w intensywnej części jej widma, przekształcając je w energię chemiczną. Na Ziemi tym konwerterem jest chlorofil, ale na innych planetach mogą to być inne cząsteczki. Na Ziemi chlorofil absorbuje do 80% światła w paśmie 400-700 nm. Byłby on postrzegany jako pasmo absorpcji wynoszące kilka procent w widmie planetarnym dla długości fal, na których gwiazda jest najjaśniejsza. Aby zminimalizować ryzyko pomylenia z artefaktami (na przykład pasmami absorpcji krzemianów), stopień absorpcji można skorelować z porami roku na planecie.
Wnioski
Po raz pierwszy mamy jasną odpowiedź na pytanie sprzed 2300 lat: "czy gdzieś [tj. wokół innych gwiazd] istnieją inne światy podobne do naszego?" (EPIKURS 300 p.n.e.). Pierwsze odkrycia były pełne niespodzianek i powinniśmy być przygotowani na nieoczekiwane. W tej nowej erze astronomii można już zaprojektować plan na długoterminową przyszłość z dobrze zdefiniowanymi krokami jasnej globalnej strategii na całe nadchodzące stulecie, a nawet z wstępnym planem działań:
(a) pierwsze obrazy planet pozasłonecznych (około 2005 r.);
(b) wykrycie planet podobnych do Ziemi (2005 r.);
(c) poszukiwanie widmowych śladów życia (2010-2015);
(d) wielopikselowe obrazowanie planet pozasłonecznych (>2025 r.);
(e) wielopikselowa spektroskopia planet pozasłonecznych (>2030 r.).
W drugiej połowie stulecia, kiedy zostaną zidentyfikowane najciekawsze planety (być może z oznakami aktywności biologicznej), wzrośnie presja na zaprojektowanie misji, która tam dotrze (w taki czy inny sposób). Nie zapominajmy, że przyszli astronomowie urodzeni dzisiaj najprawdopodobniej doświadczą tych czasów około 2100 roku. Perspektywiczne spojrzenie w przyszłość byłoby czystą spekulacją.
Aktualizacja internetowa (15 sierpnia 2001 r.)
Odkryto drugą planetę krążącą wokół gwiazdy 47 Ursae Majoris, znajdującej się w asteryzmie Pług lub Wielki Wóz w gwiazdozbiorze Wielkiej Niedźwiedzicy. Nowa planeta ma masę co najmniej trzech czwartych masy Jowisza i okrąża gwiazdę w odległości, która w naszym Układzie Słonecznym plasowałaby ją poza Marsem, ale wewnątrz orbity Jowisza. Ponadto, nowe obserwacje z satelity Submillimeter Wave Astronomy Satellite (SWAS) dostarczają pierwszych dowodów na to, że pozasłoneczne układy planetarne zawierają wodę - cząsteczkę niezbędną do istnienia znanych form życia. Z pozycji orbitalnej, ponad absorpcyjnym wpływem wody w atmosferze Ziemi, satelita SWAS jest w stanie wykryć charakterystyczne promieniowanie emitowane przez parę wodną w kosmosie. Starzejąca się gwiazda-olbrzym oznaczona przez astronomów jako IRC+10216, znana również jako CW Leonis, położona 500 lat świetlnych (prawie 3000 bilionów mil) od Ziemi w kierunku gwiazdozbioru Lwa, najwyraźniej odparowuje otaczający ją rój komet, uwalniając ogromną chmurę pary wodnej. Obserwacje pary wodnej wokół IRC+10216 sugerują, że inne gwiazdy mogą być otoczone układami planetarnymi podobnymi do naszego. W ciągu ostatniej dekady wykazano, że ponad 50 gwiazd ma duże planety krążące wokół nich, ale niewiele wiadomo na temat składu tych planet.
Wiadomości (31 stycznia 2002 r.)
Obserwacje gazowego olbrzyma, krążącego wokół żółtej, podobnej do Słońca gwiazdy HD209458, oddalonej od Ziemi o 150 lat świetlnych, przeprowadzone przez Kosmiczny Teleskop Hubble′a NASA, ujawniły obecność sodu w świetle przefiltrowanym przez atmosferę planety, gdy przechodziła ona przed swoją gwiazdą, widzianą z Ziemi. Planeta została odkryta w 1999 roku dzięki subtelnemu oddziaływaniu grawitacyjnemu gwiazdy. Masa planety wynosi 70% masy Jowisza. Jej orbita jest nachylona niemal krawędzią do Ziemi, co umożliwia wielokrotne obserwacje tranzytowe. Planeta znajduje się zaledwie około 6 milionów km (4 miliony mil) od gwiazdy. W tej odległości atmosfera planety jest rozgrzana do około 1000 K. W momencie aktualizacji potwierdzono istnienie 66 pozasłonecznych układów planetarnych, w tym 74 planet i 7 układów wieloplanetarnych. Wśród ostatnich odkryć znajdują się trzy planety wielkości Jowisza, poruszające się po orbitach kołowych podobnych do orbit Ziemi i Marsa w naszym Układzie Słonecznym.
FG Sagittae (FG Sge)
FG Sge (α = 20°11′56″ , δ = +20°20′04″ , epoka = 2000) to bardzo osobliwa gwiazda olbrzym, przechodząca niezwykle szybkie zmiany ewolucyjne i procesy nukleosyntezy. W ciągu ostatniego stulecia ewoluowała w niezwykłym tempie, zmieniając między innymi swój wygląd z gorącej gwiazdy (typu O) w jasnego, chłodnego olbrzyma (typu K) obecnie. FGSge jest klasyfikowana jako "odrodzony olbrzym", który obecnie przeżywa swój drugi etap jako gwiazda asymptotycznej gałęzi olbrzymów (AGB). Szybka i rzadka metamorfoza jest prawdopodobnie wynikiem ponownego zainicjowania spalania jądrowego, gdy gwiazda zbliżała się do domeny żaru gwiazdowego jako BIAŁY KARZEŁ. Nowo wygenerowana energia jądrowa ponownie rozdęła gwiazdę do rozmiarów olbrzyma i jednocześnie spowodowała ochłodzenie powierzchni gwiazdy. Jako jedna z niewielu znanych gwiazd, FG Sge oferuje astronomom niezwykłą możliwość badania ewolucji gwiazd i nukleosyntezy w czasie rzeczywistym. Co więcej, przypomina gwiazdy RCORONAE BOREALIS (R CrB), co może rzucić światło na ich niejasne, bezpośrednie pochodzenie.
Odrodzone olbrzymy
Zwykle ewolucja gwiazd przebiega w skali milionów lub miliardów lat. Godnymi uwagi wyjątkami są na przykład supernowe, choć takie kataklizmy reprezentują jedynie ostateczny koniec istnienia normalnych gwiazd. W związku z tym obserwowanie ewolucji gwiazd bez jednoczesnego całkowitego zniszczenia gwiazdy w skali bardziej odpowiadającej długości życia człowieka jest niezwykle rzadkie. "Odrodzone olbrzymy", takie jak FG Sge, oferują wyjątkową możliwość badania ewolucji gwiazd i nukleosyntezy w trakcie jej trwania, co dostarcza ważnych informacji na temat tego, jak mogą przebiegać późne etapy ewolucji gwiazd podobnych do Słońca. Pod koniec fazy AGB gwiazdy o masie pośredniej (masa gwiazdowa ciągu głównego M* ≈ 1-9M⊙) kolejno doświadczają stosunkowo długich okresów spokojnego spalania wodoru i krótkich, okresowych wybuchów spalania helu. To ostatnie zjawisko nazywane jest impulsami termicznymi lub "błyskami powłoki helowej", ponieważ spalanie helu jest niestabilne termicznie. Impulsy termiczne podczas fazy AGB odpowiadają za znaczne mieszanie wnętrza poprzez rozwój powłok konwekcyjnych (wybuchów), co z kolei prowadzi do dalszego przetwarzania jądrowego. Uważa się, że takie wybuchy ostatecznie przekształcają gwiazdę AGB w GWIAZDĘ WĘGLOWĄ. Impulsy termiczne gaszą również zewnętrzną powłokę spalającą wodór, wypychając ją na zewnątrz do niższych temperatur. Po wygaśnięciu spalania helu, spalanie wodoru ponownie się rozpala i historia powtarza się po około 104-105 latach. Ostatecznie jednak, z powodu stale malejącej masy otoczki wynikającej z intensywnej utraty masy i przetwarzania jądrowego, etap AGB zostaje zakończony. Rozproszenie chłodniejszej otoczki pozwala dostrzec gorętsze jądro, co powoduje szybką ewolucję gwiazdy w kierunku wyższych temperatur powierzchniowych, jak pokazano na DIAGRAMIE HERTZSPRUNGA-RUSSELLA (HR). Nadal obecna produkcja energii jądrowej wkrótce zanika. Zamiast zanikać i stać się białym karłem (WD) po opuszczeniu asymptotycznej gałęzi olbrzymów (AGB) i przejściu przez fazę mgławicy planetarnej (PN), gwiazda doświadczyła ostatniego błysku powłoki helowej, który spowodował jej krótki powrót do stanu AGB po raz drugi. pozostawiając gwiazdę do ostygnięcia podczas schodzenia po ścieżce chłodzenia białego karła. Ostatecznie zanika, gdy energia jądrowa nie jest w stanie zastąpić energii cieplnej utraconej w postaci coraz słabszego, gwiezdnego żaru. Chociaż powyższy scenariusz jest najbardziej prawdopodobnym ciągiem zdarzeń, zejście ścieżką schładzania białego karła może nie być ślepą uliczką. Teoretyczne szacunki sugerują, że w przypadku około 10% gwiazd przechodzących przez stadium MGŁAWY PLANETARNEJ, przedbiały karzeł doświadczy jeszcze jednego błysku powłoki helowej, powodując dodatkową pętlę na diagramie HR. Z powodu nagrzewania się wnętrza podczas grawitacyjnego kurczenia się jądra, temperatura może wzrosnąć na tyle, aby ponownie wywołać spalanie helu. Uwolniona energia jądrowa wystarcza, aby rozszerzyć gwiazdę z powrotem do jej dawnej świetności jako chłodnego, jasnego olbrzyma. Jeśli zewnętrzna powłoka spalająca wodór jest nadal aktywna, końcowy błysk powłoki helowej spowoduje jedynie pęcznienie gwiazdy, ale nie obniży gazu w powłoce zewnętrznej do wysokich temperatur wnętrza gwiazdy ze względu na barierę entropii utworzoną przez spalanie wodoru. Jeśli jednak spalanie wodoru ustanie, żadna przeszkoda nie zapobiegnie niemal całkowitemu pochłonięciu wciąż bogatej w wodór powłoki, co z kolei wywoła spalanie wodoru, a także związaną z nim nukleosyntezę i mieszanie się z wnętrzem. W takim przypadku można spodziewać się znacznych modyfikacji składu chemicznego powierzchni, w szczególności w odniesieniu do pierwiastków H, Li, C, N oraz pierwiastków o powolnym procesie wychwytu neutronów. Czas życia takiego odmłodzonego olbrzyma jest jednak krótki, ponieważ nieaktywne spalanie helu nigdy nie jest możliwe. W ciągu 100-1000 lat - w zależności od pozostałej masy otoczki - odrodzony olbrzym powróci na swoją dawną ścieżkę, gdy otoczka gwiezdna ponownie się rozproszy, by ostatecznie stać się białym karłem, tym razem punktem bez powrotu. Krótki czas życia odrodzonych olbrzymów sprawia, że zjawisko to będzie rzadkością obserwacyjną, pomimo stosunkowo dużej liczby gwiazd, które prawdopodobnie przejdą przez tę fazę. Ponieważ ostateczny impuls termiczny może wystąpić podczas fazy mgławicy planetarnej, scenariusz ten może naturalnie wyjaśniać obecność mgławic otaczających chłodne, jasne gwiazdy w pobliżu AGB, co w przeciwnym razie byłoby trudne do zrozumienia.
Ewolucja FGSge
Szybką ewolucję FG Sge w XX wieku można interpretować jako wynik ostatniego błysku powłoki helowej w gwieździe po AGB. Najlepszym dowodem na to, że FG Sge jest rzeczywiście odrodzonym olbrzymem, jest otaczająca go mgławica Henize 1-5, co bezpośrednio implikuje, że FG Sge bardzo niedawno musiał być gorącym jądrem mgławicy planetarnej (o temperaturze powierzchni Teff ≥ 50 000 K). Nie można dokładnie określić, kiedy nastąpił impuls termiczny, ale najprawdopodobniej nastąpiło to pod koniec XIX wieku. Od tego czasu gwiazda ewoluowała w kierunku niższych temperatur powierzchniowych w wyniku ogólnej ekspansji. W wyniku chłodzenia gwiazda stopniowo stawała się jaśniejsza wizualnie; Jasność wizualna zmniejszyła się z ≈14m w 1880 r. do ≈9m w 1990 r. Jak dotąd nie jest jasne, czy wzrosła również jasność bolometryczna, ponieważ niższe temperatury przesunęły większość powstającego strumienia promieniowania w kierunku fal optycznych. Zgodnie z obliczeniami teoretycznymi, ewolucja w kierunku reżimu AGB przebiega przy zasadniczo stałej jasności po początkowym szybkim zaniku i późniejszym rozjaśnieniu (czego nie zaobserwowano w przypadku FG Sge). Skala czasowa ewolucji, wynosząca około 100 lat, aby ponownie osiągnąć AGB, jest zgodna z szacunkami teoretycznymi dla obecnej masy gwiazdowej wynoszącej M* ≈ 0,6 M⊙ (co implikuje masę ciągu głównego około 3M⊙). Historyczne widma ujawniły, że FG Sge była gorącą gwiazdą (≈O3, z Teff ≈ 43 000 K) w 1880 roku, z której stale ewoluowała w kierunku późniejszych typów widmowych . Obecnie jest to w przybliżeniu olbrzym K2, ale dokładna klasyfikacja jest skomplikowana ze względu na jego niezwykle bogate i osobliwe widmo gwiazdowe. Przypisanie temperatury powierzchni gwiazdy od, powiedzmy, 1980 roku do dziś jest zatem raczej niepewne, chociaż różne szacunki fotometryczne i spektroskopowe sugerują Teff ≈ 5000-6000 K. Towarzysząc zmianom w wyglądzie, okres pulsacji wydłużył się z około 5 dni w latach 30. XX wieku do około 100 dni na początku lat 90. Można to jakościowo zrozumieć jako konsekwencję ekspansji gwiazdy, prawdopodobnie z niewiele większej od Ziemi do olbrzyma około 100 razy większego od Słońca. Z analizy pulsacyjnej można wywnioskować masę gwiazdową M* ≈ 0,8M⊙, ale niestety takie szacunki dla FG Sge są nadal utrudnione przez niepewności. Nie jest jasne, czy ostateczny błysk powłoki helowej nastąpił przed, czy po zakończeniu spalania wodoru. Znacznych modyfikacji obfitości pierwiastków powierzchniowych można oczekiwać tylko w tym drugim przypadku. Istnieją przesłanki, że ilość pierwiastków procesu s (np. Y, Zr, Ce i La) w warstwach powierzchniowych wzrosła znacząco, około dziesięciokrotnie, w ciągu zaledwie kilku lat około 1970 roku. Co więcej, w latach 80. FG Sge przekształciła się w gwiazdę węglową, o czym świadczy pojawienie się silnych pasm węgla cząsteczkowego (C2) w widmie. Tylko w przypadku jednej innej gwiazdy, podobnego odrodzonego olbrzyma OBIEKT SAKURAI, zaobserwowano bezpośrednie dowody na obecną nukleosyntezę i mieszanie. Te zaobserwowane oznaki mieszania sugerują, że spalanie wodoru ustało już przed ostatnim impulsem cieplnym, ale szczegóły wciąż nie zostały dokładnie poznane. Przewiduje się, że takie zmiany w obfitości pierwiastków na powierzchni wystąpią jedynie przy niższych temperaturach powierzchni, gdy zewnętrzna strefa konwekcyjna rozciąga się na warstwy, w których przetwarzanie jądrowe zmieniło skład chemiczny. Trudno jest również wyjaśnić wzbogacenie powierzchni pierwiastków procesu s przed węglem, ponieważ teoretycznie należałoby oczekiwać, że oba procesy zajdą jednocześnie. Co więcej, wodór jest nadal wyraźnie obecny w dużych ilościach w warstwach powierzchniowych, podczas gdy oczekuje się, że podczas wchłaniania otoczki znaczna część obecnego wodoru powinna zostać spalona w procesie przetwarzania CNO. Istnieją przesłanki wskazujące na to, że FG Sge może mieć umiarkowany niedobór wodoru, co sugeruje niepełne wchłanianie otoczki bogatej w wodór, ale wciąż nie zostało to przekonująco zweryfikowane. W alternatywnym scenariuszu, w którym spalanie wodoru było nadal aktywne w momencie wystąpienia impulsu cieplnego, jakichkolwiek modyfikacji obfitości pierwiastków na powierzchni nie da się wyjaśnić bez odwołania się do innych, bardziej spekulatywnych procesów. W sierpniu 1992 roku jasność gwiazdy FG Sge nagle drastycznie spadła. W ciągu kilku tygodni gwiazda straciła jasność w zakresie widzialnym o ponad cztery magnitudo. Niedługo potem odkryto nadmiar promieniowania podczerwonego, prawdopodobnie związany z pyłem okołogwiazdowym, którego nie było kilka lat wcześniej. Oba te zdarzenia są zatem prawdopodobnie powiązane: pył zaczął się kondensować wokół gwiazdy, przesłaniając widzialną fotosferę. Zjawisko to trwa od 1992 roku do dziś, z powolnym powrotem do normalnego światła przerywanym dalszymi szybkimi spadkami jasności, jak widać na rysunku 2. Gwiazda jednak nie powróciła jeszcze w pełni do swojej pierwotnej jasności, zanim zaobserwowano pierwsze spadki jasności. Zmienność sugeruje, że formowanie się pyłu zachodzi jedynie w lokalnych skupiskach, a nie jednocześnie wokół całej gwiazdy, a zanikanie jest obserwowane tylko wtedy, gdy kondensacja zachodzi wzdłuż linii widzenia. To zachowanie bardzo przypomina zmienność wizualną gwiazd typu RCrB, w które może obecnie ewoluować FG Sge. Szczegóły powstawania pyłu są słabo poznane, zarówno w przypadku gwiazd typu FG Sge, jak i RCrB, ale prawdopodobnie jest to związane z utratą masy gwiazdy, o czym świadczy pojawienie się absorpcji CO z gazu okołogwiazdowego w związku z pierwszym zanikaniem FG Sge. Widoczna zgodność między momentem rozpoczęcia zanikania a fazą pulsacji gwiazdy sugeruje istnienie związku przyczynowo-skutkowego, a ponadto, że pył tworzy się blisko powierzchni gwiazdy.
Powiązane obiekty
Chociaż FG Sge jest niewątpliwie obiektem niezwykłym, nie jest unikatowy. Zaobserwowano co najmniej dwie inne gwiazdy, które przeszły fazę odrodzenia olbrzyma, a podejrzewa się, że inne niedawno przeszły podobny etap ewolucji. Zarówno V605 Aql (Nova Aql 1919), jak i niedawno odkryty obiekt Sakurai, doświadczyły ostatniego błysku powłoki helowej w XX wieku i w rzeczywistości ewoluowały w jeszcze krótszym czasie niż FG Sge. V605 Aql została początkowo sklasyfikowana jako NOVA, gdy pojaśniała o ponad cztery magnitudo między 1919 a 1921 rokiem, zanim wkrótce ponownie popadła w zapomnienie. Szybki rozwój wydarzeń niestety uniemożliwił dokładne zbadanie fazy rozbłysku za pomocą nowoczesnej aparatury. Obecnie gwiazdę otacza mgławica planetarna Abell 58, która zawiera dowody na to, że V605Aql rzeczywiście niedawno przeszła fazę odrodzenia olbrzyma. Zewnętrzne części są bogate w wodór, ale centralne węzły Abell 58 są ubogie w wodór, co sugeruje, że V605Aql faktycznie stał się ubogi w wodór w związku z ostatnim błyskiem powłoki helowej. Znacznie szybsza skala czasowa ewolucji, wynosząca zaledwie kilka lat w porównaniu z FG Sge, wskazuje na wyższą masę gwiazdy, być może nawet 1,0 M⊙. Innym powiązanym obiektem jest obiekt Sakurai, który obiecuje dostarczyć ważnych wskazówek do zrozumienia zjawiska odrodzenia olbrzyma. Został odkryty w 1996 roku, ale prawdopodobnie doświadczył ostatniego błysku powłoki helowej kilka lat wcześniej, niezauważony. Ostygł już do temperatur podobnych do FG Sge. Co bardziej dramatyczne, wykazuje wyraźne dowody mieszania się prądów i nukleosyntezy, które musiały nastąpić po impulsie termicznym. Od momentu odkrycia, obfitość wodoru na powierzchni zmniejszyła się dziesięciokrotnie, podczas gdy ilość litu i pierwiastków z procesu s wzrosła o podobne wartości. Zmiany te są prawdopodobnie wynikiem spalania wodoru, przetwarzania jonów siarkowych i produkcji jonów liponuklearnych (Li) poprzez mechanizm transportu Be Camerona-Fowlera. Co więcej, obiekt Sakurai zaczął ostatnio wykazywać zmienność wizualną podobną do gwiazd RCrB i pojawiać się w nim nadmiar w podczerwieni, podobnie jak w przypadku FG Sge. Jeszcze szybszy wzrost jasności sugeruje, że ma on większą masę, prawdopodobnie podobną do V605Aql. Obiekt Sakurai jest również otoczony słabą mgławicą planetarną. Co więcej, FG Sge wydaje się przypominać gwiazdy RCrB pod względem zmienności wizualnej z okazjonalnymi, drastycznymi spadkami jasności. Nie wykazano jednak jeszcze, aby FG Sge była uboga w wodór, co jest inną cechą definiującą tę grupę, choć istnieją przesłanki, że tak może być. FG Sge może zatem ewoluować w gwiazdę RCrB. Oczekuje się zatem, że badanie rozkładu jej pierwiastków pozwoli ustalić, czy jest ona rzeczywiście powiązana z tymi gwiazdami. Taka analiza ma ogromne znaczenie, ale niestety jest utrudniona przez złożoność widma gwiazdowego. Dodatkowym potwierdzeniem tej hipotezy jest obiekt Sakurai, który nie tylko wykazuje typową zmienność RCrB, ale także bardzo podobny skład chemiczny, co sugeruje wspólne podłoże ewolucyjne.
Banki filtrów
Banki filtrów to instrumenty, które dzielą sygnał z radioteleskopu na szereg kanałów częstotliwościowych i mierzą moc w każdym z nich. Wyjściem banku filtrów jest strumień danych cyfrowych przesyłany do komputera w celu analizy. Banki filtrów mogą przybierać różne formy, w tym analogowe banki filtrów, cyfrowe banki filtrów, maszyny szybkiej transformaty Fouriera (FFT) i programowe banki filtrów. Te różne typy backendów wykorzystują bardzo różne metody do osiągnięcia zasadniczo tych samych celów przetwarzania sygnału. Korelatory mogą być również wykorzystywane jako banki filtrów .Banki filtrów są najczęściej wykorzystywane do obserwacji radiopulsarów. Krótkie podsumowanie właściwości obserwacyjnych pulsarów posłuży jako przykład zastosowania banków filtrów i ich działania.
Pulsary i dyspersja
Pulsary - silnie namagnesowane, wirujące gwiazdy neutronowe - są obserwowane jako bardzo regularne impulsy szerokopasmowego, amplitudowo modulowanego szumu radiowego. Te błyski fal radiowych można porównać do promieni kosmicznej latarni morskiej przemierzających Galaktykę; gdy promień przecina Ziemię, widzimy błysk pulsara, który następnie znika, aż do ponownego pojawienia się promienia. Szerokopasmowa emisja nietermiczna pulsara charakteryzuje się widmem radiowym o rozkładzie potęgowym
S ∝ v-α(1)
gdzie S to gęstość strumienia (moc na jednostkę powierzchni na jednostkę częstotliwości), v to częstotliwość, a α(∿2) to wskaźnik widmowy. Impulsy fal radiowych są emitowane niemal jednocześnie na wszystkich częstotliwościach, ale ośrodek międzygwiazdowy (ISM) powoduje, że różne częstotliwości rozchodzą się w przestrzeni z różnymi prędkościami . Ze względu na obecność swobodnych elektronów w ośrodku międzygwiazdowym sygnał o niższej częstotliwości przemieszcza się wolniej i dlatego jest wykrywany przez teleskopy później niż sygnał o wyższej częstotliwości. Ta dyspersja jest podobna do dyspersji białego światła na tęczę kolorów, gdy przechodzi ono przez pryzmat, i jest wynikiem ośrodka o współczynniku załamania światła zależnym od częstotliwości. Prędkość propagacji impulsu (prędkość grupowa) jako funkcja częstotliwości jest dana wzorem

gdzie c to prędkość światła w próżni, ne to gęstość swobodnych elektronów (założona jako mała), a e i me to odpowiednio ładunek i masa elektronu. Dyspersja znacznie komplikuje obserwacje radiopulsarów. Przy dwóch danych częstotliwościach impulsy szumowe z pulsara dotrą w różnym czasie, oddzielone wartością proporcjonalną do miary dyspersji (DM), która jest zintegrowaną gęstością kolumny elektronów wzdłuż linii widzenia pulsara (
, wyrażoną w jednostkach pc cm-3). W wąskim paśmie ? opóźnienie czasowe w sekundach spowodowane dyspersją jest podane wzorem
Δts ≃ 8300DMΔvMHzv-3MHz (3)
gdzie ΔvMHz i vMHz to szerokość pasma i częstotliwość obserwacji mierzona w megahercach. Chociaż dyspersja komplikuje obserwacje pulsarów, nie jest ona pozbawiona korzyści. Mierząc dyspersję na podstawie opóźnienia czasowego impulsu między różnymi częstotliwościami, możemy oszacować odległość do pulsara w oparciu o naszą wiedzę o gęstości swobodnych elektronów w Galaktyce w kierunku pulsara. Gęstość elektronów jest wyższa w dysku Galaktyki, więc ogólnie rzecz biorąc, dana dyspersja implikuje krótszą odległość do pulsara w dysku niż do pulsara na wysokiej szerokości galaktycznej. Ponadto obserwujemy większą gęstość elektronów w kierunku centrum Galaktyki niż w kierunku jej zewnętrznych granic.
Banki filtrów
Omówione w poprzedniej sekcji efekty dyspersyjne ośrodka międzygwiazdowego (ISM) wskazują na potrzebę banków filtrów pulsarów. Profil impulsu (intensywność jako funkcja czasu lub fazy impulsu) obserwowany w paśmie Δv będzie rozmyty w czasie o wartość t zgodnie z równaniem (3) (to rozmycie można traktować jako splot wewnętrznego profilu impulsu z funkcją wagonu lub kapelusza o szerokości Δt). Aby uzyskać szczegółowe informacje na temat krzywej blasku pulsara, chcielibyśmy mieć Δt << P, gdzie P jest okresem impulsu; ogranicza nas to do małych szerokości pasma. Jednak stosunek sygnału do szumu rośnie wraz z pierwiastkiem kwadratowym szerokości pasma, a pulsary są słabymi źródłami, dlatego potrzebujemy dużych szerokości pasma. Rozwiązaniem tego problemu jest obserwacja pulsara w kilku wąskich kanałach, nchan, z których każdy ma szerokość pasma Δv. Daje to pożądany mały Δt odpowiadający szerokości pasma pojedynczego kanału v, oprócz zwiększonego stosunku sygnału do szumu odpowiadającego całkowitej szerokości pasma B = nchanΔv. Aby skorygować opóźnienie dyspersyjne między kanałami, do sygnału wyjściowego każdego kanału stosuje się odpowiednie przesunięcie czasowe przed połączeniem różnych kanałów częstotliwościowych. To rozwiązanie przetwarzania sygnału jest znane jako dedyspersja niekoherentna; informacja o poszczególnych składowych częstotliwościowych w pojedynczym kanale jest niszczona tą metodą. Liczba kanałów w banku filtrów jest głównym czynnikiem wpływającym na jego złożoność i koszt, dlatego nchan jest ważnym parametrem projektowym. Całkowita szerokość pasma B jest ustalana przez odbiornik teleskopu i generalnie pożądane jest, aby instrument końcowy wykorzystywał całą dostępną szerokość pasma w celu maksymalizacji stosunku sygnału do szumu. Maksymalne DM i Δt są ustalane przez cele naukowe, przy czym Δt jest niewielkim ułamkiem minimalnego okresu pulsara, do którego badania przeznaczony jest bank filtrów. Z równania (3) wynika, że wymagana liczba kanałów dla banku filtrów działającego na częstotliwości centralnej v jest dana wzorem

Bank filtrów można wyobrazić sobie jako zestaw tunerów radiowych nchan pracujących równolegle. Każdy tuner otrzymuje identyczny sygnał wejściowy z teleskopu (anteny) i jest dostrojony do innego kanału częstotliwości. Jeśli wyobrazimy sobie, że te tunery są podłączone do mierników mocy, a nie do głośników, możemy obserwować mierniki, aby stale monitorować moc w każdym kanale częstotliwości. Jeśli te mierniki mocy są podłączone do komputera rejestrującego pomiary, mamy do czynienia z podstawową zasadą działania analogowego banku filtrów. Należy zauważyć, że różni się to od działania większości analizatorów widma, które przeszukują widmo i mierzą moc tylko w jednym kanale na raz; analogią tutaj byłoby pojedynczy tuner radiowy, który powoli przeszukuje pasmo. Alternatywnym podejściem do przetwarzania sygnału jest koherentna dedyspersja. Technika ta całkowicie usuwa liniową funkcję przejścia narzuconą przez dyspersyjny ośrodek międzykanałowy (ISM) i eliminuje wszelkie rozmycie dyspersyjne z profilu impulsu. Koherentną dedyspersję można wyobrazić sobie jako bank filtrów z dowolnie dużą liczbą dowolnie wąskich kanałów.
Banki filtrów analogowych
Banki filtrów analogowych są prawdopodobnie najłatwiejszą do zrozumienia klasą. Aby zilustrować działanie tego typu instrumentu, wykorzystamy bardzo uproszczony, czterokanałowy bank filtrów. Sygnał wejściowy banku filtrów pochodzi z sygnału teleskopu; należy zauważyć, że sygnał ten jest często miksowany (przesuwany do niższej częstotliwości) w stosunku do częstotliwości obserwowanej na niebie, aby uprościć transmisję i przetwarzanie sygnału. Przykładowe widmo wejściowe (moc na jednostkę szerokości pasma jako funkcja częstotliwości) przedstawiono w kolumnie (i) rysunku. Sygnał wejściowy teleskopu jest dzielony na cztery części i przekazywany bezpośrednio na wejście każdego kanału. Od tego momentu sygnał jest dzielony na cztery równoległe kanały, z których każdy przetwarza inną część widma wejściowego. Widmo wejściowe jest filtrowane w celu wybrania mniejszej szerokości pasma do przetwarzania. Typowe typy filtrów to filtry LC i kwarcowe, w zależności od wymaganej charakterystyki pasma przepustowego. Kolumny (ii) i (iii) na rysunku przedstawiają pasmo przenoszenia (transmisję jako funkcję częstotliwości) każdego filtru, a także widmo przefiltrowanego sygnału, które jest iloczynem mnożnika widma wejściowego i pasma przenoszenia filtru. W tym momencie po prostu podzieliliśmy widmo wejściowe na kilka mniejszych sekcji. Następnie, w kolumnie (iv), moc w każdym kanale jest mierzona za pomocą detektora kwadratowego. Detekcja ta jest zazwyczaj realizowana poprzez przepuszczenie sygnału przez diodę, która jest spolaryzowana tak, że prąd wyjściowy jest proporcjonalny do kwadratu napięcia wejściowego. Oznacza to, że prąd w obwodzie w tym punkcie jest proporcjonalny do kwadratu pola elektrycznego sygnału odbieranego przez teleskop, który z kolei jest proporcjonalny do natężenia obserwowanego źródła. Ten prąd po detekcji jest następnie całkowany w odpowiednim przedziale czasu za pomocą prostego układu RC, przetwarzany analogowo-cyfrowo (A/C) w celu uzyskania danych cyfrowych, a następnie przesyłany do komputera w celu analizy. Dane te są proporcjonalne do natężenia źródła w paśmie przenoszenia kanału, całkowanego w przedziale czasu próbkowania. Aby odebrać cały sygnał z pulsara, obie polaryzacje (liniowa lub kołowa) muszą zostać przetworzone przez bank filtrów. Wymaga to, aby wszystkie opisane powyżej kroki przed detekcją kwadratową zostały wykonane oddzielnie dla każdej polaryzacji. Jeśli informacja o polaryzacji nie jest wymagana, sygnały intensywności po detekcji można połączyć, aby uzyskać jeden strumień danych na kanał częstotliwości. Przykładem analogowego banku filtrów jest Penn State Pulsar Machine (PSPM), który jest używany w radioteleskopie 305 m w Arecibo w Portoryko. Ten bank filtrów dzieli pasmo 8 MHz na 128 kanałów częstotliwości i może mierzyć moc w każdym kanale nawet co 12 μs. Instrument ten służy do poszukiwania nowych pulsarów, a także do pomiaru czasu znanych pulsarów. Liczbę kanałów w analogowym banku filtrów można skutecznie zwiększyć za pomocą techniki Time Multiplexed Frequency Expansion (TMFE). Załóżmy, że chcemy podwoić liczbę kanałów w banku filtrów . Używając TMFE, sygnał wejściowy jest najpierw filtrowany na dwa kanały, a następnie każdy kanał jest digitalizowany w paśmie podstawowym. Digitalizowane dane z obu kanałów są przechowywane w dwóch sekcjach jednego bufora; gdy bufor ten się zapełni, dane są przechowywane w drugim buforze. W tym momencie przetwornik cyfrowo-analogowy (C/A) odtwarza dane z sekcji niskiej częstotliwości pierwszego bufora, ale z dwukrotnie większą częstotliwością próbkowania niż oryginalna. To rozszerza pasmo do 40 MHz - dwukrotności oryginalnej szerokości pasma kanału lub całej szerokości pasma obu kanałów. Po zmiksowaniu tego sygnału z pasma podstawowego do właściwej częstotliwości dla wejścia banku filtrów, sygnał jest podawany do banku filtrów. W tym czasie cztery kanały wyjściowe banku filtrów zawierają dane tylko z dolnej połowy pasma wejściowego; Podzieliliśmy zatem połowę pasma na cztery kanały. Dane te są rejestrowane do późniejszej analizy. Następnie postępujemy zgodnie z tą samą procedurą odtwarzania dla sekcji wysokoczęstotliwościowej pierwszego bufora, a bank filtrów również dzieli tę połowę pasma na cztery kanały. Zatem wyjście banku filtrów przełącza się w tym przykładzie między czterema kanałami z wejściowego pasma przenoszenia 100-120 MHz a czterema kanałami z wejściowego pasma przenoszenia 120-140 MHz. Nasze efektywne pasma kanałów wynoszą teraz 5 MHz, w przeciwieństwie do 10 MHz oryginalnego banku filtrów bez TMFE. Ponieważ system TMFE odtwarza swoje dane z dwukrotnie większą częstotliwością próbkowania, obie sekcje pierwszego bufora mogą być odtworzone w czasie potrzebnym do zapełnienia drugiego bufora, więc nie ma utraty wydajności obserwacji. Dane z drugiego bufora są teraz wprowadzane do banku filtrów, podczas gdy pierwszy bufor jest wypełniany nowymi danymi, a proces się powtarza. Łatwo zauważyć, że możemy zwiększyć efektywną liczbę kanałów banku filtrów o współczynnik N, stosując N filtrów TMFE, przetworników analogowo-cyfrowych i podziałów buforów oraz uruchamiając przetworniki cyfrowo-analogowe z częstotliwością N razy większą od częstotliwości próbkowania. System ATMFE o N = 4 jest używany w teleskopie Parkes o średnicy 64 m w Australii, w połączeniu z istniejącym już analogowym bankiem filtrów.
Cyfrowe banki filtrów
Kroki wykonywane w cyfrowym banku filtrów są podobne do tych wykonywanych w analogowym banku filtrów, ale realizowane są za pomocą innych środków elektronicznych. W cyfrowym banku filtrów sygnał napięciowy wejściowy z teleskopu jest próbkowany i digitalizowany. Ten zdigitalizowany sygnał jest następnie dzielony na kanały za pomocą filtrów cyfrowych, na przykład filtrów o skończonej odpowiedzi impulsowej (FIR) lub nieskończonej odpowiedzi impulsowej (IIR). Na przykład, w przypadku FIR, filtr jest programowany za pomocą współczynników dyskretnej transformaty Fouriera żądanego pasma przenoszenia filtru. Wyjściem filtru dla danego strumienia danych wejściowych jest wówczas splot szeregu ciągłych danych wejściowych ze współczynnikami filtru. Wydaje się to bardzo różne od procesu filtracji analogowej, ale twierdzenie o splocie gwarantuje, że wynik będzie taki sam. Ponieważ filtrowane sygnały są już liczbami cyfrowymi, "detekcja kwadratowa" jest realizowana poprzez proste podniesienie danych do kwadratu, a całkowanie poprzez proste zsumowanie żądanej liczby próbek. Navy-Berkeley Pulsar Processor (NBPP) to cyfrowy bank filtrów używany w Obserwatorium Nanøcay we Francji. Instrument ten posiada 96 kanałów; jego filtry FIR można zaprogramować tak, aby obejmowały łączną szerokość pasma do 168 MHz. Został zaprojektowany do wyszukiwania pulsarów na częstotliwościach obserwacyjnych powyżej 1 GHz. Filtry cyfrowe mogą być również wykorzystywane do koherentnej dedyspersji, jak w Green Bank-Berkeley Pulsar Processor (GBPP) w Narodowym Obserwatorium Radioastronomicznym w Green Bank w Zachodniej Wirginii. Po opisanym powyżej cyfrowym filtrowaniu pasmowo-przepustowym, instrument ten wykorzystuje szereg wysokowydajnych układów FIR, aby przeciwdziałać dyspersji w każdym kanale. Te specjalnie zaprojektowane układy PULFIR splatają strumień danych z maksymalnie 1024 współczynnikami, które odpowiadają dyspersyjnej funkcji przenoszenia dla danego DM.
Szybkie banki filtrów z transformacją Fourieraøø
Innym sposobem na stworzenie banku filtrów jest całkowite pominięcie filtrów, a zastosowanie układów scalonych zoptymalizowanych pod kątem przeprowadzania szybkich transformat Fouriera na sygnałach zdigitalizowanych. Podobnie jak w przypadku cyfrowego banku filtrów, sygnał teleskopu jest najpierw digitalizowany. Jednak zamiast przesyłać zdigitalizowany sygnał przez szereg filtrów, po jednym na kanał, jest on wprowadzany do układu FFT. Ten dedykowany komputer oblicza dyskretną transformatę Fouriera segmentu strumienia danych, czyli dyskretne widmo amplitudowe sygnału. Aby uzyskać widmo mocy sygnału, wystarczy podnieść widmo amplitudowe do kwadratu, mnożąc je przez jego sprzężenie zespolone. Ponieważ to dyskretne widmo mocy to nic innego jak moc zawarta w poszczególnych kanałach częstotliwości, w efekcie stworzyliśmy bank filtrów. Dane te można teraz zintegrować, sumując sygnał wyjściowy w ciągu żądanej liczby cykli, tak jak w przypadku cyfrowego banku filtrów. Ponieważ możemy obliczyć FFT tylko dla krótkiego segmentu danych na raz, obliczona przez nas transformata Fouriera będzie splotem tej wewnętrznej dla naszego sygnału wejściowego i funkcji okna, która jest do niego zastosowana. W najprostszym przypadku ta funkcja okna jest równa jedności dla próbek tworzących krótki segment danych wejściowych i zero dla wszystkich wcześniejszych i późniejszych czasów. Ta prosta funkcja okna ma jako swoją transformatę Fouriera funkcję sinc. Po spleceniu z transformatą sygnału, w rezultacie znaczna część amplitudy, a zatem i mocy, każdego składnika naszego widma własnego jest tracona w płatach bocznych tej funkcji sinc. Możemy zminimalizować tę utratę mocy w płatach bocznych widma, wygładzając dane wejściowe metodą Hanninga. Polega to na pomnożeniu zbioru danych wejściowych przez funkcję okna, która zwęża się do zera na końcach. Transformata Fouriera tej funkcji okna ma szerszy pik główny, ale znacznie mniejsze płaty boczne niż w poprzednim przypadku. To nieznacznie zmniejsza naszą rozdzielczość widmową, ale moc rozpraszana na listkach bocznych jest znacznie zredukowana; rezultatem jest znacznie czystsze widmo mocy. Dzięki wygładzaniu Hanninga dane w pobliżu końców naszego segmentu wejściowego są ważone znacznie mniej niż dane w pobliżu środka segmentu. Aby skompensować tę stratę, segmenty wejściowe są zazwyczaj nakładane na siebie, co oznacza, że dla każdej nowej FFT zastępowana jest tylko około połowa segmentu wejściowego. Przykładem banku filtrów FFT jest maszyna transformaty Fouriera Obserwatorium Arecibo (AOFTM), która syntetyzuje 1024 kanały obejmujące pasmo 10 MHz i ma rozdzielczość czasową 102 μs.
Banki filtrów programowych
Ostatnim sposobem utworzenia banku filtrów jest jego symulacja za pomocą oprogramowania komputerowego. W tym systemie sygnał z teleskopu jest próbkowany metodą Nyquista (z częstotliwością próbkowania co najmniej 2B), digitalizowany i rejestrowany do późniejszej analizy. Ta metoda jest najbardziej wymagająca obliczeniowo i generuje ogromne ilości danych, ale sprzęt jest stosunkowo prosty, a wszystkie informacje zawarte w sygnale teleskopu są zachowywane. Dane są następnie przetwarzane przez komputer ogólnego przeznaczenia, który można zaprogramować do wykonywania koherentnej dedyspersji lub do symulowania cyfrowego banku filtrów z filtrami FIR lub IIR, albo maszyny FFT. Programowe banki filtrów będą stawać się coraz bardziej praktyczne wraz ze wzrostem mocy obliczeniowej; obecnie są one ograniczone do stosunkowo małych przepustowości w porównaniu z innymi typami banków filtrów. Moc obliczeniowa wymagana do przetwarzania każdego megaherca pasma w czasie rzeczywistym wynosi około 50 milionów operacji zmiennoprzecinkowych na sekundę (MFlops) dla symulowanego niekoherentnego banku filtrów i 200 MFlops dla koherentnej dedyspersji. Przykładem tego rodzaju instrumentu jest Caltech Baseband Recorder (CBR), używany w Obserwatorium Arecibo. Instrument ten obejmuje pasmo 10 MHz, rejestrując dane z szybkością 20 MB s-1. Dane analizowane są w trybie offline przy użyciu superkomputerów.
Filtry
Filtry są wykorzystywane w astronomii głównie do dwóch celów: zmniejszenia ogólnego natężenia światła lub ograniczenia zakresu długości fal mierzonego światła. Kiedy oko było jedynym detektorem astronomicznym, filtry były rzadko używane, ale astronomia zawsze wykorzystywała nowe technologie tamtych czasów, takie jak fotografia, fotopowielacze, lampy obrazowe, matryce CCD czy matryce podczerwieni. Ponieważ nowe detektory niezmiennie charakteryzują się szerszą odpowiedzią długości fali i/lub lepszą czułością niż poprzednie, filtry stały się bardzo ważne, aby dopasować je do wcześniej stosowanych pasm przepustowych i badać strumień źródeł astronomicznych o różnych długościach fal, dostarczając w ten sposób pewnych astrofizycznych informacji o temperaturze źródła i innych jego właściwościach. Niektóre filtry działają na zasadzie selektywnej absorpcji i transmisji: są to filtry ze szkła kolorowego. Inne działają na zasadzie selektywnego odbicia i transmisji: są one zwykle nazywane filtrami interferencyjnymi. Filtr interferencyjny składa się z wielu warstw cienkich warstw, które selektywnie przepuszczają lub odbijają światło o określonych długościach fal. Dzielą się na dwa szerokie typy: filtry pasmowo-przepustowe (zwykle wąskie pasma) i filtry krawędziowe, które przepuszczają powyżej lub poniżej określonej długości fali; dichroiczne dzielniki wiązki to filtry krawędziowe. Filtr przestrajalny Fabry′ego-Perota to unikalny filtr interferencyjny, który może być używany z spektakularnym efektem na obiektach z liniami emisyjnymi (patrz także PRZESTRAJANE FILTRY OBRAZOWE). Wreszcie istnieją filtry używane do pomiaru światła spolaryzowanego i badania astronomicznych zjawisk magnetycznych.
Filtry ze szkła kolorowego
Pierwszymi filtrami używanymi w astronomii były kolorowe szkło (Schott lub Corning) lub kolorowa żelatyna (Kodak). Używano ich z emulsjami fotograficznymi do definiowania pasm B, V, R i I. Kolorowe szkła były wytwarzane od tysięcy lat do drogich szklanych naczyń i ozdób. Obecnie kolorowe szkła są wytwarzane jedną z dwóch metod: albo poprzez barwienie jonowe, albo poprzez absorpcję i rozpraszanie zawiesiny cząstek koloidalnych, które są wytwarzane w szkle i kontrolowane pod względem wielkości poprzez obróbkę cieplną po wytworzeniu zasadniczo bezbarwnego szkła. Szkła jonowe powstają poprzez rozpuszczenie w szkle określonych soli (takich jak tlenek kobaltu lub niklu). Jonowe zabarwienie szkieł serii UG (fioletowych) i BG (niebieskich) tworzy krzywą transmitancji widmowej przypominającą krzywą dzwonową o szerokości połówkowej od 100 do 200 nm, ale większość z tych szkieł dobrze przepuszcza również światło czerwone powyżej 700 nm, dlatego szkła fioletowe wydają się fioletowe dla oka. Drugim rodzajem szkła filtracyjnego są filtry o ostrych krawędziach (lub filtry z odcięciem fal krótkich), serie WG, GG (siarka i siarczek kadmu), OG (selenek kadmu) i RG (złote), które absorbują światło niebieskie o dość wyraźnie określonej długości fali. Filtry te mają odcięcia fal krótkich w zakresie od 400 do 800 nm z krokiem 20 nm. Dla oka, okulary WG są zasadniczo bezbarwne, seria GG ma barwę od bezbarwnej, przez jasnożółtą, do ciemnożółtej, OG są pomarańczowoczerwone, a seria RG ma barwę różową do rubinowej. Firma Schott produkuje również dwa specjalne (prawie) bezbarwne szkła (BG39/40 i seria KG), które mogą być używane jako filtry odcięcia fal długich; jednak te szkła mają wolniejsze odcięcia fal długich (powyżej około 250 nm) niż odcięcia fal krótkich (powyżej około 50 nm), co daje asymetryczną krzywą transmitancji widmowej, gdy są stosowane razem do zdefiniowania pasma przepustowego. Tam, gdzie pożądane jest bardziej strome odcięcie, konieczne jest zastosowanie powłoki interferencyjnej krawędzi (patrz poniżej) w połączeniu z filtrem odcięcia fal krótkich Schott. Ważnym zastosowaniem szkieł BG39/40 i S8612 jest również blokowanie "przecieków czerwonego światła", absorbując światło o długości fali powyżej 700 nm, gdzie przepuszcza je większość niebieskich i fioletowych szkieł Schott. Polerowane kryształy siarczanu miedzi lub roztwór siarczanu miedzi były również stosowane w astronomii jako niebieski filtr przepuszczający promieniowanie UV, blokujący przecieki czerwonego światła. Jednak lepsza transmisja promieniowania UV szkła S8612, choć nie tak wysoka jak siarczanu miedzi, pozwoliła mu zastąpić siarczan miedzi w większości zastosowań obrazowania.
Filtry kombinowane i filtry pasmowe
Jonowe szkła kolorowe definiują szerokie, dzwonowe pasma przepustowe w obszarach fioletowym, niebieskim lub zielonym; jednak wybór jest ograniczony. Lepszą rozdzielczość tradycyjnie uzyskiwano poprzez połączenie jednego z tych filtrów z jednym z filtrów szklanych o długim paśmie lub poprzez zastosowanie filtra szklanego o długim paśmie i odcięcia czułości detektora dla pasma czerwonego, na przykład określonej czułości emulsji fotograficznej (O, G, D, E, J, F, N) lub spadku czułości fotokatody (S5, S11, S20, GaAs). Jednak dzięki zastosowaniu detektorów CCD o szerokiej odpowiedzi falowej i ograniczeniu emulsji fotograficznych do szerokopasmowej kliszy Tek Pan, konieczne jest obecnie stosowanie filtrów o zdefiniowanym paśmie przepustowym. Dotyczy to również podczerwieni i ultrafioletu (UV), gdzie w przeszłości okna atmosferyczne były często częściowo wykorzystywane do definiowania krawędzi pasma przepustowego, co powodowało różnice w paśmie przepustowym w zależności od pory roku i wysokości obserwacji. Standardowe pasma przepustowe U, B, V i R można zdefiniować za pomocą samych filtrów szklanych, ale lepsze pasma przepustowe R i I można uzyskać za pomocą filtrów krawędzi interferencyjnych dla czerwonych odcięć. Filtry pasmowe dla SLOAN DIGITAL SKY SURVEY zostały zdefiniowane w ten sposób, przy czym odcięcie krótkofalowe pochodzi z filtra koloru Schotta, a odcięcie długofalowe z filtra krawędzi interferencyjnej. Konieczne jest użycie BG39 z innymi szkłami BG oraz S8612 ze szkłami UG, aby wyeliminować przeciek czerwieni z tych szkieł. Filtry szklane kombinowane były z powodzeniem stosowane z systemami CCD, aby dopasować je do standardowego systemu UBVRI . Grubość szkieł można regulować, aby dostroić pasmo przepustowe dla uzyskania lepszych rezultatów z detektorami o różnej odpowiedzi długości fali.
Rozważania praktyczne
Z praktycznego punktu widzenia, wiele szkieł BG i wszystkie szkła UG są trudne w użyciu. Są trudne do polerowania, łatwo matowieją na powietrzu, a wysokie stężenie jonów w dostępnych szkłach często oznacza, że są kruche, a wymagany niebieski lub fioletowy kolor uzyskuje się z zaledwie cienkiego kawałka (1 mm lub mniej) szkła. Jest to niefortunne, ponieważ oznacza to, że trudno jest wyprodukować dobrej jakości optycznej szklane kanapki o wystarczająco dużym rozmiarze, aby pokryć płaszczyznę ogniskową dużych teleskopów SCHMIDT, w których pożądane jest posiadanie takiego filtra niebieskiego i ultrafioletowego do użytku z nową folią Tek Pan. Jednakże, filtry kwadratowe do 25 cm, odpowiednie do matryc CCD, mogą być łatwo wykonane. Duże kawałki szkła są zazwyczaj niedostępne z magazynu i jeśli zostaną zamówione, muszą poczekać na nowy stop. Niektóre szkła, np. UG2 i BG37, nie są już produkowane.
Filtry o neutralnej gęstości
Chociaż obiekty astronomiczne są zazwyczaj bardzo słabe, czasami konieczne jest osłabienie światła. Seria filtrów Schotta NG zapewnia szeroki zakres tłumienia i jest szczególnie przydatna, gdy lepiej jest absorbować światło niż je odbijać. Jednak tłumienie nie jest szczególnie stałe w zależności od długości fali, a szkła absorbują fale o długości poniżej 400 nm. Dlatego w przypadku obiektów astronomicznych zazwyczaj preferowane jest stosowanie filtrów wykonanych z topionej krzemionki pokrytych stopem metalicznym. Zapewnia to doskonałe tłumienie, które, choć nie jest identyczne dla wszystkich długości fal, jest zazwyczaj wystarczająco bliskie, aby można je było łatwo skalibrować. Te powlekane filtry z topionej krzemionki mogą być stosowane w zakresie od UV do 2 μm. W przypadku fal IR stosuje się podłoża germanowe. Filtry te są również wykonane z klinowym lub radialnym gradientem tłumienia, co jest przydatne w sytuacjach nieilościowych.
Filtry interferencyjne
Technologia powlekania cienkowarstwowego dojrzała, a wielu producentów, wykorzystujących powłoki projektowane komputerowo i sterowane komputerowo linie powlekające, oferuje doskonałe filtry interferencyjne.
Filtry pasmowo-przepustowe
Filtry pasmowo-przepustowe powstają poprzez powlekanie podłoża szklanego lub z topionej krzemionki naprzemiennymi warstwami dielektryków λ/4 (odbijającego) i λ/2 (przepuszczającego), tworząc pojedynczy lub wielokrotny interferometr Fabry′ego-Perota. Odstępy między warstwami mają na celu zwiększenie transmitancji przy interesującej długości fali. Zmieniając współczynniki odbicia, liczbę warstw i liczbę wnęk Fabry′ego-Perota, można modyfikować kształt i szerokość pasma przepustowego. Im więcej wnęk, tym bardziej kwadratowe jest pasmo przepustowe. Kwadratowe pasma przepustowe są pożądane w fotometrii linii emisyjnych, aby zapewnić równomierną odpowiedź w całym polu (zmieniając kąt) i dla zakresu PRĘDKOŚCI RADIALNYCH. Jednak w niektórych celach astronomicznych, takich jak szerokopasmowa fotometria kontinuum, kwadratowe pasma przepustowe nie są pożądane, ponieważ powodują zbyt dużą różnicę w odpowiedzi, gdy dana cecha widmowa przemieszcza się w paśmie i poza nim z powodu różnic prędkości radialnych lub różnic chemicznych i fizycznych między obiektami. Podobnie, kwadratowe pasma przepustowe mogą również powodować duże różnice, gdy filtr zostanie zastąpiony innym, którego pasmo przepustowe nie jest dokładnie takie samo. Z tego powodu w fotometrii kontinuum preferowane są kombinowane filtry szklane lub filtry szklane i interferencyjne. Jednak szybki postęp w technologii powłok, w tym technologii filtrów żłobkowanych, umożliwia obecnie tworzenie pasm przepustowych o dowolnym kształcie i wysokiej przepustowości. Prawdopodobnie filtry interferencyjne w przyszłości będą coraz częściej zastępować większość kolorowych filtrów szklanych. Filtry interferencyjne są produkowane jako szklane kanapki, zwykle umieszczone pomiędzy dwoma kolorowymi szkłami blokującymi. Ze względu na higroskopijny charakter powłok, krawędzie są uszczelniane żywicą epoksydową i zamykane w aluminiowym cylindrze. Filtry mają zazwyczaj grubość od 5 do 10 mm, w zależności od średnicy i producenta.
Przesunięcia w paśmie
Pasmo przepustowe filtru interferencyjnego przesuwa się w kierunku niebieskim, gdy kąt padania odchyla się od normalnej. Może to być przydatne, ponieważ umożliwia dostrojenie filtra w kierunku niebieskim. Zazwyczaj pochylenie o 5 stopni przesuwa centralną długość fali filtra 656 nm o około 0,7 nm, a pochylenie o 10 stopni przesuwa ją o 2,7 nm. Ponieważ większość obrazowania wykonuje się za pomocą wiązki skupiającej, pasmo przepustowe poszerzy się i przesunie w kierunku niebieskim w zależności od f/ teleskopu i położenia w polu. Należy to uwzględnić przy projektowaniu filtrów obrazowania wąskopasmowego. Temperatura również przesuwa pasmo przepustowe wraz ze zmianą odległości między warstwami. Typowe optyczne filtry interferencyjne w temperaturze pokojowej wykazują przesunięcia około 0,003% długości fali szczytowej na °C. Jest to około 10 razy mniej niż w przypadku typowego szklanego filtra krawędziowego, takiego jak GG395 lub OG590.
Filtry krawędziowe
W przeciwieństwie do filtrów pasmowo-przepustowych, filtry krawędziowe nie zawierają wnęk. Zazwyczaj składają się z warstw ćwierćfalowych i modyfikowanych warstw ćwierćfalowych, które tworzą "krawędź" w przestrzeni długości fali, gdy filtr zmienia się z odbicia na transmisję. Filtry krawędziowe krótko- i długoprzepustowe są często używane z filtrami szklanymi długoprzepustowymi do definiowania astronomicznych pasm fotometrycznych. Zwierciadła dichroiczne to filtry krawędziowe stosowane pod kątem 45°. W spektroskopii optycznej są one zwykle używane do odbijania światła niebieskiego w kierunku pewnej granicy do jednego spektrografu i przepuszczania pozostałej części do innego. Często są one również używane do odbijania światła podczerwonego do instrumentu IR i przepuszczania światła optycznego do guidera.
Filtry przestrajalne Fabry′ego-Perota
W dwóch obserwatoriach wprowadzono interferometr Fabry′ego-Perota, który zrewolucjonizował sposób wykonywania wysokowydajnego obrazowania w zakresie od średniego do wąskopasmowego. Umożliwiły to postępy w technikach powlekania, precyzyjna kontrola odstępu między płytkami interferometru oraz innowacyjna technika przesunięcia ładunku w detektorze CCD. Filtr można dostroić w zakresie od 370 do 1000 nm, a rozdzielczość wybrać w zakresie od 100 do 1000. Przy niskich rozdzielczościach (poniżej 300) do blokowania wstęg bocznych można stosować standardowe szerokopasmowe filtry BVRI. Przy wysokiej rozdzielczości (1000) do tłumienia wstęg bocznych potrzebny jest zestaw pośrednich filtrów interferencyjnych. Dzięki temu nowemu instrumentowi dokonano bezprecedensowych obserwacji.
Filtry żłobkowane
Filtr żłobkowany to powłoka interferencyjna, w której współczynnik załamania światła zmienia się w sposób ciągły na całej grubości. Zapewnia to znacznie większą elastyczność w projektowaniu filtra i wyjątkowo wysoki poziom tłumienia. Można wytworzyć wiele pasm przepustowych, na przykład w celu przepuszczania dwóch interesujących linii emisyjnych lub odrzucania określonych długości fal, takich jak najsilniejsze linie emisyjne nocnego nieba lub intensywne linie laserowe dla gogli ochronnych.
Powłoki antyrefleksyjne
Typowe powierzchnie szklane odbijają około 4% normalnie padającego światła widzialnego i bliskiej podczerwieni. Krzem i german odbijają ponad 60%. Aby uniknąć strat światła i problemów związanych z odbitym światłem rozproszonym od jasnych gwiazd i nieba, powłoki antyrefleksyjne są zazwyczaj stosowane na wszystkich elementach optycznych, w tym na filtrach. Powłoki wielowarstwowe mogą być zaprojektowane tak, aby zapewniać wyjątkowo niskie współczynniki odbicia w szerokim zakresie długości fal, ale w przypadku filtrów zazwyczaj wystarczająca jest powłoka jednowarstwowa zaprojektowana dla centralnej długości fali filtra. Najbardziej efektywna pojedyncza warstwa to materiał o grubości λ/4, którego współczynnik załamania światła jest pierwiastkiem kwadratowym współczynnika załamania światła szkła.
Dynamika płynów
Dynamika płynów to poddziedzina mechaniki ośrodków ciągłych, która zajmuje się teorią ruchu cieczy (hydrodynamika) lub gazów (dynamika gazów). Dynamika płynów jest badana teoretycznie, eksperymentalnie oraz za pomocą symulacji numerycznych. Zjawiska ruchu cieczy podlegają dobrze znanym prawom fizyki ośrodków ciągłych: zasadzie zachowania masy, pędu i energii. To, czy te prawa ośrodków ciągłych dokładnie opisują dany układ fizyczny, zależy zarówno od stanu mechanicznego i termodynamicznego układu (tj. jego gęstości, temperatury itp.), jak i od rodzaju i siły oddziaływań jego składników (np. szybkości rozpraszania cząsteczek gazu). Materię obiektów astrofizycznych (np. gwiazdy lub galaktyki) często można przybliżyć jako gaz lub ciecz, tj. równania dynamiki płynów są wystarczające do opisu zjawisk astrofizycznych. W dalszej części, dla uproszczenia, słowo "ciecz" będzie używane jako synonim zarówno cieczy, jak i gazu. Prawa zachowania opisujące ruch płynu można sformułować jako układ nieliniowych równań różniczkowych cząstkowych. Analityczne rozwiązania tego układu równań istnieją jedynie dla uproszczonych, wysoce symetrycznych problemów przepływowych, a teoria matematyczna jest często trudna do zrozumienia. Z tego powodu obserwacje ruchu płynu w naturze, w laboratorium i za pomocą komputerów są również niezbędne do zrozumienia ruchu i zachowania płynów. W astrofizyce narzędzie numeryczne jest często jedynym dostępnym dla badacza narzędziem. Ponadto, ponieważ większość warunków astrofizycznych jest niedostępna w laboratorium, a ruch płynu astrofizycznego może zachodzić w skalach czasowych znacznie dłuższych niż długość życia człowieka lub głęboko wewnątrz obiektów astrofizycznych, symulacja numeryczna jest jedynym sposobem badania takiego ruchu płynu. Badanie astrofizycznych przepływów płynów jest dodatkowo skomplikowane przez wpływ własnej grawitacji, który musi być uwzględniany w wielu astrofizycznych problemach przepływowych, przez ogromny zakres skal długości i czasu, które muszą być uwzględnione w symulacjach, oraz przez szereg innych efektów fizycznych, które często muszą być brane pod uwagę. Do tych ostatnich należą transport promieniowania (fotonów i neutrin), przewodzenie ciepła, chłodzenie radiacyjne, jonizacja i rekombinacja atomów, pola magnetyczne, wytwarzanie energii w reakcjach termojądrowych, prędkości przepływu bliskie prędkości światła i w silnych polach grawitacyjnych oraz właściwości gęstej materii.
Zastosowalność dynamiki płynów
Aby aproksymacja kontinuum dynamiki płynów była prawdziwa, muszą być spełnione dwa wymagania. Po pierwsze, należy założyć, że można pominąć mikroskopowe zachowanie pojedynczych cząstek. Wymaga to, aby λ << L, gdzie λ? jest średnią drogą swobodną zderzeń cząstek, a L jest charakterystycznym makroskopowym wymiarem liniowym układu, czyli skalą, w której funkcja rozkładu znacznie się zmienia. Jeśli powyższe równanie jest prawdziwe, można wprowadzić pojęcie elementu płynu, którego rozmiar liniowy jest mały w porównaniu z L, ale duży w porównaniu z λ. Oznacza to, że liczba cząstek w elemencie płynu jest duża, a zatem średnie wielkości fizyczne, takie jak na przykład gęstość płynu ρ lub prędkość płynu v, mogą być zdefiniowane dla elementu płynu. Prędkość poszczególnych cząstek jest wówczas dana wzorem u = v + w, tj. posiada składową losową w powyżej średniej. Ponieważ jednak λ << L cząstki wykonują jedynie losowy spacer wokół ruchu średniego v, a w konsekwencji element płynu pozostaje dobrze zdefiniowany podczas ewolucji, z wyjątkiem niewielkiej utraty cząstek w pobliżu jego powierzchni, którą w razie potrzeby można dobrze opisać dodatkowym członem dyfuzji w równaniach hydrodynamicznych. Po drugie, siły między cząstkami muszą być nasycające lub "krótkiego zasięgu", ponieważ w przeciwnym razie należy uwzględnić efekty kolektywne. Formalnie można to wyrazić za pomocą wymogu, że energia na cząstkę E/N musi zbliżać się do pewnej stałej wartości, gdy liczba cząstek dąży do nieskończoności. Dla elementu płynu o objętości V można zdefiniować gęstość energii ε ≡ E/V = n(E/N), gdzie n ≡ N/V jest gęstością liczbową, oraz ciśnienie p = n(∂ε/∂n) - ε wywierane na "ściany" ograniczające element płynu. Przykładami sił nienasycających są siły grawitacji i siły elektromagnetyczne, które skalują się jako (∿r-2). W związku z tym grawitacja musi być uwzględniona w równaniach hydrodynamicznych jako makroskopowa siła zewnętrzna. Chociaż siły elektromagnetyczne również mają daleki zasięg, w układach elektrycznie obojętnych ulegają nasyceniu z powodu ekranowania.
Równania dynamiki płynów
Równania dynamiki płynów można wyprowadzić metodą fenomenologiczną lub w ramach TEORII KINETYCZNEJ. W podejściu fenomenologicznym postuluje się pewne zależności między naprężeniem a szybkością odkształcania oraz między strumieniem ciepła a gradientem temperatury, a równania dynamiki płynów wyprowadza się z uniwersalnych praw zachowania masy, pędu i energii. Wymagane stałe proporcjonalności między naprężeniem a szybkością odkształcania oraz między strumieniem ciepła a gradientem temperatury nazywane są współczynnikami transportu i muszą być wyznaczone eksperymentalnie. Równanie wynikające z wymogu zachowania masy w przepływie płynu nazywa się równaniem ciągłości. Zastosowanie prawa zachowania pędu, czyli drugiej zasady Newtona, do płynu prowadzi do równania wektorowego, znanego jako równanie Naviera-Stokesa. Pierwsza zasada termodynamiki, czyli prawo zachowania energii, implikuje równanie dynamiki płynów, które nazywa się równaniem energii. W podejściu teorii kinetycznej równania dynamiki płynów wyprowadzane
są z równania Liouville′a poprzez zdefiniowanie współczynników transportu w odniesieniu do pewnych relacji całkowych, które obejmują dynamikę zderzających się cząstek. Wadą tego podejścia jest konieczność określenia sił międzycząstkowych w celu obliczenia całek zderzeń. Zarówno podejście fenomenologiczne, jak i podejście teorii kinetycznej dają te same równania dynamiki płynów, pod warunkiem przyjęcia równoważnych założeń podczas ich wyprowadzania. Z matematycznego punktu widzenia pięć równań dynamiki płynów tworzy układ sprzężonych nieliniowych równań różniczkowych cząstkowych pierwszego rzędu w czasie i drugiego rzędu w przestrzeni. Opisują one ewolucję gęstości masy ρ, gęstości pędu ρv i (całkowitej) gęstości energii e w czasie i przestrzeni. Oprócz równań ewolucji, aby domknąć układ równań, konieczne jest podanie zależności między właściwościami płynu. Równanie stanu jest przykładem takiej zależności. Wiąże ono zmienne termodynamiczne: ciśnienie p, gęstość ρ i temperaturę T lub gęstość
energii wewnętrznej ε. W wielu astrofizycznych zastosowaniach dynamiki płynów należy uwzględnić dodatkowe równania i/lub dodatkowe terminy źródłowe, które na przykład opisują zmiany składu i wytwarzanie energii w wyniku reakcji jądrowych, dyfuzyjnego transportu materii lub promieniowania (równanie dyfuzji), pola magnetyczne i ich sprzężenie z materią (magnetohydrodynamika), ewolucję pól promieniowania i ich oddziaływanie z materią (hydrodynamika radiacyjna) oraz samograwitację. Ponadto w niektórych zastosowaniach równania zachowania muszą być sformułowane zgodnie ze SZCZEGÓLNĄ lub OGÓLNĄ TEORIĄ WZGLĘDNOŚCI. Postać równań. W tym przypadku równania dynamiki płynów podano bez wyprowadzeń. Różne wielkości występujące w poniższych równaniach są zdefiniowane następująco: u = v + w to prędkość cząstki, v to średnia prędkość płynu, w to fluktuacja statystyczna wokół przepływu średniego, ρ to gęstość płynu, ρv to pęd płynu, a ρε (erg cm-3) to gęstość energii kinetycznej wokół ruchu średniego (tj. energia wewnętrzna).
Równanie ciągłości
∂ρ/∂t + div(ρv) = 0
opisuje zasadę zachowania masy, równanie ruchu Naviera-Stokesa

Opisuje transport (względnego) pędu w przepływie. Równanie energii całkowitej (przy założeniu, że cząstki nie mają wewnętrznych stopni swobody)

ostatecznie opisuje zasadę zachowania energii.
jest tensorem ciśnienia, z którego zwykle oddziela się ślad symetrycznej dyadyki w⊕w, tj. pisze się

gdzie
P≡1/3ρ<|w|2 >
jest izotropowym ciśnieniem płynu (lub gazu)

jest tensorem naprężenia lepkiego, a I jest tensorem jednostkowym.
ε ≡ 1/2|w|2>
jest określoną energią wewnętrzną (erg g-1) i

to strumień ciepła przewodzenia. Operator <> oznacza średnią z jednocząsteczkowej funkcji rozkładu Boltzmanna. W przypadku braku lepkości równanie Naviera-Stokesa sprowadza się do równania Eulera.
∂/∂t (ρv) + div(ρv⊕v) + grad P = -ρgradΦ
W szczególnym przypadku przepływu adiabatycznego równanie energii całkowitej sprowadza się do prostszej formy
∂e/∂t + div[(e + P)v] = - ρvgradΦ
gdzie e = -ρ|v|2+ρε jest całkowitą gęstością energii (erg cm-3).
Reżimy przepływu
Przepływy płynów można jednoznacznie sklasyfikować do różnych reżimów przepływu w zależności od wartości pewnych charakterystycznych bezwymiarowych parametrów przepływu. Różne przepływy o tych samych bezwymiarowych parametrach przepływu nazywane są podobnymi. W zależności od stopnia ściśliwości płynu pod wpływem działających na niego sił, może on być traktowany jako nieściśliwy lub ściśliwy. W pierwszym przypadku równania dynamiki płynów można znacznie uprościć. Jeśli stan płynu jest niezależny od czasu w każdym punkcie przestrzeni zajmowanej przez płyn, przepływ nazywa się stacjonarnym. W przeciwnym przypadku mamy do czynienia z przepływem niestacjonarnym. Dla przepływów stacjonarnych obowiązuje równanie Bernoulliego, które mówi, że suma właściwej energii kinetycznej (|v|2/2) i entalpii płynu jest stała wzdłuż linii prądu. Linię prądu definiuje się jako krzywą, której wektor styczny w każdym punkcie krzywej ma ten sam kierunek, co pole prędkości przepływu w tym punkcie. Jeżeli płyn porusza się z prędkością mniejszą lub większą od prędkości dźwięku, przepływ nazywa się odpowiednio poddźwiękowym i naddźwiękowym. Liczba Macha Ma ≡ |v|/cs , która jest stosunkiem wartości bezwzględnej prędkości przepływu v i prędkości dźwięku cs , jest parametrem charakteryzującym ten aspekt przepływu. Przepływy transsoniczne mają Ma ≈ 1. Przepływy naddźwiękowe dostępne w laboratorium mają liczby Macha Ma ≲ 10, podczas gdy przepływy astrofizyczne mogą być ekstremalnie naddźwiękowe (Ma > 100). Gdy przepływ przyspiesza (zwalnia) od prędkości poddźwiękowej (naddźwiękowej) do naddźwiękowej (poddźwiękowej) w przepływie występują fale uderzeniowe. Fala uderzeniowa to front, w którym występuje niemal nieciągły, skończony skok ciśnienia, z odpowiadającymi mu skokami temperatury, gęstości i innych właściwości płynu. Fale uderzeniowe to fale nieliniowe, których zachowanie jest znacznie bardziej złożone niż zachowanie (liniowych) fal dźwiękowych, które są okresowymi adiabatycznymi zaburzeniami ciśnienia w przepływie. Ze względu na ich nieliniowy charakter, superpozycja liniowa nie ma zastosowania w interakcjach fal uderzeniowych. Przepływy wchodzące w falę uderzeniową pod kątem ukośnym są odchylane od kierunku normalnego. Odchylenie to wynika ze zmniejszenia składowej normalnej prędkości płynu wchodzącego w falę. W związku z tym energia kinetyczna jest rozpraszana w postaci ciepła w fali uderzeniowej, zwiększając entropię płynu. Zasada zachowania masy, pędu i energii musi również obowiązywać w przypadku fal uderzeniowych. Fakt ten można wykorzystać do wyprowadzenia relacji Rankine′a-Hugoniota, wiążących stany płynu po obu stronach fali uderzeniowej. Ponadto rozróżnia się przepływy lepkie i nielepkie lub idealne w zależności od lepkości płynu. Lepkość płynu zmienia się, ogólnie rzecz biorąc, w zależności od stanu termodynamicznego płynu. Z wyjątkiem nadcieczy, lepkość cieczy nigdy nie jest równa dokładnie zero, ale może być na tyle mała, aby w praktyce uznać ciecz za nielepką lub idealną. Ilościowo lepki charakter cieczy określa się poprzez porównanie wielkości oporu lepkości działającego na ciecz z jej bezwładnością. Istotnym parametrem przepływu jest liczba Reynoldsa Re ≡ |v|l/v, gdzie l jest charakterystycznym wymiarem liniowym przepływu, a v jest lepkością kinematyczną cieczy. Przepływy lepkie mają Re < 1. Większość przepływów astrofizycznych ma Re >> 1 (liczby Reynoldsa większe niż 1010 nie są rzadkością), ze względu na duże rozmiary obiektów astrofizycznych. Wspólną cechą przepływów ziemskich, a w szczególności astrofizycznych, jest ich tendencja do spontanicznego przejścia z przepływu laminarnego (tj. gładkiego, regularnego) w turbulentny. Dzieje się tak, gdy liczba Reynoldsa przepływu przekracza wartość krytyczną Recrit, powyżej której efekty bezwładności przeważają nad tarciem, o taką wartość, że przepływ staje się niestabilny na turbulencje. Z eksperymentów laboratoryjnych wynika, że krytyczne liczby Reynoldsa dla w pełni rozwiniętej turbulencji mieszczą się w zakresie 1000 ≲ Recrit ≲ 2000. Według J. O. Hinze "Turbulentny ruch płynu to nieregularny stan przepływu, w którym różne ilości płynu wykazują losową zmienność w czasie i przestrzeni, tak że można rozróżnić statystycznie różne wartości średnie". Ruch turbulentny nie jest nieregularny ani w przestrzeni, ani w czasie, ale w obu. Turbulencja może być generowana przez tarcie o nieruchome ściany ("turbulencja przyścienna") lub przez przepływ warstw cieczy o różnych prędkościach obok siebie lub nad sobą ("turbulencja swobodna"). W rzeczywistych lepkich płynach efekty lepkości powodują zamianę energii kinetycznej przepływu w ciepło, tj. przepływ turbulentny ma charakter dyssypatywny. Zatem, jeśli przepływ nie jest zasilany ciągłą energią, ruch turbulentny zanika. Jeśli turbulencja ma ilościowo tę samą strukturę we wszystkich częściach pola przepływu, mówi się, że jest jednorodna. Jeśli cechy statystyczne nie wykazują preferencji co do żadnego kierunku, turbulencję nazywa się izotropową. W danym punkcie obszaru turbulentnego wyraźny wzór powtarza się mniej więcej regularnie w czasie, a w danej chwili wyraźny wzór powtarza się mniej więcej regularnie w przestrzeni. Ruchy turbulentne, w których można dostrzec wyraźne wzory, opisuje się ilościowo, wprowadzając pojęcie skali turbulencji: określonej skali w czasie i określonej skali w przestrzeni. Ruch turbulentny, oprócz swojej skali, charakteryzuje się gwałtownością lub intensywnością fluktuacji turbulencji, która jest definiowana przez wartość średniokwadratową w′ ≡√w2 losowej składowej w chwilowej wartości prędkości u = v+w względem średniej prędkości przepływu v. Często intensywność turbulencji jest definiowana przez względną intensywność w′/|v|.
Niestabilności przepływów
Przepływy cieczy podlegają różnorodnym niestabilnościom, z których najczęstsze to niestabilność Rayleigha-Taylora, napędzana siłą wyporu, oraz niestabilność Kelvina-Helmholtza, występująca w przepływach ścinających. Niestabilności Rayleigha-Taylora występują na przykład, gdy dwa płyny o różnej gęstości nakładają się na siebie lub są przyspieszane w kierunku do siebie. Zgodnie z liniową analizą stabilności, układ dwóch płynów jest stabilny, jeśli lżejszy płyn znajduje się na powierzchni cięższego płynu. W przeciwnym razie układ płynów jest niestabilny. Niestabilności Rayleigha-Taylora są wszechobecne w przepływach astrofizycznych. Szczególnym przykładem są niestabilności Rayleigha-Taylora indukowane przez propagację fali uderzeniowej przez otoczkę masywnej gwiazdy, która eksploduje jako SUPERNOWA (zapadnięcie się jądra). Ponieważ energia przekazana fali uderzeniowej podczas eksplozji supernowej jest znacznie większa niż energia wiązania masy poza zapadniętym jądrem, grawitacja jest dynamicznie nieistotna dla propagacji fali uderzeniowej przez otoczkę gwiezdną. W tym przypadku niestabilność Rayleigha-Taylora jest napędzana gradientami ciśnienia i gęstości o przeciwnych znakach, przy czym "efektywnym przyspieszeniem" jest (ujemny) gradient ciśnienia. Niestabilności Kelvina-Helmholtza występują zawsze, gdy pole prędkości przepływu ma gradient prostopadły do (lokalnego) kierunku przepływu, tj. w obecności przepływu ścinającego. Niestabilność Kelvina-Helmholtza powoduje zwinięcie warstwy ścinającej. Jest ona odpowiedzialna za powstawanie struktur przepływu w kształcie grzyba, obserwowanych na przykład w dużych eksplozjach atmosferycznych oraz w związku z niestabilnościami Rayleigha-Taylora . W drugim przypadku unoszące się bąbelki i opadające kolce, wynikające z niestabilności Rayleigha-Taylora, powodują przepływ ścinający względem otaczającej materii.
Dynamika płynów i spalanie jądrowe
Wiele z naszej wiedzy z zakresu astronomii i astrofizyki jest nierozerwalnie związane z naszą wiedzą na temat dynamiki płynów i spalania jądrowego. Procesy termojądrowe i wiązanie grawitacyjne to dwa główne źródła energii dla przepływów astronomicznych. Uwolnienie energii w astrofizycznej PLAZMIE powoduje zmienne gradienty ciśnienia, a tym samym ruch płynu. Ten ruch płynu z kolei będzie transportował popioły i paliwo do i ze strefy płomienia. To rodzi subtelny i trudny problem. Stopień trudności problemu jest ściśle związany z naturą sprzężenia między spalaniem jądrowym a przepływem płynu. Szczególne przypadki, w których to sprzężenie jest prostsze, można rozwiązać bardziej wiarygodnie. Po pierwsze, reakcje jądrowe uwalniają energię w postaci promieniowania i energii kinetycznej cząstek; przy gęstościach gwiazd energia ta ogrzewa ośrodek, w którym zachodzą reakcje. Ogrzewanie może modyfikować ciśnienie, a tym samym zmieniać przepływ. Po drugie, reakcje jądrowe zmieniają skład materiału, co z kolei może modyfikować jego równanie stanu i jego nieprzezroczystość, co z kolei może modyfikować ciśnienie i ogrzewanie, a tym samym przepływ. I odwrotnie, przepływ może usuwać popiół i dostarczać paliwo do płomienia, przeciwdziałając naturalnej tendencji płomienia do wyczerpywania się paliwa. W zagadnieniach astrofizycznych występuje wiele różnych rodzajów spalania. Spalanie może obejmować zarówno ciche spalanie hydrostatyczne, takie jak występujące w jądrach większości gwiazd, jak i spalanie wybuchowe, które może występować na przykład w modelach wybuchów supernowych termojądrowych. Spalanie może występować w przepływach laminarnych lub turbulentnych, a ruch płynu jest wywoływany albo przez czynniki zewnętrzne, albo przez samo spalanie. Dlatego należy uwzględnić interakcję między spalaniem a przepływem. Spalanie hydrostatyczne jest najmniej gwałtowną formą spalania i występuje w gwiazdach hydrostatycznych. W tym przypadku szybkość reakcji jest na tyle niska, że energia może być transportowana z obszaru spalania poprzez promieniowanie lub przewodzenie tak szybko, jak jest wytwarzana. Podobnym przypadkiem jest obszar płomienia konwekcyjnego poddźwiękowego, w którym ciepło i popiół są usuwane przez powolną konwekcję, a następnie dostarczane jest nowe paliwo. Detonacje są najgwałtowniejszą formą spalania, z jaką się spotykamy. Detonacje astrofizyczne występują zazwyczaj tylko w warunkach zdegenerowanych. W swojej najprostszej postaci teoria fali detonacyjnej jest łatwa do zrozumienia. Gdy fala uderzeniowa rozprzestrzenia się w niespalone paliwo, spręża i ogrzewa materiał poza punkt zapłonu. Bezpośrednio za falą uderzeniową znajduje się strefa reakcji, w której paliwo się spala. W teorii prostej detonacji szerokość strefy reakcji jest pomijana, a front detonacji traktowany jest jako ostra nieciągłość. W tym przypadku warunki skoku dla zmiany zmiennych płynu na froncie można wyprowadzić w podobny sposób, jak w przypadku prostej fali uderzeniowej. Należy jednak pamiętać, że aby uzyskać stan po detonacji, należy najpierw wybrać prędkość detonacji, ponieważ w przeciwieństwie do prostej fali uderzeniowej, prędkość frontu nie jest określana na podstawie warunków skoku. Prosta teoria detonacji zakłada, że szybkość reakcji jest nieskończona, a strefa reakcji ma zerową szerokość. Nieco bardziej złożone podejście zastosowano w modelu Zeldovicha-von Neumanna-Doeringa. Teoria ta zakłada, że po uderzeniu, które jest nieskończenie cienkie, następuje strefa reakcji o skończonej szerokości. Stan końcowy uzyskany po całkowitym spaleniu paliwa jest dokładnie taki sam, jak w przypadku prostszej teorii opisanej powyżej. Deflagracje stanowią znacznie mniej gwałtowną formę spalania niż detonacje, ale pod wieloma względami są bardziej złożone. Powstają one, gdy spalanie nie jest w stanie wytworzyć wystarczającego nadciśnienia, aby wywołać uderzenie wystarczająco silne, aby zapalić paliwo. Ruch frontu jest zazwyczaj bardzo poddźwiękowy. Spalanie jest inicjowane przez dyfuzyjny transfer ciepła z gorących popiołów za frontem do zimnego paliwa. Chociaż w przypadku cienkiego frontu deflagracje muszą spełniać te same warunki skoku co detonacje, prędkość propagacji zależy teraz od szybkości wymiany ciepła. W porównaniu z detonacjami inną istotną różnicą jest to, że ciśnienie i gęstość maleją za frontem deflagracji, a w układzie odniesienia, w którym front jest nieruchomy, prędkość rośnie. W najprostszej teorii deflagracje opisuje się jako nieciągłości przepływu, które rozprzestrzeniają się poddźwiękowo. Jeśli przepływ jest laminarny, fizycznie dokładniejszym opisem jest przewodzący lub dyfuzyjny płomień laminarny, którego szerokość i prędkość są określone przez tempo generowania energii oraz jej transport i skład. W większości sytuacji jednak nawet ten opis jest zbyt prosty, ponieważ deflagracje lub płomienie poddźwiękowe podlegają różnorodnym niestabilnościom, które mogą znacząco wpływać na ich kształt (marszczenie płomienia) i prędkość rozprzestrzeniania się. Ponadto, ponieważ prędkość rozprzestrzeniania się płomienia jest poddźwiękowa, płomień i przepływ oddziałują na siebie. W szczególności, jeśli spalanie zachodzi w środowisku konwekcyjnym lub turbulentnym, w zależności od odpowiednich skal długości i skal czasowych, należy rozważyć fizycznie zupełnie różne reżimy spalania.
Relatywistyczna dynamika płynów
Niektóre zjawiska astrofizyczne wymagają relatywistycznego sformułowania dynamiki płynów. Specjalne sformułowanie relatywistyczne musi zostać zastosowane, jeśli prędkość przepływu osiąga znaczną część prędkości światła lub jeśli energia wewnętrzna płynu staje się porównywalna z jego masą spoczynkową. Takie warunki występują w strumieniach z kwazarów, aktywnych jąder galaktyk i niektórych zwartych układów podwójnych galaktyk, a także w źródłach rozbłysków gamma. Ogólne przepływy relatywistyczne, w których występują silne pola grawitacyjne i prędkości relatywistyczne, występują w przepływach akrecyjnych na obiekty zwarte, takie jak gwiazdy neutronowe lub czarne dziury, w procesie formowania się lub łączenia gwiazd neutronowych i czarnych dziur, i najprawdopodobniej leżą u podstaw procesów prowadzących do powstawania relatywistycznych dżetów i rozbłysków gamma. Istotną różnicą między newtonowską a relatywistyczną dynamiką płynów jest obecność prędkości maksymalnej, tj. prędkości światła w próżni w tym drugim przypadku. Przepływ może być relatywistyczny na dwa sposoby. W kinematycznie relatywistycznym strumieniu gaz wiązki porusza się z prędkością relatywistyczną, natomiast w termodynamicznie relatywistycznym strumieniu właściwa energia wewnętrzna gazu wiązki jest duża w porównaniu z energią masy spoczynkowej. Szczególne relatywistyczne przepływy astrofizyczne występują w strumieniach pozagalaktycznych . Są to silnie skolimowane naddźwiękowe wypływy z AKTYWNYCH JĄDER GALAKTYCZNYCH. Uważa się, że strumienie pozagalaktyczne powstają w wyniku akrecji masy na centralną obracającą się supermasywną CZARNĄ DZIURĘ w aktywnym jądrze galaktyki, zasilaną gazem międzygwiazdowym i gazem z gwiazd rozerwanych pływowo. Większość modeli (początkowej) kolimacji i przyspieszenia strumieni astrofizycznych uwzględnia procesy magnetohydrodynamiczne na lub w pobliżu wewnętrznej krawędzi obracającego się namagnesowanego dysku akrecyjnego z koroną. Połączone działanie gradientów ciśnienia termicznego i magnetycznego, siły odśrodkowej i grawitacji napędza wypływ, który sam się kolimuje. Efekty ogólnej teorii względności wydają się kluczowe dla pomyślnego wystrzelenia dżetu. Newtonowskie traktowanie dżetów pozagalaktycznych jest uzasadnione jedynie w odległościach większych niż kilka kiloparseków od centralnej czarnej dziury. W mniejszych skalach, a w szczególności w parsekach, dżety rozchodzą się z prędkościami relatywistycznymi. Dlatego, aby poprawnie opisać ich rozchodzenie się, konieczne jest zastosowanie specjalnych symulacji hydrodynamicznych relatywistycznych.
Równania dla idealnych przepływów w szczególnej teorii względności
Równania szczególnej teorii względności dynamiki płynów dla płynu idealnego najwygodniej jest zapisać jako układ równań zachowania:


dla zachowanej gęstości masy spoczynkowej D, gęstości pędu S = (S1, S2, S3) i gęstości energii τ odpowiednio. Zmienne te, zdefiniowane w ustalonym układzie odniesienia, są powiązane z wielkościami w lokalnym układzie odniesienia spoczynku płynu poprzez
D = ρW
S= ρhc-2W2v
τ = ρhW2 - p - Dc2
gdzie ρ, p, v, W, h i c to właściwa gęstość masy spoczynkowej, ciśnienie, prędkość przepływu, współczynnik Lorentza przepływu W = (1?v2/c2)-1/2, entalpia właściwa h = c2 + ε + p/ρ i prędkość światła w próżni.
Numeryczne całkowanie równań dynamiki płynów
W zastosowaniach astrofizycznych zazwyczaj konieczne jest rozwiązanie hiperbolicznego układu równań Eulera dla ciał nielepkich i ściśliwych zamiast parabolicznego układu równań Naviera-Stokesa dla ciał lepkich i ściśliwych, ponieważ (z wyjątkiem fal uderzeniowych) lepkość i przewodzenie ciepła wynikające z procesów fizycznych są często pomijalnie małe. Jednakże, ze względu na błędy obcinania i skończoną rozdzielczość przestrzenną, wszystkie proponowane metody numeryczne do rozwiązania równań Eulera posiadają pewną skończoną lepkość numeryczną, której kształt i rozmiar zależą od metody numerycznej, rozdzielczości siatki i, w pewnym stopniu, od samego problemu przepływu. Wpływ lepkości numerycznej na rozwiązanie można określić ilościowo jedynie poprzez badania rozdzielczości, tj. poprzez przeprowadzenie serii symulacji tego samego problemu przepływu z użyciem różnych rozdzielczości siatki. Symulując przepływ astrofizyczny, znajdujemy się w dziwnej sytuacji, gdy próbujemy rozwiązać nielepkie równania Eulera, a zamiast tego rozwiązujemy pewien wariant lepki, który również różni się od równań Naviera-Stokesa. Równania ewolucji to układ sprzężonych nieliniowych równań różniczkowych cząstkowych pierwszego rzędu (w czasie). Jednym ze sposobów rozwiązania tego układu równań jest ich dyskretyzacja w czasie i przestrzeni. Dzięki tej dyskretyzacji równania różniczkowe cząstkowe są przekształcane w układ sprzężonych nieliniowych równań algebraicznych, które można rozwiązać na komputerze za pomocą odpowiednich technik numerycznych. Równania algebraiczne nie są jednoznacznie określone, ponieważ dane równanie różniczkowe można dyskretyzować na różne sposoby. Oczywiście, staramy się wybrać te układy algebraiczne, które minimalizują błędy obcięcia i posiadają pewne dodatkowe właściwości, takie jak stabilność i spójność. To sedno "sztuki informatyki". Kierując się właściwościami zachowania leżącymi u podstaw równań hydrodynamicznych, matematycy i fizycy stosujący te metody byli w stanie opracować dokładne i stabilne schematy objętości skończonych o wysokiej rozdzielczości. W schematach objętości skończonych (skończony) obszar obliczeniowy jest dyskretyzowany na skończoną liczbę stref lub komórek (zwykle od 102 do 103 na wymiar przestrzenny). Pola skalarne hydrodynamiki (np. gęstość) i składowe pól wektorowych (np. pęd) są aproksymowane przez zestaw wartości dyskretnych, które są (przybliżonymi) średnimi komórkowymi odpowiedniej zmiennej. Czas jest również dyskretyzowany, a ewolucja jest aproksymowana przez serię skończonych kroków czasowych (zwykle od 103 do 105 na symulację). Oprócz schematów objętości skończonych, inna, zupełnie inna metoda jest szeroko stosowana w astrofizyce do całkowania równań hydrodynamicznych. Tą metodą jest wygładzona hydrodynamika cząstek, w skrócie SPH. W metodzie SPH ciecz lub gaz jest opisywany przez skończony zbiór "cząstek" (zwykle od 103 do 105), które poruszają się wraz z przepływem. SPH to metoda swobodnego Lagrange′a, w której gradienty przestrzenne są oceniane bez użycia siatki.
Pola magnetyczne bez sił
W MAGNETOHYDRODYNAMICE (MHD), która opisuje zachowanie płynów w PLAZMACH, pole magnetyczne B wywiera siłę, siłę Lorentza, określoną wzorem F = (1/c)J × B, w odniesieniu do pola i jego gęstości prądu elektrycznego J = (c/4π)∇ × B, gdzie c jest prędkością światła. W wielu przypadkach przewodnictwo elektryczne plazmy jest tak duże, że można je uznać za nieskończone, w takim przypadku prądy elektryczne zmieniają się jedynie pod wpływem indukcyjności płynącej plazmy, z pomijalnym zanikiem omowym. W przypadku braku ruchu plazmy, raz wygenerowane prądy elektryczne utrzymują się bez zaniku. Szczególną postacią takiego stanu równowagi jest taki, w którym gęstość prądu jest równoległa do pola magnetycznego, jak opisano równaniem
∇ x B = αB (1)
Siła Lorentza znika w plazmie, a pole magnetyczne jest nazywane polem swobodnym. W równaniu (1) dopuszcza się, aby współczynnik proporcjonalności ∝ zmieniał się w przestrzeni, pod warunkiem
B ⋅ ∇α = 0 (2)
wymagając, aby α była stała na linii sił, aby równanie Maxwella było spełnione
∇ ⋅ B = 0 (3)
jest spełniony. Pola magnetyczne bez sił są oczekiwane w zewnętrznej atmosferze Słońca, gdzie plazma jest wysoce przewodząca elektrycznie, ale jest tak rzadka, że jej ciśnienie i inne siły masowe można pominąć w porównaniu z typową siłą siły Lorentza, którą pole magnetyczne i jej prąd elektryczny są w stanie wytworzyć. Siłę Lorentza F można zapisać jako F = -∇(B2/8π) + (1/4π) (B ⋅ ∇)B, w odniesieniu do siły nacisku i siły naprężenia, które wzajemnie się znoszą, gdy pole magnetyczne jest wolne od sił. Ciśnienie magnetyczne B2/8π jest miarą wielkości siły Lorentza, jaką pole jest w stanie wywrzeć. Pola magnetyczne bez sił są zatem oczekiwane, gdy stosunek ciśnienia gazu do ciśnienia magnetycznego, oznaczony w literaturze fizyki plazmy jako β, jest znacznie mniejszy niż jedność. Równania (1) i (2) stanowią problem nieliniowy dla pola magnetycznego, z wyjątkiem sytuacji, gdy funkcja ? jest stała. W tym wyjątkowym przypadku równanie (2) jest trywialnie spełnione, a rozwiązanie równania (1) dla pewnej stałej wartości α = α0 można przekształcić w rozwiązanie wektorowego równania Helmholtza
∇2B + α20B = 0 (4)
pod warunkiem spełnienia odpowiednich warunków brzegowych sformułowanych dla danego problemu fizycznego. Literatura astrofizyczna i fizyki plazmy zawiera wiele prac na temat rozwiązań tego liniowego problemu. Ogólny problem nieliniowy nie jest łatwy do rozwiązania i istnieje niewiele znanych rozwiązań. Poniżej pokrótce opiszemy niektóre ogólne właściwości fizyczne pól magnetycznych bez oddziaływania sił. Natura siły Lorentza jest taka, że siła ciśnienia magnetycznego może być równoważona przez siłę naprężenia magnetycznego tylko w pewnym ograniczonym obszarze przestrzeni. Nacisk magnetyczny wywiera siłę skierowaną na zewnątrz, której nie można globalnie ograniczyć wyłącznie siłą naprężenia magnetycznego. Jest to fundamentalna właściwość wyrażona przez relację wirialną Chandrasekhara:

ważne dla dowolnego pola swobodnego B w pewnej objętości V z powierzchnią graniczną ∂V . Jeśli pole swobodne jest samoograniczające, moglibyśmy przyjąć, że objętość V jest całą przestrzenią, w którym to przypadku całka powierzchniowa w równaniu (5) zniknęłaby, ponieważ natężenie pola spadałoby wraz z odległością tak szybko, jak dipolowe pole magnetyczne. Z równania (5) wynika sprzeczność, chyba że B = 0. Ten klasyczny wynik implikuje niemożność stworzenia magnetycznie samoograniczającej plazmy bez sztywnych ścian w laboratorium. W kontekście astrofizycznym ta własność pokazuje, że pola magnetyczne swobodne muszą być zakotwiczone w obszarach, w których pole magnetyczne wywiera niezerową siłę Lorentza na osadzającą się plazmę. W atmosferze słonecznej tylko pole magnetyczne w cienkiej warstwie zwanej fotosferą można zmierzyć z jakąkolwiek użyteczną rozdzielczością przestrzenną. Równanie (5) oferuje sposób oszacowania energii pola magnetycznego w powyższej atmosferze, przyjętej w przybliżeniu swobodnym, w kategoriach zmierzonego pola wektorowego w fotosferze. W tym popularnym modelu objętość V jest często traktowana jako przestrzeń nad fotosferą, traktowana jako nieskończona płaszczyzna. Podstawową motywacją tej pracy modelowania jest wykazanie ilości energii swobodnej, która może być zmagazynowana w równoległych prądach elektrycznych pola bez sił. Uważa się, że zmagazynowana energia jest źródłem ogromnej ilości (∿1031 -32 erg) energii uwalnianej podczas dużego ROZBŁYSKU SŁONECZNEGO. Zastosowanie pól bez sił do atmosfery słonecznej posłużyło do zilustrowania obserwowanych struktur magnetycznych i wyjaśnienia podstawowych zagadnień fizycznych. Zastosowanie zmierzonych pól wektorowych fotosfery jako danych wejściowych jest złożonym i trudnym zadaniem symulacji numerycznej, wynikającym z nieliniowości, trudności związanych z właściwym ustawieniem warunków brzegowych oraz źle postawionego problemu matematycznego. W idealnym przewodniku plazmy elektrycznej strumień magnetyczny jest zamrożony w plazmie, tak że topologia pola nie może zmieniać się w czasie. Jeśli przyjmiemy, że pole magnetyczne, niekoniecznie w stanie równowagi sił, jest dane, a następnie zostanie ono odkształcone przez przemieszczenie osadzonej, idealnie przewodzącej plazmy do ekstremum jej całkowitej energii magnetycznej, wynikiem będzie pole wolne od sił, opisane równaniami (1) i (2), gdzie funkcja skalarna α przyjmuje rozkład przestrzenny, który sprawia, że rozwiązanie B jest topologicznie identyczne z danym polem początkowym.
Powyższy problem wariacyjny jest trudny do rozwiązania, ale ma bardzo interesujące implikacje fizyczne.
Rozwiązanie problemu wariacyjnego może nie być jednoznaczne, w takim przypadku rozwiązania niejednoznaczne można rozróżnić między polami liniowo stabilnymi, które są wolne od sił, a polami liniowo niestabilnymi (patrz NIESTABILNOŚCI MAGNETOHYDRODYNAMICZNE). Liniowa stabilność magnetohydrodynamiczna pól magnetycznych wolnych od sił była szeroko omawiana w literaturze, z ogólnym wynikiem, że sztywne zakotwiczenie linii pola wolnego od sił do podstawy atmosfery zapewnia pewien stopień stabilności, o ile linie sił nie są zbyt długie w atmosferze. Większość pól wolnych od sił badanych w analizach stabilności liniowej to pola jedno- lub dwuwymiarowe. Rozszerzenie na nietrywialną wariację w przestrzeni trójwymiarowej, z wyjątkiem przypadku stałych pól α, jest ograniczone, chociaż znaleziono kilka prostych przykładów, w tym takie o realistycznej geometrii sugerującej obserwowane struktury magnetyczne Słońca. Stwierdzono, że te przykłady są liniowo stabilne. Bardziej interesująca jest możliwość, że ekstremum energii magnetycznej odpowiada polu wolnemu od sił, które koniecznie zawiera magnetyczne nieciągłości styczne, aby spełnić wymóg, że pole wolne od sił ma określoną topologię pola. Matematycznie jest to związane z faktem, że w problemach wariacyjnych zbiór gładkich funkcji minimalizujących dążących do ekstremum niekoniecznie jest zwarty. Jeśli ekstremum pola magnetycznego musi mieć nieciągłość styczną i jest minimalne w energii, pole magnetyczne o tej samej topologii magnetycznej może fizycznie zrelaksować się do takiego stanu, tworząc nieuniknioną nieciągłość styczną. Plazmy fizyczne mają duże, ale skończone przewodnictwo elektryczne, tak że tworzenie się nieciągłości stycznej w takiej plazmie postępowałoby do momentu, aż grubość nieciągłości byłaby wystarczająco mała, aby rezystywność elektryczna, nawet najsłabsza, rozproszyła warstwę. Proces ten jest konsekwencją wysokiej przewodności elektrycznej, która, co zadziwiające, stwarza fizyczne warunki do nieuniknionego rozpraszania prądów elektrycznych. Pomysł ten został zaproponowany przez ENPARKERA jako źródło nagrzewania plazmy w warunkach astrofizycznych. Turbulentna relaksacja MHD plazmy przy dużych magnetycznych liczbach Reynoldsa przebiega poprzez tworzenie magnetycznych nieciągłości stycznych, które rozpraszają się poprzez REKONFEKCJĘ MAGNETYCZNĄ . Ponieważ efekty rezystancyjne są istotne tylko w tych miejscach rekoneksji, zmiana topologii pola magnetycznego przebiega w taki sposób, że jako miara złożoności topologii pola, HELICZNA MAGNETYCZNA jest zachowana w globalnej objętości plazmy, w przeciwieństwie do bardziej rygorystycznego wymogu braku zmian topologii pola. To globalne zachowanie heliczności magnetycznej jest ograniczeniem, które ustala ekstremum całkowitej energii magnetycznej na pole bez sił o stałej ? = ?0, opisane równaniem (4). Wartość ?0 jest następnie ustalana tak, aby liniowe pole swobodne od sił miało zachowaną wartość całkowitej helisy magnetycznej. Stanowi to fizyczną podstawę do odróżnienia liniowych pól swobodnych od nieliniowych. Zastosowanie tej teorii, opracowanej przez B. Taylora, do plazm laboratoryjnych okazało się bardzo skuteczne. Rozszerzenie jej na słoneczne i astrofizyczne pola magnetyczne nie jest proste ze względu na problem zależności helisy magnetycznej od cechowania w przypadku pól magnetycznych, które przekraczają granicę swojej domeny fizycznej.