61 Cygni

Gwiazda 61 Cygni jest ważna ze względu na jej duży ruch własny, po raz pierwszy zmierzony w Obserwatorium w Palermo przez Giuseppe Piazziego (1746-1826). Gwiazda stała się popularnie nazywana "latającą gwiazdą Piazziego". Jej zmierzony roczny ruch własny wynosi 5,23″ jest nadal siódmą co do wielkości znaną gwiazdą i największą gwiazdą widzianą gołym okiem (pozorna jasność 4,8 mag). Ta gwiazda była również pierwszą, której roczna paralaksa została wiarygodnie określona przez Friedricha Bessela (1784-1846). Pomiar Bessela wynoszący 0,314″, wykonany w Königsberg za pomocą 6,25-calowego heliometru Fraunhofera w 1838 r., całkiem dobrze wypada w porównaniu ze współczesną wartością 0,286″. Oznaczenia paralaksy gwiazd wykonane w tym samym roku przez innych obserwatorów były znacznie mniej dokładne. Jest to jedenasta najbliższa gwiazda, znajdująca się w odległości 11,4 lat świetlnych. 61 Cygni jest również dobrze znanym systemem podwójnym, którego okres wynosi 653,3 lat. Jego składniki są obecnie oddzielone o 30,3″ przy kącie położenia 150°. Główna gwiazda 61 Cyg A to pomarańczowy karzeł typu widmowego K5V o pozornej wielkości 5,20 i bezwzględnej 7,5. Jego towarzysz 61 Cyg B jest również pomarańczowym karłem typu widmowego K7V, o jasności pozornej 6,05 i jasności bezwzględnej 8,3. Układ ten jest uważany za najszerzej obserwowaną gwiazdę podwójną, uzupełnioną o kilka tysięcy obserwacji wizualnych ponad 34 000 klisz fotograficznych. Precyzyjne pomiary astrometryczne tych płyt wykazały, że układ ma co najmniej jeden niewidoczny składnik, uważany za planetę o masie podobnej do Jowisza i być może aż trzy, z okresami orbitalnymi od 5 do 12 lat.



Gromady Abella

Gromady Abella to najbardziej rzucające się w oczy skupiska galaktyk zidentyfikowane przez George′a Abella na płytach z pierwszego przeglądu fotograficznego wykonanego za pomocą TELESKOPU SCHMIDT na Mount Palomar w latach pięćdziesiątych XX wieku. Czasami termin gromady Abella jest używany jako synonim pobliskich, optycznie wybranych gromad galaktyk. George Abell stworzył katalog zawierający 2712 najbogatszych takich zgrupowań na niebie północnym, który później rozszerzono na niebo południowe. Nie będzie przesadą stwierdzenie, że całkowita próbka 4076 kandydatów na gromady na całym niebie zrewolucjonizowała badania wielkoskalowej struktury we Wszechświecie. Katalog Abella stworzył podstawę do pierwszych badań ilościowych najgęstszego składnika wielkoskalowej struktury we wszechświecie lokalnym. W ostatnich latach definicja próbek klastrów kandydujących z płyt do badań szerokiego pola została powtórzona za pomocą automatycznych maszyn do skanowania płyt. Pokazało to obiektywnie, że subiektywny czynnik wizualnej selekcji Abella jest dość mały, przynajmniej dla bogatszych i bliższych gromad. Rzeczywistość kandydatów na gromady w katalogu Abella była przedmiotem pewnej debaty, dopóki obserwacje spektroskopowe dużej liczby galaktyk w kierunkach gromad Abella nie wykazały przekonująco, że tylko niewielka część bogatych gromad jest wynikiem przypadkowych superpozycji. Oznacza to, że bardzo duża część kandydatów na bogate gromady w katalogu sporządzonym przez Abella (lub, włączając gromady południowe, przez Abella, Corwina i Olowina) reprezentuje zwarte, zlokalizowane piki w przestrzennym rozmieszczeniu galaktyk, głównie z przesunięciami ku czerwieni mniejszym niż 0,2 i utrzymywane razem grawitacyjnie. Już w latach trzydziestych XX wieku Fritz ZWICKY doszedł do wniosku, że świetlista materia (tj. galaktyki) w gromadach stanowi tylko około 10% całkowitej masy gromady, z czego większość można zatem wykryć jedynie za pomocą jej grawitacji. Doprowadziło to do oszacowania całkowitej masy (zarówno widocznej, jak i ciemnej materii) na różne sposoby. Najczęstsze z nich to prędkości galaktyk w gromadzie, ilość i temperatura gorącego (emitującego promieniowanie rentgenowskie) gazu oraz zniekształcenie obrazów galaktyk w odległości znacznie większej niż gromada przez soczewkowanie grawitacyjne. Przez długi czas kilka lepiej znanych gromad Abell, takich jak te w konstelacjach COMA BERENICES i PERSEUS, kształtowało naszą wizję klas bogatych, zaludnionych gromad. W tym schematycznym widoku bogate gromady są gładkimi, okrągłymi i zwirializowanymi strukturami. Ten wyidealizowany obraz współistniał ze świadomością, że istnieją znaczne różnice w różnych właściwościach gromad Abella. Doprowadziło to do wielu badań tych właściwości i korelacji między nimi, a także do kilku prób opisania powstawania i ewolucji bogatych klastrów. Obecnie zdano sobie sprawę, że klastry nadal tworzą się i ewoluują w obecnej epoce. Wśród właściwości gromad, które można badać i dla których dokonano teoretycznych przewidywań, są kształt 3D (a raczej osiowe proporcje rozkładu galaktyk), skład populacji galaktyk (tj. frakcje galaktyk o różnych typach morfologicznych ), rozkłady jasności galaktyk, szczegółową dynamikę różnych klas galaktyk, dynamiczną podstrukturę i segregację oraz ułamek masy całkowitej składający się z materii barionowej (tj. "zwykłej" materii nukleonowej). Ważnym niedawnym osiągnięciem jest poszukiwanie i badanie gromad galaktyk w bardzo dużych odległościach (tj. przy dużych przesunięciach ku czerwieni), które są "przodkami" lokalnych bogatych gromad w katalogu Abella. W przypadku tych młodszych gromad z dużymi przesunięciami ku czerwieni gromady Abella służą jako lokalna, współczesna populacja referencyjna. Gromady Abella jako podzbiór całej populacji gromad Podczas poszukiwania kandydatów na gromady na płytach Palomar Sky Survey, Abell nie miał informacji o odległościach (lub przesunięciach ku czerwieni) galaktyk. Dlatego wykorzystał rozkład galaktyk w pozornej wielkości, aby wybrać te piki w rzutowanym rozkładzie galaktyk, które naj prawdopodobniej odpowiadają przestrzennie zwartej strukturze. Przyjmując wielkość 10. najjaśniejszej galaktyki jako przybliżoną "świecę standardową", oszacowano przesunięcie ku czerwieni; daje to kąt określony przez ustalony rozmiar liniowy 1,5h-1 Mpc w odległości gromady (gdzie h jest wartością obecnego parametru Hubble′a, wyrażoną w jednostkach 100 km s-1 Mpc-1). W okrągłej aperturze o promieniu równym temu kątowi zliczono liczbę galaktyk o wielkości nie większej niż dwie magnitudo słabszej niż trzecia pod względem jasności galaktyka. Ostatecznie liczbę niepowiązanych galaktyk w aperturze (i do tej samej granicy jasności) oszacowano na podstawie gęstości galaktyk w polach tła bez oczywistych kandydatów na gromady. Skorygowana liczba galaktyk (liczba bogactw, tj. szacowana liczba członków w aperturze powyżej granicy jasności) ma niepewność około 17. Dlatego Abell uznał, że tylko gromady ze skorygowaną liczbą galaktyk wynoszącą co najmniej 50 zostały pobrane w obiektywny sposób z przesunięciami ku czerwieni wynoszącymi 0,1-0,2. W oryginalnym ("północnym") katalogu Abella 1682 z 2712 kandydatów na klastry ma liczbę co najmniej 50. Dolna granica bogactwa musi być stosowana, jeśli korzysta się z katalogu Abella do celów statystycznych. Oczywiście istnieje wiele mniej bogatych klastrów, ale przy większych odległościach przesunięcia ku czerwieni ich kontrast w stosunku do pola jest zbyt niski, aby umożliwić solidne zdefiniowanie statystycznie wiarygodnej próbki. W ostatnich latach obszerne badanie przesunięcia ku czerwieni (ESO Nearby Abell Cluster Survey) zostało przeprowadzone na blisko 6000 galaktyk w około 100 kandydatach na gromady (głównie z południowej części katalogu Abell, Corwin i Olowin) o bogactwie wynoszącym co najmniej 50 i szacowane przesunięcia ku czerwieni mniejsze niż 0,1. Zanieczyszczenie w tych przeglądach przesunięcia ku czerwieni przez galaktyki, które nie należą do głównej gromady, jest dalekie od pomijalnego, tj. około 25%. Jednak większość przeglądów przesunięć ku czerwieni zawiera przestrzennie zwartą gromadę, do której należy co najmniej 50% galaktyk ze zmierzonymi przesunięciami ku czerwieni. Tylko około 10% kandydujących gromad wydaje się być superpozycją dwóch prawie równie bogatych (ale stosunkowo ubogich) systemów przy różnych przesunięciach ku czerwieni wzdłuż tej samej linii widzenia. W przypadku systemów zwartych przestrzennie dyspersja prędkości wykazuje globalną korelację z liczbą bogactw (klastry o większej liczbie bogactw mają średnio większe dyspersje prędkości), ale korelacja jest bardzo szeroka (co najmniej współczynnik 2 w obu wielkościach). Można by sądzić, że niepewność oszacowanych wizualnie zliczeń bogactwa jest za to odpowiedzialna, ale szerokość relacji nie zmniejsza się, jeśli użyje się zliczeń bogactwa opartych na skanowaniu maszynowym zamiast oryginalnych. Dla próbki około 150 gromad Abella z przesunięciami ku czerwieni mniejszymi niż 0,15, masy klastrów obliczono na podstawie względnych prędkości i pozycji galaktyk, zakładając, że twierdzenie wirialne zachodzi w centralnych obszarach gromad. Masy klastrów dość dobrze korelują z dyspersją prędkości, ale rozkłady mas w różnych przedziałach zliczeń bogactwa wydają się w znacznym stopniu pokrywać. Dlatego zastosowanie limitu zliczania bogactwa do próbki gromad Abella (co jest konieczne ze względów praktycznych) indukuje dość rozproszony limit masy. Gromady, a raczej kandydaci na klastry, w katalogu Abella o bogactwie co najmniej 50, są zatem podzbiorem wszystkich klastrów w zakresie mas od około 4×1013 do 2×1015MM⊙. Jednak dla klastrów o rozkładzie prędkości co najmniej 800 km s-1 zasadniczo wszystkie zliczenia bogactwa są większe niż 50. Innymi słowy, wszystkie klastry o rozkładzie prędkości co najmniej 800 km s-1 są zawarte w próbce z graniczna liczba 50, a oszacowanie ich gęstości przestrzennej jest bezstronne. Gromady z pozornymi dyspersjami prędkości większymi niż około 1200 km s-1 okazują się albo superpozycjami, albo mają dużo dynamicznej podstruktury. Wraz z pojawieniem się przeglądów rentgenowskich całego nieba, takich jak te z misji EINSTEIN (HEAO-2) i ROSAT, stało się możliwe konstruowanie kompletnych próbek gromad, dla których strumień promieniowania rentgenowskiego z gorącego gazu w studni potencjału klaster jest większy niż wartość progowa. W ten sposób powstają katalogi klastrów, które zasadniczo różnią się od katalogu Abell, a tym samym są do niego komplementarne, chociaż w pewnym stopniu się pokrywają. Masa gazu rentgenowskiego jest na ogół co najmniej tak duża, jak masa gromad galaktyk, ale łączna masa tych dwóch składników barionowych wynosi zazwyczaj tylko 10-15% masy całkowitej. Kiedy całkowitą masę gromady można oszacować zarówno na podstawie kinematyki galaktyk, jak i temperatury i jasności w promieniach rentgenowskich, te dwa oszacowania ogólnie dość dobrze się zgadzają.

Właściwości populacji galaktyk w gromadach Abella

W przeszłości zaproponowano kilka schematów klasyfikacji klastrów Abella. Wszystkie z nich podsumowują w taki czy inny sposób rozmieszczenie galaktyk w gromadzie pod względem pozycji, wielkości lub typu morfologicznego lub dowolnej ich kombinacji. Przewidywany rozkład galaktyk ma wiele form i waha się między następującymi skrajnościami. Może występować centralna koncentracja jasnych galaktyk, na ogół wczesnego typu, tj. eliptycznych, a często jedną z nich jest galaktyka cD, tj. gigantyczna eliptyczna otoczona rozciągniętą otoczką. Na drugim biegunie znajdują się klastry, które nie mają wyraźnej koncentracji centralnej. W niektórych gromadach rozkład galaktyk jest dość gładki i generalnie gromady te zawierają stosunkowo niewiele galaktyk spiralnych. Kiedy frakcja galaktyk spiralnych jest duża, rozkład galaktyk jest generalnie mniej regularny. Względne frakcje galaktyk wczesnego i późnego typu są skorelowane z liczbą bogactw, co jest przejawem relacji morfologia-gęstość. Ta ostatnia pokazuje wyraźną korelację między względnymi frakcjami galaktyk eliptycznych, soczewkowatych (S0s) i spiralnych, a (lokalną) rzutowaną gęstością galaktyk (a zatem odległością promieniową). S0 mogą stanowić do 50% w centrum, z galaktykami eliptycznymi tuż za nimi i galaktykami spiralnymi około 10%. W zewnętrznych częściach galaktyki eliptyczne są prawie nieobecne, podczas gdy galaktyki spiralne mogą stanowić do 60%. Należy zauważyć, że są to wartości globalne: poszczególne klastry wykazują znaczny rozrzut wokół nich. Chociaż w znacznej części gromad Abell rozkład galaktyk nie jest bardzo regularny lub kołowo-symetryczny, zawsze można wyprowadzić uśredniony azymutalnie rzutowany profil gęstości liczbowej Σ(R), w którym R jest rzutowaną odległością od centrum gromady, tj. najkrótsza odległość między linią widzenia przez galaktykę a centrum gromady. Zaproponowano kilka wyrażeń do matematycznego opisu Σ(R), z których wszystkie mają trzy parametry. Są to centralna wartość Σ(R), tj. ΣR = 0), charakterystyczna długość Rc (odległość, przy której Σ(R) zmniejszyła się o zadany współczynnik, powiedzmy 2) i miarę spadku Σ(R) w częściach zewnętrznych (ogólnie nachylenie logarytmiczne ? Σ(R)). Ostatnio Σ(R) została wyprowadzona dla galaktyk o różnych typach morfologicznych w około 70 bogatych gromadach Abella. W poszczególnych gromadach liczba galaktyk określonego typu jest generalnie niewystarczająca, aby umożliwić dokładne oszacowanie trzech parametrów Σ(R). Odpowiednio łącząc dane dla wielu gromad można porównać reprezentacje Σ(R) dla galaktyk eliptycznych, S0, spiralnych i galaktyk z liniami emisyjnymi (głównie bardzo 'późne' spirale, takie jak Sc i S d, ze zjonizowanym gazem w ośrodku międzygwiazdowym). Innymi słowy, poświęcając szczegółowe właściwości poszczególnych klastrów, uzyskuje się obraz średnio bogatej gromady Abella. Wydaje się, że istnieje wyraźna korelacja między typem galaktyki a Σ(R): charakterystyczna długość Rc znacznie wzrasta od wczesnego do późnego typu galaktyki (od około 0,1 do 0,5 Mpc). Pokazuje to, że galaktyki eliptyczne są rzeczywiście znacznie bardziej skoncentrowane centralnie niż galaktyki spiralne, podczas gdy galaktyki linii emisyjnych tworzą najbardziej rozległą populację. Tym różnicom muszą towarzyszyć różnice w kinematyce galaktyk różnych typów, ponieważ wszystkie klasy galaktyk poruszają się w tym samym potencjale gromady, który w większości determinowany jest przez ciemną materię. Takie różnice kinematyczne są rzeczywiście obserwowane: eliptyczne i S0 wykazują najmniejsze rozproszenie składowej ich prędkości w linii wzroku, a rozproszenie to zmienia się nieznacznie wraz z rzutowaną odległością od środka. Spirale, a w szczególności galaktyki z liniami emisyjnymi, mają większą dyspersję prędkości (nawet o 20-30%), która wyraźnie maleje wraz z większymi rzutowanymi odległościami. Właściwie kinematyka linii emisji galaktyk wskazuje, że nie przeszły one jeszcze przez gęste jądra centralne, co jest prawdopodobnie powodem, dla którego nie straciły one jeszcze gazu emitującego linie w spotkaniach z innymi galaktykami. Łącząc przewidywane rozkłady galaktyk z kinematyką, można oszacować rozkład masy całkowitej (widocznej i ciemnej) za pomocą równania dynamiki gwiazd Jeansa. Porównując rozkład ciemnej materii z jasnością galaktyk, można w zasadzie badać zmiany tak zwanego stosunku masy do światła wraz z odległością od centrum gromady. Może to dać wskazówki dotyczące szczegółów procesu powstawania, takich jak skutki zderzeń galaktyk, rola halo ciemnej materii w galaktykach itp.

Gromady Abella jako sondy kosmologiczne

Kilka właściwości obserwacyjnych gromad Abell zostało wykorzystanych do ograniczenia teorii powstawania wielkoskalowych struktur we Wszechświecie i parametrów w tych teoriach. Właściwości te obejmują rozkład przestrzenny klastrów Abella, ich kształty i masy. Wszystkie one na różne sposoby niosą ze sobą informacje o tym, w jaki sposób największe, dobrze rozwinięte struktury we wszechświecie powstały poprzez wzrost początkowych fluktuacji gęstości materii. Przestrzenny rozkład klastrów Abella przeanalizowano za pomocą dwupunktowej funkcji korelacji ξ(r), tj. ułamka par klastrów z pewną separacją, przekraczającą oczekiwaną liczbę par dla rozkładu losowego, którą wyprowadzono dla skupiska o różnym bogactwie. Ogólnie rzecz biorąc, funkcja korelacji ma postać potęgową: ξ(r) = (r/r0) ; wykładnik γ (około 2) nie wydaje się zależeć od granicznej liczby bogactw, ale wartość długości korelacji r0 tak, i jest większa dla bogatszych klastrów (z charakterystyczną wartością około 20 Mpc). W zasadzie dane te pozwalają wyprowadzić wartość gęstości kosmologicznej, jak również amplitudę widma fluktuacji. Innym aspektem rozmieszczenia bogatych gromad Abella jest to, że generalnie znajdują się one w wierzchołkach, w których spotykają się arkusze i włókna w ogólnym rozmieszczeniu galaktyk. Dlatego rozkład bogatych klastrów był czasami porównywany z rozkładem wierzchołków w tak zwanych teselacjach Woronoja, które są geometrycznymi podziałami przestrzeni. Kształty gromad Abella zostały wyprowadzone z przewidywanych rozkładów galaktyk. Korzystając z pozycji galaktyk niezależnie od typu galaktyk, można obliczyć pozorną eliptyczność gromady. Ogólnie rzecz biorąc, bogatsze klastry są mniej wydłużone niż mniej bogate. Pozorne eliptyczności dla próbki gromady około 100 północnych gromad Abella sugerują, że wydłużone gromady są raczej wydłużone (podobne do cygar) niż spłaszczone. Porównanie tych danych z wynikami numerycznych obliczeń N-ciałowych może zawęzić teorie powstawania struktur. Pełny rozkład mas ograniczonej objętościowo próbki klastrów Abella (tj. jej kształtu i normalizacji) może również dostarczyć informacji dla teorii tworzenia struktur kosmologicznych. Ponieważ próbka gromad Abella o granicznej liczbie bogactw wynoszącej 50 ma raczej źle zdefiniowaną kompletność przy mniejszych masach, należy ograniczyć porównanie między obserwacjami i przewidywaniami do najbardziej masywnych gromad, dla których katalog Abella jest kompletny. Uzyskanie niezależnych informacji dla kilku parametrów w teoriach formacji, które wpływają na właściwości najbardziej masywnych struktur, nie jest wcale trywialne. Wydaje się jednak, że istnieje ogólna zgoda co do tego, że te ostatnie są bardziej zrozumiałe we wszechświecie, w którym gęstość materii jest znacznie mniejsza niż gęstość krytyczna.

Widmo absorpcyjne

Wzór ciemnych linii lub pasm nałożonych na widmo ciągłe. Kiedy ciągłe widmo promieniowania (szeroki zakres długości fal) przechodzi przez ośrodek materialny (na przykład chłodny gaz o niskim ciśnieniu), przy pewnych określonych długościach fal zachodzi selektywna absorpcja. Prowadzi to do serii spadków intensywności (linii absorpcyjnych), które w widocznym obszarze widma wyglądają jak ciemne linie na jasnym tle "tęczowego" pasma kolorów, które obejmuje widmo ciągłe. Fotony promieniowania elektromagnetycznego mogą być pochłaniane przez wzbudzenie radiacyjne, proces, który zachodzi, gdy elektron na jednym z niższych poziomów energetycznych atomu lub jonu absorbuje foton o energii dokładnie równej różnicy energii między tym poziomem a jednym z wyższych poziomów dozwolonych poziomów i w rezultacie przeskakuje (dokonuje "przejścia w górę") z poziomu niższego na wyższy. Ponieważ energia fotonu jest odwrotnie proporcjonalna do długości fali, im większa przerwa energetyczna, tym krótsza długość fali promieniowania, które jest absorbowane, gdy elektron dokonuje określonego przejścia. Elektron zwykle nie pozostaje długo na poziomie wzbudzonym (zwykle 10-8 s). Kiedy spada ponownie, emituje foton lub fotony, które mogą mieć taką samą długość fali jak ta, która została pierwotnie wchłonięta, ale nie muszą (w zależności od tego, czy spada bezpośrednio do swojego pierwotnego poziomu, czy też opada w serii mniejszych kroków). Jeśli spada w serii kroków, z których każdy odpowiada emisji fotonu o niższej energii (i większej długości fali) niż ten, który został pierwotnie zaabsorbowany, całkowita liczba fotonów pierwotnej energii zostanie zmniejszona, a widmo zostanie wyczerpany przy długości fali wejściowej. Co więcej, chociaż wszystkie fotony wejściowe poruszały się zasadniczo w tym samym kierunku (od źródła do obserwatora), ponownie wyemitowane fotony oddalają się w przypadkowych kierunkach. W konsekwencji do obserwatora dociera znacznie mniej fotonów o długości fali absorpcji niż fotonów o innych długościach fal. Powstała linia absorpcyjna jest ciemniejsza niż sąsiednia część widma ciągłego, ale ponieważ niektóre fotony o tej długości fali docierają do obserwatora, nie jest całkowicie czarna. Ponieważ każde dozwolone przejście odpowiada pochłanianiu światła o określonej długości fali, atomy lub jony określonego pierwiastka wytwarzają linie absorpcyjne przy wielu różnych długościach fal, przy czym każdy pierwiastek chemiczny ma swój własny charakterystyczny wzór linii absorpcyjnych "odcisków palców". Linie o najkrótszej długości fali odpowiadają największym przerwom energetycznym (tj. przejściom z najniższego, "podstawowego" poziomu atomu lub jonu). Jeśli elektron pochłonie foton o energii przekraczającej energię jonizacji (lub "potencjał jonizacji"), zostanie usunięty z atomu. Widmo absorpcyjne określonego rodzaju atomu składa się z kilku serii linii odpowiadających różnym dozwolonym przemianom, przy czym granica krótkofalowa szeregu odpowiada energiom fotonów, powyżej których zachodzi jonizacja. Ponieważ fotony jonizujące mogą w zasadzie mieć dowolną wartość energii powyżej energii jonizacji, absorpcja może zachodzić w ciągłym zakresie długości fal, krótszym niż granica serii. Absorpcja tego rodzaju nazywana jest kontinuum absorpcji. Wyraźność ("siła") danej linii zależy od liczby atomów odpowiedniego pierwiastka chemicznego, które mają elektrony rezydujące na poziomie energii, od którego następuje odpowiednie przejście w górę (stopień wzbudzenia). To z kolei zależy od obfitości danego pierwiastka chemicznego (względny udział tego pierwiastka w substancji pochłaniającej) oraz od szeregu innych czynników, w szczególności od temperatury (im wyższa temperatura, tym większy udział elektronów w stanach wzbudzonych). Oprócz wytwarzania absorpcji poprzez przemiany elektronowe (takie jak atomy i jony), cząsteczki mogą również absorbować (lub emitować) promieniowanie, zmieniając swoje stany wibracyjne (ich składowe atomy wibrują względem siebie) lub obracając się (cząsteczka mająca kształt fizyczny , może obracać się wokół określonej osi). Widma absorpcji molekularnej są złożone, a ich różne linie często łączą się w szersze pasma.



Akrecja

Proces, w którym ciało niebieskie zwiększa swoją masę poprzez agregację mniejszych obiektów, które się z nim zderzają. Kilka typów obiektów rośnie przez akrecję. W gwiazdach podwójnych, w których zachodzi wymiana masy, jeden członek rośnie kosztem drugiego; czarne dziury, w tym supermasywne czarne dziury, o których uważa się, że są obecne w aktywnych jądrach galaktyk, również zwiększają swoją masę poprzez akrecję. W obu przypadkach materia gromadzi się poprzez dysk akrecyjny krążący wokół obiektu akrecyjnego. Proces ten jest szczególnie ważny w procesie formowania się planet. Ziarna pyłu w dysku protoplanetarnym (lub proplydzie) wokół młodej gwiazdy zderzają się i łączą, stopniowo budując większe obiekty, które z kolei zderzają się i łączą. Obiekty akreowane w tej początkowej fazie formowania się planet, a ich rozmiary mieszczą się w przedziale od milimetrów do dziesiątek kilometrów, nazywane są planetozymalami. Gdy rozmiar obiektu można zmierzyć w kilometrach, jego własna grawitacja staje się czynnikiem akrecji. Kolizyjne łączenie się planetozymali umożliwia budowanie większych ciał, które nazywane są protoplanetami, obiektami o długości co najmniej tysiąca kilometrów. Późniejsza ewolucja protoplanet przebiega przez wzajemne zderzenia o wzrastającej sile i narastanie fragmentów powstałych w tych zderzeniach. Ciała pozostawione na orbicie gwiazdy po zakończeniu tej ostatniej fazy bombardowania nazywane są planetami.

Dyski akrecyjne

Przez akrecję rozumie się w astrofizyce akumulację materii na ciężki obiekt pod wpływem jego grawitacji. Obiektem może być na przykład gwiazda, czarna dziura lub gwiazda neutronowa. Większość obiektów tego typu jest dość odizolowana, bez dużej ilości gazu wokół, który mógłby zostać wciągnięty przez ich grawitację. W związku z tym zdecydowana większość gwiazd nie wykazuje żadnych oznak akrecji, podczas gdy większość gwiazd neutronowych i czarnych dziur w naszej galaktyce jest z tego powodu nieobserwowalna. Dyski akrecyjne, choć nieco egzotyczne w porównaniu ze zwykłymi gwiazdami lub galaktykami, przyciągają uwagę, ponieważ biorą udział w wielu bardzo widocznych zjawiskach. Obejmują one formowanie się naszego układu planetarnego i pierścieni Saturna, rentgenowskie układy podwójne w naszej galaktyce i skolimowane dżety z protogwiazd i akreujących czarnych dziur. Obserwowalne efekty akrecji mogą wahać się od skromnych do dość dramatycznych. Zależy to od ilości masy narastającej w jednostce czasu, ale jeszcze bardziej od głębokości studni potencjału pola grawitacyjnego akretora. Najprostszym modelem akrecji byłaby swobodna cząstka spadająca promieniowo do akretera z dużej odległości. Jeśli zaczyna się od spoczynku w nieskończoności, dociera do powierzchni R akretera o masie M z prędkością ucieczki ve = (GM/R)1/2. Możemy to również zapisać jako ve/c = (rg/2R)1/2, gdzie rg = 2GM/c2 = 2,8M/M km to promień Schwarzschilda o masie M. Dla gwiazdy neutronowej o M = 1,4M i R = 10 km, na przykład cząstka dotarłaby do powierzchni z prędkością około 30% prędkości światła. Akrecji na obiekty zwarte, w których M/R jest duże, towarzyszy zatem uwolnienie dużych ilości energii. Cząstka swobodna przyciągana do zwartego obiektu z dużej odległości ma tylko niewielką szansę na trafienie. Jeśli jego początkowy ruch nie jest skierowany bardzo dokładnie na obiekt, po prostu zatoczy orbitę i powróci na tę samą dużą odległość. Innymi słowy, przekrój poprzeczny dla akrecji przez wolne cząstki jest mały. Ten sam efekt odgrywa rolę, gdy rozważamy bardziej realistyczny przypadek akrecji gazu i nazywa się go "problemem momentu pędu", omówionym poniżej. Gaz akrecyjny może być na przykład dostarczany przez obłok protogwiazdy w przypadku rosnącej protogwiazdy lub przez gwiazdę towarzyszącą w układzie podwójnym. Jeśli gwiazda akreująca jest gwiazdą neutronową lub czarną dziurą, taki układ podwójny nazywa się UKŁADEM DWUKŁADOWYM PROMIENIOWANIEM RENTGENOWSKIM; jeśli jest to biały karzeł, układ podwójny nazywa się KATAKLIZMOWYM BINARNYM. Wreszcie akrecja jakiejś formy materii międzygwiezdnej na masywną czarną dziurę w jądrze galaktyki tworzy AKTYWNE JĄDRO GALAKTYCZNE (AGN). Prawie wszystkie dyski są tak małe, jak widać z Ziemi, że ich geometrię można wywnioskować jedynie pośrednio. Dyskami, które można obserwować bezpośrednio, są nasz układ planetarny, pierścienie Saturna i galaktyki spiralne. Żaden z nich nie jest jednak typowy dla gazowych dysków akrecyjnych. Nasz Układ Słoneczny jest tylko stałą pozostałością dysku akrecyjnego, który istniał podczas jego formowania. W przypadku pierścieni Saturna cząsteczki tworzące pierścienie również zachowują się bardziej jak cząstki swobodne niż jak gaz. Dyski w galaktykach spiralnych są znacznie bardziej skomplikowane niż dyski gazowe. Ponadto dyski galaktyczne nie są wystarczająco stare, aby od czasu ich powstania nagromadziły się w galaktycznym jądrze. Najlepszą perspektywą na bezpośrednie obserwowanie dysków akrecyjnych są protogwiazdy. Są to największe dyski pod względem średnicy kątowej widziane z Ziemi, a dzięki obecnie rozwijającym się obrazom w podczerwieni i falach milimetrowych o wysokiej rozdzielczości możliwe będą szczegółowe obserwacje ich struktury. Duże "proplydy" (dyski protoplanetarne) zostały sfotografowane w zakresie optycznym przez Kosmiczny Teleskop Hubble′a;. W przypadku układów podwójnych, informacji o rozmiarze, grubości i temperaturze dysku dostarczają zaćmienia. Jeśli układ podwójny jest zorientowany w taki sposób, że Ziemia znajduje się blisko swojej płaszczyzny orbity, dysk i dostarczająca masy gwiazda wtórna zaćmiewają się regularnie, gdy składniki krążą wokół siebie. Kształt krzywej blasku przy różnych długościach fal można następnie wykorzystać do określenia właściwości dysku, takich jak jego rozmiar i temperatura

Temperatury akrecji

Charakterystyczną temperaturą w problemach akrecyjnych jest temperatura wirialna,

Tv = |Φ |/R (1)

gdzie R = 8,314 × 107 erg g-1 K-1 mol-1 jest molową stałą gazową Φ głębokością studni potencjału. W odległości r od masy punktowej w grawitacji newtonowskiej Φ = ?GM/r. Gdyby cała energia kinetyczna uzyskana podczas wpadania do studni potencjału została rozproszona w energię wewnętrzną (ciepło), gaz osiągnąłby temperaturę rzędu Tv. Dla gwiazdy neutronowej Tv ∼2×1012 K, co odpowiada średniej energii cieplnej protonu rzędu 1GeV. Promieniowanie faktycznie obserwowane z systemów akrecyjnych wskazuje na znacznie niższe temperatury. Dzieje się tak dlatego, że plazma termiczna w tej temperaturze emituje energię z ogromną szybkością, znacznie większą niż może być dostarczona przez opadający gaz. Zamiast Tv gaz osiada w niższej temperaturze, tak że rozproszona energia jest z grubsza równoważona przez energię traconą przez promieniowanie. Drugą charakterystyczną temperaturę uzyskuje się przy założeniu, że promieniowanie emitowane jest jakby przez ciało doskonale czarne z powierzchni akreującego obiektu. Przyrównując jasność L = 4πr2σT4 ciała doskonale czarnego o promieniu R i temperaturze TB do energii generowanej przez akrecję z szybkością ˙M (masa na jednostkę czasu) otrzymujemy



gdzie σ = 5,6692 × 10?5 erg cm?2 K?4 s?1 jest stałą w prawie Stefana-Boltzmanna. Rzeczywiste temperatury różnią się od tego, ponieważ emitowane widmo różni się od widma ciała doskonale czarnego, powierzchnia emitująca nie jest równa powierzchni obiektu akrecyjnego lub, w przypadku czarnych dziur, większość energii akrecyjnej jest pochłaniana przez dziurę, a nie niż być napromieniowanym. Mimo to T>B często zapewnia dobrą kolejność i wielkość dla obserwowanych temperatur. Powodem jest to, że w takich przypadkach gaz akrecyjny jest optycznie gęsty, więc w wyniku powtarzających się procesów emisji i absorpcji fotonów energia akrecji jest ponownie przetwarzana na coś w rodzaju widma ciała doskonale czarnego. Dla zmiennych kataklizmicznych, protogwiazd i AGN, T>B ∼ 104-105 K, dla rentgenowskich układów podwójnych około 107K, co odpowiada energii fotonów odpowiednio 1-10 eV i 1 keV. Mogą jednak również zachodzić optycznie cienkie procesy akrecji , wytwarzające fotony o znacznie wyższych energiach.

Ciśnienie promieniowania i granica Eddingtona

Fotony uwalniane przez akreujący obiekt wywierają siłę na akreujący gaz. Poprzez rozpraszanie (lub absorpcję i reemisję) na atomie, jonie lub elektronie, zewnętrzny kierunek fotonu zmienia się na bardziej losowy. Pęd fotonów na zewnątrz jest w ten sposób przenoszony na gaz: promieniowanie wywiera siłę skierowaną na zewnątrz. Jeśli F = L/4π?r2 jest strumieniem energii radiacyjnej w odległości r, a κ nieprzezroczystością gazu (rozpraszanie plus absorpcja), przyspieszenie wywołane tą siłą wynosi grad = Fκ/c. Ta siła jest po prostu równoważona przez przyspieszenie grawitacyjne w kierunku g = GM/r2, gdy jasność L ma wartość zwaną granicą Eddingtona lub jasnością Eddingtona:

LE = 4πGMc/κ. (3)

Stałe źródło fotonów, związane grawitacją, nie może mieć jasności znacznie przekraczającej tę granicę. Przy większej jasności atmosfera źródła jest wydmuchiwana przez promieniowanie (dzieje się tak np. podczas wybuchu NOVA). Wartość jasności Eddingtona zależy od nieprzezroczystości gazu, a tym samym od jego stanu jonizacji. To zależy od masy źródła, ale nie od jego wielkości. W pobliżu zwartego obiektu w rentgenowskim układzie podwójnym gaz jest prawie całkowicie zjonizowany, zwykle o normalnym składzie gwiazdowym, a dominującym procesem promieniowania jest rozpraszanie elektronów, z nieprzezroczystością κ ∼ 0,3 cm2g-1. Granica Eddingtona wynosi zatem

LE ≈ 1,5 × 1038M/M⊙ erg s-1 (4)

W przypadku gwiazdy neutronowej o wielkości 1,4 M jest to jasność około 50 000 razy większa od Słońca. Jeśli ta jasność jest generowana przez akrecję, przyrównanie jej do energii akrecji określa współczynnik akrecji Eddingtona ˙

ME = 4πcR/κ (5)

lub około 1,5 × 10-8M yr-1 dla gwiazdy neutronowej o promieniu 10 km. Gwiazda neutronowa nie może akreować znacznie więcej. Narastające ciśnienie promieniowania zapobiegłoby dalszej akrecji, a gaz gromadziłby się w rozszerzonej atmosferze wokół gwiazdy, zamiast osiadać na powierzchni gwiazdy neutronowej. (Przy założeniu, że promieniowanie pochodzi tylko od fotonów: przy dostatecznie wysokiej temperaturze i gęstości straty energii przez neutrina stają się istotne.) Szybkość akrecji na czarną dziurę może być znacznie większa niż ˙ME. Atmosfera otaczająca dziurę nie jest podtrzymywana u podstawy, ale przepływa przez horyzont. W procesie zabiera ze sobą fotony uwięzione w gazie. W zależności od gęstości takiej atmosfery tempo akrecji może być dowolnie wysokie. Jasność widziana z Ziemi nie staje się jednak dużo większa niż LE.

Dyski

Transfer masy w systemie binarnym


Jako przykład formowania się dysku akrecyjnego rozważ układ podwójny, w którym jedna z gwiazd jest wystarczająco duża, aby wypełnić płat Roche′a, a druga jest gwiazdą zwartą (biały karzeł, gwiazda neutronowa lub czarna dziura). Gwiazda wypełniająca płat Roche′a nazywana jest drugorzędną, ponieważ jest mniej masywną gwiazdą w takich układach podwójnych. Masa wypływa z wtórnego w wewnętrznym punkcie Lagrange′a L1. Orbita hipotetycznej swobodnej cząstki z tego punktu jest pokazana na rycinie 3. Z wyjątkiem punktu bezpośrednio w L1, prędkość orbitalna jest bardzo duża w porównaniu z prędkością dźwięku gazu. W konsekwencji jego tor jest prawie balistyczny, tj. zbliżony do toru cząstki swobodnej. Ponieważ jednak chmury gazu nie mogą przepływać przez siebie, przepływ balistyczny ustaje w pierwszym punkcie przecięcia orbity. Naddźwiękowy względny ruch dwóch części strumienia gazu jest tutaj rozpraszany przez fale uderzeniowe, które ogrzewają gaz i odchylają strumień. Dalsza ewolucja strumienia zależy od dodatkowych czynników fizycznych, takich jak szybkość, z jaką gaz może się ochładzać. Przykład tego, jak może wyglądać strumień po kilku okresach orbitalnych układu podwójnego, pokazano na rycinie 4. Gaz na orbicie zgromadził się w pierścieniu; nowo przybywający gaz jest wprowadzany do pierścienia przez system fal uderzeniowych. Silnie niekołowy ruch gazu ustabilizował się na spokojniejszej orbicie kołowej; większość energii rozproszonej w procesie została wypromieniowana. Pomijając zakłócenia powodowane przez uderzający strumień i przy braku sił lepkości, gaz może krążyć po takich okrągłych orbitach w nieskończoność.

"Problem momentu pędu"

W procesie osadzania się na orbicie kołowej duża część energii jest rozpraszana, ale moment pędu gazu wokół pierwotnego nie zmienił się (pomijając poprawki spowodowane przyciąganiem grawitacyjnym wtórnego). Ponieważ orbita kołowa ma najniższą energię dla danego momentu pędu, gaz może zanurzyć się głębiej w potencjale grawitacyjnym i akreować na pierwotną tylko wtedy, gdy może stracić trochę momentu pędu. Znalezienie procesu, w którym odbywa się to w rzeczywistych układach, nazywa się problemem momentu pędu. Zilustrowaliśmy to tutaj na przykładzie transferu masy w układzie podwójnym, ale ten sam problem pojawia się w przypadku formowania się gwiazd z obłoków międzygwiazdowych lub akrecji gazu na masywnych czarnych dziurach w AGN. W tych przypadkach początkowy moment pędu spowodowany przypadkowy ruch obłoków gazu jest o wiele rzędów wielkości większy, niż może pomieścić akreujący obiekt. Zamiast akrecji bezpośrednio, gaz tworzy dysk, działając jak tymczasowa "orbita parkingowa". Orientacja dysku jest określona przez kierunek wektora całkowitego momentu pędu chmur, podczas gdy czas potrzebny na spiralne przejście gazu przez dysk zależy od procesów rozwiązujących problem momentu pędu.

Lepkie dyski

W wielu przypadkach (nowe karłowate i transjenty rentgenowskie) akrecja na zwarty obiekt ma charakter epizodyczny, w postaci rozbłysków. Rozpad takiego wybuchu dostarcza pewnych informacji na temat czasu akrecji, to znaczy czasu, jaki zajmuje gazowi spiralne przejście od gwiazdy drugorzędnej do akrecyjnej gwiazdy pierwotnej. Na przykład w przypadku nowych karłowatych czas ten wynosi kilka dni, co pokazuje, że proces przenoszenia momentu pędu pozwala na akrecję w ciągu kilku dni lub mniej masy, która jest zaangażowana w wytwarzanie wybuchu. Chociaż rzeczywiste liczby zależą od modelu, obserwacje te wskazują, że transport momentu pędu jest o 12-15 rzędów wielkości bardziej wydajny niż oczekiwano na podstawie naturalnej lepkości gazu. Proces odpowiedzialny za przenoszenie momentu pędu w dyskach nie jest do końca znany. W obliczu tej niepewności teoria dysków akrecyjnych przyjmuje arbitralne założenie dotyczące procesu transportu momentu pędu. Zakłada się, że dysk zachowuje się w efekcie jak płyn o bardzo dużej lepkości. Taka zwiększona lepkość rzeczywiście rozwiązuje problem momentu pędu. Jako eksperyment myślowy rozpocznij od pierścienia gazu krążącego w pewnej odległości od źródła potencjału grawitacyjnego. Lepkie naprężenie między sąsiednimi orbitami obracającymi się z nieco inną prędkością powoduje, że pierścień rozszerza się zarówno na zewnątrz, jak i do wewnątrz, tworząc dysk. To rozprzestrzenianie się ma niezwykłą właściwość: jeśli jest wystarczająco dużo czasu, prawie cała masa gromadzi się na centralnym obiekcie. Niewielka ilość masy w zewnętrznych częściach dysku rozszerza się w nieskończoność, przenosząc prawie cały moment pędu pierwotnego pierścienia. Czas rozprowadzenia na określoną odległość jest odwrotnie proporcjonalny do lepkości. Charakterystyczną prędkością w dysku jest izotermiczna prędkość dźwięku cs = (RT )1/2, gdzie T jest temperaturą w płaszczyźnie środkowej dysku (powierzchnie są chłodniejsze). Częstotliwością charakterystyczną jest częstotliwość orbitalna Ω. Nieznaną lepkość dysku ν można następnie zmierzyć za pomocą bezwymiarowej lepkości α, określonej przez

ν = αc2s/Ω . (6)

Tam, gdzie dostępne są wskazania obserwacyjne, takie jak czas zaniku wybuchu, wskazują one lepkości w zakresie α = 10-3-1. Takie wartości są następnie wykorzystywane przy dokonywaniu teoretycznych szacunków struktury dysków akrecyjnych. Założenie, że procesy transportu momentu pędu można przedstawić równaniem (6), gdzie α jest czymś rzędu jedności, nazywa się α-lepkością założenia.

Cienkie dyski

Dyski akrecyjne są zwykle chłodne, ponieważ czasy akrecji są długie i jest wystarczająco dużo czasu, aby wypromieniować rozproszoną energię grawitacyjną. Jeśli są chłodne, wpływ ciśnienia gazu jest niewielki. Aby to zobaczyć, rozważmy równanie ruchu gazu doskonałego w potencjale grawitacyjnym o masie punktowej M, Φ = ?GM/r:



gdzie v to prędkość, ρ gęstość masy, a p ciśnienie gazu. W odległości r0 charakterystyczna skala czasu t0 jest odwrotnością częstotliwości Keplera, t0 = Ω-1 = (r30/GM)1/2. Wprowadzając wielkości bezwymiarowe t′ = t/t0, r′ = r/r0, ∇ = r0∇, v′ = v/Ωr0, równanie ruchu dla gazu o temperaturze T przyjmuje postać



gdzie   jest wektorem jednostkowym w kierunku promieniowym, a Tv temperaturą wirialną wprowadzoną powyżej. Dla procesów zachodzących w skali długości r0 i skali czasu t0 wyrazy w tym równaniu są rzędu jedności, z wyjątkiem członu ciśnienia, który obejmuje współczynnik T/Tv. T/Tv jest rzędu jedności, jeśli cała rozproszona energia pozostaje w gazie, ale gdy chłodzenie jest skuteczne, może być bardzo mała. Składnik ciśnienia jest wtedy mały, a gaz przepływa balistycznie w potencjale . Dysk z T/Tv << 1 obraca się w przybliżeniu po kołowych orbitach Keplera. Ruch orbitalny jest naddźwiękowy, z liczbą Macha M = Ωr/cs ∼ (Tv/T )1/2. Grubość dysku oblicza się, biorąc pod uwagę pionowy rozkład gazu na pewnej odległości r0, zakładając, że znajduje się on w równowadze hydrostatycznej w ramie obracającej się z prędkością keplerowską Ω(r0). Gaz izotermiczny j∼est następnie rozprowadzany na wysokości z nad płaszczyzną orbity jako ρ ˜ exp[?1/2(z/H)2], gdzie H jest wysokością skali, H = r0(T /Tv)1/2 = cs/Ω . Jeśli straty promieniowania są małe, dysk jest gorący, a współczynnik kształtu H/r0 jest rzędu jedności. Z drugiej strony wydajnie promieniujące dyski są chłodne i geometrycznie cienkie, H/r << 1. Przy założeniu H/r << 1 równania hydrodynamiczne dla osiowosymetrycznego, płaskiego, lepkiego dysku są proste. Do najniższego rzędu radialne równanie ruchu redukuje się do v? = Ωr. Azymutalne równanie ruchu można połączyć z równaniem ciągłości w jedno równanie rządzące gęstością powierzchniową

(9)

Zgodnie z oczekiwaniami równanie to jest typu dyfuzyjnego. Pokazuje, że dla chłodnego dysku wszystkie czynniki fizyczne wpływające na ewolucję dysku wchodzą tylko przez lepkość ?. Ta lepkość zawiera oczywiście również większość założeń dotyczących nieznanych procesów. Zwykle potrzebne są dodatkowe równania, aby określić, w jaki sposób chłodzenie radiacyjne wpływa na strukturę temperatury dysku, od której zależy ?. Dla stałej akrecji i niezbyt blisko centralnego obiektu, szybkość akrecji jest związana z lepkością o ˙

M ≈ 3πνΣ . (10)

Wysoka lepkość implikuje niską gęstość powierzchniową, ponieważ masa akrecyjna spędza niewiele czasu w dysku. Charakterystyczny czas ta dla gazu orbitującego w odległości r do akrecji to lepka skala czasu,



W przypadku chłodnych dysków jest to dużo w porównaniu z orbitalną skalą czasu. Z drugiej strony, długa skala czasowa oznacza, że dysk ma dużo czasu na ochłodzenie przez promieniowanie, więc w mechanizmie, który ustala temperaturę dysku, występuje pewna kolistość. W danej sytuacji (masa centralna, odległość) o temperaturze dysku decyduje szybkość przyrostu masy i dominujący proces chłodzenia. W niektórych przypadkach dyski mogą istnieć w jednym z dwóch stabilnych, stale akreujących stanów: chłodnego z długimi czasami akrecji i gorącego z krótkimi czasami akrecji. W innych przypadkach okazuje się, że modele dysków są niestabilne dla pewnych szybkości przenoszenia masy, oscylując między stanami wysokiej i niskiej akrecji. Szczegóły procesów chłodzenia określają, kiedy takie wielokrotne stany akrecji istnieją (patrz "Procesy radiacyjne, akrecja dwutemperaturowa" poniżej).

Niestabilność dysku

Pionowa struktura dysku jest zdeterminowana potrzebą transportu lepko rozproszonej energii do powierzchni promieniujących. Dla danej gęstości powierzchniowej Σ ta struktura określa temperaturę i lepkość dysku. W warunkach, w których proces transportu energii zmienia się szybko wraz z temperaturą, naprężenie lepkie ?Σ może zależeć niemonotycznie od powierzchniowej gęstości masy, w postaci "krzywej S", jak pokazano na rycinie 5. Jeśli średnia szybkość akrecji, która jest narzucona (na przykład przez gwiazdę wtórną przenoszącą masę) mieści się w zakresie, w którym Σ maleje wraz ze wzrostem v Σ (porównaj równanie (10)), dysk jest niestabilny. Zamiast równomiernej akrecji, wykonuje cykl graniczny, naprzemiennie między stanami wysokiej i niskiej akrecji. Zwykle warunki takie jak na rycinie 5 występują tylko w ograniczonych obszarach dysku, na przykład w obszarze częściowej jonizacji wodoru. Jeśli jednak ten region zawiera wystarczającą masę, cykl graniczny wpłynie na cały dysk. Uważa się, że jest to przyczyną wybuchów nowych karłowatych w zmiennych kataklizmicznych.

Procesy przenoszenia momentu pędu

Historycznie pomysł, że w dyskach istnieje jakaś forma turbulencji hydrodynamicznych, odegrał znaczącą rolę. Było to już częścią koncepcji Kanta i Laplace′a, którzy sugerowali, że Układ Słoneczny powstał z początkowo gazowej chmury przypominającej dysk. Jeśli ?m jest mikroskopową lepkością gazu, liczba Reynoldsa r2/?m w dysku akrecyjnym jest bardzo duża, co w mechanice płynów nazywa się sytuacją "gwałtownej turbulencji" (gdzie wysokie liczby Reynoldsa i turbulencje są uważane za równoważne). Zakłada się, że przepływ ścinający w dysku byłby niestabilny i przekształciłby się w turbulencję, jak w przepływach ścinających w laboratorium. Zostało to zakwestionowane w społeczności astrofizycznej ze względu na fakt, że przepływ w chłodnym dysku jest zbliżony do orbit Keplera, które są bardzo stabilne. W chwili pisania tego tekstu kwestia ta jest nadal kontrowersyjna, ale wydaje się całkiem możliwe, że przepływ gazów keplerowskich w rzeczywistości nie powoduje turbulencji hydrod∼ynamicznych. Ściśle analogicznym przypadkiem laboratoryjnym jest wirujący przepływ Couette′a. Co istotne, ten eksperyment nie wykazał turbulencji dla warunków odpowiadających dyskowi akrecyjnemu, w którym częstotliwość rotacji maleje wraz z odległością, ale właściwy moment pędu wzrasta (chociaż turbulencje obfitują w inne wartości parametrów). Próby wykazania turbulencji w tym przypadku za pomocą badań analitycznych lub symulacji numerycznych eksperymentu również zakończyły się niepowodzeniem. Wśród procesów, o których wiadomo, że działają, są spiralne fale uderzeniowe. W dużym dysku (w tym sensie, że promień zewnętrzny jest znacznie większy niż promień wewnętrzny) małe zaburzenie ściskające rozchodzące się do wewnątrz zmienia się w słabą falę uderzeniową. Rozproszenie podczas wstrząsu tłumi falę, ale ponieważ fala rozchodzi się również w przepływ o rosnącej prędkości, interakcja między falą a średnim przepływem przez wstrząs zwiększa jego amplitudę. W przypadku braku innych procesów tłumiących falę, szok o skończonej sile rozwija się dzięki równowadze między rozproszeniem wstrząsu a pobraniem energii ze średniego przepływu. Proces ten wytwarza niewielką ilość transportu momentu pędu, odpowiadającą α = 0,01(H/r)3/2. W przypadku dysków protogwiazdowych mieści się to w zakresie wartości wywnioskowanych z obserwacji, ale jest zbyt niskie dla zmiennych kataklizmicznych i rentgenowskich układów podwójnych. Jeśli dysk jest na tyle masywny, że grawitacja własna jest ważna, możliwy jest transport momentu pędu przez niestabilność grawitacyjną. Wewnętrzne tempo wzrostu niestabilności grawitacyjnej jest rzędu (2πG?)1/2. Jeśli jest większa niż szybkość ścinania ?Ω, niestabilność dysku może wzrosnąć; jeśli jest mniejszy, potencjalne perturbacje zostają rozerwane, zanim będą mogły się rozrosnąć. W odniesieniu do charakterystycznej masy dysku Md = 2π?r2ρH warunek ten można zapisać jako Md > MH/r. Takie dyski nazywane są samograwitującymi. Własna grawitacja jest ważniejsza w chłodnych dyskach o małym współczynniku proporcji H/r. Przy przyjętych lepkościach można oszacować masy dysków w obserwowanych układach. W przypadku rentgenowskich układów podwójnych i zmiennych kataklizmicznych okazują się one dość małe, mniejsze niż 10-8 M⊙ , a grawitacja własna nie ma znaczenia. Natomiast w zewnętrznych częściach dysków w AGN, a w szczególności w dyskach protogwiazdowych, istotna może być grawitacja własna. W takim przypadku rozważmy chłodzenie dysku przez promieniowanie, tak że H/r maleje z czasem. Po osiągnięciu progu niestabilności powstają nieosiowosymetryczne nieregularności o skalach długości rzędu H, które wywierają na siebie siły. Przepływ ścinający działający na te siły rozprasza energię, która z kolei ogrzewa dysk. Równowaga zostaje osiągnięta w temperaturze tuż powyżej progu niestabilności grawitacyjnej, a moment pędu jest przenoszony przez siły grawitacji i ciśnienia między zaburzeniami. Proces ten prawdopodobnie będzie ważny w przypadku młodych dysków protogwiazd, o masach rzędu kilku procent masy Słońca. Obecnie ulubiony proces dysków niegrawitujących polega na tym, że większość dysków jest częściowo lub całkowicie zjonizowana, a zatem wspiera pola magnetyczne. Możliwość, że rzeczywisty transport momentu pędu w dyskach jest wykonywany przez jakąś formę pola magnetycznego o małej skali, została już zaproponowane przez Shakura i Sunyaev wraz z wprowadzeniem przez nich założenia α-lepkości. Można wykazać, że początkowo słabe pole magnetyczne w dysku akrecyjnym jest niestabilne, a jego gęstość energii rośnie poprzez pobieranie energii z przepływu ścinającego. Matematyka tego procesu została obliczona około 1960 roku przez Velikhova i Chandrasekhara, jego fizyczną interpretację podali Fricke w 1972 roku, a jego znaczenie dla dysków akrecyjnych ostatecznie zrealizowali Balbus i Hawley w 1992 roku. Liczne trójwymiarowe symulacje numeryczne od tego czasu pokazały, jak ta niestabilność daje powstanie postulowanej wcześniej turbulencji magnetycznej. Dla wystarczająco zjonizowanych dysków proces daje efektywną lepkość α ˜ 0,1. Jest to pole magnetyczne o małej skali, ze skalą długości w kierunku promieniowym rzędu grubości dysku H i wydaje się zachowywać z grubsza zgodnie z oczekiwaniami procesu lepkiego. Wydaje się, że pole magnetyczne przełamuje ograniczenia dynamiczne, które zapobiegają turbulencji przepływu keplerowskiego za pomocą środków czysto hydrodynamicznych. Pod pewnymi względami proces ten przypomina zaproponowaną wcześniej turbulencję hydrodynamiczną, ale różni się też w ważnych aspektach. Na przykład transport momentu pędu jest zdominowany przez naprężenia magnetyczne (Maxwella), a nie przez ruchy płynu.

Planety wewnątrz dysków

Planety wyrastają z dysku protogwiazdy w tym samym czasie, w którym powstaje gwiazda . Planeta taka jak Jowisz jest wystarczająco masywna, aby znacząco wpłynąć na dynamikę tego dysku. Dzięki efektowi pływowemu usuwa szczelinę, obszar o niskiej gęstości gazu wokół swojej orbity, jak pokazano na rycinie 6. Siła pływowa wzbudza fale w dysku, które rozchodzą się z dala od planety. Poprzez siły pływowe, planeta przyciąga gaz z boków szczeliny, który gromadzi się na niej w postaci dwóch strumieni. Z drugiej strony dysk wywiera również na planetę moment grawitacyjny. Pod wpływem tej siły zmienia się moment pędu planety. Porusza się na inną orbitę, zwykle bliżej gwiazdy. Planety w naszym Układzie Słonecznym prawdopodobnie nie znajdują się zatem w odległościach, w których rozpoczęło się ich formowanie. Ekstremalnym przykładem tego procesu "dryfujących planet" mogą być masywne planety obserwowane na bardzo ciasnych orbitach wokół niektórych pobliskich gwiazd

Procesy radiacyjne, akrecja dwutemperaturowa

Promieniowanie wytwarzane przez dysk zależy od jego grubości optycznej τ . Energia uwolniona w dysku w wyniku rozpraszania lepkości, na jednostkę powierzchni i czasu, w odległości r od centralnej masy M jest rzędu W = GMM˙/r3. Ciepło to rozprasza się przez promieniowanie. Jeśli τ (dokładniej grubość optyczna dla procesów absorpcji) jest duże, promieniowanie emitowane na powierzchnię jest w przybliżeniu widmem ciała doskonale czarnego. Przybliżona temperatura powierzchni Ts chłodnego optycznie grubego dysku jest następnie określona równaniem (2), gdzie R zastąpiono odległością r. Jeśli akrecja jest stała, tak że ˙M jest niezależne od r, przewidywana temperatura zmienia się jako r-3/4. W przypadku dysków protogwiazdowych i dysków w zmiennych kataklizmicznych temperatury te są zbliżone do normalnych powierzchni gwiazd, a te same procesy promieniowania decydują o szczegółach emitowanego widma. Podczas akrecji czarnych dziur i gwiazd neutronowych przewidywane temperatury s∼∼ą rzędu 1 keV (107 K). Rzeczywiście, widma rentgenowskie tych obiektów często pokazują składową, która zgadza się z tą prognozą. Zwykle jednak występuje dodatkowy twardy składnik znacznie bardziej energetycznych fotonów, około 100 keV. Często dominuje w promieniowanej energii. W tych układach podwójnych znajduje się dodatkowy składnik plazmy akrecyjnej, który zachowuje się inaczej niż optycznie gruby dysk. Dokładna natura tej plazmy jest jednym z klasycznych problemów astronomii rentgenowskiej, który w chwili pisania tego tekstu nie został całkowicie rozwiązany. Z obserwowanego widma wydaje się, że jest to plazma termiczna o niewielkiej grubości optycznej (τ ˜) i temperaturze około 100 keV, znacznie wyższej niż chłodny dysk. Głównym procesem wytwarzania twardych fotonów w takich warunkach jest odwrotne rozpraszanie Comptona miękkich fotonów przez gorące elektrony. W sąsiedztwie czarnych dziur i gwiazd neutronowych akrecja jest możliwa nie tylko przez chłodny optycznie gruby dysk. Teoria przewiduje również możliwość akrecji poprzez stan gorący (por. omówienie powyżej w części "Cienkie dyski"). W tym stanie protony mają temperaturę zbliżoną do temperatury wirialnej, podczas gdy elektrony są znacznie chłodniejsze. Przepływ akrecyjny jest geometrycznie gruby (H/r ˜ 1), ale optycznie cienki. W tych warunkach oddziaływania kulombowskie między jonami i elektronami mogą być powolne w porównaniu z czasem akrecji (w zależności od szybkości akrecji i parametru lepkości). Ponieważ elektrony promieniują znacznie wydajniej i są nieefektywnie ogrzewane przez jony, pozostają znacznie chłodniejsze niż jony: plazma akrecyjna nie jest w równowadze termicznej. Szybkość interakcji Coulomba maleje wraz ze wzrostem temperatury elektronu, podczas gdy straty promieniowania przez odwrotny Compton i promieniowanie synchrotronowe rosną. W przepływie o niewielkiej głębokości optycznej odwrotne straty Comptona rosną wykładniczo powyżej około 100 keV, więc jest to nieco naturalna temperatura aby spodziewać się emitowanego promieniowania. Możliwość takiego dwutemperaturowego przepływu akrecyjnego w celu wyjaśnienia twardych widm rentgenowskich układów podwójnych została już zaproponowana na początku ery astronomii rentgenowskiej. Geometria takiego przepływu i charakter jego interakcji z komponentem chłodnego dysku są jednak nadal niepewne.

Dżety z dysków

Wydaje się, że większość systemów z dyskami akrecyjnymi jest zdolna do wytwarzania silnie skolimowanych wypływów zwanych dżetami, przynajmniej w niektórych okresach swojego istnienia . Dżety z relatywistyczną prędkością przepływu są znane z akrecyjnych czarnych dziur, zarówno dziur o masie gwiazdowej w rentgenowskich układach podwójnych, jak i masywnych dziur w AGN. Dżety o mniejszych prędkościach są wytwarzane przez protogwiazdy. Są również znane z co najmniej jednej akrecyjnej gwiazdy neutronowej (Cir X-1) i akrecyjnego białego karła (R Aqr). Związek między dyskami i dżetami jest zatem sugestywny, ale jednocześnie zagadkowy. Chociaż dżety zawsze wydają się być kojarzone z systemami akrecyjnymi, w których istnieją bezpośrednie lub pośrednie dowody na istnienie dysku, nie wszystkie systemy z dyskami wytwarzają dżety lub nie zawsze. Dobrym przykładem są OBIEKTY HERBIG-HARO wytwarzane przez dżety z protogwiazd, które wyraźnie pokazują, że dżety w tym przypadku są epizodyczne lub wysoce zmienne w czasie.

Podsumowanie typów dysków

W skali gwiezdnej dyski są wytwarzane w układach podwójnych przez przelewanie się gazu z jednego ze składników na drugi. Rozmiary tych dysków są tak duże, jak normalne gwiazdy, od kilku dziesiątych do kilku promieni słonecznych. Jeśli gwiazda pierwotna (gwiazda odbierająca masę) jest białym karłem, tak jak w zmiennych kataklizmicznych, wewnętrzne części dysku promieniują głównie w zakresie UV, a zewnętrzne w świetle widzialnym. Przenoszenie masy przez te dyski jest często niestabilne, powodując wybuchy nowych karłowatych. Jeśli pierwotną jest gwiazda neutronowa lub czarna dziura o masie gwiazdowej, wewnętrzny dysk promieniuje w promieniach rentgenowskich. Transfer masy w tych dyskach jest również niestabilny przy niskich szybkościach transferu, powodując tak zwane miękkie transjenty rentgenowskie. Czasami wytwarzają dżety z relatywistycznymi prędkościami. Dyski wokół gwiazd w procesie formowania, dyski protogwiazdowe, są znacznie większe (około 100 jednostek astronomicznych). Ich wewnętrzne regiony promieniują w zakresie widzialnym, a zewnętrzne w zakresie fal radiowych i podczerwonych. Prawdopodobnie są również niestabilne, powodując wybuchy FU Ori i są związane z dżetami i obiektami Herbiga-Haro. Dyski w AGN obracają się wokół masywnych ((106-109)M ) czarnych dziur w centrach aktywnych galaktyk. Ich centralne obszary promieniują zarówno w zakresie UV, jak i rentgenowskim i często wytwarzają relatywistyczne dżety obserwowane w dwupłatowych źródłach radiowych. Ich rozmiary są nieco niepewne, ale prawdopodobnie rzędu parseka lub większe. Dyski są również widoczne wokół BE STARS. Uważa się, że masa w tych dyskach jest powoli wyrzucana przez szybko obracającą się gwiazdę. Niektóre z ich właściwości są podobne do dysków akrecyjnych, ale z masą raczej odpływającą niż akrecyjną na gwiazdę. Czasami nazywane są dyskami wydalającymi lub wydalającymi.





Aktywne jądra galaktyczne: zmienność

Badania zmienności miały zasadnicze znaczenie dla zrozumienia fizyki AKTYWNYCH JĄDR GALAKTYCZNYCH, AGN, ponieważ rozmiar obszaru emitującego ogromną ilość energii charakterystycznej dla AGN jest zbyt mały, aby można go było rozdzielić nawet za pomocą istniejących lub planowanych INTERFEROMETRÓW optycznych/podczerwonych (IR). AGN emitują promieniowanie kontinuum pochodzące z okolic CZARNA DZIURA. Emitują również intensywne i szerokie linie emisyjne pochodzące z szybko poruszających się chmur gazu znajdujących się w małym obszarze wokół źródła kontinuum: regionie szerokich linii lub BLR. Poziom strumienia kontinuum i intensywność widmowych linii emisyjnych emitowanych przez AGN podlegają zmianom w skali czasowej od godzin do lat, w zależności od zakresu energii i wewnętrznej jasności AGN. Kiedy strumień emitowany przez źródło energii zmienia się znacząco (powiedzmy o współczynnik 2) w skali czasu t, ta zmiana strumienia wyznacza granicę rozmiaru R obszaru emitującego, tak że R ≤ ct. W AGN połączenie ogromnej ilości emitowanej energii i bardzo małych rozmiarów obszarów emisji określonych przez krótką skalę czasową zmienności nie jest zgodne z energią wytwarzaną w normalnych procesach gwiezdnych. Najpopularniejszym modelem produkcji energii w AGN i podstawą obecnego paradygmatu jest to, że AGN/kwazary są zasilane przez akrecję materii na SUPERMASYWNĄ CZARNA DZIURĘ. Przy wyższych energiach fotonów obserwuje się szybszą i większą zmienność amplitudy, m.in. zdjęcia rentgenowskie są różne niż optyczne. Skale czasowe zmienności są zwykle dłuższe w obiektach z natury rzeczy jaśniejszych. Skale czasowe oraz korelacje i opóźnienia między zmianami strumienia kontinuum i różnymi intensywnościami linii widmowych dostarczają informacji o naturze procesów fizycznych emitujących linie i kontinuum oraz o lokalizacji regionów, z których one pochodzą. Termin AGN jest tutaj używany niezależnie od przesunięcia ku czerwieni i jasności, a zatem obejmuje terminy Seyfert 1 i QSO lub kwazar, które są często używane do oddzielnego oznaczania AGN o średniej i wysokiej jasności. Ogólnie rzecz biorąc, dla 1 Seyferta dostępnych jest więcej danych o wyższej jakości niż dla kwazarów. Powodem jest to, że jest ich wiele, a całkiem sporo znajduje się w odległości 100 Mpc od Ziemi i można je łatwo zaobserwować za pomocą obecnego instrumentarium. Natomiast kwazary są rzadkie, a nawet te najbliższe znajdują się w tak dużych odległościach od nas, że strumień odbierany na Ziemi jest znacznie mniejszy niż z 1s Seyferta (jest jeden wyjątek, 3C 273). Podsumowując, zasób wiedzy o zmienności AGN jest zdominowany przez obserwacje Seyferta 1s, które doprowadziły do modeli fizycznych, które w zadowalający sposób wyjaśniają obserwowane zjawiska. Pozostaje zbadać, w jaki sposób modele te odnoszą się do znacznie jaśniejszego i znacznie słabszego AGN. AGN, które są przedmiotem tego artykułu, to te, w których centralne źródło promieniowania optycznego, UV i rentgenowskiego jest obserwowane bezpośrednio i gdzie zmiany nie są wzmacniane przez efekty relatywistyczne . W przypadku prawie tuzina Seyferta 1, a zwłaszcza trzech z nich (NGC 4151, NGC 5548 i NGC 7469) oraz kwazara 3C 273, duża międzynarodowa współpraca zorganizowała długie, spójne kampanie obserwacyjne, niektóre obejmujące jednoczesne obserwacje w zakresie optycznym, Zakresy promieniowania UV i rentgenowskiego, generujące duże ilości danych o jednolitej jakości i gromadzonych z optymalnym czasem próbkowania. Szereg 1 Seyferta (∿30) było monitorowanych mniej intensywnie, ale wciąż wystarczająco, aby ustalić, że wyniki z najlepiej zbadanych 1 Seyferta są reprezentatywne.

Zmienność strumienia kontinuum

Widmo elektromagnetyczne (widmo kontinuum) radio-cichego AGN, po odjęciu kontinuum gwiazd emitowanego przez galaktykę macierzystą, rozciąga się od ∿1 mm do ∿100 keV z wyraźnym szerokim pikiem w zakresie ekstremalnego UV (EUV) i drugorzędny pik w IR . Emisja promieniowania rentgenowskiego jest zdominowana przez składową prawa mocy (1-10 keV; α ≃ 0,9 gdzie f? ∝ ? ? α), która narasta w zakresie twardego promieniowania rentgenowskiego (> 50 keV), prawdopodobnie z odcięciem około 100 keV. Przypomnijmy tutaj, że w teorii dysków akrecyjnych, narosła materia wiruje w kierunku centrum pod wpływem przyciągania grawitacyjnego czarnej dziury. Sprawa jednak nie toczy się swobodnie. Ma wewnętrzne naprężenie (najprawdopodobniej pochodzenia magnetycznego), którego rozpraszanie wytwarza ciepło, a także wyznacza skalę czasową propagacji narosłej materii w kierunku centrum. Astronomowie mówią o ogrzewaniu dysku przez lepkość i o lepkich skalach czasowych, a teoretycy mogą obliczyć energię wytwarzaną przez lepkość, wynikające z tego widmo emitowane przez dysk oraz skale czasowe, w których zmienia się promieniowanie z dysku w odpowiedzi na zmieniającą się szybkość akrecji (DYSK AKRECJI). Obserwowany kształt widmowy kontinuum AGN w zakresie 1200-5000 Å (lub 10-2,5 eV) jest z grubsza zgodny z emisją termiczną z dysku akrecyjnego. Jednak wahania strumienia kontinuum UV występują w skalach czasowych dni, tygodni lub miesięcy, które są o wiele rzędów wielkości krótsze niż skale czasowe oczekiwane na podstawie zmian tempa narastania. Co ciekawe, w NGC 4151 i NGC 5548 strumień promieniowania rentgenowskiego o średniej energii (2-10 keV) oraz strumień optyczny/UV zmieniają się jednocześnie , przy czym wahania wysokoenergetyczne są znacznie większe niż wahania niskoenergetyczne. Podsumowując, obserwacje te sugerują model, w którym powierzchnia dysku jest naświetlana przez centralne zmienne źródło promieniowania rentgenowskiego. Uważa się, że sama zmienność źródła promieniowania rentgenowskiego jest spowodowana wybuchowymi ponownymi połączeniami linii pola magnetycznego przenikających dysk akrecyjny i koronę (gaz gorących elektronów otaczający centralne części dysku) poprzez zjawisko przypominające rozbłyski słoneczne w korona słoneczna. Znaczna część energii akrecji jest zużywana w ten sposób na ogrzewanie korony. Gorące elektrony przenoszą część swojej energii na otaczające fotony UV (emitowane przez dysk) i miękkie fotony rentgenowskie oraz wytwarzają fotony rentgenowskie o średniej i twardej energii poprzez odwrotną emisję Comptona. Ten "model komtonizacji i ponownego przetwarzania" wyjaśnia prostą korelację między promieniowaniem rentgenowskim a emisją UV w krótkich skalach czasowych w NGC 4151 i NGC 5548, a także wyjaśnia średnie nachylenie widma rentgenowskiego, granica wysokoenergetyczna i inne cechy widm rentgenowskich AGN. Ale życie nie jest takie proste, a dobra korelacja między promieniowaniem rentgenowskim a strumieniem UV obserwowana w NGC 4151 i NGC 5548 mogła być szczęśliwym zbiegiem okoliczności w skomplikowanej interakcji między gorącym gazem elektronowym, fotonami UV i fotonami rentgenowskimi ("który jest kurczakiem, a który jajkiem?"). W rzeczywistości, w trzecim jądrze Seyferta 1 intensywnie obserwowanym jednocześnie w promieniach UV i rentgenowskim, NGC 7469, zmiany UV czasami pozostają w tyle za zmianami rentgenowskimi, a czasami są jednoczesne ze zmianami rentgenowskimi. Ten przypadek stawia poważne wątpliwości co do przedstawionego wcześniej obrazu ponownego przetwarzania. Bliższe przyjrzenie się danym ujawnia jednak uderzające podobieństwo zmian w dwóch zakresach energii, co sugeruje podstawowy związek między emisją w dwóch zakresach energii, np. jak ogólnie zapewnia Comptonization. Najbardziej ekstremalna zmienność miękkiego promieniowania rentgenowskiego występuje w wąskich galaktykach Seyferta 1 (NLS1), podzbiorze AGN z bardzo intensywną emisją miękkiego promieniowania rentgenowskiego i bardzo stromymi widmami miękkiego promieniowania rentgenowskiego, wąskimi optycznymi liniami emisyjnymi i wyraźną optyczną emisją Fe II . Aby wyjaśnić brak szerokich linii w NLS1, zaproponowano, że intensywne miękkie promieniowanie rentgenowskie może zdmuchnąć wewnętrzny obszar szerokich linii (BLR) lub zjonizować go do stanów obecnie niewykrywalnych. Strome widmo miękkiego promieniowania rentgenowskiego NLS1 może wskazywać na dużą szybkość akrecji lub małą masę czarnej dziury. Przechodząc teraz do zakresu podczerwieni, zmiany, jeśli w ogóle zostaną wykryte, mają mniejszą amplitudę i dłuższą skalę czasową niż w zakresie optycznym i są zgodne z opóźnioną reakcją pyłu wokół centralnego źródła na długoterminowe zmiany promieniowania UV i strumień kontinuum rentgenowskiego.

Zmiany linii emisji

Metoda szacowania masy czarnej dziury

Monitorowanie zmian strumienia kontinuum i intensywności linii widmowych kilku jedynk Seyferta wykazało, że intensywności linii widmowych naśladują zmiany kontinuum optycznego/UV, ale z pewnym opóźnieniem czasowym τ. Opóźnienie to jest interpretowane jako czas potrzebny, aby światło ze źródła centralnego kontinuum znajdującego się w bezpośrednim sąsiedztwie czarnej dziury dotarło do obłoków gazowych emitujących linie widmowe (i znajdujących się wokół źródła centralnego kontinuum) i zwiększyło lub zmniejszyło emisyjność gaz . Opóźnienie czasowe τ jest miarą odległości d ∿ cτ chmur gazu emitującego linie od centralnego źródła kontinuum. Metodę tę można rozszerzyć, aby mapować obszar emisji liniowej i jest ona znana jako "mapowanie pogłosu". Zgrubne oszacowanie masy centralnej czarnej dziury można następnie obliczyć na podstawie zmian zmiennej składowej linii emisyjnej, łącząc szerokość składowej (która daje prędkość wirialną obłoków gazu) i τ (co jest opóźnieniem o w którym zmiany składników następują po zmianach kontinuum). Założenie, że ruchy chmur są ruchami orbitalnymi w polu grawitacyjnym czarnej dziury, jest mocno poparte faktem, że niebieskie i czerwone skrzydło dowolnej linii lub składowej linii zmieniają się razem (tzn. jedno skrzydło nie zmienia się przed ani po drugim jeden, na pierwsze zamówienie; patrz poniżej). Ta metoda wyznaczania masy centralnej czarnej dziury została zastosowana do kilkunastu AGN i daje wartości w przedziale od kilku 106M do kilku 108M . Pole prędkości gazu Jednym z kluczowych elementów wniesionych przez badania lotności jest to, że najszersze linie emisyjne zmieniają się z największą amplitudą iw najkrótszej skali czasowej, co wskazuje, że najszybciej poruszający się gaz znajduje się najbliżej środka. Szczegółowe zmiany intensywności i profilu linii dostarczają odpowiedzi na kluczowe dla określenia masy pytanie, czy obłoki są związane grawitacyjnie z centralną czarną dziurą: Zmiany profilu linii nie pokazują systematycznego wpływu jednej skrzydło reaguje przed drugim, czego można by się spodziewać w przypadku przepływów promieniowych: zaobserwowano, że niebieskie skrzydło zmienia się jako pierwsze w przypadku przepływów na zewnątrz i wiatrów kulistych, a skrzydło czerwone byłoby obserwowane jako pierwsze w przypadku akrecji sferycznej. To oraz fakt, że najszybciej poruszający się gaz znajduje się najbliżej środka, mocno sugeruje, że chmury o wysokiej jonizacji znajdują się w ruchu orbitalnym (ruchy chaotyczne lub rotacyjne) w polu grawitacyjnym czarnej dziury, z jedynie niewielkimi składnikami opadania netto lub odpływ. Ruchy chaotyczne są wykluczone, ponieważ chmury gazu zostałyby zniszczone podczas przechodzenia przez dysk akrecyjny. Najbardziej szczegółowe wyniki dotyczące pola prędkości w BLR pochodzą z intensywnego monitorowania profilu linii C IV podczas miesiąca życia NGC 4151′, z prawie całkowitym próbkowaniem 1 d w odstępie 35 dni. Analiza zmian w każdym przedziale prędkości w profilu linii C IV pokazuje, że zmiany są zgodne z ruchami grawitacyjnymi wokół masy około 107 M . Wartość ta zgadza się z wartością wynikającą z obserwacji całego widma UV NGC 4151 w innych epokach, które wykazują liniową zależność między czasem odpowiedzi linii a odwrotnością kwadratu szerokości linii. Podobne badanie NGC5548 daje masę (5 ± 3) × 107 M . Należy zauważyć, że zarówno w NGC 5548, jak i NGC 4151 istnieje prawdopodobnie słaba sygnatura składnika opadającego. Inne AGN dają spójne wyniki (choć mniej szczegółowe) i wstępnie stwierdza się, że szerokość linii jest zdominowana przez rotację. Stanowi to podstawę oszacowania masy czarnej dziury na podstawie odpowiedzi intensywności linii emisyjnych na zmiany strumienia kontinuum. Niepewność związana z tą metodą jest trudna do oszacowania i prawdopodobnie jest mniejsza niż współczynnik 10.

Model "dysku i wiatru".

W widmach AGN występują linie niskojonizacyjne, takie jak linie Balmera i linie Fe II i Mg II oraz linie highionizacji (najsilniejsze są linie C IV, N V, He II, Si IV). Z interpretacji obserwacji wynika, że linie o niskiej jonizacji pochodzą od płaskiego skupiska bardzo gęstych chmur (Ne ≥ 1011 cm-3 i całkowitej grubości optycznej 1024 cm-2), które utożsamiane są z częścią stosunkowo chłodną (temperatura powierzchni 5000 K) dysku akrecyjnego. Natomiast linie o wysokiej jonizacji pochodzą ze stosunkowo bardziej rozcieńczonego ośrodka, powyżej i poniżej dysku, przy czym linie najbardziej zjonizowanych pierwiastków są najszersze. Wskazuje to, że stopień jonizacji jest skorelowany z prędkością gazu. Co ciekawe, linie o wysokiej jonizacji nie znajdują się dokładnie na przesunięciu ku czerwieni linii o niskiej jonizacji (emitowanych przez dysk akrecyjny), które same znajdują się na przesunięciu ku czerwieni galaktyki macierzystej. Są przesunięte w kierunku błękitu (od 0 do ∿ 1500 km s-1) w stosunku do dysku i galaktyki macierzystej, co wskazuje, że silnie zjonizowany gaz płynie w naszą stronę. (Dzięki symetrii przepływ prawdopodobnie oddala się od nas, po drugiej stronie dysku, ale jest niewidoczny, ponieważ dysk jest nieprzezroczysty). Połączenie rotacji i wypływu z dysku sugeruje i jest zgodne z modelem, w którym linie o wysokiej jonizacji są emitowane przez chmury gazu wyłaniające się z dysku, wciąż zachowując dużą część momentu pędu, który gaz miał w dysku. Takie ruchy są przewidywane przez magnetohydrodynamiczny model dysków akrecyjnych, w których wiatry przyspieszone magnetycznie powstają z włókien wyciągniętych z pierwotnie gęstego, nisko zjonizowanego materiału dysku akrecyjnego i poddanych intensywnemu centralnemu polu jonizującemu. Tworzy to silnie zjonizowany wiatr nad i pod dyskiem. Fizyka tych zjawisk jest jednak skomplikowana i wiele cech tego obiecującego modelu pozostaje obecnie nieokreślonych.

Bieżące problemy i przyszły rozwój

Pozostaje wiele pytań i ekscytujących dróg dochodzenia. Po pierwsze, należy energicznie kontynuować teoretyczne badania efektów magnetohydrodynamicznych, które wraz z polem grawitacyjnym czarnej dziury dominują w fizyce w jej otoczeniu. Po drugie, zjawisko zmienności zostało najlepiej zaobserwowane i najlepiej zrozumiane w przypadku średniej jasności AGN (jasność całkowita L ∿ 1042 - 1045 erg s-1), ale dane zmienności dotyczące potężnych kwazarów (do 1049 erg-1) i przy bardzo małej jasności AGN (1039 erg s-1) jest wciąż bardzo mało. Na szczęście trwają stosowne obserwacje. Umożliwią one zbadanie całej przestrzeni parametrów definiowanej masą czarnej dziury i szybkością akrecji oraz zrozumienie specyfiki procesu akrecji w różnych obszarach tej przestrzeni parametrów (np. adwekcji, akrecji pojedynczych gwiazd, super- współczynnik akrecji Eddingtona). Wreszcie, chociaż ten artykuł koncentruje się na bezpośrednio obserwowalnej zmienności AGN, tj. występującej w skali czasowej od godzin do lat, wskazuje się, że inne zjawiska zmienności muszą zachodzić w dłuższych skalach czasowych, powiedzmy 102, 106 lub 109 lat. Szczególnie istotne w tym kontekście jest niedawne odkrycie (na podstawie pomiarów prędkości gwiazd w jądrach pobliskich galaktyk), że czarne dziury prawdopodobnie znajdują się w centrach nieaktywnych galaktyk, w tym w naszej Galaktyce, o masach mniej więcej w ten sam zakres wartości, co te określone w badaniach AGN. W naturalny sposób powstaje wtedy wiele pytań, takich jak to, czy AGN mogą być powtarzającymi się zjawiskami z fazami uśpienia i czy mogą być napędzane gazem wytwarzanym w wyniku ewolucji gwiazd w galaktyce macierzystej, czy też akreowana materia zawsze pochodzi spoza galaktyki macierzystej .



Aktywne galaktyki: Obserwacje

"Galaktyka aktywna" to ogólny termin odnoszący się do każdej galaktyki, która wytwarza znaczną emisję poza emisją swoich gwiazd składowych, gwiezdnych pozostałości i ośrodka międzygwiazdowego. Charakterystyka takich galaktyk jako "aktywnych" wynika z tego, że zazwyczaj zakłada się, że niezwykłe właściwości emisji są związane z wysokoenergetycznymi zjawiskami erupcyjnymi. Najwcześniejszy konsekwentny użytkownik wydaje się, że słowo "aktywność" w odniesieniu do jąder galaktyk pochodziło z V A Ambartsumian. W większości przypadków ta niegwiazdowa emisja wydaje się pochodzić z samego centrum lub jądra galaktyki, a źródła te są ogólnie znane jako "aktywne jądra galaktyczne" (AGN). Galaktyka zawierająca takie źródło jest znana jako host AGN. Historycznie rzecz biorąc, niektóre inne rodzaje źródeł, takie jak GALAXY STARBURST, które mają pewne fenomenologiczne podobieństwa do AGN (np. silna emisja bliskiego UV), były również znane jako aktywne galaktyki, chociaż w tych przypadkach aktywność może nie ograniczać się do regionów jądrowych . AGN to najjaśniejsze źródła o długiej żywotności wszechświata. Emitują silne promieniowanie w całym obserwowalnym zakresie długości fal, od promieniowania rentgenowskiego i promieniowania γ po fale radiowe o dużej długości. Pełen obraz emisji AGN można uzyskać jedynie obserwując go na wielu długościach fal, najlepiej jednocześnie w całym widmie, ponieważ są to źródła zmienne. Istnieje wiele różnych klas AGN; GALAKTYKI SEYFERTA stanowią niskojasny koniec zjawiska AGN, czyli ich jasność jąder jest z grubsza porównywalna z całkowitym światłem gwiazd z galaktyki macierzystej. AGN o wyższej jasności są znane jako "kwazary" lub "obiekty quasi-gwiazdowe" (QSO), przy czym te pierwsze są zarezerwowane (pierwotnie) dla silniejszych źródeł radiowych, a te drugie słabsze; w takich przypadkach światło optyczne z AGN może przekraczać, czasami ponad 100-krotnie, światło gwiazdowe z galaktyki macierzystej na wszystkich długościach fal. W ramach tych grup istnieje wiele różnych podklas, opartych na względnym znaczeniu optycznych linii emisyjnych UV, właściwościach radiowych i polaryzacji. W razie potrzeby zostaną one wymienione poniżej. W tej sekcji omówiony zostanie aktualny stan obserwacji w widmie elektromagnetycznym. Najpierw omówimy ciągłą emisję AGN pod względem ich "widmowych rozkładów energii" (SED), tj. ilości energii emitowanej w różnych pasmach fal. Następnie skupiamy się na widocznych liniach emisyjnych, które są wykrywane w widmach UV-optycznych (a ostatnio rentgenowskich) większości AGN, a następnie z krótkim opisem cech absorpcji w widmach AGN. Omówiono również przestrzennie rozdzielone struktury w AGN.

Widmowe rozkłady energii

SED normalnych gwiazd (i galaktyk) są dobrze przybliżone jako ciała doskonale czarne w zakresie temperatur . Dane Elvisa i innych, a zatem ich emisja jest silnie skoncentrowana w części widma od ultrafioletu (UV) do bliskiej podczerwieni (IR). W przeciwieństwie do tego, AGN emitują porównywalną energię (na jednostkę szerokości pasma logarytmicznego) w większości obserwowalnego widma. Jedynym wyjątkiem jest region radiowy, w którym AGN "radioloud" (RL) mają około 3 rzędów wielkości jaśniejszy niż ich "ciche radiowo" odpowiedniki (RQ). Te RLAGN stanowią ∼10% populacji. Rysunek



przedstawia medianę SED niskiego przesunięcia ku czerwieni dla obiektów RL i RQ z próbki ponad 40 AGN. Jest on wykreślany jako log (νLν ) w funkcji log ν, co pokazuje moc wyjściową energii w każdym paśmie fal, a także podkreśla ważną strukturę w SED. Nasza wiedza na temat tych SED jest ograniczona przez obecną technologię obserwacyjną do jasnych źródeł o dość niskim przesunięciu ku czerwieni i obejmuje (jak widać na rysunku ) ważne luki w różnych pasmach fal.

1. Brak obserwacji przy wysokich energiach (promienie γ) wynika z obecnych ograniczeń technicznych; detektory o wyższej energii nie są wystarczająco czułe, aby wykryć większość AGN. Te, które zostały wykryte do tej pory, to na ogół rdzeniowe (CD) RL AGN, tj. te, których emisja jest wzmacniana przez relatywistyczny przepływ wzdłuż naszej linii wzroku.
2. Luka EUV między obszarami dalekiego UV i miękkiego promieniowania rentgenowskiego widma (tj. między 912Å a około 0,1 keV, obejmująca około 10-krotny współczynnik energii fotonów) wynika z dużej nieprzezroczystości ośrodka międzygwiazdowego w naszą własną Galaktykę fotonom jonizującym wodór. Fotony w tym zakresie energii są szczególnie ważne, ponieważ napędzają silne linie emisyjne widoczne w widmie UV i optycznym AGN.
3. Przepaść między radiem submilimetrowym a krótkofalowym ponownie wynika z ograniczeń technologicznych. Nowe detektory i satelity ostatnio znacznie zmniejszyły te ograniczenia i ujawniły ostre przerwy widmowe w dalekiej podczerwieni dla wszystkich oprócz CD RL AGN.

Najbardziej widoczną cechą AGN SED jest silny pik w widmie UV. Cecha, często nazywana "dużym niebieskim guzem" (BBB), zaczyna się w bliskiej podczerwieni i może rozciągać się aż do energii miękkiego promieniowania rentgenowskiego. Obserwuje się go za pomocą kombinacji niskorozdzielczej spektroskopii optycznej i ultrafioletowej oraz/lub wielobarwnej fotometrii optycznej. Można wiarygodnie zidentyfikować, że powstaje w dysku akrecyjnym (AD) zawierającym materię o szerokim zakresie temperatur i krążącym wokół supermasywnej czarnej dziury. BBB osiąga szczyt w ekstremalnym UV, co jest zgodne z oczekiwaną emisją z AD wokół czarnej dziurya ∼108M, która akreuje materię z szybkością Eddingtona. Emisja IR z RQ AGN jest obserwowana głównie za pomocą fotometrii wielokolorowej, chociaż spektroskopia IR jest szybko rozwijającą się dziedziną. Uważa się, że widmo IR jest zdominowane przez emisję termiczną z pyłu w galaktyce macierzystej lub torusa molekularnego otaczającego AGN. Najbardziej przekonujące dowody przemawiające za tą interpretacją są następujące.

1. W AGN SED występuje lokalne minimum przy długości fali około 1 μm. To prawdopodobnie reprezentuje emisję z najwyższej temperatury (około 1500 K) ziarna, które mogą istnieć w pobliżu AGN; w wyższych temperaturach, tj. mniejszych odległościach od centralnego źródła, pył będzie sublimował.
2. W niektórych AGN zaobserwowano, że kontinuum w podczerwieni zmienia się, najwyraźniej w odpowiedzi na wcześniejsze, podobne zmiany kontinuum w widmie optycznym UV. Wywnioskowany czas podróży światła jest zgodny z maksymalną odległością, na jaką ziarna wystawione na działanie pola promieniowania AGN powinny sublimować.
3. Ostra przerwa w submilimetrowym obszarze dalekiej podczerwieni SED we wszystkich AGN oprócz CD RL jest generalnie zbyt stroma, aby można ją było przypisać optycznie grubej emisji synchrotronowej lub emisji ciała doskonale czarnego w jednej temperaturze, ale jest zgodna z emisją termiczną z ziaren (w zależności od nieznanego prawa emisyjności ziarna).

W RL AGN IR jest prawdopodobnie mieszanką izotropowej emisji termicznej i wiązki nietermicznej. Emisja wiązki dominuje w CD RL AGN, ponieważ jest wzmacniana przez relatywistyczny odpływ wzdłuż naszej linii wzroku. Mocnych dowodów na tę interpretację dostarcza skoordynowana zmienność obserwowana w kilku z tych źródeł, w szczególności 3C 273, który jest najjaśniejszym pobliskim QSO i w konsekwencji był szeroko monitorowany. Wstępne wyniki w średniej i dalekiej podczerwieni z ISO satelitarnego ESA pokazują postęp od emisji nietermicznej do termicznej w małej próbce CD i RLAGN i RQAGN zdominowanej przez płatki, potwierdzając ten ogólny obraz. Podczas gdy emisja UV-optyczna-IR z AGN wydaje się być głównie pochodzenia termicznego, uważa się, że zarówno ekstremalne, jak i niskoenergetyczne obserwowalne SED są wytwarzane przez procesy nietermiczne. Obserwacje rentgenowskie AGN są w dużej mierze ograniczone do spektroskopii o bardzo niskiej rozdzielczości, która daje kształt globalnego kontinuum. Główną cechą widm rentgenowskich RQ AGN jest kontinuum potęgowe (Fν ∝ ν, z α ≈ 0,9) w zakresie ∼1-100 keV. Widmo generalnie odwraca się przy energiach ≳ 100 keV i uważa się, że powstaje w wyniku powtarzającego się rozpraszania Comptona fotonów termicznych lub nietermicznych. RLAGN wykazują twardsze widmo rentgenowskie niż ich odpowiedniki RQ. Względna siła tego twardego komponentu wzrasta wraz z dominacją rdzenia źródła radiowego, co sugeruje, że emisja jest emitowana podobnie do radia i potwierdza pochodzenie fotonów radiowych synchrotronowych w rozpraszaniu w górę Comptona. CD RLAGN są jak dotąd jedynymi AGN wykrytymi w wysokoenergetycznych promieniach γ, co sugeruje, że promienie są kluczowym czynnikiem. Dokonano kilku bardzo wysokoenergetycznych obserwacji, w tym naziemne wykrycie pęków Czerenkowa, które występują, gdy fotony o energii TeV uderzają w ziemską atmosferę. Jak dotąd wszystkie AGN wykryte tą metodą to wszystkie obiekty BL Lac. Podobnie jak w przypadku CD RL AGN, obserwowana emisja z tych źródeł jest najwyraźniej zdominowana przez relatywistyczną wiązkę lub dżet skierowaną w stronę obserwatora. Przy energiach około 10 keV i wyższych widma RQ AGN mają również "twardy ogon" powyżej prawa mocy promieniowania rentgenowskiego, który jest silniejszy w źródłach o niższej jasności. Uważa się, że powstaje to w wyniku "odbicia Comptona" (połączenie nieelastycznego rozpraszania fotonów o wyższej energii i fotoelektrycznej absorpcji fotonów o niższej energii fotonów) ze stosunkowo chłodniejszego materiału. Cecha ta jest na tyle silna, że chłodniejszy materiał musi pokrywać około połowy nieba widzianego z samego źródła promieniowania rentgenowskiego, co doprowadziło do spekulacji, że odbijającym obiektem musi być sama AD, ze źródłem promieniowania rentgenowskiego znajdującym się gdzieś powyżej To. Przykład takiego widma pokazano na rysunku 2.



Zmienność widmowa

Jedną z najbardziej niezwykłych cech AGN jest ich silna zmienność strumienia. Rzeczywiście, samo istnienie zmienności kontinuum w ciągu dnia nakłada surową górną granicę (ustaloną przez argumenty dotyczące czasu podróży światła i spójności źródła) na rozmiar źródła kontinuum, a tym samym dostarcza jednego z najsilniejszych argumentów za identyfikacją AD wokół supermasywnej czarnej dziury jako źródło promieniowania ciągłego. Na poziomie podstawowym przyczyna zmienności kontinuum nie jest zrozumiała, chociaż AD niestabilności są czasami przywoływane jako mechanizm napędowy. Ogólnie rzecz biorąc, najszybsza i najwyższa amplituda zmian jest widoczne przy najwyższych energiach fotonów. Zmiany strumienia promieniowania rentgenowskiego wykryto w galaktykach Seyferta w skalach czasowych rzędu kilku minut. Dla celów fenomenologicznych możemy scharakteryzować siłę zmian jako funkcję czasu częstotliwości f przez ich "spektra gęstości mocy", które są konwencjonalnie modelowane jako prawo potęgowe, tj. P(f) ∝ f, gdzie α zwykle mieści się w zakresie 1-2 dla większości AGN. Przypadek α = 0 to "biały szum", tj. amplituda zmienności jest niezależna od skali czasu, a α = 1 odpowiada zmianom, które można opisać jako błądzenie losowe. Większe wartości ? odpowiadają zwiększonym amplitudom zmienności w dłuższych skalach czasowych (niższe częstotliwości f ). W niektórych przypadkach, np. NGC 4151 i 3C 390.3, najbardziej widoczne zmiany wydają się zachodzić quasi-jednocześnie (tj. jednocześnie z dokładnością do mniej niż jednego dnia) od promieni rentgenowskich (lub nawet promieni γ dla NGC 4151) do pasm fal optycznych. Struktury o mniejszej amplitudzie na krzywych blasku różnią się w całym spektrum, z niższymi amplitudami i mniejszymi strukturami widocznymi przy niższych energiach fotonów. Niemal jednoczesność zmian wymaga, aby zmiany były napędzane przez promieniowanie, a nie na przykład propagację zaburzeń przez AD w znacznie dłuższej lepkiej skali czasu. Obserwacje te, wraz z wykryciem twardego ogona promieniowania rentgenowskiego i linii emisyjnej FeKα, wskazują na modele "ponownego przetwarzania", w których zmienne źródło promieniowania rentgenowskiego oświetla AD z góry, przy czym zaobserwowano zmiany w pochłoniętej energii promieniowania rentgenowskiego przy niższych energiach fotonów. Jednak w co najmniej jednym przypadku (galaktyka Seyferta NGC 7469) zmiany rentgenowskie nie korelują dobrze ze zmianami optycznymi UV; zmiany podobnej amplitudy ułamkowej są widoczne zarówno w obszarach rentgenowskich, jak i UV-optycznych, ale nie ma między nimi wyraźnego związku przyczynowego. Jednak to w tym samym obiekcie wykryto opóźnienie czasowe między zmianami UV i optycznymi. Jest to jedyna galaktyka Seyferta, która została wystarczająco dobrze monitorowana, aby wykryć takie zależne od długości fali opóźnienia czasowe kontinuum. W stosunku do zmian w UV o najkrótszej długości fali, zmiany przy dłuższych falach są opóźnione o wartość τ ∝? γ4/3, co jest dokładnie taką zależnością od długości fali oczekiwaną, jeśli zmiany pojawiają się w cienkim AD, który jest napromieniowany zmiennym promieniowaniem rentgenowskim źródło. Oczywiście ta interpretacja całkowicie nie wyjaśnia obserwowanego braku korelacji między zmianami UV-optycznymi i rentgenowskimi. Obecnie wydaje się, że NGC 7469 stwarza poważne trudności w ponownym przetwarzaniu modeli, chociaż nie pojawiło się żadne inne wyjaśnienie sprzężenia (lub braku sprzężenia) między zmianami rentgenowskimi i UV-optycznymi. Ekstremalne zmiany strumienia obserwuje się również w obiektach BL Lac. Jednak w tym przypadku fundamentalne pochodzenie zmian jest prawdopodobnie związane z propagacją wstrząsów przez strumień relatywistyczny. W przeciwieństwie do Seyfertów, chociaż istnieje ścisła zgodność między zmianami w różnych pasmach, nie pojawił się jeszcze całkowicie spójny związek między opóźnieniem czasowym a długością fali; to samo źródło może najwyraźniej wykazywać różne zachowania w różnych momentach, a przyczyna tego nie jest zrozumiała.

Linie emisyjne

Podstawowe właściwości linii UV-optycznych

Silne szerokie linie emisyjne są cechą charakterystyczną wszystkich typów AGN, z wyjątkiem obiektów BL Lacertae, w których przypuszczalnie obecne linie emisyjne są zalane przez emisję kontinuum o wysokim promieniu z dżetu. W części widma UV-optyczne-IR najbardziej widoczne linie emisyjne (te o równoważnych szerokościach większych niż kilkadziesiąt Å) to zwykle Lyαλ 1215, C IV λ 1549, C III] λ 1909, Mg II λ 2798, Hβ λ 4861, Hα λ 6563 i Pα λ 1,88 μm . W większości Seyfertów i kwazarów obserwowana emisja powstaje w dwóch fizycznie odrębnych obszarach, przestrzennie zwartym (1015-1017 cm) "obszarze szerokoliniowym" (BLR) o stosunkowo dużej gęstości cząstek (ne ≈ 1011 cm-3) i dużej prędkości dyspersje (vFWHM ≈ 1000-10 000 km s-1) oraz przestrzennie rozciągnięty (100 pc-1 kpc) "region wąskoliniowy" (NLR) o stosunkowo małych gęstościach cząstek (ne ≈ 103 cm-3) i mniejszej prędkości dyspersji (vFWHM < 1000 km s-1). Pewne mgławicowe "zakazane" linie, takie jak [O III] λλ 4959, 5007, są wyróżniającymi się cechami w widmach wąskoliniowych, ale nie obserwuje się ich w widmach szerokoliniowych. W NIR o małej gęstości, zarówno linie Balmera, jak i [O III] znajdują się w granicy małej gęstości, w której emisyjność jest proporcjonalna do n2e. Jednak w gęstszym, ale o znacznie mniejszej masie BLR, linie Balmera nadal mieszczą się w granicy małej gęstości, ale linie [O III] znajdują się w granicy dużej gęstości, w której emisyjność jest proporcjonalna tylko do ne. Linie [O III] z regionu szerokich linii są zatem bardzo słabe w stosunku do linii Balmera, a linie zakazane są często określane jako "kolizyjnie stłumione". Galaktyki Seyferta tradycyjnie dzieli się na dwie podklasy spektroskopowe: Seyfert typu 1 ma emisję zarówno szerokoliniową, jak i wąskoliniową, podczas gdy Seyfert typu 2 ma tylko wąskie linie. W niektórych, a być może we wszystkich przypadkach, obiekty typu 2 to te, których BLR są zasłonięte przed naszym bezpośrednim widzeniem przez kurz. Widma kwazarów są zawsze podobne do widm Seyferta typu 1. Kwestia, czy istnieją jakieś prawdziwe "kwazary typu 2", pozostaje otwarta. Niedawna polarymetria ujawniła szerokie linie w niektórych ultrajasnych galaktykach podczerwonych: spektroskopowo można je czasami sklasyfikować jako nieuchwytne kwazary typu 2, ale zasadniczo są to wciąż zaciemnione kwazary typu 1. Poza semantyką pytanie brzmi, czy ujednolicone modele wyjaśniają wszystkie obiekty typu 2.

Zmienność linii emisji

Szerokie składowe linii emisyjnych AGN zmieniają strumień w odpowiedzi na zmiany strumienia kontinuum, z opóźnieniami czasowymi, które, jak się przyjmuje, są spowodowane efektami czasu podróży światła w BLR. Rzeczywiście, pomiar rozmiaru BLR opiera się na pomiarze średnich opóźnień czasowych (lub "opóźnień") między zmianami kontinuum i linii emisyjnych. Ten proces, znany jako "mapowanie pogłosu", został pomyślnie przeprowadzony przez ponad dwa tuziny AGN. Rozmiary BLR w galaktykach Seyferta mieszczą się w przedziale od kilku do około 100 dni świetlnych (tj. rBLR ≈ 1015-17 cm), a skala jasności w przybliżeniu wynosi rBLR ∝ L1/2, zgodnie z najprostszą teorią. Różne linie w danym AGN reagują z różnymi opóźnieniami czasowymi, zwykle w tym sensie, że linie o wyższej jonizacji reagują szybciej niż linie o niższej jonizacji; wskazuje to, że BLR ma radialnie uwarstwioną strukturę jonizacji i że maksymalna zmienność różnych linii występuje przy różnych promieniach. Zakres odpowiedzi czasowych jest taki, że zewnętrzna krawędź BLR jest co najmniej 10 razy większa niż wewnętrzna krawędź. Zasadniczo mapowanie pogłosu powinno być w stanie określić pole prędkości BLR, ponieważ szerokie linie są rozdzielone w prędkości w linii wzroku (Doppler). Na przykład, gdyby obłoki BLR przemieszczały się promieniowo na zewnątrz od centralnego źródła, wówczas zewnętrzny obserwator zobaczyłby, że gaz o krótkiej długości fali (względnie przesunięty w kierunku błękitu) po bliższej stronie jądra reaguje na zmiany kontinuum, zanim zobaczy stosunkowo przesunięte ku czerwieni długie fale ) gaz po drugiej stronie jądra. Brak tak silnej sygnatury wskazuje, że dominujące ruchy gazu nie są promieniowe. Jednak obecne obserwacje nie są wystarczająco obszerne, aby określić, czy gaz BLR jest ograniczony do dysku, czy też ma inną geometrię. Niezależnie od szczegółów, jeśli przyjmiemy, że ruchy gazu BLR są głównie orbitalne wokół źródła centralnego, masę źródła centralnego (Mblack hole) można zmierzyć łącząc pomiary wielkości obszaru z szerokością linii emisyjnej, tj. w obrębie pewnego zależnego od geometrii współczynnika jedności porządku, Mblack hole ≈ rBLRv2FWHM. Dla około dwóch tuzinów AGN o niskiej jasności, dla których to zrobiono, wywnioskowano masy w zakresie (106 -108)M. Wąskie linie emisyjne na ogół nie zmieniają się w skalach czasowych wynoszących lata lub mniej, ponieważ dłuższe czasy podróży światła i rekombinacji mają tendencję do zacierania skutków wszelkich zmian kontinuum. Doniesienia o wąskiej zmienności są rzadkie. Prawdopodobnie najlepszym przypadkiem rzeczywistej zmienności wąskiej linii jest przypadek radiogalaktyki szerokopasmowej 3C 390.3, która wydaje się mieć nienormalnie zwarty NLR o dużej gęstości. Szerokości wąskich linii wydają się dobrze korelować z centralnymi masami galaktyki macierzystej AGN w skalach porównywalnych z rozmiarem NLR (tj. asymetrie wynikają z interakcji z dżetami.

Rentgenowska linia żelaza (Fe) Kα

W widmach o niskiej rozdzielczości zwykle uzyskiwanych w obszarze rentgenowskim przez satelity, takie jak ASCA (Japonia), SAX (Włochy) i RXTE (USA), powszechnie obserwuje się fluorescencyjną linię emisyjną Fe K?. Ta linia emisji jest zwykle silniejsza w źródłach o niższej jasności. Energia, przy której obserwuje się linię, z grubsza wskazuje na stan jonizacji emitującego materiału. Szeroki zakres zachowań jest widoczny z nierozwiązanych, chłodnych linii (tj. z materiału lowionizacyjnego), zgodnych z pochodzeniem materiału pochłaniającego wzdłuż naszej linii wzroku przez kwazar, np. torusa molekularnego, do gorących, rozdzielczych linii o szerokościach, vFWHM ≳ 10 000 km s-1, co implikuje materię znacznie bliższą centralnej AGN niż linie optyczne UV i omówione powyżej. W kilku z nich, w szczególności w MCG-6-30-15, obserwuje się złożone profile linii, które sugerują emisję z bardzo bliskiej odległości od centralnego AGN. Ta interpretacja jest bardzo atrakcyjna, ponieważ linia zapewnia wtedy naszą jedyną bezpośrednią obserwację wewnętrznej AD i jest niezwykle ważna dla diagnozowania i ograniczania zarówno modeli AD, jak i modeli centralnego źródła. Satelity rentgenowskie, takie jak XMM (ESA) i Obserwatorium Rentgenowskie Chandra (NASA), oba wystrzelone w 1999 r., będą w stanie obserwować emisję Fe Kα w większej części populacji AGN. Ich siatki zapewnią również niezwykle wysoką rozdzielczość widmową (E/ΔE > 100-1000), umożliwiając bardziej szczegółowe badania profilu, a także wykrywanie większej liczby i słabszych linii w jasnym, pobliskim AGN.

Struktury przestrzennie rozdzielcze w AGN

Region wąskiej linii


Podczas gdy rozmiar i strukturę BLR należy wywnioskować pośrednio za pomocą procesów takich jak mapowanie pogłosu, NLR jest wystarczająco rozszerzony, aby w bliższym AGN można go było przestrzennie rozdzielić za pomocą Kosmicznego Teleskopu Hubble′a lub, w niektórych przypadkach, nawet za pomocą naziemnego obserwacje oparte na NLR jest zwykle w przybliżeniu osiowosymetryczny, a jego długa oś pokrywa się z osią radiową w tych źródłach, w których wykryto rozszerzoną emisję radiową. W niektórych przypadkach wydaje się, że na granicy między plazmą emitującą promieniowanie radiowe a ośrodkiem międzygwiazdowym w galaktyce macierzystej występują fronty uderzeniowe. Podczas gdy emisja wąskoliniowa jest najwyraźniej napędzana głównie przez fotojonizację przez centralne źródło, wykryto również silną emisję z obszarów ochładzających się po wstrząsie. W niektórych przypadkach emisja wąskoliniowa wydaje się być ograniczona do "stożków jonizacyjnych" w kształcie klina, które emanują z jądra. Kąty otwarcia tych stożków wynoszą zwykle 30°-100°. Uważa się, że te stożki są wynikiem anizotropii w polu promieniowania AGN, która jest wprowadzana w znacznie mniejszych skalach przez zaciemniający torus otaczający centralne źródło.

Galaktyki macierzyste AGN

We współczesnym wszechświecie AGN stanowią mniej niż 5-10% wszystkich jasnych galaktyk. Dlaczego niektóre galaktyki są "aktywne", a inne nie? Czy zjawisko AGN reprezentuje przejściową fazę w ewolucji galaktyk (zauważając, że w odległej przeszłości było ich znacznie więcej niż obecnie? Próby rozwiązania tych problemów doprowadziły do badań "galaktyk macierzystych" AGN. Często jest to trudne przedsięwzięcie, ponieważ AGN zwykle znajdują się w dużych odległościach, więc galaktyki macierzyste są słabe i mają małe rozmiary kątowe, a zwłaszcza w przypadku kwazarów, większość światła galaktyki macierzystej jest po prostu tracona w blasku kwazara. Oryginalna lista galaktyk emisyjnych o wysokiej jasności powierzchniowej sporządzona przez Carla Seyferta składała się prawie wyłącznie z galaktyk spiralnych. Z biegiem czasu definicja "AGN" stała się przede wszystkim spektroskopowa (oparta na obecności silnych linii emisyjnych, z wyjątkiem obiektów BL Lac). AGN o wysokiej jasności znajdują się zarówno w galaktykach eliptycznych, jak i spiralnych, chociaż przy niskim przesunięciu ku czerwieni RLAGN znajdują się preferencyjnie w galaktykach eliptycznych. Do niedawna powszechnie uważano, że istnieje korelacja między AGN a jasnością galaktyki macierzystej: jaśniejsze AGN znajdują się w jaśniejszych galaktykach. Istnieją jednak silne efekty selekcji, które mogą prowadzić do takiego wniosku. Niedawne obserwacje kwazarów za pomocą Kosmicznego Teleskopu Hubble′a (w celu pomocy w wykrywaniu słabych galaktyk macierzystych z AGN o wysokiej jasności) i nie tylko poprzez prace badawcze na pobliskich galaktykach (w celu znalezienia słabego AGN w jasnych hostach) nie potwierdziły istnienia silnej korelacji między AGN a jasnością galaktyki macierzystej. Słabe AGN znajdują się zarówno w galaktykach macierzystych o niskiej, jak i wysokiej jasności, podczas gdy AGN o wysokiej jasności występują tylko w jaśniejszych galaktykach macierzystych. W wyniku dużej części obserwacji za pomocą Kosmicznego Teleskopu Hubble′a wydaje się obecnie, że praktycznie wszystkie galaktyki zawierają w swoich jądrach supermasywne czarne dziury. Identyfikacja obiektów supermasywnych wymaga pomiaru dyspersji dużych prędkości w małych skalach przestrzennych (a tym samym wymaga wysokiej rozdzielczości kątowej możliwej do uzyskania przy obrazowaniu kosmicznym), co prowadzi do pomiarów masy wirialnej. Najciekawsze wydaje się teraz przejście od "czy supermasywne czarne dziury istnieją?" do "dlaczego niektóre supermasywne czarne dziury gromadzą masę (AGN), podczas gdy inne nie są (normalnymi galaktykami)"? To, czy jądro jest zasilane, czy nie, może być związane z tym, jak łatwo jest wprowadzić gaz do jądra galaktyki, a to z kolei może zależeć od charakterystyki galaktyki macierzystej.

Rozszerzona emisja promieniowania rentgenowskiego

Wysoka (jak na promieniowanie rentgenowskie) rozdzielczość przestrzenna High Resolution Imager na satelicie rentgenowskim ROSAT (∼5″ ) ułatwiła obrazowanie jasnych, pobliskich galaktyk Seyferta, takich jak NGC 1068 i NGC 4151. że znaczna część (do ∼50%) emisji promieniowania rentgenowskiego może pochodzić z rozszerzonego obszaru wokół centralnego AGN. W kilku źródłach ta emisja promieniowania rentgenowskiego jest przestrzennie skorelowana z NLR. Źródłem rozszerzonej emisji promieniowania rentgenowskiego może być rozpraszanie elektronów centralnej emisji promieniowania rentgenowskiego lub emisja promieniowania rentgenowskiego z gorącego, wiejącego wiatru. Obserwatorium Rentgenowskie Chandra (NASA) ze swoją bezprecedensową rozdzielczością przestrzenną (∼0,5″) pozwoli na wykonanie znacznie większej liczby takich badań przestrzennych.

Emisja megamasera

Do najbardziej ekscytujących obserwacji AGN w ostatnich latach należy emisja maserów wodnych w reżimie radiowym. Obserwacje radiowe, ze względu na długie fale i odpowiednio większe teleskopy, które można zbudować lub zsyntetyzować, są obecnie niedoścignione pod względem rozdzielczości przestrzennej, jaką mogą uzyskać, zwykle do poziomu milisekundy kątowej (mas). Niedawne obserwacje emisji masera wody w słabo jasnej galaktyce Seyferta 1,9 NGC 4258 wykazały kilka składowych, których prędkości dokładnie odpowiadają krzywej rotacji Keplera. W połączeniu z ich pozycjami kątowymi, te źródła maserowe wskazują na wypaczony, nachylony, geometrycznie cienki dysk molekularny w skali poniżej parseka i prowadzą do oszacowania (3,5 ± 0,1) × 107 M dla masy centralnej czarnej dziury, pierwszy bezpośredni i precyzyjny taki pomiar. Obserwacje masera z innych źródeł również dostarczyły informacji w podobnej skali, ale jak dotąd żadne nie były tak szczegółowe jak NGC 4258.

Linie absorpcyjne

Optyczne i UV


Widma optyczne i UV AGN zawierają cechy absorpcji ze względu na materiał wzdłuż linii wzroku między nami a źródłem kontinuum optyczno-UV, zarówno w samym AGN, jak iw przestrzeni pośredniej. Interweniujące absorbery, których przesunięcia ku czerwieni są zawsze niższe niż przesunięcia ku czerwieni QSO w tle, są najliczniejsze w QSO z wysokim przesunięciem ku czerwieni z odpowiednio dłuższą linią wzroku. Dominują w nich linie z podstawowego przejścia obojętnego wodoru, Lyα λ 1215. Linie te, znane jako "las Lymana α", dostarczają wielu informacji na temat rozmieszczenia zimnej materii we wszechświecie. Zakres gęstości kolumn w tych układach absorbujących jest szeroki, NH ≈ 1013-1021 cm-2, tak że cechy metali, Mg II λ 2798, C IV λ 1549 i przerwy graniczne Lymana są obserwowane w podzbiorze. Przy wysokim przesunięciu ku czerwieni, gdzie tylko najjaśniejsze źródła, głównie QSO, są dla nas widoczne, las Lyman α zapewnia nam jedyny widok na zimną materię i dlatego jest bardzo ważnym oknem na wczesny Wszechświat dla badań kosmologicznych. Najciekawsza klasa absorberów, jeśli chodzi o badania QSO, jest związany z wewnętrznymi absorberami. Są to systemy linii metalowych o dużej gęstości kolumn, które występują w ponad 50% wszystkich AGN i których przesunięcie ku czerwieni jest bliskie, a czasem nawet nieco większe niż QSO tła. W widmach optycznych UV o wystarczająco wysokiej rozdzielczości (≲ 5Å) linie są często widoczne w szerokich profilach linii emisyjnych. Utrudnia to ich badanie, ponieważ ani ich profile, które często obejmują wiele składników, ani linie emisyjne, które pochłaniają, nie są znane. Wymagane są dane o wysokiej rozdzielczości i stosunku sygnału do szumu, a nawet wtedy niepewność jest zwykle wysoka. Uważa się, że absorpcja pochodzi z materiału znajdującego się blisko jądra QSO i poruszającego się względem niego, zwykle w kierunku na zewnątrz. Wykazują one zakres jonizacji od niskiego, gdzie dominuje Mg II, do wysokiego, gdzie przeważa C IV lub nawet O VI λ 1034. Uważa się, że te pochłaniacze o wysokiej jonizacji również odpowiedzialne za omówione poniżej pochłaniacze ciepła promieniowania rentgenowskiego.

Ciepłe pochłaniacze promieniowania rentgenowskiego

Obszar widmowy miękkiego promieniowania rentgenowskiego jest silnie uzależniony od absorpcji atomowej z powodu dowolnego materiału wzdłuż linii wzroku między nami a źródłem promieniowania rentgenowskiego w samym AGN. Nasza Galaktyka ma znaczną gęstość kolumn neutralnej (zimnej) materii, której sygnatura jest obecna w widmach miękkiego promieniowania rentgenowskiego AGN (w zakresie 0,1-5 keV). Galaktyka gospodarza AGN tworzy podobny podpis. Oprócz tej zimnej absorpcji, w miękkich widmach rentgenowskich często obserwuje się absorpcję przez zjonizowany (ciepły) materiał. Na ogół świadczy o tym obecność silnej absorpcji na krawędzi (krawędziach) silnie zjonizowanego tlenu (O VII lub O VIII) lub, w przypadku danych o niższej rozdzielczości, "wyciek" miękkich fotonów powyżej oczekiwań dotyczących zimnej absorpcji od nieprzezroczystość niskoenergetyczna zmniejsza się wraz ze wzrostem jonizacji. Wszystko wskazuje na to, że wszystkie lub prawie wszystkie QSO wykazujące ciepłą absorpcję promieniowania rentgenowskiego mają również powiązane linie absorpcyjne w UV, które obejmują linie o wysokiej jonizacji, takie jak OVI i NV λ 1240. Niedawne prace wykazały, że wypływający materiał o dużej gęstości kolumn może wytwarzać zarówno właściwości rentgenowskie, jak i UV takich absorberów. Wynikająca z tego kombinacja ograniczeń związanych z promieniowaniem UV i promieniowaniem rentgenowskim nałożonym na materiał pochłaniający zapewniła nam bezprecedensowo skuteczną diagnostykę absorbera. Wydaje się, że jest to materiał o dużej gęstości kolumnowej (NH ≈ 1020-22 cm-2), wypływający z regionu centralnego przy prędkościach ∼100-1000 km s-1, położone między BLR i NLRat ≈1017 cm i często zawierające kilka odrębnych składników w ramach pojedynczego systemu.

Szerokie linie absorpcyjne

Najbardziej dramatycznymi cechami absorpcji widocznymi w widmach UV-optycznych QSO są szerokie linie absorpcyjne (BAL) . Są to wewnętrzne absorbery o wysokiej gęstości kolumnowej (NH ≈ 1020-23 cm-2) wypływające z jądra QSO. Mają zakres jonizacji (stąd C IV lub Mg II BAL) i szeroki zakres prędkości, czasami zbliżający się do ∼10% prędkości światła. Absorpcja generalnie zawiera dużo struktury, chociaż niewielki podzbiór ma gładkie profile typu P-Cygni, co wskazuje na gładki, kulisty odpływ. Ponieważ pochłaniają tak dużo kontinuum QSO i emisji liniowej, bardzo trudno jest je badać ilościowo. Widma o wysokiej rozdzielczości i wysokim stosunku sygnału do szumu są niezbędne wraz ze szczegółowym modelowaniem zarówno cech emisji, jak i absorpcji w celu uzyskania informacji o gęstościach kolumn w funkcji prędkości dla tego materiału. Interpretacja generalnie dotyczy turbulentnego, odpływającego wiatru w pobliżu jądra QSO i obejmującego znaczną część centralnego źródła kontinuum i BLR. Źródła te są powszechnie emiterami słabego promieniowania rentgenowskiego, w większości niewykrywanymi do granic znacznie niższych niż inne QSO. Silna absorpcja obserwowana w tych nielicznych wykrytych do tej pory prowadzi do interpretacji w kategoriach absorpcji emisji promieniowania rentgenowskiego przez ten sam, wypływający wiatr i sugeruje, że gęstość kolumn jest na górnym końcu podanego zakresu.



Aktywne galaktyki: obserwacja ich zmienności przez amatorów

Amatorzy zaczęli interesować się obserwacjami jaśniejszych aktywnych jąder galaktycznych (AGN) stosunkowo wkrótce po ich odkryciu pod koniec lat 60. XX wieku, chociaż niewielką ich liczbę zaobserwowano tak, jakby wcześniej obserwowano gwiazdy zmienne. Czołowi amatorzy obserwowali zatem jaśniejszych AGN od ponad pięciu dekad monitorują zmiany ich jasności. Ponadto wielu obserwatorów rekreacyjnych wyśledziło wizualnie te słabe plamki, szczególnie 3C273 w Pannie, i zdumiało się tym widokiem, chociaż nie tyle ich wyglądem, ile ich niezwykłą naturą. Pierwszy formalny skoordynowany program dla amatorów monitorowania AGN rozpoczął się w Wielkiej Brytanii pod koniec lat 70-tych. Sekcja Gwiazd Zmiennych Brytyjskiego Stowarzyszenia Astronomicznego dodała do swojego programu 3C273, NGC 4151 i Markarian 421. Były one monitorowane wizualnie, jak słabe gwiazdy zmienne. Wraz ze wzrostem apertury teleskopowej w latach 80. do programu dodano więcej AGN. Zainteresowaniem zainteresowała się organizacja Astronomer, która dodała tę klasę obiektów do swojego programu, który pozostaje aktywny - obserwacje do dziś publikowane są w miesięczniku The Astronomer. Potencjał poważnych prac fotograficznych odkryto pod koniec lat 80. XX wieku, a technika umożliwiła dodanie kilku słabszych przykładów, które były zbyt słabe dla większości obserwatorów wizualnych. Był to ograniczony sukces, trudności w patrolowaniu fotograficznym ograniczały popularność. Dopiero pojawienie się URZĄDZENIA CHARGE-COUPLED DEVICE (CCD) i jego dostępność dla amatorów umożliwiły kolejny impuls do obserwacji AGN. Nie ma wątpliwości, że interesuje się zawodowo obserwacjami amatorskimi - wsparcie i zachętę udzieliło kilku międzynarodowych astronomów, CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW. Ogólne cele amatorskich obserwacji AGN są trojakie:

•  monitorowanie widocznych zmian jasności dostępnych AGN ;
•  zmierzyć takie zmiany i zbudować możliwie najdokładniejszą krzywą blasku w zakresie widzialnych długości fal;
•  ostrzeganie zawodowych astronomów o niezwykłej i przewidywanej aktywności będącej przedmiotem zainteresowania oraz regularne przeprowadzanie rutynowych obserwacji.

W celu możliwie częstego monitorowania jak największej liczby AGN stworzono skoordynowany program. Obecnie dla dobrze wyposażonego amatora dostępnych jest ponad 20 AGN. Chociaż większość z nich jest stosunkowo słaba, kilka jest dostępnych wizualnie dla skromnych teleskopów i wszystkie powinny być dość proste cele dla użytkowników CCD. Zachęca się obserwatorów do prowadzenia obserwacji tak regularnie, jak pozwala na to niebo i warunki. Prawie wszystkie AGN w programie są wykreślone w Uranometria 2000, chociaż niektóre mają alternatywne oznaczenia w stosunku do bardziej popularnych terminów. Jednakże użycie współrzędnych powinno umożliwić identyfikację bez trudności. Po zlokalizowaniu jasność AGN można oszacować lub zmierzyć wizualnie, fotograficznie lub za pomocą CCD. Każdy ma swoje zalety i problemy. Na korzyść podejścia wizualnego przemawia możliwość obserwacji kilku obiektów w sesji; wyniki uzyskuje się szybko, a sprzęt jest stosunkowo niedrogi, chociaż realistycznie rzecz biorąc, w przypadku tak słabych obiektów potrzebna jest większa apertura. Jednakże teleskop nie musi być montowany równikowo. Naprzeciw tym zaletom stoją problemy związane ze znalezieniem stosunkowo słabych obiektów z miejsc odbiegających od idealnych, przy problematycznych warunkach nieba, spowodowanych zanieczyszczeniem światłem, bimberem, wysokimi cirrusami i tak dalej. Niezbędne jest doświadczenie w pracy z gwiazdami zmiennymi. Nieuchronnie pojawia się pewna stronniczość obserwatora, chociaż można to skompensować, podobnie jak w przypadku innych obserwacji gwiazd zmiennych. Nawet jeśli sama AGN nie stanowi większego problemu, słabsze gwiazdy porównania mogą okazać się trudne. Choć liczba dostępnych AGN jest ograniczona, posiadacze teleskopu o średnicy 16 cali lub większej mogą obserwować ich jeszcze kilkanaście. Wydaje się, że fotografia zmniejsza niektóre z tych barier. Można osiągnąć słabsze jasności, dzięki czemu dostępne będą bardziej aktywne galaktyki i łatwiej będzie uzyskać porównania. Osobiste uprzedzenia są zmniejszone, a wyniki można łatwo wyświetlić i odtworzyć. Jednakże niezbędny staje się teleskop równikowy lub napędzany, co zwiększa zaangażowanie finansowe. Aby uzyskać dokładne wyniki, na które zasługuje czas i nakłady finansowe, konieczna staje się standaryzacja i formalny pomiar. Wymagałoby to od obserwatora użycia standardowej kliszy (w przeszłości zalecano Kodak 103aB, ale jest on trudno dostępny i trzeba testować inne emulsje). Pożądane są również filtrowane obrazy, a do dokładnego oszacowania wielkości idealne są pomiary mikrodensytometryczne. Dodaj do tego żmudny proces samej fotografii i pracę w ciemni, a być może zrozumiałe jest, że programy fotograficzne końca lat 80. tak naprawdę nigdy nie doszły do skutku. Szansa na odkrycie nowej lub supernowej często stanowi odpowiednią zachętę do zaangażowania się w prace patrolowe, ale monitorowanie istniejącego obiektu rok po roku jest być może mniej kuszące. Odpowiedzią na to pytanie wydaje się być rewolucja CCD. Obrazy wykonane przy użyciu matryc CCD mogą sięgać bardzo głęboko, nawet przy niewielkich przysłonach. Wiele AGN jest dostępnych dla posiadaczy 10 teleskopów wyposażonych w matrycę CCD. Znalezienie obiektów z mniejszymi chipami CCD było kiedyś niezwykle trudne, ale nowoczesne udogodnienia GoTo w wielu nowoczesnych teleskopach oznaczają, że można z pewnością znaleźć pole, a następnie zidentyfikować AGN na mapach i sfotografować go naprawdę dość szybko oraz wykonać pomiar. Oprogramowanie komputerowe staje się coraz bardziej wyrafinowane i przy zachowaniu ostrożności powinna być możliwa fotometria z dokładnością do około 0,1 magnitudo. Dane można łatwo przechowywać na dysku i odtwarzać w dowolnym czasie. Dzięki szybkiemu porównaniu z obrazem wzorcowym możliwe jest wykazanie znaczących zmian jasności. Ten szczęśliwy stan rzeczy łagodzony jest koniecznością wydania sporej sumy pieniędzy na sprzęt. Oprócz teleskopu napędzanego na wyposażeniu znajduje się kamera CCD i komputer oraz niezbędne oprogramowanie. Zatem uzyskanie pierwszego znaczącego obrazu CCD AGN może kosztować obserwatora kilka tysięcy dolarów. Ponadto nie wszystkie matryce CCD mają tę samą czułość. Większość z nich ma odchylenie czerwone, co zniekształca wyniki, ale różne aparaty mają różne profile, więc aby fotometria była naprawdę użyteczna dla profesjonalistów, coraz wyraźniej widać, że potrzebna jest filtracja (patrz CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW, FILTRY ). Ostatecznie dopuszczalne może być użycie tylko filtrów B i V, nawet jednego z nich. Jednak proste monitorowanie bez fotometrii nie wymaga obrazów z filtrem, co może być nadal przydatne, nawet jeśli obserwator nie ma dostępu do żadnych filtrów. Obecnie większość obserwacji ma charakter wizualny, z pewnymi obrazami CCD, ale w miarę zwiększania się liczby użytkowników CCD poszukujących poważnych projektów, nacisk może się zmienić. AGN stanowią wspaniałe wyzwanie dla poważnego obserwatora-amatora, który pragnie wnieść swój niewielki wkład w dziedzinę nauki, w której profesjonaliści chętnie przyjmą pomoc, jeśli zostanie ona udzielona ostrożnie. Choć nie zapewniają zbyt wielu spektakularnych widoków, AGN pobudzają wyobraźnię w sposób równie satysfakcjonujący dla dociekliwego umysłu. Techniki są udoskonalane, jakość wyników będzie coraz bardziej udoskonalona, a badania najgłębszych obiektów głębokiego nieba wkrótce nabiorą tempa.


Aktywne galaktyki: Przegląd

Zdefiniowanie "AKTYWNEGO JĄDRA GALAKTYCZNEGO" (AGN) może być trudne. Ostatnie dwa słowa są stosunkowo proste, ponieważ AGN jest wydarzeniem energetycznym, którego nigdy nie można znaleźć nigdzie we wszechświecie, z wyjątkiem centralnych parseków galaktyki. Nie jest to zaskakujące, ponieważ jakiekolwiek tarcie dynamiczne powinno wkrótce zmusić bardzo masywny, zwarty obiekt do osadzenia się w centrum galaktycznego pola grawitacyjnego ma potencjał. Mówi się, że JĄDRO AGALAKTYCZNE jest "aktywne", jeśli generuje "znaczną" (lub wykrywalną) ilość energii w wyniku procesów innych niż te występujące gdziekolwiek indziej w galaktykach. Oznacza to, że energia "aktywności" nie jest wytwarzana w wyniku ewolucji gwiazd i materii międzygwiazdowej. Definicja ta jest czysta, ponieważ jest teoretyczna. Rzeczywiste zadanie obserwacyjne polegające na identyfikacji AGN może być trudne, zwłaszcza gdy aktywność gwiazd pozagwiazdowych jest słaba w porównaniu z tłem normalnych procesów gwiezdnych, w tym narodzin i śmierci. Znacząca klasyfikacja AGN jest trudniejsza. Zrozumienie ich fizycznej natury jest jeszcze trudniejsze. Problemy są jeszcze bardziej skomplikowane, ponieważ aktywność niegwiazdowa uwalnia energię w wielu postaciach i przy długościach fal fotonów obejmujących prawie całe widmo elektromagnetyczne. Ponieważ instrumenty i metody obserwacyjne różnią się znacznie w zależności od pasma fal, zaproponowano wiele nakładających się schematów i modeli klasyfikacji specyficznych dla długości fali. Nic dziwnego, że astronomowie jako pierwsi dowiedzieli się o bardziej spektakularnych i świetlistych przykładach AGN. Jądra te były na tyle jasne, że mogły przyćmić całą galaktykę, w której się znajdowały. Były też bardzo odległe i często nie było możliwe, zanim bardzo czułe obrazowanie wykryło otaczającą galaktykę, odróżnienie ich wyglądu optycznego od wyglądu gwiazdy. Doprowadziło to do określenia ich jako obiektów quasi-gwiazdowych. Niektóre z pierwszych z nich były także potężnymi źródłami radiowymi i wkrótce termin ten został skrócony do "kwazaru", który obecnie ogólnie odnosi się do wszystkich AGN o dużej jasności. Ich wyjątkowa natura stała się bardziej oczywista, gdy badano ich widma, w niemal każdym obszarze długości fali. Te unikalne właściwości odkryto obecnie w aktywnych jądrach o niezwykłym zakresie jasności1. Istnieją jedynie zaskakująco subtelne różnice spektroskopowe pomiędzy kwazarem o jasności 1048erg s-1 a tym, co wcześniej zidentyfikowano jako "jądro galaktyki Seyferta" o jasności 1042erg s-1. Dowody są przytłaczające, że te dwie kategorie astronomiczne muszą mieć jedno wspólne wyjaśnienie fizyczne. Dlatego dzisiaj prawie nie dokonuje się rozróżnienia między "kwazarem" a "jądrem Seyferta 1", ponieważ ich główna różnica polega (nieco arbitralnie) na ich jasności.

Zrozumienie silnika centralnego w AGN

Istnieje kilka kluczowych pomysłów, które są wykorzystywane do organizowania i nadania sensu naszym obszernym i rosnącym informacjom obserwacyjnym na temat AGN.

Ujednolicone modele

Od najwcześniejszych badań AGN uznano, że mogą one wykazywać silne różnice obserwacyjne pomimo wielu innych podobieństw. Wydaje się, że dwie cechy mają wystarczająco bimodalny rozkład, aby uzasadnić użycie ich do podziału AGN na dwie pary klas: silna emisja radiowa (która odróżnia radiogłośną (RL) od radiosłabej (RW)AGN) i szeroko dozwoloną emisję liniową (która odróżnia jądra Seyferta typu 1 od typu 2). Większość kwazarów to jedynie umiarkowanie silniejsze źródła radiowe niż zwykłe galaktyki. (Czasami określa się je jako ciche radiowo (RQ) AGN, choć ściśle mówiąc szczerze, emitują pewien strumień radiowy, więc RW jest dokładniejszym opisem.) Ważna mniejszość kwazarów jest dobrze znana z wiązek wysokoenergetycznych cząstek, które przyspieszają. Emisja radiowa z tych odrzutowców jest prawie zawsze dwubiegunowa, co jest kluczowym wskaźnikiem tego, że silnik centralny może mieć symetrię osiową. W wielu modelach ta oś dżetu jest osią obrotu centralnej masywnej czarnej dziury. Najbardziej dramatyczna podpróbka RLAGN, "blazary" (luźno nazwana na cześć prototypowego obiektu BL Lacertae), silnie spolaryzowane, gwałtownie zmienne, strome czerwone kontinuum, została zidentyfikowana jako nietermiczna emisja synchrotronowa. Blazar to nieformalny termin używany do określenia prototypowych nietermicznych obiektów BL Lacertae (z bardzo słabymi liniami emisyjnymi), a także gwałtownie zmiennych optycznie kwazarów. Mapy interferometryczne pokazały, że emisja radiowa zdominowana przez jądro generalnie miała jednostronny dżet, który często wydaje się rozszerzać z pozornymi prędkościami poprzecznymi kilka razy większymi niż ok. Najbardziej ekstremalne z tych obiektów wydają się emitować znaczną część swojej energii w postaci promieni gamma, a być może nawet do energii TeV. Wszystkie te niezwykłe (i wyraźnie niegwiazdowe) właściwości blazarów zostały wkrótce zrozumiane jako wynik obserwacji relatywistycznego strumienia (elektronów i protonów lub pozytonów), który wyłania się z aktywnego jądra blisko naszej linii wzroku. Ten niemal "biegunowy" kąt widzenia powoduje kilka efektów relatywistycznych, takich jak wzmocnienie Dopplera "wiązki" emisji synchrotronowej i kompresja pozornych skal czasowych, co uwzględnia "ruch nadświetlny" bez naruszania szczególnej teorii względności. Jednostronny charakter najbardziej wewnętrznych dżetów przypisuje się zwykle "faworyzowaniu Dopplera". Jeśli obecnie występuje wypływ w przeciwnym kierunku (co przewidują niektóre modele teoretyczne, ale jeszcze nie zostało potwierdzone), jest on niewidoczny, ponieważ dewzmocnienie Dopplera powoduje, że jest on tysiące razy słabszy. Bezpośrednią konsekwencją wyjaśnienia RL AGN zdominowanego przez jądro jest to, że więcej AGN ze strumieniami radiowymi musi być skierowanych w stronę od Ziemi. Muszą one być wykrywalne na podstawie ich emisji izotropowej (linie lub rozległe płatki radiowe) jako RLAGN zdominowane przez płatki lub być może "radiogalaktyki" (których właściwości optyczne mogą obejmować obszary linii emisyjnych Sefyert 2 lub nawet obszary linii emisyjnych o niskiej jonizacji (LINER)). Linie emisyjne (niepromieniowane) mogą być wykrywalne lub nie, ale są trudniejsze do wykrycia w świetle wzmocnionego kontinuum nietermicznego strumienia. Badania te wykazały, że centralny silnik w AGN (przynajmniej RL) ma silną symetrię bipolarną, która została zachowana przez miliony lat lub dłużej w największych dwupłatowych źródłach radiowych. Udowodnili także, że obserwacyjny wygląd RLAGN może w ogromnym stopniu zależeć od kąta patrzenia. Jednakże nie jest jeszcze pewne, w jakim stopniu te same spostrzeżenia można przenieść do większości AGN, którymi są RW. Szerokie dozwolone linie emisyjne są zwykle uważane za jedną z cech charakterystycznych AGN. Powstają z fotojonizowanego gazu o dużej gęstości. Ich wysoki stan jonizacji i duży zakres prędkości wskazują, że powstają one w "obszarze szerokiej linii" (BLR) stosunkowo blisko centralnego silnika. Jednakże na każdą szerokoliniową AGN o danej jasności (sklasyfikowaną jako "Seyfert 1") przypada co najmniej jedno jądro galaktyczne, które w innym przypadku mogłoby zostać sklasyfikowane jako Seyfert, ale które nie ma emisji szerokoliniowych i jest klasyfikowane jako "Seyferta 2". W Seyfert 2 bezpośrednie oglądanie centralnego silnika i otaczającego go BLR jest trudne lub niemożliwe. W niewielkiej liczbie przypadków występują mocne dowody na istnienie silnika centralnego w postaci silnie pochłoniętego (NH ∼ 1023 cm-2) źródła kontinuum twardego promieniowania rentgenowskiego lub szerokich skrzydeł linii emisyjnej Balmera widocznych w widmie liniowym polaryzowane światło. Mniej bezpośrednim dowodem jest wykrycie emisji fluorescencyjnej z linii rentgenowskiej K? przy 6,4 keV. W niektórych Seyfertach 2 bardzo duża równoważna szerokość tej linii (około rząd wielkości większa niż w niezasłoniętych Seyfertach 1) jest interpretowana jako zasilana przez jądrowe źródło twardego promieniowania rentgenowskiego, z którego praktycznie nic nie jest widoczne wzdłuż naszej bezpośredniej odległości. linii wzroku do jądra. Podobny argument wysunięto na podstawie spektroskopii UV: zsumowanie wszystkich fotonów jonizujących wywnioskowanych z kontinuum UV wydaje się niewystarczające, aby uwzględnić cały wykryty strumień linii emisyjnej Seyferta, a zwłaszcza kontinuum podczerwieni powiązane z aktywnym jądrem. Zakładając, że kontinuum 2-10 μm w Seyfercie 1s i 2s to energia AGN, która została ponownie wypromieniowana przez ziarna pyłu (patrz sekcja "Przetwarzanie" poniżej), w Seyfercie 2 sugeruje się jeszcze więcej niewidocznej mocy niegwiazdowej. Ten "deficyt energii" przemawia za wysokoenergetycznym źródłem energii, które jest obecne, ale nie jest bezpośrednio obserwowalne. Jednakże argumenty te nie są rozstrzygające. Rachunek energii obarczony jest wieloma dużymi niepewnościami i istnieją inne wiarygodne wyjaśnienia linii emisyjnej K?, które nie wymagają istnienia zakopanego źródła promieniowania rentgenowskiego AGN. Chociaż trudno jest uzyskać bardzo czułe obserwacje wymagane w tych testach, wiele dokładnych obserwacji nie ujawniło żadnych bezpośrednich dowodów na niegwiazdowe kontinuum z centralnego silnika. Bardziej rozbudowane wskazania widoczne w tych Seyfertach 2 - linie wąskoemisyjne i źródła radiowe - mogły zostać wygenerowane przez AGN, który "wyłączył się" wieki temu. Rodzi to empiryczne pytanie, czy większość jąder Seyferta może włączać się i wyłączać na przestrzeni wieków. Chociaż żadnej nie obserwowano przez tak długi czas2, w ciągu dziesięcioleci obserwacji zaobserwowano bardzo niewiele kompletnych przejść Seyferta 2 ⟷ Seyferta 1. Niemniej jednak założenie ujednolicenia jest takie, że wszystkie Seyferty 2 mają obecnie aktywny silnik centralny, który jest po prostu bardzo zasłonięty. Nawet jeśli ujednolicenie jest ogólnie prawidłowe, wymaga po prostu optycznie gęstego gazu, co wiąże się z bardzo dużą ekstynkcją pyłu, pomiędzy nami a jądrami galaktyk Seyferta 2. Wiadomo jedynie, że ten zasłaniający obszar musi być wystarczająco duży, aby zakryć szeroki obszar linii emisyjnej, widziany przez znaczną część linii wzroku centralnego silnika3. Podobnie ziarna pyłu muszą przechwycić znaczną część centralnego kontinuum i ponownie je napromieniować, aby wytworzyć silną emisję w bliskiej do średniej podczerwieni, charakterystyczną dla jąder Seyferta 1 i 2. Popularna specjalna wersja unifikacji proponuje, aby ta pochłaniająca materia była silnie niesferyczna i rozmieszczona w grubym torusie (o charakterystycznej średnicy od parseków do dziesiątek parseków), który jest współosiowy z centralnym silnikiem. W modelu grubego torusa brak materiału zasłaniającego nad biegunami torusa umożliwia fotonom z centralnego silnika jądrowego rozproszenie się w wyraźnej linii wzroku do Ziemi. Rezultatem byłoby rozproszone widmo jądrowe - szerokie linie emisyjne i kontinuum niegwiazdowe - które obserwujemy tylko w świetle spolaryzowanym. Ponieważ torus ma być ustawiony w jednej linii z osią centralnego silnika, wektor polaryzacji E powinien być równoległy do osi radiowej. Ta ostatnia jest trudna do zmierzenia, ale jest w przybliżeniu równoległa do polaryzacji w niektórych z najlepiej zmierzonych Seyferta 2. Kolejnym słabym dowodem na preferowaną "oś ucieczki" dla jonizujących fotonów AGN jest luźna tendencja do tego, że rozszerzone zjonizowane linie emisyjne w Seyfercie 2 pochodzą z dwubiegunowych "stożków". Jednakże w wielu Seyfert 2 istnieją dowody (np. z obrazowania HST), że zamiast tego dużo zaciemnienia występuje w galaktycznych pasach pyłowych. Zaobserwowano, że mają one rozmiary setek parseków i w ogóle nie są powiązane z centralnym silnikiem, z wyjątkiem tego, że zdarza się, że zasłaniają nam widok. Nadal nie jest jasne, ile, jeśli w ogóle, Seyfertów 1 i 2 rzeczywiście zawiera kompletne, grube tori owinięte wokół centralnych silników.

Emisja cieplna z przepływu akrecyjnego

Uważa się, że ogromne ilości energii wytworzonej z bardzo małych objętości, które obserwuje się w świecących kwazarach, powstają w wyniku akrecji czarnych dziur. Aby uniknąć znacznego przekroczenia granicy Eddingtona, akreujące czarne dziury muszą mieć masy kilku 106 -109 Słońc. Jednak konwersja potencjalnej energii grawitacyjnej napływającej materii na promieniowanie nie jest wcale wydajna, jeśli występuje opad czysto promieniowy. Również ogólne rozważania na temat momenut pędu gazu głęboko w jądrze galaktycznym silnie sugeruje, że przepływ akrecyjny musi w końcu szybko się obracać, ponieważ zbliża się do czarnej dziury. Wtedy możeakreować i zasilać AGN tylko wtedy, gdy doświadcza tarcia. Choć nie jest to jeszcze dobrze poznane, ten kluczowy proces przenosi moment pędu na zewnątrz, umożliwiając zasilenie czarnej dziury. Akrecji tej towarzyszy duże uwolnienie energii radiacyjnej, która zasila AGN. Fakt, że moment pędu jest ważny w przepływie akrecyjnym, potwierdza obserwacja, że silnik centralny jest dwubiegunowy. Jej oś symetrii jest naturalnie zidentyfikowana z osią wirowania przepływu akrecyjnego i jest kierunkiem najbardziej prawdopodobnych wypływów. Istnieją również dowody obserwacyjne na to, że obserwujemy bezpośrednio promieniowanie emitowane termicznie z tego strumienia akrecyjnego, gdy spiralnie wpada on do czarnej dziury. Jedną z charakterystycznych cech widma centralnego źródła kontinuum AGN jest szeroki garb, który wydaje się osiągać szczyt gdzieś w zakresie UV. To przegięcie, określane jako "nadmiar ultrafioletu" lub "duży niebieski guz", często zawiera największą część całkowitej jasności AGN.

Główne argumenty przemawiające za termicznym pochodzeniem tego kontinuum niebieskiego - UV są następujące.

•  Jego kształt widmowy. Szeroki pik w zakresie UV można dopasować poprzez sumę obszarów emitujących ciepło w zakresie temperatur, ze środkiem w okolicach ∼30 000 K. W prostym, optycznie grubym dysku akrecyjnym, jakiego można by się spodziewać w przypadku większości świecących AGN, temperatura termiczna przepływ akrecyjny jest proporcjonalny do r-3/4. Po uwzględnieniu poprawek relatywistycznych suma emisji cieplnej z pierścieni o różnych promieniach daje widmo z szerokim pikiem, które jest płaskie w jednostkach gęstości strumienia (F? = stała) i ma obrót o wysokiej częstotliwości. Modele, które traktują dysk jako sumę ciał doskonale czarnych, zapewniają wyjątkowo dobre dopasowanie do wszystkich rozkładów energii widmowej optycznej i UV obserwowanych w AGN.
•  Częstotliwość szczytowa. Efektywna temperatura przepływu akrecyjnego jest w przybliżeniu określona przez równowagę pomiędzy grawitacyjną energią potencjalną uwolnioną w wyniku akrecji lepkiej a emitowanym promieniowaniem4. W cienkim dysku warunek ten wynosi Tackrecja = (3GMbhM˙/8πr3)1/4 = (30 000K) (M8)1/4(L/LEddington)1/2. Jasności i częstotliwości szczytowe obserwowane w widmach kontinuum jąder Seyferta 1 i kwazarów są zgodne z temperaturami równowagi przewidywanymi dla akrecji dysku. Wymagane odpowiednie szybkości opadania masy wynoszą ∼ kilka procent i ∼ dziesiątki procent wartości granicznej Eddingtona dla wywnioskowanych mas czarnych dziur

Nawet w przypadku najwyższych możliwych wartości lepkości (odpowiadających najszybszemu dopływowi) akrecji. W rzeczywistości momenty lepkie transportują część tej energii potencjalnej na zewnątrz, ale większość z niej powinna ostatecznie wyłonić się w postaci fotonów. Powyżej szybkości akrecji Eddingtona dysk powinien nieco pogrubić, ale jego ogólne właściwości obserwacyjne mogą nie ulec znaczącym zmianom. nadal oczekuje się, że przepływ będzie bardzo nieprzezroczysty dla rozpraszania elektronów i prawdopodobnie będzie faktycznie gruby optycznie (τefektywny = (τesτff)1/2 > 1). Najlepszym obserwacyjnym dowodem na to jest wysoka wnioskowana emisyjność gazu emitującyego kontinuum UV. Prawdą jest, że optycznie cienkie modele termiczne mogą również pasować do obserwowanego kontinuum optyczno-UV. Charakterystyczne temperatury emisji bremstrahlung musiałyby wynosić 100 000 K lub więcej, ponieważ szczyty emisji wolnych i wolnych gazów osiągają przy około νthin = kT /h, a nie wyższej wartości dla funkcji Plancka: νthick = 3kT /h. Linie emisji EUV, których można się spodziewać z tak jasnej plazmy jeszcze nie zaobserwowano. Najpoważniejszą trudnością związaną z hipotezą free-free jest wyjaśnienie, w jaki sposób bardzo duża jasność kontinuum kwazara jest emitowana z małego obszaru. Aby jasność UV świecącego kwazara, takiego jak 3C 273, zmieniała się w wielomiesięcznych skalach czasowych, potrzebny jest mały obszar emitujący ciepło o wysokiej emisyjności, w rzeczywistości tak wysokiej, że emiter musi mieć głębokość optyczna przekraczająca 1. W tym momencie emitowane widmo będzie bardziej przypominało emisję optycznie gęstą niż optycznie cienkie widmo Lν ∝ exp(?h?/kT ). Główne ograniczenia lub niekompletność modelu cienkiego dysku akrecyjnego to słabość wszelkich obserwowanych cech widmowych na granicy Lymana, mała ilość polaryzacji liniowej oraz dowody monitorowania wielofalowego dotyczące ponownego przetwarzania, omówione w następnej sekcji. Widmo wychodzące z dysku akrecyjnego przy danym promieniu zależy od pionowej struktury "atmosfery" dysku. Pierścień dysku akrecyjnego różni się radykalnie od atmosfery jakiejkolwiek gwiazdy, ale ostatnio stało się możliwe obliczeniowo stworzenie realistycznych modeli widma wschodzącego innego niż LTE. Wiele pierścieni dysku emitujących promieniowanie UV ma wystarczająco niskie temperatury, aby nadal zawierać pewną część obojętnego wodoru. Powinno to prowadzić do gwałtownego wzrostu nieprzezroczystości wolnej od wiązań wzdłuż krawędzi Lymana. Niektóre modele przewidują, że doprowadzi to do skoku widmowego, przy czym strumień powyżej granicy Lymana będzie wyższy lub niższy niż strumień poniżej. Nieciągłości tych na ogół nie obserwuje się. Nieprzezroczystość dysku akrecyjnego jest prawdopodobnie zdominowana przez rozpraszanie elektronów. Czysta atmosfera rozpraszająca elektrony o nieskończonej głębokości optycznej, oglądana przy średnim nachyleniu cos i = 0,5, powinna emitować kontinuum termiczne, które jest spolaryzowane liniowo prawie 3%. Kąt położenia wektora elektrycznego powinien być równoległy do rzutowanej głównej osi dysku - prostopadły do osi obrotu dysku. Jednakże obserwacje pokazują, że większość polaryzacji AGN wynosi poniżej 0,5% w zakresie UV. Ponadto w przypadkach, w których można zdefiniować "oś" radiową, zazwyczaj nie jest ona prostopadła do wektora E strumienia spolaryzowanego. Największą niepewnością w tym teście są założenia, że powierzchnia dysku jest idealnie płaska i że pola magnetyczne w dysku są na tyle małe, że nie powodują zauważalnej rotacji Faradaya. Jedną z wad prostych modeli cienkiego dysku akrecyjnego, która może być powiązana z tymi konfliktami obserwacyjnymi, jest prawdopodobna obecność gorącej, optycznie cienkiej korony nad fotosferą powierzchni dysku. Szybkie elektrony w tym gazie o małej gęstości mogą komptonizować fotony termiczne uciekające z gęstego dysku, modyfikując ich widmo i polaryzację.

Utylizacja

W najprostszych modelach dysku akrecyjnego cała energia cieplna emitowana przez dysk pochodziła bezpośrednio z energii potencjalnej grawitacji, która jest transportowana na zewnątrz przez lepkie momenty obrotowe. Wiemy jednak, że AGN emituje również do 10% lub 20% swojej jasności przy częstotliwościach rentgenowskich. Te energie fotonów są zbyt wysokie, aby można je było łatwo wytłumaczyć paradygmatem termicznego dysku akrecyjnego, a ich strumień w pobliżu centrum jest bardzo duży. W zależności od geometrii część promieni rentgenowskich może zostać ponownie wchłonięta przez gęsty optycznie gaz akrecyjny, zanim uda im się uciec. Aby wyjaśnić garb "odbicia Comptona" obserwowany wokół 10-30 keV, prawdopodobnie wymagana jest pewna absorpcja promieni rentgenowskich. Przypuszcza się, że przyczyną powstania silnej linii emisyjnej Fe K? obserwowanej w wielu AGN jest ponowne przetwarzanie promieni rentgenowskich. Ponowne przetwarzanie fotonów o promieniach znacznie większych niż te, z których pochodzą, ma tendencję do degradacji energii uciekających fotonów. W najprostszym przypadku, gdy równowaga temperatury ciała doskonale czarnego materii poddawanej ponownemu przetworzeniu spada jako Tequil &prop L1/4r-1/2 (gdzie L jest jasnością centralnego źródła punktowego), powstałe widmo kontinuum termicznego ma tendencję do stromego opadania do nachylenia Lν ∝ ν?-1. Musi nastąpić pewne ponowne przetwarzanie; główne pytania brzmią: gdzie i za ile? Odpowiedź na pierwsze pytanie jest łatwa, zakładając, że zaabsorbowane fotony ulegają termizacji: promień ponownego przetwarzania określa poziom Tequil powstającego promieniowania, który powinien wynosić około kilku hν/kTequil. Na drugie pytanie można odpowiedzieć, jeśli potrafimy zmierzyć ułamek całkowitej ilości energii, która została pochłonięta. Jeśli założymy, że materia powtórna (gaz i pył, jeśli Tequil ma temperaturę poniżej 1000 K) jest nieprzezroczysta dla przychodzących fotonów o wysokiej energii, wówczas budżet energii może nam powiedzieć, jaki jest jej całkowity ułamek pokrycia nieba, tj. ułamek nieba widziany przez centralne kontinuum "źródło punktowe", które jest pokryte absorberami. Z definicji przetworzona jasność nie może przekraczać jasności pierwotnego źródła kontinuum wysokiej energii w centrum. W rzeczywistości jest mało prawdopodobne, aby ich jasność była w ogóle równa, ponieważ oznaczałoby to, że 100% linii wzroku prowadzących do środka jest zablokowanych, a w takim przypadku nie powinniśmy w ogóle widzieć tego bezpośrednio. Najlepszym obserwacyjnym dowodem ponownego przetwarzania jest wykazanie, że zmienność czasowa w pierwotnym paśmie fali jest następnie powielana przez te same zmiany strumienia na długości fali poddanej ponownemu przetwarzaniu, z wyjątkiem opóźnienia. Czas opóźnienia w tym "pogłosie" powinien być równy czasowi potrzebnemu światłu na podróż przez obszar, którego promień jest określony przez wartość Tequila oczekiwaną dla długości fali ponownie przetworzonego kontinuum. Najlepszym dowodem na ponowne przetwarzanie jest kontinuum bliskiej podczerwieni, które niesie ze sobą znaczną część (20% lub więcej) całkowitego budżetu energetycznego większości AGN. W kilku przypadkach jednoczesne monitorowanie bliskiej podczerwieni i kontinuum optycznego lub UV wykazało oczekiwane skorelowane rozjaśnianie i blaknięcie. Opóźnienie krzywej blasku w podczerwieni w stosunku do krzywej blasku przy krótszych falach jest zgodne z reemisją termiczną przez ziarna gorącego pyłu w ciągu roku świetlnego (lub nawet miesiąca świetlnego) centralnej elektrowni. Reakcją są głównie najgorętsze ziarna, które przeżywają w temperaturze tuż poniżej temperatury sublimacji wynoszącej około 1000-1500 K. Odległość od centralnego silnika, w której pył osiąga tę temperaturę, jest proporcjonalna do pierwiastka kwadratowego z centralnej jasności, co wyjaśnia zakres oczekiwanego promienia pogłosu pyłu. Mniej zdecydowane dowody sugerują, że część kontinuum optycznego, a być może nawet kontinuum UV, w niektórych jądrach Seyferta 1, może mieć wymierny udział ponownie przetworzonych promieni rentgenowskich. Dzieje się tak na kilku dobrze próbkowanych krzywych rentgenowskich i optycznych-UV, w których wykryto korelację i opóźnienie. Opóźnienia są tak małe, że sugerują, że wpływ fotonów o wysokiej energii rozprzestrzenia się na zewnątrz, do obszaru emitującego niską energię, z bardzo dużą prędkością. Opóźnienia są zgodne z tą prędkością wynoszącą c, tak jak powinno być, jeśli wpływ przenoszą fotony, które są następnie ponownie przetwarzane. Jednakże zmienność promieni rentgenowskich (w innych galaktykach, a także w niektórych galaktykach Seyferta 1 w innych epokach) często nie jest skorelowana ze zmianami na innych długościach fal, co budzi wątpliwości, czy duża część światła optyczno-UV w większości AGN jest w rzeczywistości przetwarzany na podstawie promieni rentgenowskich.

Wpływ galaktyk macierzystych

Galaktyki posiadające jądra Seyferta stanowią jedynie ułamek wszystkich galaktyk. Oszacowanie to komplikuje trudność zidentyfikowania AGN przy bardzo niskich jasnościach gwiazd niegwiazdowych. Na przykład wiele galaktyk ma słabe widma linii emisyjnych ze stosunkami linii pośrednimi pomiędzy widmami obszarów HII i jąder Seyferta, które określa się mianem galaktyk typu "LINER". Chociaż widma LINER można wytłumaczyć szybkimi wstrząsami, nadal można je uwzględnić jako posiadające aktywne jądra (a przypadek staje się coraz silniejszy w przypadku przynajmniej niektórych członków tej heterogenicznej klasy). Jeśli tak, to jest nawet możliwe, że większość galaktyk jest w pewnym sensie "aktywna". Najbardziej ostatecznym dowodem na istnienie prawdziwie niegwiazdowego jądra jest prawdopodobnie zwarte centralne źródło twardego promieniowania rentgenowskiego, najlepiej zmiennego. Jednakże zostałoby to przesłonięte przez gaz o gęstości kolumny 1025 cm-2, który jest optycznie gruby w porównaniu z rozpraszaniem elektronów Thomsona twardych promieni rentgenowskich. Może nie być całkowicie zaskakujące, że poza jądrem "galaktyki macierzyste" same w sobie prawie nie różnią się od galaktyk pozbawionych oczywistego AGN. Bardzo silny AGN może mieć ograniczony wpływ na ośrodek międzygwiazdowy swojej galaktyki, np. jonizując go, szokując i ściskanie go, a w niektórych szczególnych przypadkach nawet wywoływanie formowania się gwiazd, na przykład w pobliżu wypływającego strumienia. Głębszą tajemnicą jest przede wszystkim to, jakie właściwości galaktyki powodują AGN. Dwa najbardziej oczywiste to pochodzenie masywnej czarnej dziury i zdolność do dostarczenia wystarczającej ilości paliwa blisko jądra, aby ją "zasilić". Powstawanie masywnej czarnej dziury prawdopodobnie wymaga dynamicznego zapadnięcia się gęstej gromady gwiazd w gęstym centrum galaktyki. Ponieważ uważa się, że pierwsze gęste struktury, które łączą się w młodym wszechświecie, to wybrzuszenia protogalaktyczne, istnieje słaba teoretyczna motywacja do łączenia masywnych czarnych dziur ze współczesnymi wybrzuszeniami. Dramatycznie wyższa (o rzędy wielkości) właściwa gęstość przestrzeni świecącego AGN we wczesnym Wszechświecie wymaga, aby wiele pozornie "normalnych" dzisiejszych galaktyk musiało kiedyś posiadać centralny silnik AGN. Jeśli była to czarna dziura, powinna nadal być obecna i może zostać wykryta na podstawie przyspieszenia grawitacyjnego gwiazd i gazu w ciągu kilkuset parseków. (Grawitacja czarnej dziury o masie Mbh dominuje w promieniu w przybliżeniu GMbh2, gdzie σ jest charakterystycznym rozproszeniem prędkości w układzie gwiazdowym). Obszar ten jest na tyle mały, że można go rozróżnić optycznie jedynie w najbliższych galaktykach z najlepszymi spektrografami (Kosmiczny Teleskop Hubbl′a lub teleskopy naziemne o doskonałym widzeniu). Kinematyczne poszukiwania pobliskich masywnych czarnych dziur (przy użyciu spektroskopii Dopplera do pomiaru prędkości orbitalnych wokół jądra) są wciąż w początkowej fazie i dokonano mniej niż kilkudziesięciu odkryć . Dają one wstępną sugestię, że masa centralnej czarnej dziury może korelować liniowo z całkowitą masą wybrzuszenia galaktycznego, przy stałej normalizacji wynoszącej około pół procent. Jednakże ta rzekoma korelacja może mieć ogromny rozrzut lub nawet może nie okazać się znacząca, jeśli intensywnie bada się bezstronną próbkę galaktyk i uwzględni się wszystkie górne granice Mbh. W niedalekiej przyszłości zbiór galaktyk o wiarygodnych masach centralnych czarnych dziur będzie niestety w bardzo niewielkim stopniu przecinał się ze zbiorem aktywnych jąder, dla których można będzie podjąć próbę oszacowania masy. Dzieje się tak, ponieważ tę drugą mierzy się na podstawie emisji niegwiazdowej, podczas gdy ta pierwsza pochodzi z emisji nieaktywnej. Jeśli jeden z nich dominuje i można go łatwo zbadać, drugi nie będzie dobrze mierzony. Niemniej jednak obecne dowody na temat czarnych dziur, głównie w nieaktywnych galaktykach, sugerują, że jest to kluczowy potencjał i składnik centralnego silnika - masywna czarna dziura - może występować w wielu, a nawet w większości galaktyk. Fakt, że większość z nich dzisiaj nie jest Seyfertami, należy zatem przypisać brakowi paliwa. Nawet zakładając najbardziej wydajne znane modele, dyski akrecyjne czarnych dziur, energetyka najpotężniejszych kwazarów wymaga dostarczenia dziesiątek mas Słońca rocznie do centralnego parseka galaktyki. Aby osiągnąć tak mały promień, paliwo - prawdopodobnie gaz - musi zasadniczo stracić cały swój orbitalny moment pędu. Z podstaw teoretycznych wymagane momenty obrotowe mogą być zapewnione przez zniekształcenia i asymetrie potencjału grawitacyjnego galaktyki macierzystej, takiej jak słupki. Niestety, trudno było wykazać duży związek pomiędzy obecnością bliskich towarzyszy a aktywnym jądrem. Nie ma również korelacji między słupkami a aktywnością Seyferta. Jedną z możliwości jest to, że kraty i/lub spotkania wzmagają aktywność jądrową jedynie z dużym opóźnieniem (być może o miliard lat), ponieważ mogłoby to spowodować aby zająć tyle orbit, aby gaz ostatecznie opadł do jądra. Jedną z możliwych oznak tego jest odkrycie, że galaktyki Seyferta częściej wykazują pierścienie, które mogą być długowiecznymi reliktami poprzeczek, które już się rozproszyły. Prawdopodobnym powiązaniem pomiędzy aktywnością Seyferta a wcześniejszą aktywnością gwiazdotwórczą jest obserwacja, że dyski galaktyk macierzystych Seyferta mają zwykle wyższą jasność powierzchniową niż galaktyki inne niż Seyfert.

Perspektywy na przyszłość

Zrozumienie AGN jest problemem poważnie ograniczonym w zakresie danych. Jej typowa zmienność świadczy o tym, że silnik centralny nie jest w stanie ustalonym. Próbując to zrozumieć, możemy przekształcić to w atut, ale tylko wtedy, gdy uda nam się uzyskać obszerne, prawie ciągłe historie czasowe emisji z poszczególnych AGN. Oprócz ograniczonego próbkowania w czasie istnieją dwa najpoważniejsze ograniczenia obserwacyjne.

•  Nieodpowiednie obserwacje wielu obszarów długości fal, w których emituje AGN. AGN należą do najbardziej szerokopasmowych emiterów we wszechświecie i wiele długości fal, przy których emitują, jest blokowanych przez atmosferę ziemską lub, co bardziej istotne, przez absorpcję H I w ośrodku międzygalaktycznym (krótko od długości fali spoczynkowej wynoszącej 912 Å).
•  Nieodpowiednia rozdzielczość przestrzenna. Największe odpowiednie skale dla większości interesujących i ekstremalnych zjawisk AGN są rzędu 10 szt. lub nawet mniej.

Na szczęście oba te ograniczenia szybko znikają wraz z pojawieniem się nowych detektorów i obserwatoriów. Kluczowe obserwacje AGN w ciągu następnej dekady skorzystają z nowych i planowanych obserwatoriów kosmicznych oraz nowych technik naziemnych, takich jak interferometria. Ponadto, maksymalna rozdzielczość przestrzenna staje się dostępna dzięki intensywnemu monitorowaniu w celu wykrycia opóźnień w przejściu światła, jak w przypadku mapowania pogłosu.


Aktywne galaktyki: model ujednolicony

Obiekty znane jako "AKTYWNE JĄDRO GALAKTYCZNE" (AGN) można pogrupować w szeroką gamę fenomenologicznych podklas, które mają wiele nakładających się lub podobnych właściwości. Pierwszymi znanymi "galaktykami aktywnymi" były galaktyki spiralne o dużej jasności powierzchniowej, zidentyfikowane przez Carla Seyferta w 1943 r. Prawie dwie dekady później pierwsze radiowe przeglądy nieba doprowadziły do identyfikacji innych obiektów (galaktyk radiowych, takich jak Centaurus A i kwazary, takie jak 3C 48), które obecnie również uważamy za galaktyki aktywne, chociaż w momencie odkrycia podobieństwa między źródłami radiowymi a spiralami Seyferta nie były oczywiste. Wczesne niepowodzenia w rozpoznaniu podstawowych podobieństw tych obiektów wynikały głównie z zastosowania różnych technik identyfikacji izolowanych, ekstremalnych członków populacji aktywnych galaktyk: identyfikacja źródeł radiowych zwykle dawała kwazary o stosunkowo dużej jasności i dużym przesunięciu ku czerwieni (skrót od "kwazigwiazdowych źródeł radiowych" ), często należący do klasy "blazarów", w której większość obserwowanego widma dominuje emisja promieni z relatywistycznego dżetu. Z drugiej strony identyfikacja jasnych jąder galaktycznych doprowadziła do identyfikacji przestrzennie powszechnych, stosunkowo cichych radiowo jąder Seyferta o stosunkowo niskiej jasności . Dopiero pod koniec lat sześćdziesiątych i siedemdziesiątych XX wieku optyczne kryteria detekcji oparte na kolorze (albo wielokolorowa fotometria szerokopasmowa, albo spektroskopia niskodyspersyjna) zaczęły dostarczać wystarczająco duże próbki AGN zarówno o wysokiej, jak i niskiej jasności, że podstawowe podobieństwa zaczęły się ujawniać. jasne. Rzeczywiście, selekcja AGN na podstawie koloru doprowadziła do odkrycia, że większość AGN o dużej jasności nie należy do odmiany kwazarów "głośnych radiowo", ale są to źródła "ciche radiowo", które zaczęto nazywać "OBIEKTAMI KWASISTELLARNYMI" (QSO). ). Pomimo pojawiających się podobieństw pomiędzy galaktykami Seyferta i QSO, zidentyfikowano także istotne różnice pomiędzy typami AGN, co doprowadziło do szerokiej i dość złożonej taksonomii AGN. Porównanie różnych typów AGN powinno pomóc nam zrozumieć, które zjawiska mają fundamentalne znaczenie dla aktywności jądrowej, a które są w jakiś sposób przypadkowe lub wtórne. W niektórych przypadkach, jak zobaczymy poniżej, różnice między różnymi typami można wykorzystać do wnioskowania o strukturze źródła w skali zbyt małej, aby można ją było bezpośrednio określić. Niektóre z ważnych pytań, które pojawiają się w tym kontekście, są następujące. Dlaczego tylko około 10% aktywnych galaktyk jest głośnych w trybie radiowym? Dlaczego szerokie linie emisyjne są słabe lub nieobecne w widmach UV-optycznych obiektów BL Lac? Dlaczego niektóre galaktyki Seyferta nie mają szerokich linii emisyjnych?

Zjednoczenie

Zasady


Próbując wyjaśnić różnice pomiędzy różnymi klasami AGN, naszym celem jest wyjaśnienie jak najszerszej gamy zjawisk przy użyciu najprostszego modelu zgodnego z danymi. Prostą hipotezą wyjaśniającą znaczną część fenomenologii AGN jest to, że różnice między różnymi typami AGN wynikają z zależności orientacji; najprościej mówiąc, staramy się "ujednolicić" różne typy AGN w oparciu o jedną podstawową strukturę źródła, której wygląd dla obserwatora w dużym stopniu zależy od kąta patrzenia. Rzeczywiście istnieje wiele bezpośrednich dowodów na to, że AGN mają strukturę osiowosymetryczną i dlatego promieniują anizotropowo; obserwowalne właściwości konkretnego źródła będą zatem zależeć od lokalizacji obserwatora. W takich schematach "unifikacji AGN" postuluje się, że odmienny wygląd jednej klasy w porównaniu z drugą jest wynikiem oglądania tego samego typu obiektu pod innym kątem. Właściwości, które mogą zależeć od kąta widzenia i w ten sposób przyczyniać się do wewnętrznej anizotropii w tych źródłach, obejmują absorpcję przez pył lub gęsty optycznie gaz w dowolnym niesferycznie symetrycznym rozkładzie oraz ruch relatywistyczny, który prowadzi do dopplerowskiego wzmocnienia emisji, które osiąga szczyt w kierunku tego ruch. Schematy unifikacji obejmujące jedną lub obie te wewnętrzne właściwości źródła mają na celu wyjaśnienie przynajmniej części szerokiej różnorodności, którą obserwujemy w AGN pod względem różnic w kącie widzenia. Istnieje kilka schematów unifikacji mających na celu ujednolicenie dwóch lub więcej klas AGN, które odniosły pewien sukces; Oczywistym kluczowym elementem każdego planu unifikacji jest dowód jego wiarygodności. Jeśli postawimy na przykład hipotezę, że pewien specyficzny typ AGN (powiedzmy obiekty BL Lacertae) należy do jakiejś określonej szerokiej klasy lub "populacji rodzicielskiej" (powiedzmy, źródła radiowe klasy I Fanaroffa-Rileya), wówczas gęstość przestrzenna obiektów podklasa musi być zgodna z gęstością przestrzeni populacji macierzystej pomnożoną przez prawdopodobieństwo zaobserwowania członka populacji macierzystej w odpowiedniej orientacji. Określenie gęstości przestrzennej populacji rodzicielskiej jest często zadaniem samym w sobie trudnym i musi opierać się na identyfikacji źródła w oparciu o jakąś właściwość, która ma być izotropowa. Uważa się na przykład, że emisja twardego promieniowania rentgenowskiego jest emitowana w przybliżeniu izotropowo przez nieblazarowy AGN i w zasadzie emisja twardego promieniowania rentgenowskiego może być najlepszym sposobem na znalezienie jednorodnej próbki AGN. Rzeczywiście, twarde promienie rentgenowskie są prawdopodobnie warunkiem sine qua non aktywnego jądra. W praktyce jednak, stosunkowo niska czułość na twarde promieniowanie rentgenowskie ogranicza wykrywanie AGN do tych, które są stosunkowo blisko, a zatem pozornie jasne. W przypadku źródeł radiowych (w tym blazarów) zakłada się, że promieniowanie z optycznie cienkich, wydłużonych płatków jest emitowane izotropowo i w zasadzie można je wykorzystać do identyfikacji obiektów o wewnętrznie podobnej jasności.

Podstawowy model

Obecny paradygmat AGN opiera się na osiowosymetrycznym silniku centralnym, który składa się z dysku akrecyjnego otaczającego supermasywną (≳106M) czarną dziurę. Przypuszcza się, że kontinuum optyczne UV powstaje głównie w dysku akrecyjnym. Z tego układu wzdłuż osi dysku wyłaniają się dwukierunkowe dżety relatywistyczne, emitując promieniowanie wzmocnione Dopplerem za pośrednictwem synchrotronu i odwrotnego mechanizmu Comptona. Uważa się, że zarówno dżety, jak i struktura dysku akrecyjnego przyczyniają się do emisji promieniowania rentgenowskiego. Szerokie linie emisyjne (których szerokość można scharakteryzować jako pełną szerokość w połowie maksimum, FWHM ≈ 1500-10 000 km s-1), które są tak widoczne w widmach UV-optycznych AGN, powstają w stosunkowo gęstych ( gęstości elektronowe ne ≈ 1011cm?3) obłoki gazu w odległościach od czarnej dziury od kilkuset do kilku tysięcy promieni grawitacyjnych (Rgrav = GM/c2, gdzie M to masa centralnej czarnej dziury, G to stała grawitacyjna, oraz c jest prędkością światła). W skali parseków cały ten układ jest osadzony w zakurzonym torusie, który jest nieprzezroczysty w większości widma elektromagnetycznego; torus ten odgrywa kluczową rolę w modelach unifikacji AGN, ponieważ osłania zarówno dysk akrecyjny, obszar broadline, jak i strukturę wewnętrznego strumienia przed bezpośrednim widokiem zewnętrznych obserwatorów w płaszczyźnie torusa. Torus pochłania promieniowanie ze źródła centralnego i ponownie emituje tę energię w podczerwieni. Wąskie linie emisyjne (FWHM ≲ 300-800 km s-1) powstają w chmurach o małej gęstości w skali torusa i poza nią, w większości napędzane promieniowaniem ze źródła centralnego, a zatem w dużej mierze ograniczone do położenia wzdłuż osi układu.

Schematy unifikacji AGN

Typy Seyferta

Prawdopodobnie najbardziej znanym schematem unifikacji jest schemat połączenia dwóch typów GALAKTYK SEYFERTA. W połowie lat 70. Khachikian i Weedman odkryli, że galaktyki Seyferta można podzielić na dwie klasy spektroskopowe: te z wąskimi i szerokimi liniami emisyjnymi (typ 1 lub Sy1) oraz te z tylko wąskimi liniami (typ 2 lub Sy2). Widma wąskoliniowe typów 1 i 2 są statystycznie nie do odróżnienia od siebie, więc Sy2 wydają się być Sy1 bez szerokich linii. Co więcej, Sy2 są zazwyczaj mniej świecące niż Sy1 o około 1 magnitudo w optycznej części widma. Doprowadziło to do hipotez unifikacyjnych, w których Sy2 są z natury Sy1, których kontinuum i emisja szerokopasmowa są tłumione w kierunku obserwatora. Hipoteza ta, choć prosta i atrakcyjna, miała dwie główne trudności: po pierwsze, dlaczego źródło kontinuum AGN wygasa tylko o kilka razy, a szerokie linie o widocznie większy czynnik? Po drugie, kształt kontinuum Sy2 nie wygląda jak kontinuum Sy1 AGN osłabione przez pył, tj. kontinuum Sy2 nie wydaje się być silnie zaczerwienione w wyniku przejścia przez ośrodek, w którym przekrój poprzeczny absorpcji lub rozpraszania maleje wraz ze wzrostem długości fali. Przełom nastąpił na początku lat 80., kiedy Antonucci i Miller odkryli, że widma polaryzacyjne niektórych galaktyk Sy2, takich jak NGC1068, zawierają szerokie linie emisyjne, podobne do tych widocznych w widmach Sy1. Przynajmniej niektóre galaktyki Sy2 zawierają szerokie linie emisyjne, ale ich siła jest znacznie zmniejszona, tak że dominują w nich kontinuum i wąskie linie, z wyjątkiem oglądania w świetle spolaryzowanym. Ponieważ najczęstszą przyczyną polaryzacji jest rozpraszanie światła przez pył lub elektrony, obserwacja ta doprowadziła do interpretacji galaktyk Sy2 jako galaktyk Sy1 skierowanych krawędzią, w których optycznie gruby materiał o spłaszczonej geometrii przypominającej dysk zasłania nasz bezpośredni widok na galaktykę. szeroki obszar linii emisyjnej, jak opisano powyżej . Szerokie linie są widoczne w świetle spolaryzowanym, gdy są rozproszone w naszym polu widzenia przez pył lub elektrony powyżej i/lub poniżej tego materiału. W przypadku NGC1068 światło kontinuum AGN jest spolaryzowane w ∼16%, niezależnie od długości fali w widmie UV-optycznym, co dowodzi, że mechanizmem rozpraszania są elektrony, a nie pył, ponieważ przekrój poprzeczny rozpraszania Thomsona jest niezależny od długości fali, podczas gdy pył rozpraszanie jest silnie zależne od długości fali. Istnieją jednak dowody na to, że w przypadku innych spolaryzowanych Sy2 rolę odgrywa również rozpraszanie pyłu. Widma polaryzacyjne tych Sy2 pokazują również, że linie emisyjne są silniej spolaryzowane niż kontinuum. Najwyraźniej istnieje drugi niespolaryzowany składnik pozbawionego cech kontinuum AGN, który stanowi około 60-90% całkowitego kontinuum i ma w przybliżeniu taki sam kształt widmowy jak składnik spolaryzowany. Pochodzenie składnika niespolaryzowanego jest niejasne, chociaż może wynikać z emisji swobodnej w samym obszarze rozpraszania. W każdym razie istnienie tego składnika wyjaśnia, dlaczego kontinuum niegwiazdowe w Sy2 nie jest tak całkowicie stłumione, jak szerokie linie. Przewidywania względnych liczb każdej klasy stanowią ważny test, ale są bardzo wrażliwe na założenia, takie jak kąt otwarcia torusa i kątowa zależność jasności. W ramach tych ograniczeń liczby względne są zgodne z oczekiwaniami i wskazują kąty półotwarcia torusa wynoszące ∼60?. W miarę jak coraz więcej galaktyk Sy2 i AGN o niższej jasności, takich jak LINER (galaktyki z regionem emisji jąder o niskiej jonizacji), obserwuje się w świetle spolaryzowanym, odkrywanych jest więcej galaktyk Sy1 skierowanych krawędziowo. Nie jest jednak jeszcze jasne, czy wszystkie AGN, a nawet wszystkie galaktyki Seyferta pasują do tego schematu. Obecne badania pokazują, że współczynnik wykrywalności spolaryzowanych szerokich linii w galaktykach Sy2 wynosi około ∼50%, co sugeruje, że wiele galaktyk Sy2 albo nie posiada obszaru rozpraszającego, albo nie ma obszaru szerokich linii. Obserwacje rentgenowskie AGN również ogólnie potwierdzają ten obraz zjednoczenia. Jasność promieniowania rentgenowskiego galaktyk Sy2 jest niższa niż galaktyk Sy1. Co więcej, galaktyki Sy2 mają znacznie większą absorpcję miękkiego promieniowania rentgenowskiego, co odpowiada równoważnym kolumnom obojętnego wodoru, NH ≈ 1022-23cm-2, w porównaniu z NH ≈ 1020-21 cm-2 dla galaktyk Sy1. Jest to zgodne z tym, że nasza linia wzroku przez AGN przebiega przez optycznie gruby torus zimnej materii. Podobny schemat unifikacji prawdopodobnie wyjaśnia różnicę pomiędzy "szerokoliniowymi galaktykami radiowymi" (BLRG), które można opisać z dokładnością pierwszego rzędu jako radiogalaktyki Sy1, a "wąskoliniowymi galaktykami radiowymi" (NLRG), które mają strukturę podobną do Sy2 widma optyczne. Schemat geometrii mającej na celu ujednolicenie radiogalaktyk o silnych liniach. Pozostałą zagadką jest widoczny brak równoważnego rozwidlenia w QSO o wyższej jasności; nie ma ogólnie przyjętej klasy "QSO 2", która odpowiadałaby galaktykom Sy2 o niskiej jasności. Najbardziej prawdopodobnymi kandydatami na przesłane przez pył QSO są AGN wybrane w pobliżu podczerwieni, z których niektóre rzeczywiście pokazują szerokie linie w świetle spolaryzowanym, lub chłodniejsze, ultrajasne galaktyki IR (ULIRG), których emisja może być głównie spowodowana ponownym przetwarzaniem przez chłodny pył. W chwili obecnej jest jasne, że niektóre ULIRG zawierają niewidoczne AGN, ale inne są zasilane przez wybuchy gwiazd, a nie przez wierne AGN.

Kwazary i galaktyki radiowe zdominowane przez jądra i płatki

Jak zauważono wcześniej, tylko około 10% AGN to silne źródła radiowe. W tym podzbiorze istnieje szeroka gama radiomorfologicznych struktur od klasycznych źródeł podwójnego radia w skalach tak dużych jak megaparseki po małe źródła zdominowane przez rdzeń z niewielką lub żadną rozbudowaną strukturą. Źródła zdominowane przez jądro zwykle wykazują ruch nadświetlny, wskazując relatywistyczne prędkości wypływu w pobliżu naszej linii wzroku. Klasyczne podwójne źródła często mają jednostronne, silnie skolimowane struktury strumieniowe rozciągające się od ich zwartego rdzenia w kierunku jednego z wydłużonych płatów. Jednostronny charakter dżetów można zrozumieć w scenariuszu relatywistycznym, w którym zbliżający się dżet i przeciwnie skierowany oddalający się dżet są odpowiednio wzmacniane i przyciemniane metodą Dopplera przez efekty relatywistyczne. Zatem obie te właściwości są zgodne z relatywistycznymi dżetami powstającymi w rdzeniu źródła radiowego i zasilającymi płaty zewnętrzne. Sugeruje to, że główną zmienną rządzącą obserwowaną morfologią radioAGN jest jego orientacja w stosunku do naszej linii wzroku. W źródłach zdominowanych przez jądro patrzymy w dół na relatywistyczny dżet, podczas gdy w źródłach podwójnych dżet jest rzutowany na płaszczyznę nieba. Podstawowym testem tego schematu unifikacji jest porównanie względnej liczby źródeł zdominowanych przez rdzeń i płatek oraz rozkładu przewidywanych rozmiarów dla radioAGN z przewidywaniami modelu. Dżet jest wysoce skolimowany, więc główną niepewnością jest wielkość wzmocnienia spowodowana relatywistycznym ruchem w strumieniu, określona przez masowy współczynnik Lorentza γ = (1?V2/c2)?1/2, gdzie V jest wypływem prędkość, a c prędkość światła. Jest to zatem trudne aby dopasować obiekty zdominowane przez rdzeń i płatki pod względem wewnętrznej jasności, a tym samym zapewnić, że relatywistyczne efekty promieni nie będą uwzględniane w żadnych badaniach porównawczych. Ogólnie rzecz biorąc, badania te pokazują, że istnieje zbyt wiele źródeł zdominowanych przez rdzeń w porównaniu ze źródłami zdominowanymi przez płaty i że te pierwsze są zbyt duże, gdy zostaną odrzucone w oparciu o zaobserwowany współczynnik Lorentza. Brakuje także dżetów dwustronnych, czyli źródeł ustawionych w jednej linii z płaszczyzną nieba. Wiele z tych niespójności można rozwiązać, jeśli zjednoczenie obejmie bardzo jasne galaktyki radiowe FR II (BLRG i NLRG). W tym przypadku zdominowane przez płatki, głośno radiowe QSO są oglądane pod kątem pośrednim pomiędzy kątami radiogalaktyk, a QSO i większy rozmiar radiogalaktyk odpowiada rozmiarowi odrzutowanych źródeł z dominacją rdzeniową. Rozwiązanie to wprowadza jednak nowy problem, a mianowicie, że wąska emisja linii [O III] λλ 4959, 5007 jest znacznie (4-10-krotnie) słabsza w radiogalaktykach niż w kwazarach, co wymaga, aby linie te były emitowane również anizotropowo aby zjednoczenie zadziałało. Podobna siła dolnej linii jonizacji [O II] λ 3727 w obu klasach potwierdza ten scenariusz, ponieważ powstaje ona w większych odległościach od rdzenia AGN, a zatem oczekuje się, że będzie emitowana bardziej izotropowo. W kontekście tego obrazu orientacyjnego nachylenie źródła radiowego jest powiązane ze stosunkiem jasności rdzenia do płatka, głównie w wyniku relatywistycznego zwiększenia jasności rdzenia. Parametr ten, znany jako dominacja rdzenia R, można następnie wykorzystać do badania zależności innych parametrów od nachylenia. Na przykład szerokości szerokich linii emisyjnych Hβ i C IV wskazują, że obiekty skierowane twarzą w twarz (zdominowane przez rdzeń) mają zwykle stosunkowo wąskie szerokie linie (FWHM ≈ 1000-5000 km s-1, gdy są skierowane krawędzią (zdominowane przez płatek) mają szerszy zakres szerokości linii (FWHM ≈ 1000-10000 km s-1), co sugeruje, że orientacje szerokiego obszaru linii emisyjnej i zasłaniającego torusa są podobne.

Blazary i źródła radiowe

Wraz z uznaniem, że emisja blazarów ma swoje źródło w relatywistycznych dżetach skierowanych w stronę obserwatora, radiogalaktyki z dżetami na płaszczyźnie nieba okazały się kandydatami na "niewłaściwie ustawione" blazary. Same Blazary dzielą się na dwie odrębne kategorie: "BL Lacs" i "optyczne" gwałtownych zmiennych (OVV), które wydają się pochodzić z różnych rozkładów macierzystych radiogalaktyk. Podstawową różnicą między OVV i BL Lacs jest to, że OVV mają silne linie emisyjne UV i optyczne, więc ich widma UV-optyczne przypominają widma AGN bez wiązki, podczas gdy w BL Lacs inne cechy widmowe są zatapiane przez emisję ze strumienia. OVV mają również wyższą jasność i wyższe wywnioskowane współczynniki Lorentza niż BL Lac. Można przedstawić dość przekonujący argument, że BL Lacs znajdują się w radiogalaktykach FR I. Pomijając przestrzennie nierozwiązaną emisję jądra blazara i biorąc pod uwagę jedynie jasność "rozszerzonego" źródła radiowego (prawdopodobnie "płatków" widzianych wzdłuż ich osi), stwierdzono, że galaktyki FR I i BL Lacs mają porównywalną jasność radiową, co potwierdza tezę że pochodzą z jednej populacji. Funkcje jasności i gęstości przestrzenne są również zgodne z unifikacją tych dwóch typów obiektów. Należy przynajmniej wspomnieć, że same BL Lacs czasami dzielono na podkategorie wybierane radiowo i rentgenowskie, a źródła w tych kategoriach przeciętnie mają rozkład widmowy energii, który - co nie jest zaskakujące - osiąga szczyt przy niskich i niskich temperaturach. odpowiednio wysokie częstotliwości. Niedawne prace sugerują, że w rzeczywistości nie są to odrębne klasy, ale raczej reprezentują skrajności ciągłego rozkładu szczytowych długości fal dla całej klasy BL Lac. Jaśniejsze galaktyki radiowe FR II zapewniają wiarygodną populację macierzystą OVV. W porównaniu ze schematem unifikacji FR I - BL Lac jest to trudniejsze do wykazania, przynajmniej częściowo, ponieważ populacja FRII jest stosunkowo mniej jednorodna.

"Wielkie zjednoczenie": głośna i cicha radiowo AGN

Jednym z najdłużej zadawanych pytań w astrofizyce AGN jest to, dlaczego pomimo podobieństwa optycznego niewielka mniejszość (10%) AGN jest głośna radiowo, podczas gdy reszta jest cicha radiowa? Każdy schemat unifikacji, który może wyjaśnić różnicę między tymi dwiema głównymi klasami AGN, w znacznym stopniu przyczyni się do ogólnego wyjaśnienia zjawiska AGN i dlatego czasami nazywany jest "wielkim zjednoczeniem". Istnieje wyraźna dychotomia pomiędzy źródłami generującymi głośno i cicho radiowo; dla danej podczerwieni w świetle miękkiego promieniowania rentgenowskiego, AGN o głośności radiowej są o 2-3 rzędy wielkości jaśniejsze w radiu niż obiekty ciche radiowo. Istnieje bardzo niewiele obiektów o pośredniej jasności radiowej, więc rozkład mocy radiowej w stosunku do mocy na krótszych falach jest wyraźnie bimodalny. Innymi słowy, dowody wyraźnie wskazują na dwie odrębne populacje AGN określone na podstawie względnej jasności radiowej. Wczesna sugestia wysunięta przez Scheuera i Readheada była taka, że obiekty głośne i ciche radiowo stanowią pojedynczą populację, w której głośniki radiowe reprezentują źródła z osiami skierowanymi w stronę obserwatora. Nie uwzględniało to jednak braku przedłużonej emisji radiowej w ciszy radiowej. Ciche i głośne radiowo AGN różnią się między sobą wyrazy szacunku. Głośne radiowo AGN są średnio około 3 razy jaśniejsze w promieniach rentgenowskich o średniej energii (0,2-3,5 keV) z nieco bardziej płaskimi nachyleniami widma (tj. Stosunkowo więcej fotonów o wysokiej energii). Uważa się, że jest to spowodowane obecnością emisji wiązki promieniowania rentgenowskiego związanej ze strumieniem emitującym fale radiowe i dostarcza dowodów na ujednolicenie omówionych powyżej, zdominowanych przez rdzeń i płaty, głośnych radiowo AGN. Jednakże różnica w nachyleniu widma rentgenowskiego byłaby trudna do uwzględnienia w scenariuszu wielkiej unifikacji. Widma linii emisyjnych obu typów obiektów również wykazują różnice, przynajmniej w sensie statystycznym (np. silniejsze mieszanki optyczne Fe II, słabsze wąskie linie i węższe szerokie linie w obiektach radiocichych). Do stosunkowo niedawna sądzono, że szerokie, stosunkowo przesunięte w stronę błękitu cechy linii absorpcji, które wskazują na wypływy mas, występują tylko w cichych radiowo AGN; jest teraz jasne, że występują one również w AGN o głuchym radiowym, chociaż obecnie wydaje się, że przepływy w obiektach o głuchym radiowym mają stosunkowo niższe prędkości końcowe. Ogólnie uważa się, że wypływający materiał odpowiedzialny za absorpcję jest przyspieszany od powierzchni torusa, w związku z czym oczekuje się, że będzie obecny w określonych orientacjach zarówno w AGN głośnym, jak i cichym radiowo. Nie pojawiło się jeszcze zadowalające wyjaśnienie różnic między źródłami generującymi głośno i cicho radiowo. Chociaż było to trudne do zrozumienia, przez długi czas uważano, że natura galaktyki macierzystej determinuje klasę radiową z cichymi radiowo AGN w galaktykach spiralnych i głośnymi radiowo AGN w galaktykach eliptycznych. Jednak ostatnie obserwacje za pomocą Kosmicznego Teleskopu Hubble′a wykazały, że przy dużej jasności prawie wszystkie AGN leżą w galaktykach eliptycznych. Obecnie powszechnie podejrzewa się, że moment pędu centralnej czarnej dziury może być czynnikiem decydującym, ponieważ ruchy orbitalne naładowanych obiektów wokół czarnej dziury mogą decydować o tym, czy efekty elektromagnetyczne będą wystarczająco silne, aby wygenerować i skolimować dżety.


Poświata

Poświata składa się z nietermicznego promieniowania emitowanego przez ZIEMSKĄ ATMOSFERĘ. Emisja cieplna Ziemi, nagrzana przez światło słoneczne, a następnie wypromieniowana w przestrzeń kosmiczną, ma miejsce w podczerwonej części widma, przy długościach fal dłuższych niż 7 μm. W najprostszej postaci poświata powietrza powstaje w wyniku odwzbudzenia cząsteczek, atomów lub jonów wzbudzonych przez słoneczne fotony UV lub cząstki energetyczne, a powstałe w ten sposób emitowane fotony zazwyczaj, choć nie wyłącznie, znajdują się w zakresie widzialnym i UV widma. Istnienie łuny nocnego nieba długo po zachodzie słońca pokazuje, że mechanizmy pośrednie odgrywają ważną rolę w wytwarzaniu poświaty. W tym przypadku energia początkowa, przyniesiona przez fotony słoneczne, jest magazynowana w wysokiej atmosferze w postaci rodników lub cząsteczek zdolnych do rekombinacji w wyniku reakcji egzotermicznych w nocy i wytwarzania atomów lub cząsteczek w stanie wzbudzonym, z następczą emisją fotonów . Poświata nie obejmuje promieniowania wytwarzanego przez pioruny i meteoryty. Chociaż rozróżnienie to jest trudniejsze do ustalenia, zjawiska zorzowe występujące na dużych szerokościach geograficznych i wynikające z miejscowych, intensywnych opadów cząstek, których pochodzenie znajduje się poza atmosferą, nie są uważane za poświatę. W przeciwieństwie do AURORÓW i pomimo tego, że ogólny mechanizm emisji (wzbudzenie-odwzbudzenie) jest tej samej natury, poświata występuje o każdej porze i pod każdą szerokością geograficzną, w znacznie mniej sporadyczny sposób. Historycznie rzecz biorąc, istnienie ziemskiej składowej światła na nocnym niebie rozpoznano już około roku 1900. Yntenna, który jako pierwszy stwierdził metodami fotometrycznymi istnienie poświaty, zwrócił uwagę na dużą zmienność tego zjawiska z nocy na noc i wykazał że światło gwiazd rozproszone przez cząsteczki atmosfery było niewystarczające, aby wyjaśnić światło nocnego nieba. Techniki spektroskopowe wykazały, że zielona linia tlenu atomowego przy 558 nm była przez cały czas obecna na całym niebie, co potwierdziło istnienie "trwałej zorzy polarnej". Rayleigh (JOHN WILLIAM STRUTT) wykazał w latach dwudziestych XX wieku, że układ geograficzny zielonej linii tlenowej różni się od wzorca zorzy polarnej oraz że na nocnym niebie nie widać pasów N+2 widocznych w zorzach polarnych. Rayleigh najpierw wyraził jasność zielonej linii jako liczbę przejść atomowych na sekundę w kolumnie o jednostkowym polu przekroju poprzecznego wzdłuż linii wzroku. Nadał swoją nazwę jednostce fotometrycznej powszechnie stosowanej dziś w badaniach poświaty powietrza: jeden rayleigh (lub 1 R) reprezentuje dookólną szybkość emisji wynoszącą 106 fotonów na centymetr kwadratowy na sekundę. Przewidywano i obserwowano czerwone linie tlenu przy 630-636 nm około 1930 r., a także linię D sodu. Chociaż naziemne instrumenty spektrofotometryczne zapewniają wygodny sposób monitorowania przestrzennych i czasowych zmian poświaty powietrza, nie są one odpowiednie do wyszukiwania pionowych profili emisji. Jedną z możliwości jest wykorzystanie fotometrów zenitowych przelatujących przez warstwy poświaty na pokładzie rakiety. Zróżnicowanie sygnału ze względu na wysokość pozwala na uzyskanie lokalnego natężenia emisji objętościowej w funkcji wysokości. Innym sposobem postępowania jest wykonanie pomiarów poświaty powietrza z platformy orbitalnej w geometrii oglądania kończyn. Technika ta ma kilka zalet. Ponieważ sygnał jest całkowany wzdłuż stycznej ścieżki, intensywność mierzonego sygnału jest znacznie zwiększona. Dzięki temu słabe cechy, takie jak emisja kontinuum poświaty, są łatwiejsze do wykrycia i scharakteryzowania. Po drugie, widok styczny umożliwia oddzielenie sygnału galaktycznego tła od blasku atmosferycznego, ponieważ sygnał galaktyczny jest bezpośrednio dostarczany przez pomiary przeprowadzane na bardzo dużych wysokościach, gdzie gęstość atmosfery jest praktycznie zerowa. Pionowe profile kilku zidentyfikowanych linii nocnej poświaty, zaobserwowane podczas misji promu kosmicznego STS-37 krążącego na wysokości 267 km, przedstawiono na rysunku 1. Dobrze znana zielona linia tlenu przy 557,7 nm, wytwarzana przez O(1S) Przejście ?O(1D), obejmuje stosunkowo wąski obszar wysokościowy i osiąga silne szczyty na wysokości około 100 km. Pewną emisję rejestruje się również na czerwonej linii tlenu przy 630 nm, w wyniku przejścia O(11D) ? O(33P). Sygnał przy 762 nm wynika z radiacyjnego odwzbudzenia stanu wzbudzonego O2. Linia D Na przy 589 nm, ze względu na Na (22P) ? Na (2S), osiąga szczyt około 90 km, podobnie jak pasmo OH (6-0) Meinela przy 527 nm. Emisja OH powstaje w cyklu reakcji

H+O3 -> OH* +O*2

gdzie OH* jest wzbudzonym rotacyjnie poziomem OH, z wibracyjną liczbą kwantową ? mniejszą niż 9 (nie wykrywa się żadnych pasm pochodzących od ? > 9) i mechanizmem recyklingu typu

OH + O ->H+O2.

Pasmo 527 nm jest wytwarzane przez odwzbudzenie ? = 6 -> 0 OH*. Należy zauważyć, że silny pik na małej wysokości w emisji 630 nm wynika z pasma (9-3) OH. Ponieważ w całym cyklu skład chemiczny sodu obejmuje także ozon (O3).

Na + O3 -> NaO + O23
NaO + O -> Na + O2

można spodziewać się sprzężenia pomiędzy intensywnością OH poświaty powietrza i gęstością Na (wyprowadzoną albo z pomiarów lidarowych, albo z pomiarów poświaty powietrza), i jest to zdecydowanie wykazane w pomiarach. Istnieje również jasna emisja rozciągająca się od 400 do 600 nm. Dzieje się tak za sprawą O2 w zakresie bliskiego ultrafioletu i światła niebieskiego, do 480 nm, oraz NO2 przy dłuższych falach. Emisja pasma O2 składa się głównie z pasm Herzberga I, Herzberga II i Chamberlaina, jak opisano szczegółowo w następnej sekcji. Cechę rozproszonego NO2 można przypisać radiacyjnej rekombinacji NO i O i stanowi ona prawdziwe kontinuum. Profil wykonany przy 527 nm pokazano na rysunku.



Zaznaczony pik poświaty powietrza na wysokości od 95 do 105 km dobrze zgadza się z pomiarami mikrofalowymi termosferycznego NO dokonanymi podczas tego samego cyklu słonecznego, co sugeruje obszar maksymalnego stężenia pomiędzy 100 a 110 km. W badaniach emisji poświaty powietrza z górnych warstw atmosfery (poświaty dziennej i nocnej) za pomocą spektrometrii naziemnej lub przy użyciu spektrometrów i kamer na pokładach satelitów, takich jak Dynamics Explorer i prom kosmiczny, odnotowano bardzo znaczny postęp w ciągu ostatnich 20 lat. Pomiary te umożliwiły scharakteryzowanie procesów termosferycznych i jonosferycznych, zarówno w dziedzinie aeronomii, jak i dynamiki, przy pomocy postępów laboratoryjnych i teoretycznych. Interpretacja pomiarów poświaty powietrza jest niezwykle skomplikowana i obejmuje szczegółową charakterystykę strumieni wzbudzenia (słoneczne UV/EUV, cząstki), mechanizmy interakcji (bezpośrednie wzbudzenie cząsteczek, atomów lub jonów, pośrednie wzbudzenie poprzez procesy dysocjacji i jonizacji, a także chemiczne reakcje chemiczne), cykle chemiczne, radiacyjne przenoszenie światła poświaty powietrznej. Linie emisji tlenu w poświacie nocnej są teraz szczegółowe.

Wzbudzenie emisji tlenu w nocnej poświacie Ziemi

Czerwony dublet tlenu przy 630 nm i 636,4 nm, powstający w wyniku przejścia O(1D) -> O(3), czyli z pierwszego poziomu wzbudzonego do stanu podstawowego, z prawdopodobieństwem przejścia odpowiednio 0,0069 i 0,0022 s?1, obserwuje się przez kilka godzin po zachodzie słońca. Ponieważ średni czas emisji O(1D) jest równy odwrotności prawdopodobieństwa przejścia, czyli kilku minut, bezpośrednie wzbudzenie atomów tlenu przez słoneczne fotony UV, po którym następuje odwzbudzenie, nie może wyjaśnić utrzymywania się czerwonej poświaty przez długo po zachodzie słońca. Źródłem O(1D) w porze nocnej jest rekombinacja dysocjacyjna jonów O+2 O+2 + e? -> O+O(1D). Jony O+2 powstają w wyniku nocnego zaniku jonizacji, kontrolowanego przez reakcje wymiany ładunku, które przekształcają jony O+ w jony O+2. Pionowy rozkład emisji czerwonej linii jest złożony i można wykazać, że zmienia się z czasem w różny sposób na różnych wysokościach. Poniżej 200 km emisja czerwonej linii jest słaba, ponieważ O? jest dezaktywowany (lub "gaszony") w wyniku zderzeń z cząsteczkami powietrza w czasie krótszym niż czas emisji. Powyżej 200 km połączone efekty szybkości wygaszania kolizyjnego, która maleje wraz z wysokością, oraz pionowej zmiany gęstości elektronowej, która wzrasta wraz z wysokością, powoduje silny wzrost, w przypadku rosnących wysokości, świecenia czerwonej linii. Ważnym zastosowaniem pomiaru emisji termosferycznej poświaty nocnej, takiej jak czerwona linia tlenowa, jest wnioskowanie o wiatrach i temperaturach na podstawie spektroskopii o wysokiej rozdzielczości. Korzystając z interferometrów Fabry′ego - Perota i Michelsona, z linii emisyjnej O(1D) 630 nm uzyskano termosferyczny wiatr neutralny na poziomie 250 km poprzez pomiar powiązanego przesunięcia Dopplera, co daje wektor wiatru w linii wzroku. Temperatury neutralne można wywnioskować z szerokości linii. Spektroskopia Dopplera linii poświaty powietrznej jest skuteczną metodą badania dynamiki termosfery, silnie kontrolowanej przez pływy termiczne i ogólną aktywność fal. Wiadomo, że zielona linia tlenu przy 558 nm, będąca wynikiem przejścia O(1S) -> O(1D) pomiędzy drugim i pierwszym stanem wzbudzonym, powstaje w sąsiedztwie 100 km, czyli zdecydowanie niższych poziomach atmosferycznych niż czerwone linie. Chociaż część zielonej linii może powstać w wyniku rekombinacji dysocjacyjnej O+2 w obszarze F O+2 + e? -> O? +O? należy powołać się na inny mechanizm, aby wyjaśnić wysokość niskiej emisji tej linii. Sydney Chapman zaproponował mechanizm "wzbudzenia fotochemicznego"

O+O+O -> O2 +O(1S)

gdzie jeden z atomów O jest wzbudzany przez część energii wyzwolonej w połączeniu dwóch atomów O. W wyniku tego procesu maksymalne stężenie O występuje w odległości około 100 km, co jest zgodne z lokalizacją emisji zielonej linii. Odwzbudzenie O(1S) do O(1D) następuje poprzez wygaszenie przez cząsteczki otaczającego powietrza (głównie azot cząsteczkowy). Tak zwany proces Chapmana, choć może mieć udział w emisji zielonej linii, obecnie uważa się, że ma to drugorzędne znaczenie. Na początku lat sześćdziesiątych Barth i Hildebrandt odkryli w laboratorium, że emisja wytwarzana w poprzednim procesie jest o wiele za mała, aby uwzględnić obserwowany blask. Wynik ten zainspirował Bartha do zaproponowania w 1964 roku następującego dwuetapowego mechanizmu:

O+O+M -> O- 2 +M

gdzie M jest cząsteczką powietrza, a O-2 stanem wzbudzonym cząsteczki O2, po którym następuje proces przeniesienia wzbudzenia O- 2 +O(3P) -> O2 +O(1S). Efekt netto tych dwóch reakcji, uzyskany przez ich dodanie, jest podobny do efektu pojedynczej reakcji Chapmana. Inne procesy utraty to dezaktywacja poprzez wygaszenie przez zderzenie z cząsteczką powietrza O- 2 +M -> O2 +M lub promieniowanie fotonu poprzez odwzbudzenie radiacyjne O- 2 -> O2 + hv. Dlatego proces Bartha może powodować jednocześnie emisję zarówno O(1S) (zielona linia), jak i O2 (linia 762 nm). Można wykazać, że porównanie dwóch odpowiednich profili na rysunku jest zgodne ze schematem dwuetapowym, pomimo 10-kilometrowej różnicy pomiędzy wysokościami szczytowymi.

Emisja światła dziennego i zmierzchowego

Emisje poświaty powietrza obserwuje się również w ciągu dnia i odzwierciedlają one głównie dobowe wahania stężenia emitujących gatunków. Widma zmierzchowe można obserwować na przejściu pomiędzy atmosferą ciemną i w pełni oświetloną, gdy wysokość cienia przesuwa się pionowo w całym zakresie warstw emisyjnych. W ciągu dnia kilka linii i pasm jest bardzo jasnych, głównie ze względu na wyższą wydajność produkcji. Rzeczywiście, emisje światła dziennego i zmierzchowego wynikają głównie z bezpośredniego wzbudzenia przez fotony ultrafioletowe Słońca, fotoelektrony wytwarzane w procesach jonizacji w jonosferze oraz przez rozpraszanie rezonansowe lub fluorescencję promieniowania słonecznego. Takie zjawiska energetyczne skutkują złożonym widmem światła dziennego w ultrafiolecie, jak pokazano na rysunku



Pomiary te wykonano z satelity krążącego wokół Ziemi (STP78-1), ponieważ fotony ultrafioletowe nie mogą przedostawać się do ziemi ze względu na efekt ekranowania atmosfera. Nawet przy długościach fal bliskich UV lub widzialnych trudno jest uchwycić poświatę dzienną za pomocą instrumentów naziemnych ze względu na wysoki poziom rozproszonego światła słonecznego w tle. W widmie ultrafioletu o krótkich falach dominują pojedynczo zjonizowane i obojętne linie tlenu (O I, O II) i azotu (NI, N II). Linie te powstają w wyniku fotonów ultrafioletowych i uderzeń fotoelektronów. Linie krótkofalowe powstają w wyniku odwzbudzenia wyższych stanów o wysokiej energii, których nie można wzbudzić w reakcjach chemicznych ani rekombinacji. Kilka linii atomowych i jonowych w widmie światła dziennego to także linie pojawiające się w widmie Słońca, jak na przykład linia He I przy 584 Å. W przypadku helu zjawisko to wynika z rozproszenia rezonansowego linii emisyjnej promieniowania słonecznego He. Podobne cechy obserwuje się przy długościach fali 834 Å (triplet O II), 1216 Å i 1025 Å (HI, Lγα i L&gammalβ), 1302-1306 Å (triplet O I) i innych. Są one spowodowane rozpraszaniem rezonansowym lub fluorescencją.

Emisje tlenu cząsteczkowego w poświatach Ziemi, Wenus i Marsa

O ile przypadek stanu O(1S) jest dobrze poznany, o tyle szczegółowy proces emisji O2 nie jest jeszcze dobrze poznany. Oprócz dyskretnego pasma O2 o długości fali 762 nm, istnieje rozszerzona emisja w kolorze bliskim UV-niebieskiego przypisywana pasmom Herzberga i Chamberlaina. W poprzednich reakcjach wzbudzony stan związany O-2 O2 może wynosić A3Σ+u, A′3Δu lub c1Σ-u. Głównym prekursorem O(1S) mógłby być O2(c 1Σ?u ), ale nadal nie jest pewne, jaka jest natura prekursora i jest to nadal aktywny obszar badań. W atmosferze ziemskiej układ Herzberg I jest główną przyczyną kontinuum niebieskiej poświaty nocnej, ze średnią emisją 400 R. Z kosmicznych obserwacji poświaty Wenus prowadzonych przez radzieckie sondy Venera wykryto podobne poświaty tlenowe, chociaż w zupełnie innych \ ilościach . Nocna poświata tlenu cząsteczkowego Wenus wykazuje silną przewagę układu Herzberga II (2700 R). Tak duże różnice wynikają z odmiennego składu chemicznego środowiska atmosferycznego Ziemi i Wenus. W warstwach świetlnych gęstość otaczającego powietrza (N2+O2 dla Ziemi, CO2 dla Wenus) jest prawie 100 razy większa na Wenus niż na Ziemi, odwrotna sytuacja ma miejsce w przypadku O (trzy razy mniej na Wenus niż na Ziemi). Ponieważ wygaszanie kolizyjne O2(A3Σ+u ) jest realizowane głównie przez cząsteczki powietrza, podczas gdy O2(c1Σ-u) jest preferencyjnie wygaszane przez zderzenia z O, pasma Herzberga I są słabe na Wenus, a pasma Herzberga II są silnie wzmocnione pod względem w przypadku Ziemi (2700 R na Wenus w porównaniu do 100 R na Ziemi). Inną interesującą cechą jest ekstremalna słabość zielonej linii tlenowej w nocnej poświacie Wenus (5R w porównaniu do 120R na Ziemi), co było ważnym elementem faworyzującym mechanizm Bartha zamiast procesu Chapmana. Oczekuje się świecenia układu atmosferycznego w podczerwieni o masie 1Δg -> X3Σ?g w podczerwieni przy długości fali 1,27 μm. Świecenie to, po raz pierwszy odkryte na Wenus przez francuskiego spektroskopistę Pierre′a Connesa i jego współpracowników pod koniec lat 70. XX wieku, jest dość intensywne (>1 MR, czyli 106 R). Tak silną emisję mierzy się także na Ziemi. Ze względu na długi czas życia radiacyjnego O2(a1 &Dellta;g) (1 h) analizę komplikuje transport przez terminator. Fotoliza O3 w warunkach nasłonecznienia zgodnie z następującą reakcją

O3 + hv -> O2(a1Δ g)+O(1D)

stanowi część źródła światła dziennego Ziemi i Marsa, ale na Wenus jest nieistotna. Głównym źródłem poświaty nocnej wszystkich planet lądowych, poświaty dziennej Wenus i części poświaty dziennej Ziemi i Marsa, jest rekombinacja atomów O powstałych w wyniku fotolizy O2 na Ziemi oraz CO2 na Wenus i Marsie. Connes oszacował poszczególne linie rotacyjne tego pasma w widmie Marsa za pomocą 5-metrowego teleskopu na górze Palomar w latach 1973 i 1975. Z widm uzyskano temperatury rotacyjne i intensywność poświaty powietrznej. W każdym widmie zmierzono równoważne szerokości około 30 linii, które zwykle wynosiły 0,005-0,01 nm. Racjonując szerokość równoważna wytrzymałości linii i badając zależność tego stosunku od energii górnego stanu rotacyjnego przejścia, wywnioskowano temperaturę obrotową 200 K, co odpowiada rzeczywistej temperaturze uśrednionej na profilu wysokości poświaty. Stwierdzono typowe natężenie poświaty od 3 do 30 MR, w zależności od szerokości geograficznej. Zakładając, że współczynnik szybkości wygaszania przez cząsteczki powietrza (CO2 na Marsie) jest znany, ilość ozonu można wywnioskować na podstawie pomiarów poświaty powietrza o średnicy 1,27 μm, choć w dość niedokładny sposób.

AM Herkulis

AM Herculis (AM Her) to prototyp i najjaśniejszy z klasy krótkookresowych układów podwójnych kataklizmicznych (CB), w których silnie magnetyczny BIAŁY KARZEŁ akreuje gaz z Rochelobe wypełniający towarzysz masy podsłonecznej. Pole magnetyczne jest wystarczająco silne (B1 ≳ 20 MG; MG = 106 gausów), aby wpłynąć jakościowo na najbardziej podstawowe właściwości układu podwójnego: zapobiegać tworzeniu się dysku akrecyjnego i wymuszać przenoszenie masy całkowicie przez jeden lub więcej strumieni gazu; kierowanie przepływu w pobliżu białego karła do prawie promieniowego lejka, który uwalnia energię akrecji w wyniku wstrząsu nad biegunem magnetycznym; oraz synchronizowanie rotacji białego karła z ruchem orbitalnym towarzysza, tak że wszystkie podstawowe zjawiska są zorganizowane we wspólnym okresie Pspin = Porb. Ponieważ gaz dociera do powierzchni białego karła podczas wirtualnego swobodnego spadku, temperatura plazmy po szoku jest wysoka, a układy podwójne typu AM He∼∼r są silnymi emiterami promieniowania rentgenowskiego. Większość z obecnego katalogu około 50 takich układów wynika z satelitarnych badań całego nieba w zakresie promieni rentgenowskich. Sama AM Her została skatalogowana jako GWIAZDA ZMIENNA pół wieku przed tym, jak jej identyfikacja ze źródłem promieniowania rentgenowskiego 3U 1809+50 przyciągnęła uwagę obserwatorów. Przy typowych okresach w zakresie 1,5 ≲ Porb 4 h i masach gwiazd M1 ˜ 0,6M⊙ , M2 ˜ 0,2M⊙ , cały układ podwójny typu AM Her zwykle zmieściłby się w dysku Słońca. Systemy są zatem kompaktowymi laboratoriami do badania fizyki wysokotemperaturowych, namagnesowanych PLAZM, a także oddziaływań magnetycznych między gwiazdami

Miejsce akrecji

Tradycyjnie cechą charakterystyczną układu podwójnego AM Hertype była silna optyczna polaryzacja kołowa (∼5%-30%) emisji cyklotronu wypromieniowanej w przepływie po szoku tuż nad powierzchnią białego karła. Emisja cyklotronowa to promieniowanie szybkich (ale nierelatywistycznych) elektronów krążących spiralnie wokół linii pola magnetycznego i jeden z nielicznych procesów astrofizycznych, który powoduje tendencję wektora elektrycznego emitowanego promieniowania do oscylacji według wzoru składnik kołowy netto, w przeciwieństwie do zachowania czysto liniowego (polaryzacja liniowa) lub braku preferencyjnego wzoru (niespolaryzowany). Ta właściwość jest tak wyjątkowa dla zsynchronizowanych magnetycznie CB, że zyskała miano polarnych. Widmo emisyjne elektronu wirującego w polu magnetycznym występuje przy wielokrotnościach częstotliwości kątowej Larmora ωL = eB/mec. Przez analogię do izolowanych białych karłów, początkowo zinterpretowano, że silna optyczna polaryzacja kołowa AM Her występuje w pobliżu podstawy cyklotronu ωC = ωL, co sugeruje natężenie pola magnetycznego B1 ∼ 200 MG. Jednakże obserwacje spektropolarymetryczne podczas przerwy w ACCRETION ujawniły sygnaturę Zeemana w postaci pola magnetycznego o wartości zaledwie 10-20 MG w liniach absorpcyjnych szeregu wodoru Balmera. Ponieważ gwiazda wtórna była również widoczna w tym niskim stanie, widmo Zeemana przypisano uśrednionej na dysku fotosferze magnetycznego białego karła, a światło spolaryzowane w stanie wysokim przypisano emisji cyklotronu w liczbach harmonicznych 5 ≲ m ≲10. Następnie, W widmach stanów wysokich rozpoznano indywidualne termicznie poszerzone harmoniczne cyklotronu i wywnioskowano, że natężenie pola polarnego wynosi 14 MG. Strumień akrecyjny uderza w białego karła z prędkością



Oprócz promieniowania cyklotronowego, przepływ poszokowy chłodzi się za pomocą bremsstrahlung (emisji swobodnej) promieni rentgenowskich o charakterystycznej temperaturze kTbrem ∼ 20-30 keV. Około 50% każdego z tych składników, skierowanego w dół, jest pochłaniane i ponownie wypromieniowywane przez białego karła, tworząc trzeci, "ciało doskonale czarne", składnik, którego jasność według oryginalnych modeli przewidywała LBB ∼ Lcyc + Lbrem i temperatura kTBB ∼ 20 eV (w miękkim promieniowaniu rentgenowskim). Idee te były w dużej mierze zgodne z wczesnymi obserwacjami. Jednakże później zaobserwowano "odwrócony" tryb promieniowania rentgenowskiego AM Her, w którym twarde i miękkie promieniowanie rentgenowskie było silnie modulowane w okresie podwójnym, ale były względem siebie przeciwfazowe. Szybko zdano sobie sprawę, że tryb ten oznacza chwilową aktywację przepływu gazu na przeciwny biegun magnetyczny. Tutaj, z jakiegoś powodu, akrecja najwyraźniej zachodzi głównie w postaci gęstych skupisk o masie ∼1016 g, które odkładają swoją energię kinetyczną głęboko w atmosferze białego karła, ogrzewając otaczającą fotosferę od dołu do ∼105 K. Bezpośrednie dowody na to Narost "blobby" występuje w postaci migotania na krzywych blasku optycznego i rentgenowskiego nawet w "normalnym" trybie rentgenowskim; stąd zlepki muszą mieć mniejsze lub większe znaczenie we wszystkich przepływach, a jest to cecha, która zniekształca równowagę energetyczną w stosunku do przewidywanej przez prosty model. Dla parametrów gwiazdowych wymienionych w tabeli ,



obserwowana całkowita jasność AM Her, L ∼ 5 × 1032 erg s-1, w stanie wysokim, implikuje szybkość akrecji ˙M = LR1 / GM1 ≈ 1 × 10-10M⊙yr?1 przy spadku szybkości przenoszenia masy w stanie niskim o rząd wielkości lub więcej. Jest mało prawdopodobne, aby emisja była jednolita w całym strumieniu; rdzeń o dużej gęstości będzie stosunkowo skompresowany i będzie promieniował głównie w twardych promieniach rentgenowskich, podczas gdy bardziej rzadka osłona będzie miała większą wysokość wstrząsu odstającego i będzie sprzyjać chłodzeniu cyklotronu. Ze względu na znaczenie naświetlania z góry i ogrzewania subfotosferycznego, oczekuje się, że miękkie promieniowanie rentgenowskie będzie pochodzić z jeszcze większych obszarów. Pomysły te potwierdzają różnorodne obserwacje, które ujawniają, że obszar plamki jako ułamek powierzchni białego karła waha się od f < 10-4 dla emisji bremsstrahlunga do f ∼ 0,1 dla podgrzanej czapy polarnej w bliskim zakresie UV.

Strumień gazu

W układzie podwójnym akrecji wypełnienia ROCHE-LOBE transfer masy następuje przez wewnętrzny punkt Lagrangianu L1, gdzie wypadkowa siła grawitacji we współbieżnym układzie współrzędnych wynosi zero. Wystrzeliwane dzięki niewielkiej prędkości termicznej atomy są szybko jonizowane przez intensywne promieniowanie rentgenowskie/UV i przyspieszają w kierunku białego karła pod połączonym wpływem rosnącego pola grawitacyjnego i efekty Coriolisa. Rezultatem jest skierowanie strumienia w kierunku postępowym. W niemagnetycznym CB gaz krąży następnie wokół białego karła, zderza się z przepływem powyżej i dyfunduje do DYSKA AKRECJI otaczającego zwartą gwiazdę. W układach typu AM Her pole magnetyczne białego karła zaczyna dominować w kinematyce zjonizowanego strumienia przy mniej więcej promieniu Alfvena, określonym przez B2/ 8π ∼ρv2/ 2. To przejście z obszarów przepływu kontrolowanych balistycznie do obszarów kontrolowanych magnetycznie następuje w odległości ∼5-10R1 nad ∼∼∼∼∼∼powierzchnią białego karła. Poniżej "obszaru sprzęgania" grudki plazmy są mniej więcej całkowicie splatane przez szybko rosnące pole magnetyczne i w przybliżeniu podążają po trajektoriach dipolarnych. Ogólnie rzecz biorąc, obejmuje to odchylenie przepływu od płaszczyzny orbity. Ponieważ pierwotny strumień ma niemożliwy do pominięcia przekrój poprzeczny, a sprzęganie zachodzi na znacznej odległości liniowej, różne części strumienia ostatecznie wyznaczają różne linie pola prowadzące do powierzchni, a powstały punkt akrecji lepiej przypomina łuk niż okrąg. Rzeczywiście, gaz już porusza się z prędkością ˜1000 kmˇs-1, kiedy napotyka magnetosferę białego karła, zatem jest mało prawdopodobne, aby nawlekanie było procesem przypadkowym. Kiedy AM Her znajduje się w trybie dwubiegunowym, przepływ najwyraźniej rozgałęzia się z obszaru sprzęgania do drugiego strumienia, który uderza w gwiazdę magnetyczną w miejscu mniej więcej naprzeciw głównego bieguna. Bardziej znanym przykładem tej samej fizyki są bliźniacze strefy zorzowe powstałe w wyniku wychwytywania cząstek rozbłysków słonecznych przez ziemską magnetosferę. Strumień zjonizowanego radiacyjnie gazu jest także obfitym emiterem promieniowania rekombinacyjnego. Ze względu na dużą prędkość kolimowanego przepływu linie emisyjne są szerokie i bardzo zmienne pod względem prędkości radialnej, a także profilu na całej orbicie. W przeciwieństwie do typowej astrofizyki mgławicy strumień liniowy strumienia pokazuje F ˜ FH? ˜F, co wskazuje na duże głębokości optyczne w gęstym przepływie (Ne ≳ 1013 cm-3).

Gwiezdne komponenty

Nieprzezroczystości cyklotronu przy dużej liczbie harmonicznych są silnie zależne od kierunku i wrażliwe na polaryzację. W przypadku punktów widzenia w pobliżu kierunku lokalnego pola magnetycznego emisja jest stosunkowo słaba i spolaryzowana kołowo ze zwrotem (+/-), który odzwierciedla polaryzację pola. Prostopadłe linie wzroku mierzą silną polaryzację liniową i źródło wzmocnione efektami "promieniowania cyklotronowego". Ponieważ lejek akrecyjny i wynikający z niego wstrząs są przymocowane do mniej więcej promieniowych linii pola magnetycznego na współwirującym białym karle, zmiany strumienia i polaryzacja cyklotronu zależą od szczegółowej geometrii układu podwójnego: nachylenia i, współszerokości geograficznej bieguna magnetycznego β i długości osi pola względem linii środków gwiazd Ψ. Kiedy fazowo-rozdzielcze obserwacje spolaryzowanego światła cyklotronowego zostaną połączone z badaniami prędkości radialnych linii emisyjnych lejka i linii absorpcji gwiazd, wielkości te można mniej lub bardziej jednoznacznie określić i uzyskać niezwykle szczegółowe obrazy skonstruowanych układów. Co więcej, porównanie natężenia pola magnetycznego w przeciwległych obszarach akrecji układów dwubiegunowych można wykorzystać do wywnioskowania morfologii układu pola na białym karle (np. dipol, dipol offsetowy, kwadrupol). Praktycznie we wszystkich CB masa cząsteczki wtórnej jest na tyle niska, że czas życia gwiazdy w ciągu głównym przekracza wiek Galaktyki i zakłada się, że jest ona w dużej mierze niewyewoluowana. Kiedy gwiazdę można obserwować bezpośrednio, na przykład w stanie małej akrecji, zmierzony typ widma jest generalnie zgodny z wywnioskowaną masą i promieniem. Jednakże dla M2 < M1 kontakt między gwiazdą dawcą a jej powierzchnią Roche′a może zostać utrzymany w obliczu przenoszenia masy tylko wtedy, gdy z układu zostanie usunięty moment pędu. Oznacza to, że orbita musi zanikać z czasem - a okres się zmniejszać - przynajmniej do czasu, gdy element wtórny ulegnie całkowitej degeneracji. Obecne koncepcje utożsamiają mechanizm utraty pędu z promieniowaniem grawitacyjnym oraz, w przypadku wyższych szybkości przenoszenia masy obiektów z P ≳ 3h, hamowaniem magnetycznym przez wiatr typu słonecznego wymiatany na zewnątrz wzdłuż linii pola magnetycznego powiązanej pływowo gwiazdy magnetycznej. Argumentowano, że sytuacja ta ulega zmianie, gdy obecna jest silnie magnetyczna, zsynchronizowana gwiazda pierwotna, ponieważ duża część linii pola wtórnego kończyłaby się wówczas na białym karle. Zmniejszona liczba "otwartych" linii gwiazdy wtórnej zmniejszyłaby skuteczność magnetycznego mechanizmu hamowania. Wydaje się, że zsynchronizowane systemy - w tym AM Her - rzeczywiście wykazują tempo akrecji, które jest systematycznie niższe niż niemagnetyczne CB w tym samym okresie orbitalnym, więc możliwe jest, że pole magnetyczne wpływa nawet na ewolucję okresową układu podwójnego. Jednocześnie nie jest jasne, czy nawet dwie dekady obserwacji to wystarczająco długa linia bazowa, aby ocenić świeckie tempo przenoszenia masy bliskiego układu podwójnego, którego ewolucyjna skala czasowa waha się od ∼103 -104 lat (w przypadku erupcji nowych) do prawie 109 lat (dla zaniku okresu orbitalnego). Nieznana jest również przyczyna stanów niskiej akrecji, które obejmują nagłe odcięcie strumienia rentgenowskiego AM Her 7-krotnie w ciągu zaledwie 40 minut i które mogą utrzymywać się przez wiele miesięcy.

Synchronizacja spinu/orbity

Główna gwiazda AM Her podlega momentowi akrecji Nacc ∼ 2π/P R2L1 ˙M ∼ 5 × 1033 dyn cm gdzie RL1 jest odległością punktu L1 od białego karła. Pozostawione samemu sobie spowodowałoby to obrót białego karła w skali czasu τ ∼ 108 lat. Zatem moment akrecyjny musi być zrównoważony momentem równoważącym, który utrzymuje okres wirowania białego karła równy okresowi orbity towarzysza. Ponieważ wszelka interakcja magnetyczna musi być słabsza, gdy separacja składników jest większa (młodsza binarnie), często uważa się, że musi zadziałać dodatkowy, rozpraszający moment obrotowy, aby spowolnić prędkość wirowania białego karła i początkowo zsynchronizować ruchy. Wśród proponowanych możliwości znajdują się oddziaływania magnetostatyczne z wewnętrznie magnetycznymi lub niemagnetycznymi gwiazdami wtórnymi oraz efekty magnetohydrodynamiczne, w których prądy elektryczne przepływają przez rozrzedzony ośrodek plazmowy układu podwójnego. Chociaż prawdopodobnie nie jest możliwe uzyskanie jednoznacznej odpowiedzi w każdym indywidualnym przypadku, wskazówki empiryczne co do natury interakcji są potencjalnie dostępne w rozkładzie długości dipolowych φ dla konfiguracji równowagowych oraz w możliwych dryfach lub powolnych oscylacjach kątowych dipol w układach podwójnych. Obserwacje w czasie rzeczywistym resynchronizujących magnetycznych układów NOVA, które zostały oddzielone przez erupcje nowej, również są obiecujące w zakresie wyjaśnienia tego unikalnego aspektu fizyki systemów typu AM Her.

Amatorskie Towarzystwa Astronomiczne

Astronomia amatorska ma długą i wybitną historię. Na przykład William Herschel, odkrywca planety Uran i być może największy ze wszystkich obserwatorów, rozpoczął swoją karierę jako amator; w 1845 roku trzeci hrabia Rosse zbudował wówczas najpotężniejszy teleskop na świecie - zamek Birr 72 w reflektorze - i wykorzystał go do odkrycia spiralnych form obiektów, które obecnie wiemy, że są galaktykami. Współcześni amatorzy wykonują prace, na które profesjonaliści nie mają czasu, ochoty lub nie są do tego wyposażeni. Jednak obserwator pracujący samodzielnie może wnieść stosunkowo niewielką wartość - i właśnie w tym przypadku amatorskie towarzystwa astronomiczne odgrywają tak ważną rolę. Należy zauważyć, że w znacznym stopniu stowarzyszenia amatorskie i zawodowe w znacznym stopniu pokrywają się. Na przykład w Wielkiej Brytanii ROYAL ASTRONOMICAL SOCIETY, główna organizacja zawodowa, zrzesza wielu członków-amatorów, a całkiem niedawno niektórzy amatorzy pełnili nawet funkcję prezesów (na przykład WH Steavenson, lekarz medycyny). BRITISH ASTRONOMICAL ASSOCIATION (BAA) to głównie amatorskie stowarzyszenie, ale zrzesza także wielu profesjonalistów, a wśród jego poprzednich prezesów było kilku członków rodziny Astronomers Royal. Ta sama sytuacja ma miejsce w większości pozostałych krajów. Nawet MIĘDZYNARODOWA UNIA Astronomiczna, organ kontrolujący światową astronomię, ma kilku członków-amatorów. Wielka Brytania zawsze odgrywała znaczącą rolę w badaniach astronomicznych, warto więc przedstawić krótki opis rozwoju różnych tamtejszych społeczeństw. Początki Królewskiego Towarzystwa Astronomicznego sięgają oczywiście lat dwudziestych XIX wieku, a jednym z pierwszych prezesów był Sir William Hershel. Obowiązywały ograniczenia wjazdu; w szczególności kobietom nie pozwolono zostać towarzyszami dopiero znacznie później. Istniało wyraźne zapotrzebowanie na krajowe stowarzyszenie amatorskie, a w latach osiemdziesiątych XIX wieku powstało Liverpool Astronomical Society, które rozrosło się w organizację międzynarodową. Potem nagle upadł, częściowo z powodu problemów finansowych, a częściowo z powodu złej administracji. To wtedy powstało BAA; jego pierwsze spotkanie odbyło się w Londynie w 1890 r. Od samego początku BAA miało być stowarzyszeniem obserwacyjnym i utworzono różne sekcje, z których każda była kontrolowana przez doświadczonego dyrektora. Przykładowo jeden dział w całości poświęcono obserwacjom planety Jowisz i regularnie publikowano raporty, zarówno w miesięczniku Stowarzyszenia, jak i w specjalistycznych Memoirach . Prawdopodobnie prawdą jest stwierdzenie, że publikacje te stanowią najlepszą i najbardziej ciągłą dostępną serię obserwacji Jowisza, a prace trwają do dziś, chociaż prawdą jest, że wyniki badań sond kosmicznych w pewnym stopniu wyparły jakikolwiek ziemski program obserwacyjny. Inne sekcje dotyczyły Słońca, Księżyca, Marsa, komet, gwiazd zmiennych i tak dalej. Początkowo Królewskie Towarzystwo Astronomiczne patrzyło na BAA z dezaprobatą, ale szybko stało się jasne, że nie będzie konfliktu interesów i od wielu lat siedziby obu towarzystw mieszczą się w tym samym budynku w Burlington House na Piccadilly. Powstały różne oddziały BAA, choć jedna po drugiej decydowały się na oderwanie i uzyskanie całkowitej niezależności. Do dziś pozostał jedynie oddział w Nowej Południowej Walii w Australii. Nie było żadnych ograniczeń dotyczących wstępu, a było kilku bardzo młodych członków. Jednakże w pewnym momencie uznano, że może zaistnieć potrzeba stworzenia społeczeństwa skupiającego się wyłącznie na młodych ludziach. Propozycja utworzenia sekcji młodszej została skierowana do Rady BAA, ale nie została przyjęta. Doprowadziło to do powstania Junior Astronomical Society (JAS) i założono, że młodzi entuzjaści dołączą do JAS, a następnie przejdą do BAA. Na początku tak się działo, ale w latach sześćdziesiątych JAS zdecydował się stać się organizacją równoległą; obecnie jest znane jako Towarzystwo Astronomii Popularnej. Nie ma wątpliwości, że BAA jest organizacją odnoszącą ogromne sukcesy i to od wielu lat był klasą samą w sobie. W pewnym stopniu jest to nadal prawdą, ale skupiało się to głównie w Londynie, a potrzebne były także społeczności lokalne. Obecnie prawie każde większe miasto i miasteczko na Wyspach Brytyjskich ma swoje własne stowarzyszenie, a wiele z nich jest stowarzyszonych z BAA. Wielką zaletą społeczności lokalnej jest możliwość założenia obserwatorium. Obserwatoria publiczne w Wielkiej Brytanii są rzadkością, a społeczności lokalne okazały się nieocenione w wypełnieniu tej luki. Niektóre są wyjątkowo dobrze wyposażone i zdolne do wykonywania pracy na profesjonalnym poziomie. Co więcej, wielu młodych entuzjastów, którzy zaczynają od przyłączenia się do najbliższego stowarzyszenia, zostaje zawodowymi astronomami. Społeczności szkolne rozkwitają, choć prawdą jest, że ich funkcjonowanie zależy od obecności przynajmniej jednego oddanego personelu. Kilka szkół ma nawet własne obserwatoria radioastronomiczne (na przykład szkoła Taunton w Somerset). W Szkocji, a także w Irlandii istnieje wiele stowarzyszeń amatorskich. Aktywne społeczeństwa istnieją także na Wyspach Normandzkich i na Wyspie Man. Wszystkie te różne społeczeństwa są ze sobą powiązane i współpracują dla obopólnych korzyści. Ponadto wiele z nich wydaje własne, regularne czasopisma, a ich działalność i wyniki są relacjonowane w czasopismach ogólnopolskich, takich jak Modern Astronomer i Astronomy Now. Z punktu widzenia obserwatorium publicznego sytuacja w Stanach Zjednoczonych jest znacznie lepsza, a stowarzyszenia amatorskie są rzeczywiście bardzo liczne. Szczególne znaczenie ma AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH (AAVSO), które jest największą organizacją tego typu na świecie i która prowadzi ogromną liczbę ważnych obserwacji. Jak można się spodziewać, tworzą ją zarówno amatorzy, jak i profesjonaliści, ale w przypadku czystej pracy wizualnej to amatorzy są najbardziej płodni, zwłaszcza teraz, gdy mogą korzystać z urządzeń elektronicznych, takich jak matryce CCD, i mogą dawać wyniki, które zadowolą każdego zawodowego badacza. Wyliczenie wszystkich innych głównych stowarzyszeń zajęłoby wiele stron, ale należy szczególnie wspomnieć o Towarzystwie Astronomicznym Pacyfiku, które zrzesza wielu członków-amatorów. W Kanadzie działają dwa główne stowarzyszenia: Kanadyjskie Towarzystwo Astronomiczne (głównie zawodowe) i KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE KANADY (częściowo profesjonalista, częściowo amator). Taka sama sytuacja ma miejsce w Australii i Nowej Zelandii. Społeczeństwa amatorskie rozkwitają niemal we wszystkich krajach europejskich i w Rosji. Japonia ma oczywiście wielką tradycję amatorskiej pracy obserwacyjnej i tutaj także działają organizacje zarówno krajowe, jak i lokalne. Naturalnie wszystkie stowarzyszenia - krajowe i lokalne - odbywają regularne spotkania, a te są bezcenne, ponieważ często można zaprosić znanych prelegentów, którzy będą mogli udzielić rad i zachęty. Względy finansowe są zawsze na pierwszym planie. Stawki abonamentu są utrzymywane na możliwie najniższym poziomie, ale rachunki trzeba płacić, szczególnie jeśli w grę wchodzą wszelkiego rodzaju lokale. Władze lokalne często pomagają, choć inne są znacznie mniej skłonne do współpracy (w Wielkiej Brytanii jedno stowarzyszenie zostało niedawno zmuszone do opuszczenia swojego obserwatorium, ponieważ rada zdecydowała się podnieść czynsz za grunt do niemożliwej kwoty). Jednak nawet stowarzyszenie, które nie ma siedziby ani obserwatorium, prawie na pewno będzie miało członków posiadających własne teleskopy i udostępniających je nowicjuszom. Obecnie istnieją również ambitne stowarzyszenia, które zakładają własne planetaria - a planetarium jest z pewnością najlepszą możliwą pomocą edukacyjną. Jest ich mnóstwo w Stanach Zjednoczonych i kilka w Wielkiej Brytanii, zwłaszcza planetarium wznoszone obecnie w pobliżu Chichester w Sussex przez Towarzystwo Astronomiczne South Downs. W ostatnich latach doszło do jednego niepowodzenia. Proponowano utworzenie międzynarodowej organizacji amatorskiej, mającej na celu korelację prac towarzystw na całym świecie, i w latach 60. XX w. na Zgromadzeniu Ogólnym Międzynarodowej Unii Astronomicznej faktycznie powołano taką organizację: Międzynarodową Unię Astronomów Amatorów ( IUAA). Wydała kilka publikacji i odbyła kilka spotkań w różnych krajach, ale trzeba przyznać, że nigdy nie odniosła prawdziwego sukcesu, także ze względu na ograniczenia finansowe. Można mieć nadzieję, że w przyszłości zostanie on rozbudowany i odegra naprawdę pożyteczną rolę, jest jednak trudny do zorganizowania i wiele pozostaje do zrobienia. Tymczasem amatorskie stowarzyszenia astronomiczne istnieją praktycznie we wszystkich krajach. Ich wartość jest nie do przecenienia, a dziś, w epoce kosmicznej, ich rola jest jeszcze ważniejsza niż w latach ubiegłych.

Współpraca amatorsko-zawodowa w astronomii

Prawdopodobnie prawdą jest stwierdzenie, że w większości dziedzin nauki dzień amatora dobiegł końca. Żaden współczesny amator nie może spodziewać się podjęcia ważnych prac badawczych na przykład w fizyce, gdzie niezbędny jest skomplikowany i kosztowny sprzęt; nie może też spodziewać się wielkiego odkrycia teoretycznego, ponieważ potrzebne jest bardzo rygorystyczne szkolenie. To prawda, że nadal jest miejsce na dobrą amatorską pracę w geologii i paleontologii, ale to w astronomii amator naprawdę odnajduje się w swoich możliwościach. Sto lat temu istniały różne gałęzie astronomii, w których królował amator. Najlepszych obserwacji Księżyca i powierzchni planet dokonywali amatorzy i tak było jeszcze niedługo przed drugą wojną światową. Warto również pamiętać, że w 1845 roku 3. Hrabia ROSSE, bez żadnej pomocy eksperta, zbudował najpotężniejszy wówczas teleskop zwierciadlany 72-calowy w zamku Birr w Irlandii i użył go do odkrycia form obiekty zwane wówczas mgławicami spiralnymi, a obecnie znane jako galaktyki zewnętrzne. (Miło jest zauważyć, że po długim okresie zaniedbań teleskop Birra został przywrócony do pełnej sprawności, choć oczywiście w żadnym wypadku nie dorównuje współczesnemu teleskopowi o tej samej aperturze.) Około 1900 r. fotografia przejęła kontrolę nad okiem w większości dziedzin astronomii. Obecnie sama fotografia jest wypierana przez pomoce elektroniczne, takie jak URZĄDZENIA ŁADUJĄCE (CCD), które są znacznie bardziej czułe. Astronom nie musi już spędzać godzin w zimnej, ciemnej kopule, upewniając się, że jego teleskop jest nadal dobrze zamocowany na docelowym obiekcie; wcale nie musi przebywać w kopule ani nawet w tym samym kraju. Wszystko wyświetla się na ekranie telewizora. Ma to oczywiste zalety, poza wygodą, ale oznacza, że zawodowy astronom rzadko lub wcale nie patrzy przez teleskop i nie musi posiadać praktycznej wiedzy o niebie. Prawie na pewno prawdą jest stwierdzenie, że niewielu zawodowych astronomów jest w stanie rozpoznać więcej niż pół tuzina konstelacji1. Niektórzy amatorzy natomiast mają wręcz encyklopedyczną wiedzę o niebie i bez problemu potrafią zidentyfikować wiele setek gwiazd. Sprzęt amatorski zmienił się znacząco w niedawnej przeszłości. Pięćdziesiąt lat temu przeciętny amator używał teleskopu o umiarkowanej aperturze - powiedzmy do 18 cali w przypadku REFLEKTORA - i był bardziej zainteresowany pracą wizualną niż fotografią. Dziś dobrze wyposażony amator nabył umiejętności w elektronice. Używając matrycy CCD z, powiedzmy, 15-calowym teleskopem, współczesny amator może uzyskać wyniki porównywalne z wynikami uzyskanymi w głównych profesjonalnych obserwatoriach bezpośrednio po wojnie. Są oczywiście amatorzy, którzy w ogóle nie korzystają z teleskopów. Praca gołym okiem może być przydatna, szczególnie w przypadku meteorów i zorzy polarnej (zobacz artykuł na temat ASTRONOMII GOŁYM OKIEM). Jednak lornetka może być naprawdę bardzo cenna, zwłaszcza w rękach amatorów, którzy spędzają czas na poszukiwaniu komet i nowych. George Alcock, angielski nauczyciel, odkrył teraz cztery komety i trzy nowe, a wszystko to przy pomocy potężnej lornetki. "Przeczesuje" niebo, a jego znajomość układów gwiazd jest tak dobra, że na pierwszy rzut oka rozpoznaje przybysza. Nie jest w tym osamotniony; amatorzy odkryli ostatnio wiele komet - w tym dwie najnowsze "wielkie" komety, Hyakutake z 1996 r. i Hale-Bopp z 1997 r. Jednym z wybitnych współczesnych amatorów jest australijski duchowny, wielebny Robert Evans. Używa przenośnego teleskopu i skanuje zewnętrzne galaktyki w poszukiwaniu supernowych. Jak dotąd odkrył ich ponad 20. Supernowa to kolosalny wybuch gwiazdowy, oznaczający śmierć gwiazdy; w naszej Galaktyce od roku 1604 nie zaobserwowano żadnych supernowych gołym okiem, ale rzeczywiście zdarzają się one w układach zewnętrznych, oddalonych o wiele milionów lat świetlnych. Nikt nie jest w stanie przewidzieć, kiedy wybuchnie supernowa, dlatego ważne jest, aby przeprowadzić obserwacje tak wcześnie, jak to możliwe, aby wcześniejsze ostrzeżenia podawane przez amatorów takich jak Evans miały ogromne znaczenie. Poszukiwania tego rodzaju są obecnie prowadzone przez wielu amatorów z dużym sukcesem. Niektórzy obserwatorzy, tacy jak Evans, pracują wzrokowo; inni używają sprzętu fotograficznego lub CCD. Nie trzeba dodawać, że wkład tego rodzaju jest bardzo ciepło przyjęty przez zawodowych astronomów. Zwykłe nowe mogą być również identyfikowane przez amatorów, dzięki ich znajomości nieba, a w ostatnich latach w ten sam sposób odkryto także kilka mniejszych planet lub asteroid. Bez wątpienia konieczne jest niezwłoczne powiadomienie o odkryciu. Ośrodki znajdują się w wielu krajach, ale każde potwierdzone odkrycie ogłaszane jest przez usługę telegramową MIĘDZYNARODOWEJ UNII Astronomicznej (IAU), która ma zasięg ogólnoświatowy. Prawdą jest również, że wiele rzekomych "odkryć" okazuje się fałszywymi alarmami i dokładamy wszelkich starań, aby je odfiltrować, zanim zaczną marnować cenny czas obserwacji. Prace nad gwiazdami zmiennymi zawsze stanowiły główną część amatorskiej astronomii obserwacyjnej. GWIAZD ZMIENNYCH jest wiele rodzajów. Niektóre, jak cefeidy, są regularne jak w zegarku; inne, takie jak gwiazdy Mira, różnią się zachowaniem w zależności od cyklu; jeszcze inne są całkowicie nieregularne, tak że nigdy nie wiadomo, co zrobią dalej. Jest tak wiele gwiazd zmiennych, że zawodowi astronomowie nie są w stanie śledzić ich wszystkich, dlatego też w dużym stopniu polega się na pracy amatorskiej. Większość z nich ma charakter czysto wizualny. Procedura polega na porównaniu zmiennej z pobliskimi gwiazdami, które nie podlegają wahaniom. Przy odrobinie praktyki dokonanie szacunków z dokładnością do jednej dziesiątej wielkości nie jest trudne i w większości przypadków jest to wystarczające. Za pomocą fotometrów można uzyskać znacznie dokładniejsze szacunki i prawdą jest, że większość współczesnych amatorów poważnie zainteresowanych badaniami gwiazd zmiennych posiada sprzęt fotometryczny. Naprawdę duży teleskop nie jest niezbędny; reflektor o, powiedzmy, aperturze 6-12, da właścicielowi więcej pracy, niż jest on w stanie udźwignąć. Wyniki są korelowane przez organizacje takie jak Sekcja Gwiazd Zmiennych BRYTYJSKIEGO STOWARZYSZENIA ASTRONOMICZNEGO i AMERYKAŃSKIE STOWARZYSZENIE GWIAZD ZMIENNYCH OBSERWATORÓW. Istnieją pewne zmienne, które można dostrzec gołym okiem; taka jest GammaCassiopeiae w Wof Cassiopeia, która jest niestabilną gwiazdą "powłokową". Zwykle ma jasność nieco poniżej drugiej magnitudo, ale pod koniec lat trzydziestych XX wieku pojaśniała gwałtownie o ponad połowę magnitudo, a następnie spadła poniżej 3 magnitudo, zanim powróciła do normalnego stanu. Wczesne obserwacje wybuchu z lat trzydziestych XX wieku były amatorskie i nigdy nie wiadomo, kiedy to samo stanie się ponownie. Za pomocą lornetki można śledzić dziesiątki zmiennych i sporządzać dokładne krzywe blasku. Jeśli chodzi o Księżyc, przez wiele lat dominowała praca amatorska. Przed pojawieniem się misji kosmicznych większość profesjonalistów zajmowała się wyłącznie ruchami Księżyca, a mapy amatorskie były w tamtych czasach najlepsze. Była też szansa na dokonanie naprawdę ciekawych odkryć, jak np. formacji w obszarach libracji, w pobliżu krawędzi zwróconej ku Ziemi półkuli. Kiedy Rosjanie wysłali w 1959 roku swoją pierwszą sondę okołoksiężycową, Lunik 3, uzyskali zdjęcia odległej strony, która nigdy nie jest widoczna z Ziemi, ponieważ jest zawsze odwrócona od nas; mapy amatorskie wykorzystano do skorelowania wyników Lunika 3 z regionami obróconymi w stronę Ziemi. Jednak sytuacja uległa zmianie. Misje kosmiczne umożliwiły nam uzyskanie szczegółowych map całego Księżyca, a amatorska kartografia straciła na wartości, ale nadal jest nad czym pracować. Chociaż Księżyc jest mniej więcej obojętny, czasami zdarzają się bardzo krótkie, niejasne wybuchy, znane jako TLP lub przejściowe zjawiska księżycowe. Prawdopodobnie są one spowodowane łagodnym uwolnieniem gazów spod skorupy ziemskiej i były obserwowane tak często i przez tak wielu wiarygodnych obserwatorów (w tym kilku profesjonalistów), że trudno kwestionować ich realność. Potwierdzenie ich realności uzyskał w 1999 roku Adolfus za pomocą pomiarów wizualnych i polarymetrycznych. Badają je oddani amatorzy i rezultaty są takie z dużym zainteresowaniem. Zakrycia gwiazd przez Księżyc są nadal przydatne, a amatorzy są ekspertami w ich ustalaniu czasu. Zdarzają się również zakrycia gwiazd przez asteroidy, a ponieważ tory są tak wąskie, amator ma wielką przewagę; może zabrać odpowiedni teleskop we właściwe miejsce o właściwym czasie, czego profesjonalista nie jest w stanie zrobić. W ten sposób dokonano ważnych pomiarów pozycji i wymiarów asteroid. Coraz większego znaczenia nabiera także amatorska praca słoneczna. Codzienne śledzenie plam słonecznych jest interesujące, ale do prawdziwych badań Słońca potrzebna jest znaczna ilość złożonego sprzętu. Filtry H-alfa są obecnie powszechne i istnieje kilka doskonałych spektrohelioskopów; w istocie jeden z wiodących brytyjskich badaczy amatorów zajmujących się słońcem, komandor Henry Hatfield, posunął się tak daleko, że zbudował cały dom wokół swojego spektrohelioskopu. Amatorskie obserwacje rozbłysków i zjawisk towarzyszących służą uzupełnieniu prac prowadzonych przy większych obserwacjach zawodowych. Teraz, gdy dysponujemy niezwykle szczegółowymi widokami planet z różnych misji kosmicznych, można by pomyśleć, że amatorskie obserwacje planet straciły całą swoją wartość. Z całą pewnością tak nie jest. Przykładowo, obecnie (2000 rok) Saturn nie jest monitorowany przez żadną sondę. Od czasu do czasu zdarzają się tam poważne epidemie, a wiele z nich po raz pierwszy widzą amatorzy; na przykład jasną białą plamę z 1933 r. odkrył amator WTHAY, prawdopodobnie najlepiej zapamiętany przez ogół społeczeństwa jako Will Hay, komik teatralny i filmowy. Nową białą plamę po raz pierwszy zauważył także amator Wilber; dopiero później został sfotografowany przez Kosmiczny Teleskop Hubble′a. Jest bardzo prawdopodobne, że następny gwałtowny wybuch na Saturnie, o ile do niego dojdzie, będzie również odkryciem amatorskim, a wczesne powiadomienie oznacza, że profesjonalny sprzęt będzie mógł zostać u żyty tak szybko, jak to możliwe. Jowisz to kolejny ulubiony cel amatorów, ponieważ cechy powierzchni stale się zmieniają; na Gigantycznej Planecie nigdy nie brakuje czegoś nowego do zobaczenia. W przypadku Jowisza i być może Saturna z powodzeniem można zastosować skromny teleskop. Mars stanowi znacznie większy problem, ponieważ konieczne jest duże powiększenie, ale gdy planeta znajduje się blisko opozycji, amator z, powiedzmy, teleskopem 12 lub 15 cali może pomóc w monitorowaniu zjawisk chmur i zachowania czap polarnych - szczególnie jeżeli ma dostęp do sprzętu elektronicznego. Nawet w przypadku odległego Plutona istnieje zasięg. Bardzo rzadko Pluton zasłania gwiazdę, a kiedy to się ostatnio zdarzało, bardzo cenne były amatorskie pomiary; zanikanie gwiazdy przed zakryciem potwierdziło, że Pluton rzeczywiście posiada rozległą, choć bardzo rzadką atmosferę. W astronomii, podobnie jak we wszystkich innych naukach, współpraca jest sprawą najwyższej wagi. Nie ma sensu dokonywać obserwacji, jeśli inni pracownicy o tym nie usłyszą. Organem kontrolującym światową astronomię jest IAU, która w rzeczywistości ma charakter międzynarodowy - i takim pozostała nawet podczas najgorszej części zimnej wojny. W IAU jest kilku członków-amatorów, byli nawet urzędnicy-amatorzy. Zgromadzenia Ogólne odbywają się co 3 lata w różnych krajach; rok 2000 przypada na Anglię (Manchester), po latach 1997 (Holandia) i 1994 (Argentyna). W latach sześćdziesiątych XX wieku podjęto próbę powołania analogicznej organizacji amatorskiej, Międzynarodowej Unii Astronomów Amatorów. Istnieje, ale bezsensem byłoby udawać, że odniósł taki sukces, jak oczekiwano, i że potrzebna jest lepsza organizacja. Tymczasem wszystkie kraje mają swoje stowarzyszenia krajowe - na przykład w Wielkiej Brytanii Brytyjskie Stowarzyszenie Astronomiczne, które ma głównie charakter amatorski i nie ma sobie równych w zakresie obserwacji. Większość większych miast na świecie ma własne stowarzyszenia i istnieje zadowalający poziom współpracy, zarówno krajowej, jak i międzynarodowej (zobacz także Podsumowując, można śmiało powiedzieć, że astronomowie-amatorzy podejmują się pracy, której profesjonalista nie chce zrobić, nie ma na to czasu lub rzeczywiście nie może tego zrobić. Prawdą jest również, że praca amatorska jest ceniona i ciepło witana oraz że astronom amator jest obecnie tak samo ważny, jak był w przeszłości.

Galaktyka Andromedy

Galaktyka Andromedy jest najbliższą DROGI MLECZNEJ GALAKTYKĄ SPIRALNĄ, widoczną gołym okiem w ciemną noc jako słaba smuga światła w gwiazdozbiorze Andromedy. Najwcześniejsze wzmianki o mgławicy Andromedy, jak wciąż często się o niej mówi, pochodzą z roku 964 n.e., z "Księgi gwiazd stałych" opublikowanej przez perskiego astronoma AL-SU? FI. Pierwszym Europejczykiem, który oficjalnie zauważył mgławicę Andromedy, był Simon Mayer, niemiecki matematyk i astronom, który nie był świadomy wcześniejszych prac Al-Sûfi. Obiekt ma numer 31 w słynnym KATALOGU MESSIERA, którego początki sięgają XVIII wieku i dlatego często nazywany jest M31. Innym pseudonimem galaktyki Andromedy jest NGC224, ponieważ zajmuje ona numer 224 w NOWYM KATALOGU OGÓLNYM (NGC) opracowanym przez DREYERA w 1888 roku. Współczesne pomiary oparte na zmiennych cefeidach umieszczają M31 w odległości 740 kpc, czyli około 2,4 miliona lat świetlnych. To czyni ją najbliższą Galaktyką spiralną Drogi Mlecznej. Jest dominującym członkiem GRUPY LOKALNEJ i jako taki odgrywa i nadal pełni ważną rolę w badaniach struktury, ewolucji i dynamiki galaktyk, populacji gwiazd, powstawania gwiazd i ośrodka międzygwiazdowego. Do najważniejszych osiągnięć historycznych należą prace HUBBLE′a z lat dwudziestych XX wieku dotyczące odległości do M31, które dowiodły, że istnieją galaktyki poza naszą Drogą Mleczną, oraz prace BAADE z lat czterdziestych XX wieku nad populacjami gwiazd, które doprowadziły do koncepcji starych (populacja II) i młodych (populacja ja) gwiazdy. Zidentyfikowano wiele małych galaktyk towarzyszących, które uważa się za powiązane z M31, niektóre dopiero w zeszłym roku. Są to M32 (eliptyczne o niskiej jasności), NGC 147, 185 i 205 (eliptyczne karłowate), IC 10 (nieregularne karłowate), LGS 3 (obiekt przejściowy między karłowatymi nieregularnymi a karłowatymi sferoidalnymi) oraz And I, II, III, V i VI (sferoidy karłowate). Jest prawdopodobne, że do odkrycia pozostało jeszcze więcej słabych towarzyszy. Rycina 1 przedstawia optyczny obraz galaktyki Andromedy.

Morfologia, masa i zawartość gwiazd

Galaktyka Andromedy to duża galaktyka spiralna wczesnego typu, należąca do KLASYFIKACJI HUBBLE′A Sb, o klasie jasności I-II. Posiada wyraźne centralne zgrubienie gwiazd o efektywnym promieniu 2 kpc, które płynnie przechodzi w wydłużony, spłaszczony sferoidalny składnik starych gwiazd. Jak w większości galaktyk spiralnych, oprócz zgrubienia lub składnika sferoidalnego, istnieje cienki dysk gwiazd i gazu z nałożoną strukturą ramion spiralnych. Łączne światło gwiazd dyskowych maleje wykładniczo wraz z odległością od centrum, co jest typowe dla galaktyk spiralnych. Długość skali dysku wynosi około 5-6 kpc, a M31 jest około 50% większa od naszej Galaktyki Drogi Mlecznej i około dwa razy jaśniejsza. Dysk staje się bardziej niebieski w większej odległości promieniowej od centrum, co może być spowodowane stosunkowo większą liczbą młodszych gwiazd lub mniejszą obfitością ciężkich pierwiastków. Oznaczenia obfitości tlenu, azotu i siarki w ośrodku międzygwiazdowym M31 rzeczywiście wykazują ogólny spadek tych pierwiastków w porównaniu z wodorem wraz ze wzrostem odległości radialnej. Struktura SPIRAL ARM M31 była trudna do określenia ze względu na jej orientację na niebie. Segmenty ramion spiralnych są wyraźnie widoczne w rozmieszczeniu młodych masywnych gwiazd i różnych znaczników ośrodków międzygwiazdowych, takich jak zjonizowany, obojętny i cząsteczkowy wodór oraz pył, ale nie było możliwe połączenie segmentów ramion spiralnych w jednoznaczną, wielką strukturę spiralną . Kolejną komplikacją jest to, że wydaje się, że interakcja z bliskim, małym eliptycznym towarzyszem M32 również zniekształciła ramiona spiralne. Zewnętrzne dyski gwiazdowe i gazowe, powyżej około 20 kpc, wyginają się z głównej płaszczyzny, powodując zjawisko znane jako wypaczanie. Biorąc pod uwagę rozmiar wybrzuszenia i jasność, nie ma wątpliwości, że M31 jest spiralą wcześniejszego typu niż nasza Droga Mleczna. Na przykład całkowita liczba Gromadad Kulistych, która, jak wykazano, jest powiązana z wybrzuszeniem lub jasnością sferoidy, wynosi prawdopodobnie od 400 do 500 w M31, czyli prawie 3-krotnie więcej niż w Drodze Mlecznej. Rozproszenie prędkości gwiazd w zgrubieniu M31 wynosi około 155 km s-1, podczas gdy dla Drogi Mlecznej jest to 130 km-1. Z prędkości obrotowej H I do promienia 30 kpc można wywnioskować, że M31 ma masę co najmniej 3 × 1011 mas Słońca, ale całkowita masa będzie prawdopodobnie znacznie większa w zależności od nieznanego promieniowego zasięgu halo CIEMNEJ MATERII, będącego powszechnym składnikiem galaktyk spiralnych wywnioskowano z wysokich prędkości obrotowych obłoków gazu w odległych dyskach zewnętrznych. Argument czasowy dla Grupy Lokalnej implikuje masę M31 wynoszącą kilka razy 1012 mas Słońca. Biorąc pod uwagę te liczby, ciemna materia musi silnie dominować nad masą wynikającą z widocznych gwiazd i gazu. Populacje gwiazd w M31 zostały omówione w artykule M31: STARYCH POPULACJACH GWIAZD, więc tutaj wystarczy krótkie podsumowanie. Populacja zgrubienia i sferoid jest stara, chociaż znaczne rozproszenie ilości metali w gwiazdach w zgrubieniu, a także w zewnętrznym halo implikuje bardziej skomplikowany scenariusz powstawania niż bardzo szybkie początkowe zapadnięcie się. W przeciwieństwie do sytuacji w Drodze Mlecznej, w wewnętrznym zgrubieniu nie ma obecnie formacji gwiazdowej. Właściwości gromad kulistych M31 są pod wieloma względami podobne do właściwości Drogi Mlecznej, tj. gromady kuliste są stare, wykazują różną zawartość metali i takie same ogólne korelacje pomiędzy rozproszeniem prędkości a jasnością, centralną i średnią jasnością powierzchniową, jak gromady kuliste Galaktyki. Na dysku znajduje się niewielka liczba młodych masywnych gromad, około 10 kpc od centrum. Gromady takie są powszechne w galaktykach późnego typu, takich jak M33 i Obłoki Magellana, ale najwyraźniej są rzadkie we wczesnych typach spiralnych. Mogą to być przodkowie gromad kulistych (o małej masie). Co ciekawe, obiekty te skupiają się głównie w południowo-zachodnim ramieniu spiralnym zakłócanym przez pływy i mogą być podobne do młodych niebieskich gromad obserwowanych w oddziałujących galaktykach. Jedną z zalet bliskiej nam odległości M31 jest to, że umożliwia ona prowadzenie unikalnych eksperymentów. Jedną z nich jest niedawna próba wykrycia MIKROLENSOWANIA w kierunku gwiazd zgrubionych M31 w celu ograniczenia natury ciemnej materii. Chociaż M31 jest zbyt odległa, aby rozdzielić większość światła poszczególnych gwiazd, mikrosoczewkowanie w zasadzie można nadal wykryć jako pojaśnienie pojedynczych pikseli w detektorze, jeśli jedna z wielu gwiazd przyczyniających się do jasności tego piksela zostanie soczewkowana przez ciemny obiekt w halo M31. Kilka z tych badań jest obecnie w toku, poszerzając w ten sposób trwające obserwacje mikrosoczewkowania zgrubienia galaktycznego i Obłoków Magellana.

Region centralny

Galaktyka Andromedy nie zawiera w swoim centrum szczególnie aktywnego jądra, ale wydaje się, że znajduje się tam CZARNA DZIURA o masie około 3×107 mas Słońca. Dowody na to pochodzą z pomiarów prędkości gwiazd w pobliżu centrum, zarówno za pomocą Kosmicznego Teleskopu Hubble′a, jak i z Ziemi. Morfologia obszaru centralnego jest dość zaskakująca, z dwoma pikami w rozkładzie jasności oddzielonymi 0,5 sekundy łukowej. Obecnie preferowana interpretacja jest taka, że to pozorne podwójne jądro jest w rzeczywistości spowodowane pojedynczym ekscentrycznym dyskiem gwiazd krążących wokół czarnej dziury. Jaśniejsze z dwóch "jąder" byłoby wówczas spowodowane gromadzeniem się gwiazd w pobliżu apocentrum mimośrodowego dysku, gdzie ich prędkości są niskie, podczas gdy słabsze "jądro" byłoby spowodowane wzrostem gęstości w kierunku środka. Brak silnej aktywności jądrowej związanej z czarną dziurą może wynikać z ogólnego braku ośrodka międzygwiazdowego w zgrubieniu M31. NoHI lub CO wykryto w odległości 1 kpc od centrum, chociaż w projekcji na tle jasnego kontinuum gwiazdowego widać pewne obłoki pyłu. W zjonizowanym gazie widoczny jest słaby, rozproszony "dysk spiralny" o promieniowym zasięgu około 500 pc, ale zawierający tylko niewielką ilość masy, być może łącznie zaledwie 1500 mas Słońca. Gaz ten prawdopodobnie pochodzi z masy utraconej przez ewoluujące gwiazdy o małej masie w postaci wiatrów gwiazdowych. Brak aktywności objawia się także słabym poziomem emisji kontinuum radiowego, około 10-krotnie mniejszym niż w centrum Galaktyki.

Powstawanie gwiazd i ośrodek międzygwiazdowy

Jako najbliższa pobliska spirala, M31 jest głównym celem badania właściwości różnych faz gazowych ośrodka międzygwiazdowego i masywnych gwiazd oraz połączeń między nimi. Rozkład przestrzenny wszystkich tych składników, czy to gazu obojętnego, czy zjonizowanego, pyłu czy gwiazd OB, jest bardzo podobny: ogólnie występuje brak gazu i młodych gwiazd w wewnętrznych kilku kpc, pewna ilość gazu i formacja gwiazd w ramionach spiralnych 3- 5 kpc od centrum, silne stężenia w pierścieniu od 8 do 12 kpc i umiarkowane stężenia w ramionach do 15 kpc. Poza tym dysk H I w dalszym ciągu wykazuje strukturę spiralną do około 25 kpc, ze słabym ciągłym FORMOWANIEM GWIAZD w wybranych obszarach. Szybkość powstawania gwiazd można oszacować na podstawie rozkładu zjonizowanego gazu (obszary H II i rozproszony zjonizowany gaz), który wymaga gorących, świecących, a zatem masywnych i młodych gwiazd do jego jonizacji, emisji kontinuum radiowego w dalekiej podczerwieni i światła UV. Ponadto bliskość M31 umożliwia wykrywanie pojedynczych gwiazd OB i wyewoluowanych śladów młodych masywnych gwiazd, takich jak WOLF-RAYET STARS i LUMINOUS BLUE VARIABLES. Wszystkie te znaczniki wskazują, że ogólny poziom aktywności gwiazdotwórczej w M31 jest dość niski, około ≈ 0,3-0,5 mas Słońca rocznie, w porównaniu z Drogą Mleczną i innymi spiralami, takimi jak M33. Ponadto największe kompleksy gwiazdotwórcze w M31 wydają się skromne w porównaniu z kompleksami występującymi w innych galaktykach. Masa atomowego wodoru wynosi około 4 × 109 mas Słońca, podczas gdy masa wodoru cząsteczkowego jest ponad 10-krotnie mniejsza; niepewność co do współczynnika konwersji strumienia linii CO na masę molekularną gazu sprawia, że to ostatnie oszacowanie jest raczej niedokładne, ale gęstość powierzchniowa wodoru niskocząsteczkowego jest zgodna z ogólnie niskim tempem powstawania gwiazd w M31. Istnieją pewne dowody na obecność bardzo zimnego gazu cząsteczkowego w M31, co może mieć dalsze konsekwencje dla całkowitej masy gazu cząsteczkowego. M31 była jedną z pierwszych spiral zewnętrznych, w przypadku których wykryto rozległą dystrybucję zjonizowanego gazu poza tradycyjnymi obszarami H II. Ten rozproszony zjonizowany gaz, nazywany także ciepłym zjonizowanym ośrodkiem, jest dominującym składnikiem zjonizowanego gazu w galaktykach pod względem masy i zasięgu przestrzennego. Aby pozostać zjonizowanym, wymaga dużej ilości energii, a jej szerokie rozmieszczenie oznacza, że morfologia ośrodka międzygwiazdowego musi być bardzo porowata, w przeciwnym razie fotony ultrafioletowe z gwiazd OB nie mogłyby podróżować daleko od swojego źródła, zanim zostaną zaabsorbowane. Informacje o promieniach kosmicznych i polu magnetycznym rozkład w M31 uzyskano na podstawie szczegółowych obserwacji kontinuum radiowego na kilku częstotliwościach. Kontinuum radiowe jest silnie zdominowane przez nietermiczną emisję synchrotronową, pochodzącą od wysoce relatywistycznych elektronów krążących spiralnie w polu magnetycznym. Informacje na temat natężenia i kierunku pola można wywnioskować z intensywności emisji, wektorów polaryzacji i miar rotacji obserwowanych w kierunku pozagalaktycznych źródeł tła. Wielkoskalowe pole magnetyczne rozciąga się od wnętrza 5 kpc do pierścienia gwiazdotwórczego aż do 25 kpc od centrum. Główna organizacja pola jest toroidalna, ułożona wzdłuż pierścienia, z pewnymi dowodami na obecność składowej poloidalnej rozciągającej się do halo. Struktura pola wydaje się być zgodna z oczekiwaniami dla DYNAMO w trybie parzystym.

Perspektywy na przyszłość

Nie ma wątpliwości, że galaktyka Andromedy będzie nadal odgrywać kluczową rolę w przyszłych badaniach morfologii i ewolucji galaktyk, tak jak miało to miejsce w przeszłości. Dzięki nowej generacji teleskopów naziemnych i kosmicznych możemy spodziewać się nowych wyników w wielu obszarach, takich jak badania mikrosoczewkowania, mapy o wysokiej rozdzielczości wszystkich składników ośrodka międzygwiazdowego, pomiary obfitości w poszczególnych gwiazdach i dalsze odkrywanie gwiazdy historia powstawania dysku i wybrzuszenia M31.

Anomalne promienie kosmiczne

Anomalne promienie kosmiczne są jonowym składnikiem strumienia promieniowania kosmicznego, który w heliosferze jest znaczny przy energiach w zakresie od 20 MeV do ponad 500 MeV. Składają się z wielu rodzajów jonów, od wodoru po neon, ale węgla anomalnego jest znacznie za mało. Najwyższa energia kinetyczna odnotowana dla tego składnika wynosi ponad 1,6 GeV. Obserwacje z detektorów znajdujących się na pokładzie heliosferycznego statku kosmicznego pokazują, że ich intensywność w dalszym ciągu rośnie aż do maksymalnej odległości osiąganej przez obecne statki kosmiczne, co wskazuje, że są one przyspieszane w zewnętrznym Układzie Słonecznym. Po raz pierwszy zaobserwowano je na początku lat 70. XX wieku i początkowo nazwano je anomalnymi promieniami kosmicznymi ze względu na ich niezwykły skład oraz ponieważ ich widmo różniło się od widma dobrze znanych już galaktycznych lub słonecznych promieni kosmicznych. Nazwa ta przylgnęła do nas, mimo że obecnie wiemy znacznie więcej o naturze i pochodzeniu tych cząstek. W 1974 roku zasugerowano, że składnik anomalny jest wynikiem przyspieszenia w heliosferze niedawno zjonizowanych międzygwiazdowych obojętnych atomów. Neutralne atomy napływają do Układu Słonecznego z ośrodka międzygwiazdowego, a następnie są jonizowane przez słoneczne promieniowanie ultrafioletowe lub w wyniku wymiany ładunku z WIATEM SŁONECZNYM. Hipoteza ta bardzo dobrze wyjaśnia niezwykły skład składnika anomalnego, gdyż tylko początkowo obojętne cząstki międzygwiazdowe mogą przedostać się do heliosfery i wziąć udział w tym procesie. Na przykład jony węgla, które w ośrodku międzygwiazdowym są prawie całkowicie zjonizowane i dlatego międzyplanetarne pole magnetyczne w większości uniemożliwia im przedostanie się do Układu Słonecznego, są szczególnie uszczuplone w anomalnym promieniu kosmicznym. Nowsze obserwacje wykazały, że większość anomalnych promieni kosmicznych jest rzeczywiście naładowana pojedynczo, jak można się spodziewać na tym zdjęciu. Później, w 1981 roku, wskazano, że wiele cech składnika anomalnego można wyjaśnić, jeśli większa część przyspieszania nowo zjonizowanych cząstek zachodzi w szoku końcowym wiatru słonecznego, poprzez mechanizm przyspieszenia szoku dyfuzyjnego. Późniejsze wyrafinowane symulacje numeryczne przeprowadzone w połowie lat 80. XX wieku wyraźnie wykazały, że energetyczne, pojedynczo naładowane cząstki mogą być bardzo skutecznie przyspieszane w szoku końcowym. Zasadnicze zaobserwowane cechy widma i gradientów przestrzennych można w bardzo naturalny sposób wyjaśnić za pomocą tego obrazu. Ten obraz przyspieszania nowo zjonizowanych międzygwiazdowych cząstek neutralnych i późniejszego przyspieszania do wysokich energii w momencie szoku końcowego wiatru słonecznego jest obecnie standardowym paradygmatem. Paradygmat ten schematycznie zilustrowano na rysunku 1, który przedstawia nadchodzące neutralne atomy, ich jonizację i późniejsze przyspieszenie w momencie szoku końcowego wiatru słonecznego.

Przyśpieszenie

Przyspieszenie anomalnych promieni kosmicznych od niskich energii do typowych obserwowanych energii ?200-300MeV musi nastąpić w czasie krótszym niż kilka lat, ponieważ w przeciwnym razie nastąpiłaby dalsza utrata elektronów w wyniku interakcji z otaczającym gazem i nie byłyby one pojedynczo naładowane . W rzeczywistości, niezależnie od miejsca lub modelu akceleracji, zaobserwowany fakt, że anomalne cząstki tlenu promieniowania kosmicznego przy ?160 MeV są nadal głównie naładowane pojedynczo, oznacza, że całkowita długość drogi, jaką przebyły od momentu przyspieszenia, jest mniejsza niż 0,2 pc. Biorąc pod uwagę, że nie mogą one przemieszczać się po linii prostej ze względu na nieregularne pola magnetyczne otoczenia, fakt ten wymaga, aby anomalne promienie kosmiczne musiały być lokalnie przyspieszane. Przy ich zaobserwowanej prędkości oznacza to, że czas od przyspieszenia wynosi mniej niż kilka lat. Przyspieszenie szoku dyfuzyjnego w quasi-prostopadłym szoku końcowym wiatru słonecznego, które osiąga przyspieszenie do ≈200 MeV w ciągu około pół roku, jest jedynym znanym obecnie procesem, który może osiągnąć przyspieszenie w dopuszczalnym czasie. W szczególności powszechnie przywoływany mechanizm przyspieszenia Fermiego drugiego rzędu, obejmujący zmienne pola elektryczne powiązane z falami, jest zdecydowanie za wolny. Przyspieszenie wstrząsu dyfuzyjnego jest zawarte w równaniu transportu promieniowania kosmicznego Parkera , jeśli pozwoli się, aby przepływ wiatru miał nieciągłość ściskającą odpowiadającą uderzeniu. Ta nieciągłość ściskająca jest miejscem przyspieszenia. Można wykazać, że proces przyspieszania w quasi-prostopadłym uderzeniu jest ściślej powiązany z dryfem cząstek w otaczającym polu elektrycznym związanym z ruchem płynu niż ze sprężaniem płynu podczas uderzenia, chociaż matematycznie jest on zawarty w składnik kompresji równania transportu. Można wykazać, że energia ΔT uzyskana przez cząstkę posiadającą ładunek elektryczny Ze podczas quasi-prostopadłego wstrząsu jest w przybliżeniu energią potencjalną elektrostatyczną Δφ uzyskaną podczas dryfowania wzdłuż powierzchni uderzenia: ΔT ≈ ZeΔ?. Możemy pisać dla wiatru słonecznego
(Δφ)max = Brr2Ω⊙ /c ≈ 240 MeV/Z (1) gdzie c jest prędkością światła, a wartość liczbowa wynika z zastosowania promieniowego pola magnetycznego o wartości 3,5 γ w promieniu 1 AU i obrotowej prędkości kątowej Słońca Ω⊙= 2,9 × 10?6. Wynika z tego, że dla cząstek posiadających ładunek Z istnieje na ogół charakterystyczna energia Tc ≈ Ze(Δ&|phi;)max, powyżej której widmo zaczyna gwałtownie spadać. Z tego powodu wszelkie wielokrotnie naładowane cząstki należy przyspieszać do wyższych energii niż cząstki naładowane pojedynczo. Cząsteczki "odpłyną" z szoku, zanim zyskają więcej energii. Pojedynczo naładowane cząstki przyspieszane w szoku końcowym miałyby wówczas widmo energii w szoku końcowym, które jest w przybliżeniu zgodne z prawem mocy i które wykazuje spadek powyżej energii pomiędzy 200 a 300 MeV. Ten limit energii niekoniecznie spowoduje ostre odcięcie w widmie energii, ponieważ dyfuzja spowoduje, że niektóre cząstki zyskają więcej energii, a inne mniej. W wyniku dalszych interakcji z materiałem otoczenia można wytworzyć wielokrotnie naładowane cząstki. Mogą one następnie zyskać znacznie więcej energii, w zależności od ich ładunku, i dlatego będą dominować przy wyższych energiach, wykraczających poza energię charakterystyczną dla cząstek o pojedynczym ładunku. Obserwacje przeprowadzone w ciągu ostatnich kilku lat wykazały przejście w kierunku zwielokrotnionych naładowanych anomalnych promieni kosmicznych przy energiach większych niż około 240 MeV.

Wyniki obliczeń modelowych

Omówiony powyżej scenariusz został uwzględniony zarówno w dwu-, jak i trójwymiarowych symulacjach numerycznych transportu i przyspieszenia w heliosferze, które rozwiązują równanie transportu dla realistycznych parametrów. Zauważamy, że ogólne heliosferyczne pole magnetyczne zmienia znak co 11 lat, podczas maksimum plam słonecznych. Ruchy energetycznych cząstek naładowanych zależą w znacznym stopniu od znaku pola magnetycznego. W szczególności prędkość dryfu, daną dla izotropowego rozkładu cząstek o prędkości w i pędu p w otaczającym polu magnetycznym B(r), wyraża się wzorem Vd = pcw/3Ze ⋅∇ × B/B2 . Jest oczywiste, że Vd zmienia kierunek wraz ze zmianą znaku pola magnetycznego. W obecnym okresie minimum plam słonecznych północne pole magnetyczne Słońca jest skierowane na zewnątrz od Słońca, podczas gdy przed ostatnim maksimum było skierowane do wewnątrz. Obecne modele są najdokładniejsze podczas minimum plam słonecznych, kiedy arkusz prądu międzyplanetarnego jest najbliższy równikowi, dlatego zasadniczo omawiamy dwie heliosfery, jedną w pobliżu minimum plam słonecznych, gdy pole jest skierowane na zewnątrz (prąd), i jedną w pobliżu następnego minimum plam słonecznych, gdy pole jest skierowane do wewnątrz. Najpierw rozważ wyniki modelu dla przypadku, w którym cząstki o niskiej energii są wtryskiwane równomiernie na wszystkich szerokościach geograficznych w momencie uderzenia. Obliczone i zaobserwowane widma porównano dla danych zebranych w 1985 r. (północne pole magnetyczne skierowane do wewnątrz). Obliczone widma energii anomalnego tlenu są wyraźnie zgodne z widmami obserwowanymi. Dotyczy to również innych widm. Widzimy, że intensywność wzrasta wraz z promieniem, podobnie jak w przypadku galaktycznych promieni kosmicznych, aż do szoku końcowego (w promieniu 60 jednostek astronomicznych). Dalej intensywność maleje aż do zewnętrznej granicy heliosfery. Wzdłuż szoku maksymalne natężenie występuje na szerokości geograficznej, która zmienia się wraz ze zmianą znaku pola magnetycznego. Jeśli północne międzyplanetarne pole magnetyczne jest skierowane na zewnątrz (A > 0), cząstki dryfują w kierunku bieguna wzdłuż powierzchni uderzeniowej, a następnie do wewnątrz i w dół od biegunów do arkusza prądu, a maksimum intensywności występuje w pobliżu biegunów. Dla A < 0 dryfty są w przeciwnym kierunku, a maksimum przesuwa się w stronę równika. Dokonano licznych pomiarów gradientów promieniowych i równoleżnikowych składowej anomalnej. Ogólną cechą symulacji anomalnych promieni kosmicznych i galaktycznych promieni kosmicznych jest to, że przy identycznych parametrach równoleżnikowe gradienty anomalnych promieni kosmicznych są znacznie większe niż w przypadku cząstek galaktycznych. Dzieje się tak w dużej mierze wskutek dużego równoleżnikowego gradientu anomalnych promieni kosmicznych wywołanych dryfem podczas przyspieszania w momencie uderzenia. Dotyczy to również modeli. Niezawodne przewidywania modeli są takie, że gradient równoleżnikowy w pobliżu aktualnej płachty, w pobliżu minimum plam słonecznych, powinien zmienić znak w alternatywnych minimach plam słonecznych. W szczególności podczas ostatniego minimum plam słonecznych, w pobliżu 1975 r., intensywność zarówno galaktycznego promieni kosmicznych, jak i składnika anomalnego powinna wzrosnąć w kierunku od aktualnej warstwy, podczas gdy podczas minimum plam słonecznych w 1986 r. promienie kosmiczne powinny maleć w oddalaniu od obecnej warstwy. Oczekuje się, że w pobliżu minimum plam słonecznych, gdy obecna warstwa jest prawie płaska, najważniejsze będą skutki tych dryfów. W 1977 roku PIONEER zaobserwował, zgodnie z przewidywaniami, dodatni gradient anomalnego helu w kierunku od aktualnej warstwy. Obserwacje przeprowadzone podczas ostatniego minimum plam słonecznych w latach 1984 i 1985, kiedy obecne nachylenie arkusza spadło poniżej szerokości geograficznej statku kosmicznego VOYAGER 1, wykazały, że znak gradientu równoleżnikowego zmienił się z dodatniego na ujemny, ponownie zgodnie z przewidywaniami teoria.

Odbiór jonów

Powyższa dyskusja podsumowała obecny stan przyspieszania anomalnych promieni kosmicznych do najwyższych zaobserwowanych energii, przekraczających 1 GeV. Najbardziej prawdopodobnym mechanizmem tego przyspieszenia wydaje się przyspieszenie dyfuzyjne w szoku końcowym wiatru słonecznego. Nie do końca rozwiązana pozostaje kwestia, w jaki sposób wcześniej nieprzyspieszone jony wychwycone są przyspieszane do energii wystarczająco dużych, aby można je było dalej przyspieszać w szok kończący. Ten "problem wtrysku" wynika z faktu, że nieprzyspieszone jony wychwytujące mają prędkość mniejszą lub równą prędkości konwekcji wiatru słonecznego, a zatem nie są wystarczająco mobilne, aby napotkać prawie prostopadły wstrząs wielokrotny niezbędny do wzmocnienia znacząca energia. Wykazano, że propagujące się wstrząsy łatwiej przyspieszają wychwytywanie jonów o niskiej energii niż wstrząsy wywołane wiatrem słonecznym. W związku z tym są bardziej naturalnymi wtryskiwaczami cząstek i mogą stanowić pierwszy etap dwuetapowego procesu przyspieszania wychwytu jonów do anomalnych energii kosmicznych.

Zasada antropiczna

Pierwsi ludzie zaczęli od "antropocentrycznego" poglądu, że znajdujemy się w centrum wszechświata. Zjawiska zwykle interpretowano antropomorficznie i nawet prawa natury wydawały się skupiać na człowieku w tym sensie, że można je było wykorzystać do własnych celów. Jednak ta perspektywa wkrótce została zachwiana: najpierw przez odkrycie MIKOŁAJA KOPERNIKA, że Ziemia krąży wokół Słońca, a następnie przez "Principia" NEWTONA, które doprowadziły do "mechanistycznego" spojrzenia na świat. Mechanizm mówi, że wszechświat jest gigantyczną maszyną, w której działają prawa natury zupełnie nieświadomi obecności człowieka. Jednakże w ciągu ostatnich 40 lat rozwinęła się reakcja na mechanizm, który nazywa się poglądem "antropicznym" . Oznacza to, że pod pewnymi względami wszechświat musi być taki, jaki jest, ponieważ w przeciwnym razie nie mógłby wytworzyć życia i nie bylibyśmy tutaj, spekulując na ten temat. Chociaż termin "antropiczny" pochodzi od greckiego słowa oznaczającego "człowiek", należy podkreślić, że jest to w rzeczywistości określenie błędne, ponieważ większość argumentów dotyczy życia w ogóle, a nie ludzi w szczególności. Zacznijmy od bardzo prostej ilustracji argumentu antropicznego, rozważmy pytanie, dlaczego wszechświat jest tak duży, jak jest? Mechanistyczna odpowiedź jest taka, że w dowolnym momencie rozmiar obserwowalnego wszechświata to odległość, jaką przebyło światło od Wielkiego Wybuchu. Ponieważ obecny wiek Wszechświata wynosi około 1010 lat, jego obecny rozmiar wynosi około 1010 lat świetlnych. Nieodłącznym elementem tej prostej odpowiedzi jest przekonanie, że nie ma żadnego przekonującego powodu, dla którego wszechświat ma takie rozmiary; tak się składa, że ma 1010 lat. Istnieje jednak inna odpowiedź na to pytanie, której jako pierwszy udzielił Robert Dicke . Jego argumentacja wygląda następująco. Aby mogło istnieć życie, musi istnieć węgiel lub przynajmniej jakaś forma chemii. Obecnie węgiel wytwarzany jest poprzez gotowanie wewnątrz gwiazd, a proces ten trwa około 1010 lat. Dopiero po tym czasie gwiazda może eksplodować jako SUPERNOWA, rozrzucając nowo wypalone pierwiastki po całej przestrzeni, gdzie mogą ostatecznie stać się częścią planet rozwijających życie. Z drugiej strony Wszechświat nie może być dużo starszy niż 1010 lat, w przeciwnym razie cała materia zostałaby przetworzona na pozostałości gwiazdowe, takie jak BIAŁE KARLERY, GWIAZDY NEUTRONOWE i CZARNE DZIURY. Ponieważ wszystkie formy życia, jakie możemy sobie wyobrazić, wymagają istnienia gwiazd, sugeruje to, że życie może istnieć tylko wtedy, gdy Wszechświat ma około 1010 lat. Ten zaskakujący wniosek wywraca do góry nogami mechanistyczną odpowiedź. Już sam ogrom wszechświata, który na pierwszy rzut oka wydaje się wskazywać na znikomość ludzkości, jest w rzeczywistości konsekwencją jej istnienia. Nie oznacza to, że sam wszechświat nie mógłby istnieć w innym rozmiarze, a jedynie, że nie moglibyśmy być tego świadomi, gdyby jego rozmiar był inny. Oczywiście może to być po prostu zbieg okoliczności, że wiek Wszechświata jest mniej więcej taki, jaki jest niezbędny do powstania inteligentnego życia. Freeman Dyson argumentował również, że życie może przetrwać nawet po 10 latach. Jednakże argument ten daje przynajmniej przedsmak rodzaju rozumowania, jaki pociąga za sobą zasada antropiczna. Rzeczywiście, dowody na rzecz zasady antropicznej opierają się prawie wyłącznie na dużej liczbie numerycznych "zbiegów okoliczności" w fizyce, które wydają się być warunkami wstępnymi pojawienia się życia i które w przeciwnym razie należałoby uznać za czysto przypadkowe.

Skale konstrukcji

Większość argumentów antropicznych dotyczy bezwymiarowych kombinacji stałych fizycznych, takich jak prędkość światła - (c), stała Plancka (h), stała grawitacji (G), ładunek elektronu (e) i masy cząstek elementarnych takie jak proton (mp) i elektron (me). Na przykład stała elektryczna "drobnej struktury" α = e2/hc = 1/137 określa siłę oddziaływania elektrycznego i odgrywa kluczową rolę w każdej sytuacji, w której ważny jest elektromagnetyzm. Podobnie stała grawitacyjna drobnej struktury, αG = Gm2 p/hc = 6 × 10-39, określa siłę oddziaływania grawitacyjnego i odgrywa ważną rolę w określaniu struktury bardzo dużych obiektów (takich jak gwiazdy). Fakt, że αGαG jest znacznie mniejsze niż α, odzwierciedla fakt, że siła grawitacji między dwoma protonami jest znacznie mniejsza niż siła elektryczna między nimi. Grawitacja dominuje w strukturze dużych ciał tylko dlatego, że są one elektrycznie obojętne, w związku z czym siły elektryczne znoszą się. Godne uwagi jest to, że prosta fizyka pokazuje, że z dokładnością do rzędu wielkości α i αG określają masę i rozmiar prawie każdego naturalnie występującego obiektu we wszechświecie . Na przykład wszystkie gwiazdy mają masę w przybliżeniu αG-3/2 ∼ 1060 razy większą od masy protonu; największe planety (takie jak Jowisz) mają masę mniejszą o współczynnik α3/2; a masa ludzi - jeśli założymy, że muszą żyć na planecie o odpowiedniej temperaturze i atmosferze sprzyjającej życiu i że nie mogą się rozbić przy upadku - jest rzędu (α/αG)3/4 razy większej masa protonu. Charakterystyczna masa galaktyki jest mniej poznana, ale na podstawie jednego z możliwych argumentów można ją zapisać jako α-2Gα 4 razy masa protonu. Podobnie można wyrazić rozmiary tych obiektów. Należy podkreślić, że wszystkie zależności od α i αG 1 są konsekwencjami prostej fizyki. Nie wprowadzono żadnego argumentu antropicznego poza - jak wkrótce zobaczymy - wyprowadzeniem skali samego wszechświata.

Słabe i mocne zasady antropiczne

Powróćmy teraz do twierdzenia Dicke′a, że wiek Wszechświata (t0) musi być w przybliżeniu równy czasowi spalania jądra gwiazdy. Możemy uszczegółowić ten argument, ponieważ fizyka przewiduje, że czas życia gwiazdy wynosi około α-1G ∼ 1040 razy czas tp = h/mpc2 ∼ 10-23 s wymagany do przejścia światła przez proton. Można wywnioskować, że stosunek wielkości wszechświata do wielkości atomu musi być porównywalny ze stosunkiem α do αG. Zatem zasada antropiczna wyjaśnia, dlaczego te dwa stosunki muszą mieć tę samą ogromną wartość 1036. Można również wyprowadzić proste wyrażenie na liczbę protonów we wszechświecie. Dzieje się tak, ponieważ model Wielkiego Wybuchu zakłada, że masa obserwowalnego Wszechświata wynosi ∼ρ0c3t30, gdzie ρ0 jest jego obecną gęstością. Ponieważ model wymaga również ρ0 ∼ 1/Gt20 , masa ta wynosi c3t0/G ∼ α-2Gmp, więc liczba protonów we wszechświecie jest rzędu α-2G ∼ 1080. (Zauważ, że liczba gwiazdy w obserwowalnym wszechświecie muszą zatem mieć około α-1/2G ∼ 1020, na co przywołujemy później.) Istnienie tych "wielkoliczbowych" zbieżności docenia się od pewnego czasu, ale bez odwoływania się do zasady antropicznej, lub alternatywnie rodzaj modelu zmiennej G przywołanego przez Diraca (1937), należy je uważać za przypadkowe. Argument Dicke&rprime;a pomaga nam zrozumieć, dlaczego powyższe "wielkoliczbowe" zbieżności przeważają, ale nie mówi nam, dlaczego α-1G ma swoją szczególną ogromną wartość. Jego argumentacja jest zatem przykładem tak zwanej słabej zasady antropicznej. To akceptuje stałe natury jako dane, a następnie pokazuje, że nasze istnienie narzuca efekt selekcji na to, kiedy obserwujemy wszechświat. W związku z tym jest to po prostu logiczna konieczność: stwierdzenie, że musimy istnieć w określonym czasie, nie jest bardziej zaskakujące niż stwierdzenie, że musimy istnieć w określonym miejscu (np. blisko gwiazdy). Zaskakujące może być odkrycie, jakie są efekty selekcji, ale ich istnienie w zasadzie nie jest zaskakujące. W rzeczywistości większość fizyków zgodziłaby się ze słabą wersją zasady antropicznej. Problem pojawia się, gdy rozważymy, czy stałe natury, takie jak G, same w sobie są zdeterminowane wymogiem powstania życia, co jest czasami określane jako "silna zasada antropiczna". (W dość mylący sposób wyrażenie to jest również używane do opisania raczej odmiennego poglądu, że wszechświat musi mieć właściwości, aby mogło powstać życie . To, że słaba zasada może nie być całą historią, sugeruje również fakt że wszystkie skale są względne. Gdyby stałe struktury subtelnej różniły się od tego, co obserwujemy, wszystkie skale uległyby zmianie, ale podstawowe zależności między nimi pozostałyby takie same. Można na przykład wyobrazić sobie hipotetyczny wszechświat, w którym wszystkie prawa mikrofizyczne pozostały niezmienione, ale G było (powiedzmy) 106 razy silniejsze. Masy planet i gwiazd (∼α-3/2G ) spadłyby wówczas o 109, ale gwiazdy ciągu głównego spalające wodór nadal istniałyby, aczkolwiek ich czas życia (∼α-1G ) wynosiłby 104 lata, a nie 1010 lat. Co więcej, argument Dicke′a nadal miałby zastosowanie: hipotetyczny obserwator patrzący na wszechświat w czasie t0 ∼ tMS stwierdziłby, że liczba cząstek we wszechświecie jest 1012 razy mniejsza niż w naszym, ale nadal odnalazłby opisane powyżej "duże" zbieżności. Jeśli ktoś ustaliłby αG, ale pozwolił na zmianę α, efekty byłyby mniej ekstremalne, ale nadal bardzo zauważalne. Jakie są argumenty przeciwko "poznawalności" tego rodzaju przyspieszonego wszechświata na małą skalę? Jedno z dość luźnych ograniczeń αG wynika z rozważań biologicznych. Widzieliśmy, że liczba gwiazd w obserwowalnym wszechświecie jest rzędu α-1/2G. Jeśli uznamy gwiazdy - lub przynajmniej powiązane z nimi układy słoneczne - za potencjalne miejsca życia, jest to również liczba miejsc, w których życie mogło powstać. Oczywiście nie jest to warunek wystarczający do życia, ponieważ istnieje cały szereg dodatkowych warunków, z których każdy może być bardzo nieprawdopodobny. Na przykład gwiazda musi mieć planetę, planeta musi znajdować się w odpowiedniej odległości od gwiazdy, musi mieć odpowiednią atmosferę i chemię oraz muszą istnieć odpowiednie warunki, aby mogły powstać pierwsze samoreplikujące się komórki . Jest zatem oczywiste, że ogólne prawdopodobieństwo (P) powstania życia w jakimkolwiek konkretnym miejscu musi być bardzo małe. Jeśli chcemy upierać się, że gdzieś we wszechświecie istnieje życie, potrzebujemy, aby liczba miejsc występowania życia pomnożona przez prawdopodobieństwo P przekroczyła 1. Oznacza to, że αG musi być mniejsze niż P2. Na przykład, gdyby P wynosiło 10-15, potrzebne byłoby αG < 10-30. Nie jest to bardzo precyzyjny argument, ale daje jakościowy powód, dla którego αG musi być mała. Istnieją jednak bardziej szczegółowe argumenty antropiczne, które w węższy sposób określają αG. Pierwszy przykład takiego argumentu podał Brandon Carter i dotyczył istnienia gwiazd z otoczkami konwekcyjnymi . Taka gwiazda powstaje, gdy ciepło wytwarzane w jej jądrze w wyniku reakcji jądrowych jest transportowane na powierzchnię głównie w drodze wielkoskalowych ruchów samego materiału gwiazdowego. Dzieje się tak zazwyczaj w przypadku wystarczająco małych gwiazd (czerwonych karłów). Z kolei większe gwiazdy (niebieskie olbrzymy) są zwykle "promieniujące" w tym sensie, że ciepło wydostaje się głównie poprzez przepływ promieniowania. Linią podziału pomiędzy tymi dwoma typami jest pewna masa krytyczna, która może wynosić około α-2 Gα10mp. Tak się składa, że ta masa krytyczna mieści się w zakresie mas ?α ?3/2 G mp, w którym gwiazdy faktycznie istnieją tylko dzięki niezwykłej koincydencji αG ∼ α20. Gdyby G (a co za tym idzie αG) było nieco większe, wszystkie gwiazdy byłyby niebieskimi olbrzymami; gdyby był nieco mniejszy, wszystkie gwiazdy byłyby czerwonymi karłami. Warunek konwekcji nie określa rzeczywistych wartości α i αG, ale określa prawo skalowania między nimi i wyjaśnia, dlaczego αG jest o wiele mniejsze niż α. Carter przypisał tej zależności znaczenie antropiczne na tej podstawie, że powstawanie układów planetarnych można powiązać z gwiazdami konwekcyjnymi. Sugestia ta opierała się na obserwacji, że czerwone karły mają znacznie mniejszy moment pędu niż niebieskie olbrzymy, a utrata momentu pędu może być konsekwencją powstawania planet. Argument ten nie jest już przekonujący, ponieważ istnieją inne sposoby utraty momentu pędu. Lepszym argumentem może być to, że tylko gwiazdy konwekcyjne wytwarzają wiatry w swojej wczesnej fazie, wystarczająco intensywne, aby zdmuchnąć gazową otoczkę pobliskich planet, ułatwiając w ten sposób powstawanie planet stałych z atmosferami nie zawierającymi wodoru. W każdym razie Carter wnioskuje, że gdyby αG było znacznie większe od α20, nie powstałyby żadne planety, a zatem i życie. Gdyby była znacznie mniejsza, wszystkie gwiazdy byłyby chemicznie jednorodne dzięki mieszaniu konwekcyjnemu i nie uzyskano by struktury powłoki typu "skórka cebuli", która charakteryzuje modele sprzed supernowej.

Słabe i mocne siły

W skalach mniejszych niż atomy wchodzą w grę jeszcze dwie podstawowe siły natury: siła silna i siła słaba. Podobnie jak grawitacja i elektromagnetyzm, siłę tych sił można opisać za pomocą bezwymiarowych stałych drobnych struktur. Oddziaływanie słabe ma stałą sprzężenia αW = (gm2ec/h3) ∼ 10-10 gdzie g ∼10-49erg cm3 jest stałą Fermiego. Zatem siła jego interakcji jest pośrodku siły grawitacji i elektryczności. Bezwymiarowa stała opisująca siłę silną jest oznaczona przez αS i ma wartość rzędu 10. Chociaż siły mocne i słabe są o wiele rzędów wielkości silniejsze od siły grawitacji, to obie mają krótki zasięg i stają się pomijalne w odległościach 10-13 cm i odpowiednio 10-15 cm. Z tego powodu nie odgrywają one istotnej roli w określaniu struktury obiektów większych od atomów. Okazuje się . że wiele cech chemii jest wrażliwych na wartość αS. Na przykład, jeśli αS wzrośnie o 2%, wszystkie protony we wszechświecie połączą się podczas nukleosyntezy Wielkiego Wybuchu w diprotony (jądra składające się z dwóch protonów). W tym przypadku nie byłoby wodoru, a tym samym spalania wodoru gwiazdy. Ponieważ gwiazdy miałyby wówczas znacznie skrócony czas ciągu głównego, mogłoby nie być czasu na powstanie życia. Gdyby αS zwiększyć o 10%, sytuacja byłaby jeszcze gorsza, bo wszystko trafiałoby do jąder o nieograniczonej wielkości i nie byłoby tam interesującej chemii. Brak chemii miałby również miejsce, gdyby αS zmniejszono o 5%, ponieważ wszystkie deuterony byłyby wówczas niezwiązane i można było mieć tylko wodór. Najbardziej wrażliwe ograniczenie wartości αS jest związane z tak zwaną reakcją "potrójnej alfa". Gwiazda wytwarza węgiel poprzez połączenie dwóch cząstek alfa w jądro berylu, a następnie dodanie kolejnej cząstki alfa w celu utworzenia jądra węgla (4He + 4He -> 8Be, 8Be + 4He -> 12C). Problem w tym, że beryl jest niestabilny (w przeciwnym razie "błysk helu" w olbrzymach doprowadziłby do katastrofalnej eksplozji) i dawniej sądzono, że ulegnie rozkładowi, zanim dodatkowa cząstka alfa będzie mogła się z nim połączyć. Dlatego przez wiele lat trudno było zrozumieć, dlaczego we wszechświecie istnieje węgiel. Następnie Fred HOYLE (Hoyle 1953) zdał sobie sprawę, że w drugim etapie musi wystąpić rezonans (tj. zwiększony współczynnik interakcji), który umożliwia utworzenie węgla, zanim zniknie beryl, tj. 12C musi mieć stan o energii tuż powyżej sumy energie 8Be i 4He. Nie ma jednak podobnego, korzystnie umiejscowionego rezonansu w 16O; w przeciwnym razie prawie cały węgiel zostałby przekształcony w tlen. Po wysunięciu tej sugestii szukano rezonansu w laboratorium i szybko go znaleziono, można więc uznać to za pierwszą potwierdzoną prognozę antropiczną. Rzeczywiście wymagane dostrojenie jest tak precyzyjne, że Hoyle doszedł do wniosku, że wszechświat musi być "pracą odkrytą". Wartość αsub>W jest również związana z interesującym ograniczeniem antropicznym związanym z supernowymi. Widzieliśmy, że supernowe są niezbędne do powstania życia, ponieważ rozprzestrzeniają ciężkie pierwiastki po całym wszechświecie. Jednak nadal nie jest pewne, dlaczego gwiazda eksploduje po spaleniu paliwa jądrowego. Jednym z wyjaśnień jest to, że rdzeń gwiazdy staje się bardzo gorący podczas zapadnięcia się, co generuje wiele neutrin, które następnie rozrywają otoczkę w wyniku słabych interakcji. Aby ten model zadziałał, wymagana jest, aby skala czasu interakcji neutrin z jądrami w otoczce była porównywalna z dynamiczną skalą czasu. Gdyby była znacznie dłuższa, otoczka byłaby zasadniczo przezroczysta dla neutrin; gdyby był znacznie krótszy, neutrina zostałyby uwięzione w jądrze i nie mogłyby uciec, aby zdeponować swój pęd w słabiej związanych otaczających warstwach. Obie skale czasowe są porównywalne pod warunkiem, że αG ∼ α4W . Wiemy, że ta zależność zachodzi liczbowo, ale zasada antropiczna wyjaśnia, dlaczego musi ona zachodzić. Jeśli więc przyjmiemy, że αG jest zdeterminowane antropicznie, musimy również przyjąć, że αW jest tak zdeterminowane. Co dość niezwykłe, zależność αG ∼ α4W również odgrywa kluczową rolę w obliczeniach nukleosyntezy Wielkiego Wybuchu. Przewidywanie, że 24% masy Wszechświata zamieniło się w hel w ciągu zaledwie kilku minut, jest jednym z największych triumfów obrazu Wielkiego Wybuchu. Jednakże produkcja helu zależy w sposób wrażliwy od stosunku neutronów do protonów, gdy słabe oddziaływania stają się wolniejsze niż kosmologiczna szybkość ekspansji w temperaturze 1010 K, a jedynym powodem, dla którego uzyskuje się interesującą wydajność helu, jest "zamrożenie" temperatura jest porównywalna z różnicą mas neutronów i protonów. Okazuje się, że warunkiem tego jest αG ∼? α4W , czyli dokładnie warunek wymagany dla supernowych. Nie jest jasne, w jakim stopniu tę zbieżność można interpretować antropicznie. Gdyby αW było nieco mniejsze niż α1/4G , cały wszechświat spaliłby się w hel, a życie gwiazdy helowej mogłoby nie być wystarczająco długie, aby umożliwić ewolucję życia. Gdyby αW było nieco większe niż α1/4G , w ogóle nie doszłoby do produkcji helu, chociaż nie jest jasne, czy ma to jakiekolwiek znaczenie antropiczne.

Kosmologiczne ograniczenia antropiczne

Kilka bardziej jakościowych ograniczeń antropicznych wynika z rozważań kosmologicznych. Na przykład można przypuszczalnie wykluczyć wszechświat o zerowej gęstości materii (tj. czystym promieniowaniu), ponieważ nie byłoby wówczas w ogóle zawartości barionowej. Istnieją również proste antropiczne powody, dla których parametr gęstości Ω całkowitej mieści się w rzędzie wielkości 1. (Jest to gęstość w jednostkach wartości krytycznej, która oddziela modele, które rozszerzają się w nieskończoność od tych, które ponownie się zapadają.) Gdyby Ω były znacznie większe niż 1, wszechświat uległby ponownemu zapadnięciu w skali czasu znacznie krótszej niż czas ciągu głównego gwiazdy. Z drugiej strony, gdyby Ω były znacznie mniejsze niż 1, wahania gęstości przestałyby rosnąć, zanim galaktyki mogłyby się związać. Argument ten wymaga, aby wartość mieściła się w zakresie 0,01-100. Czasami twierdzi się, że scenariusz inflacyjny wymaga dokładności Ω o 1 ton większej niż ta, w którym to przypadku wyjaśnienie antropiczne może nie wydawać się już istotne. Jednak nawet scenariusz inflacyjny sprawdza się tylko wtedy, gdy tak dobierze się potencjał próżni, aby uzyskać wystarczającą liczbę e-fałdów ekspansji i fluktuacji gęstości o właściwej amplitudzie. Forma tego potencjału może zatem sama być ograniczona argumentami antropicznymi. W rzeczywistości niektórzy teoretycy opowiadają się obecnie za scenariuszami "otwartej inflacji" z Ω < 1. W tym przypadku, aby określić obecną wartość , należy przywołać to, co Alex Vilenkin nazywa "zasadą przeciętności" (pomysł, że jesteśmy najprawdopodobniej żyją we wszechświecie z największą liczbą galaktyk). Jednak w rzeczywistości jest to po prostu zasada antropiczna pod inną nazwą. Innym ważnym parametrem kosmologicznym jest amplituda fluktuacji pierwotnej gęstości wymagana do wyjaśnienia obecnie obserwowanej struktury wielkoskalowej. Kiedy te fluktuacje dotarły za horyzont, musiały mieć amplitudę ε rzędu 10-5. W tym przypadku galaktyki powstały, gdy Wszechświat miał 109 lat, podczas gdy gromady galaktyk rozdzielają się w obecnej epoce. Co by się stało, gdyby z jakiegoś powodu wartość ? była inna? Gdyby ε było poniżej 10-6, bariony kondensowałyby tylko w bardzo późnych momentach, kiedy byłyby bardzo rozproszone. Chłodzenie byłoby wówczas nieskuteczne, więc gaz nigdy nie kondensowałby w gwiazdy. Z drugiej strony, gdyby ε było znacznie większe niż 10-3, bariony wcześnie skondensowałyby się, tworząc ściśle związane układy, które zatrzymywałyby promieniowanie i zapadały się w supermasywne czarne dziury. Ewolucja takiego wszechświata byłaby trudna do obliczenia, ale z pewnością nie zawierałby on niczego takiego jak galaktyki. Antropicznie dozwolony zakres ε wydaje się zatem mieścić w przedziale od 10-3 do 10-6 . Trzecim ważnym parametrem kosmologicznym jest stosunek fotonów do barionów S ∼ 109 (tj. stosunek gęstości fotonów w tle mikrofal do średniej gęstości protonów). W standardowym modelu Wielkiego Wybuchu promieniowanie tła dominowało w gęstości Wszechświata aż do około 104 lat, a powstawanie galaktyk mogło nastąpić dopiero po tym czasie. Jednakże dla ogólnej wartości S czas ten wyniósłby ∼S2α?1/2Gtp, a wiek Wszechświata podany w argumencie Dicke′a byłby wtedy większy tylko dla S<α-1/4G . Zatem górna granica S wynosi około 1010. Dolna granica S jest uzyskiwana, jeśli wymaga się, aby podczas kosmologicznej nukleosyntezy we Wszechświecie dominowało promieniowanie, w przeciwnym razie cały wodór zamieniłby się w hel, co oznacza, że S > (mp/me)4/34wG)1/6 ∼ 104. Zatem argumenty antropiczne wymagają, aby S mieścił się w przedziale 104-1010. Oczywiście na obrazie standardowym wartość S wynika z małego ułamkowego nadmiaru cząstek nad antycząstkami wdrukowanymi około ∼10-34 s po Wielkim Wybuchu z powodu naruszenia zasady zachowania barionu występującego w epoce Wielkiej Zjednoczenia. Jednakże w większości modeli WIELKIEJ UNIFIKOWANEJ TEORII (GUT) przewiduje się, że S będzie miało postać α-n, gdzie n jest liczbą całkowitą, zatem ograniczenie antropiczne S < α-1/4G przekłada się jedynie na ograniczenie αG < α4n. Jeśli n = 5, daje to po prostu warunek gwiazdy konwekcyjnej . Na koniec musimy wziąć pod uwagę ograniczenia antropiczne dotyczące wartości stałej kosmologicznej. Często przyjmuje się, że wynosi zero, ale nie jest to nieuniknione ani teoretycznie, ani obserwacyjnie. Dodatni + powoduje, że Wszechświat rozpoczyna wykładniczą ekspansję, gdy gęstość zwykłej materii spadnie wystarczająco nisko. Wzrost zaburzeń gęstości zostaje wówczas wyhamowany, w związku z czym związane systemy, które do tego czasu nie powstały, nigdy już nie powstaną. Dlatego też dla danej wartości ? względy antropiczne wyznaczają górną granicę. Co ciekawe, granica ta jest tylko 10-krotnie wyższa od wartości, którą niektórzy kosmolodzy opowiadają się za naszym obecnym Wszechświatem. W perspektywie 120 potęg 10 niepewności gęstości energii próżni, przewidywanej przez teoretyków cząstek, jest to bardzo poważne ograniczenie. że gęstość energii próżni jest znacznie mniejsza niż gęstość krytyczna, to można podejrzewać, że jest ona bardzo mała, być może dokładnie równa zero, z jakiegoś fundamentalnego powodu fizycznego.

Interpretacje zasady antropicznej

To, czy uznać argumenty antropiczne za mieszczące się w fizyce czy metafizyce, zależy od tego, jak je zinterpretować. Sugerowano różne rodzaje wyjaśnień. Pierwsza możliwość jest taka, że antropiczne zbiegi okoliczności odzwierciedlają istnienie "dobroczynnej istoty", która stworzyła wszechświat z konkretnym zamiarem stworzenia nas. Taka interpretacja jest logicznie możliwa i może przemawiać do teologów, ale prawdopodobnie jest nie do przyjęcia dla większości fizyków. Inna możliwość, zaproponowana przez Johna Wheelera , jest taka, że wszechświat właściwie nie istnieje, dopóki nie pojawi się świadomość. Opiera się to na założeniu, że wszechświat jest opisany przez kwantowo-mechaniczną funkcję falową i że do zapadnięcia tej funkcji falowej wymagana jest świadomość. Gdy we wszechświecie rozwinie się świadomość, można o niej pomyśleć jako o odbiciu się od źródła Wielkiego Wybuchu, tworząc w ten sposób zamknięty obwód, który powołuje świat do istnienia . Nawet jeśli świadomość rzeczywiście załamuje funkcję falową (co nie jest pewne), to wyjaśnienie również należy uznać za metafizyczne. Trzecia możliwość jest taka, że istnieje nie tylko jeden wszechświat, ale wiele z nich, każdy z różnymi losowo rozłożonymi stałymi sprzężenia. W tym przypadku z konieczności znajdujemy się w jednej z małych frakcji, które spełniają ograniczenia antropiczne. Dzięki tej interpretacji fakt, że stałe mają wartości wymagane do życia, staje się po prostu aspektem słabej zasady antropicznej, ponieważ świadomi obserwatorzy muszą znajdować się nie tylko w specjalnych punktach czasu i przestrzeni, ale także w specjalnych wszechświatach. Przywoływanie wielu dodatkowych wszechświatów może wydawać się raczej nieekonomiczne, ale istnieje kilka kontekstów fizycznych, w których ma to sens. Jedna z możliwości wiąże się z interpretacją mechaniki kwantowej "Wiele światów", zapoczątkowaną przez Hugh Everetta . Pomysł jest taki, że Wszechświat rozpada się za każdym razem, gdy funkcja falowa załamuje się w wyniku obserwacji. Oznacza to, że wszechświat nieustannie rozgałęzia się na ogromną liczbę równoległych światów, co daje początek słynnemu paradoksowi kota Schrödingera. David Deutsch twierdzi, że wszystkie te światy są w pewnym sensie "realne" (Deutsch 1991). Jednakże wszystkie one mają te same stałe sprzężenia w obrazie Everetta, zatem znaczna ekstrapolacja polega na twierdzeniu, że istnieją również światy, w których stałe się różnią. Bardziej prawdopodobny kontekst scenariusza "wielu wszechświatów" pojawia się, jeśli wszechświat jest zamknięty. W tym przypadku można sobie wyobrazić, że przechodzi on cykle ekspansji i ponownego załamania, a przy każdym odbiciu generowane są nowe wartości stałych sprzężenia (rysunek 2(c)). Podczas większości cykli stałe nie pozwalały na powstanie życia, ale czasami pojawiały się odpowiednie wartości i wszechświat stawał się świadomy siebie. Jakkolwiek mało prawdopodobne jest, aby stałe miały prawidłowe wartości, przy nieskończonej liczbie cykli z pewnością tak się stanie czasami. W kontekście obrazu inflacyjnego pojawia się inny scenariusz "wielu wszechświatów". Sugeruje to, że w bardzo wczesnym okresie fluktuacje kwantowe powodują, że małe obszary przechodzą fazę wykładniczej ekspansji. Każdy region staje się "bańką", a cały nasz widzialny wszechświat zostaje zawarty w jednej z nich. W zasadzie, jak podkreśla Andrei Linde, w każdym bąbelku mogą występować różne wartości stałych sprzężenia . W tym przypadku tylko niewielka część z nich rozwinęłaby świadomość, ale nasz wszechświat z konieczności znalazłby się wśród tej frakcji. Zarówno model cykliczny, jak i inflacyjny odwołują się do dużej - i być może nieskończonej - liczby wszechświatów. Jedyna różnica polega na tym, że pierwszy przywołuje nieskończoność w czasie, podczas gdy drugi przywołuje nieskończoność w przestrzeni.

Ocena końcowa

Możliwość ewolucji życia, jakie znamy we wszechświecie, zależy od wartości kilku podstawowych stałych fizycznych i pod pewnymi względami jest niezwykle wrażliwa na ich wartości liczbowe. Z drugiej strony, z fizycznego punktu widzenia, antropiczne "wyjaśnienie" różnych zbiegów okoliczności w przyrodzie można krytykować z wielu powodów. (1) Argumenty antropiczne mają głównie charakter post hoc - poza rezonansem potrójnej alfa nikt nigdy nie oparł skutecznej prognozy na zasadzie antropicznej. (2) Argumenty antropiczne mogą być nadmiernie antropocentryczne, ponieważ założyliśmy warunki, które są specyficznie związane z życiem typu ludzkiego. (3) Zasada antropiczna nie przewiduje dokładnych wartości stałych, a jedynie relacje rzędu wielkości między nimi, więc nie jest to pełne wyjaśnienie. Dwa ostatnie zastrzeżenia można spotkać w ramach interpretacji "wielu wszechświatów", jeśli weźmie się pod uwagę, że wszechświaty zajmują abstrakcyjną wielowymiarową przestrzeń stałych sprzężenia (z jednym wymiarem dla każdego α). Zasadę antropiczną można następnie zinterpretować w ten sposób, że życie może istnieć tylko w małych obszarach tej przestrzeni. W niektórych regionach możliwe będą formy życia podobne do naszych; inne formy życia mogą być możliwe gdzie indziej, ale życie nie będzie możliwe wszędzie . Być może nie w każdym podtrzymującym życie regionie przestrzeni istnieje taka sama relacja antropiczna, ale będzie ona istniała. Jak widzieliśmy, inną atrakcją wyjaśnienia "wielu wszechświatów" jest to, że możliwe jest przedstawienie mu rozsądnej podstawy fizycznej . Oczywiście nie jest jasne, czy te fizyczne idee będą kiedykolwiek możliwe do przetestowania. Na przykład prawdopodobnie nigdy nie dowiemy się, czy wszechświat może podlegać cyklom; nawet jeśli udowodnimy, że ponownie się załamie, nie możemy być pewni, że wejdzie w kolejną fazę ekspansji. Na obrazie inflacji sytuacja nie jest lepsza, bo z pozostałymi bańkami nigdy nie będziemy mogli się zetknąć. Obydwa obrazy są zatem niesprawdzalne i w tym sensie zasadę antropiczną można nadal uważać za metafizyczną. Być może najmniej radykalnym wyjaśnieniem antropicznych zbiegów okoliczności jest to, że mogą one okazać się konsekwencją jakiejś ujednoliconej teorii fizyki cząstek elementarnych. W końcu takie teorie mają na celu powiązanie różnych stałych sprzężenia, więc nie jest wykluczone, że przewidywałyby rodzaj powiązań między różnymi wartościami α omówionymi powyżej. Jednakże, o ile nam wiadomo, omówionych powyżej zależności nie przewiduje żadna ujednolicona teoria. Nawet gdyby tak było, byłoby niezwykłe, że teoria ta dostarcza dokładnie takich zbiegów okoliczności, jakie są wymagane do powstania życia. Na koniec należy przestrzec, że wiele z argumentów antropicznych odnosi się jedynie do obecności złożoności - antropiczne zbiegi okoliczności można w równym stopniu uznać za warunek wstępny dla obiektów nieożywionych, takich jak samochody - więc nacisk na życie może być niewłaściwie umiejscowiony. W tym kontekście Lee Smolin przypuszczał, że stałe rządzące naszym wszechświatem są zdeterminowane nie względami antropicznymi, ale rodzajem "doboru naturalnego" między wszechświatami . Postuluje, że nowe wszechświaty powstają, gdy tworzą się czarne dziury, i że nowe stałe, choć różnią się nieco od ich wartości we wszechświecie macierzystym, zachowują pewną pamięć o swoim pochodzeniu. Pomysł ten ma charakter wysoce spekulacyjny i obejmuje fizykę znacznie wykraczającą poza wszystko, czego możemy być pewni. Jednak pomysł Smolina ma przynajmniej tę zaletę, że można go przetestować: przewiduje, że właściwości naszego Wszechświata powinny być optymalne do powstawania czarnych dziur, tak aby jakiekolwiek majsterkowanie przy stałych zmniejszyło skłonność czarnych dziur do powstawania. Konwencjonalna astrofizyka może przynajmniej zacząć zajmować się tą kwestią.

Sztuka i literatura

Poszerzające umysły właściwości astronomii wpływają na pisarzy i artystów w równym stopniu (a może w większym stopniu) na ogół ludzi, a istnieje długa tradycja wykorzystywania odniesień astronomicznych w literaturze i sztuce.

Astronomia i sztuka

Jednym z celów sztuki pięknej (malarstwa, rzeźby i przedmiotów, które mają być podziwiane, a nie użyteczne) jest komentowanie ludzkich działań za pomocą metafory lub analogii. Działania takie mogą być przeciwne zjawiskom astronomicznym lub kojarzone z nimi, we własnym interesie lub w ramach komentarza. Na przykład na obrazach przedstawiających ukrzyżowanie często pojawiają się obrazy zaćmień. Są one dosłowne przedstawienia nagłej ciemności, która według Pisma Świętego nastąpiła po śmierci Jezusa. Są także metaforami wygaśnięcia ważnej osoby i przykładami "żałosnego błędu", w którym utożsamia się świat przyrody z reakcją na zachodzące w nim działania człowieka. Podobnie florenckiemu malarzowi Giotto de Bondonelowi w 1303 roku zlecono udekorowanie wnętrza kaplicy należącej do bogatego kupca z Padwy, Enrico Scrovegniego, i namalował 38 scen religijnych, z których jedną była Pokłon Trzech Króli . Kult Dzieciątka Jezus w stajni odbywał się pod Gwiazdą Betlejemską, symbolem przemiany i złowieszczym niebiańskmi znakiem narodzin. Giotto przedstawił ją jako płonącą kometę. Inspiracją dla niego była Kometa Halleya, która w 1301 roku powróciła do peryhelium i którą malarz niewątpliwie widział. Wypadało, aby statek kosmiczny wysłany do jądra Komety Halleya podczas powrotu w 1986 roku otrzymał nazwę GIOTTO. Na poziomie bardziej indywidualnym Vincent van Gogh namalował Gwiaździstą noc. Przedstawia prowansalską wioskę z kościołem oraz domy z oświetlonymi oknami w krajobrazie wzgórz, drzew oliwnych i cyprysów, pokazane nocą pod rozgwieżdżonym niebem, z półksiężycem i wirującą Drogą Mleczną. Wygląda na to, że niebobraz jest swobodną wizualizacją nocnego nieba w momencie jego malowania. Niezależnie od naturalnego realizmu kosmiczne tło oszałamiających świateł, górujące nad ludzkim krajobrazem poniżej, stanowi niepokojące kosmiczne tło dla mniejszych wydarzeń ludzkich poniżej, w tym, jak należy przypuszczać, rozwijającego się szaleństwa Vincenta, którego kulminacją było samobójstwo w następnym roku. Ta sama Droga Mleczna biegnie po nocnym niebie w Ucieczce do Egiptu Albrechta Altdorfera (1609, w Pinakotece w Monachium). Ponownie jest to kosmiczne tło dla wydarzeń, pokazanych w małych rozmiarach, które mają miejsce na Ziemi poniżej, gdy Święta Rodzina podróżuje na osiołku, uciekając przed masakrą niemowląt dokonaną przez Heroda. Altdorfer to pierwsze przedstawienie Drogi Mlecznej jako masy pojedynczych gwiazd. Instrumenty astronomiczne są często pokazywane na portretach. Są to ciekawe dekoracje, które odzwierciedlają zainteresowania, osiągnięcia i wykształcenie opiekuna(ów) i mogą, ale nie muszą, być bezpośrednio powiązane z tematem. Ambasadorzy to pełnometrażowy portret dwóch bogatych, wykształconych i wpływowych młodych mężczyzn, Jeana de Dinteville, ambasador Francji w Anglii i Georges de Selve, biskup Lavaur. Artysta Hans Holbein Młodszy (1497/8-1543) przedstawił dwóch mężczyzn stojących po obu stronach stołu niosącego kolekcję globusów, książek oraz instrumentów astronomicznych i muzycznych. Zegar słoneczny na stole jest identyczny z tym, który znajduje się na portrecie astronoma Nicholasa Kratzera wykonanym przez Holbeina z 1528 r. Można przypuszczać, że zegar słoneczny został zaprojektowany lub wykonany przez Kratzera, a jego wizerunek został ponownie wykorzystany i włączony przez Holbeina do The Ambassadors jako pochlebstwo. Odniesienia astronomiczne w ilustrowanych książkach angielskiego poety romantycznego Williama Blake′a nie sprzyjają nauce. Bóg jako architekt, ilustracja z The Ancient of Days, przedstawia Boga jako starca, klęczącego na burzliwych chmurach przed ognistym słońcem i chłodno mierzącego kosmos za pomocą podziałów . Blake przedstawił Newtona jako wprowadzonego w błąd bohatera przypominającego greckiego boga, którego wzrok skierowany był tylko w dół, na sterylne diagramy geometryczne, które również mierzył za pomocą dzielników . Co ciekawe, to pogardliwe przedstawienie Newtona jest często widywane jako plakaty na ścianach wydziałów fizyki uniwersytetów. W przeciwieństwie do pesymizmu Blake′a, jego współczesny i rodak Samuel Palmer ukazuje sielankowe sceny w wyidealizowanej Anglii pod łagodnym, wieczornym niebem ze świecącymi księżycami i planetą Wenus.

Astronomia i literatura

Tak jak artyści wykorzystywali tematy astronomiczne jako tło dla ludzkich spraw, tak też czynią to pisarze. W pismach Williama Szekspira (1564-1616) pełno jest odniesień astronomicznych. W jego sztukach znajdują się liczne przemówienia za i przeciw astrologii, a poglądy przeciwne wyrażają głównie bardziej nachalne, zbuntowane postacie. Szekspir urodził się po opublikowaniu przez Kopernika swojej teorii Układu Słonecznego w 1543 r. i był rówieśnikiem entuzjastycznych angielskich zwolenników nowego spojrzenia na Wszechświat, takich jak THOMAS DIGGES (zm. 1595), WILLIAM GILBERT (1540-1603) i JOHN DEE (zm. 1595). 1527-1608). Niemniej jednak w dziełach Szekspira nie ma śladu tej kontrowersji, z wyjątkiem sporów o ważność astrologii. Thomas Hardy (1840-1928) był poetą i płodnym powieściopisarzem żyjącym na wsi Wessex. Opisał swoją powieść "Dwa na wieży" jako "niezbyt rozbudowany romans", który "był wynikiem chęci zestawienia emocjonalnej historii dwóch nieskończenie małych żyć ze zdumiewającym tłem gwiezdnego wszechświata i zaszczepić czytelnikom poczucie, że z tych kontrastujących wielkości mniejsza może być dla nich jako ludzi większa" (przedmowa do wydania z 1895 r.). Peter Ackroyd (1949-), angielski powieściopisarz, znany ze swojego podejścia do względności czasu w swojej twórczości, również umieścił swoją powieść Pierwsze światło w krajobrazie zachodniego kraju, który ukazuje palimpsest czasu w jego kurhanach, ludowych wspomnieniach i współczesnych obserwatorium. W literaturze można wyraźnie skomentować dość abstrakcyjne idee astronomiczne. Rozmiar wszechświata jest jednym z czynników pobudzających wyobraźnię astronomii, a samo słowo "astronomiczny" zyskało dodatkowe znaczenie słowa "ogromny", ponieważ wielkości występujące w astronomii są tak ogromne. Czasami reakcją na odległości gwiazd jest podziw i strach, jak w Myśli Blaise'a Pascala (1623-1962): Wieczna cisza tych nieskończonych przestrzeni napawa mnie przerażeniem. Ze względu na długi czas podróży światła z gwiazdy do nas, obraz nieba, który w tej chwili postrzegamy, powstał dawno temu i może ukazywać wspomnienie gwiazdy, która od tego czasu dobiegła kresu swojego życia i już nie istnieje. istnieje. The Oda to Charles Sumner autorstwa Henry'ego Longfellowa (1807-1882) (1979 Complete Works (Oxford: Oxford University Press) s. 326) ilustruje tę ideę:

Gdyby gwiazda zgasła na wysokościach,
Przez wieki będzie jego światło,
Wciąż podróżując w dół z nieba,
Świeć na nasz śmiertelny wzrok.
Kiedy więc umiera wielki człowiek,
Przez lata poza naszym zasięgiem
Światło, które zostawia za sobą, leży
Na ludzkich ścieżkach.

Amerykański poeta Robert Frost (1874-1963) astronomią interesował się przez całe życie, a jego początki sięgają już w wieku 15 lat, kiedy to zainstalował w górnym pokoju domu rodziców mały teleskop, kupowany za pieniądze ze sprzedaży prenumerat czasopism. W przemówieniu na dwa miesiące przed śmiercią przedstawił swoją filozoficzną reakcję na astronomię: "Jakie to poruszające, Słońce i wszystko inne. Weź teleskop i spójrz tak daleko, jak tylko możesz. Ile wszechświata zmarnowano, żeby wyprodukować nas marnych. To cudowne… w porządku". W A Star in a Stone Boat (Frost R 1962 (Harmondsworth: Penguin) s. 116) opisał, jak materia niebieska jest częścią tkanki Ziemi i jej zawartości. Nigdy mi nie mów, że ani jedna gwiazda ze wszystkich, które nocą spadają z nieba i delikatnie spadają, nie została podniesiona wraz z kamieniami, by zbudować mur. Primo Levi (1919-1987) był włoskim poetą i pisarzem żydowskim. Z wykształcenia chemik przemysłowy, miał dramatyczne życie jako partyzant piemoncki, był świadkiem, uczestnikiem i ocalałym z obozu koncentracyjnego w Auschwitz. Popełnił samobójstwo, najwyraźniej zrozpaczony kondycją człowieka. Jego poezja In the Beginning z 1998 Collected Poems: Shema transl R Feldman i B Swann (Londyn: Faber and Faber) s. 27) opisuje tę samą myśl, co Frost, w odniesieniu do Wielkiego Wybuchu:

Z tego jednego spazmu narodziło się wszystko:
Ta sama otchłań, która nas otacza i rzuca wyzwanie,
W tym samym czasie, który nas rodzi i pokonuje,
Wszystko, o czym ktokolwiek kiedykolwiek pomyślał,
Oczy kobiety, którą kochaliśmy,
Słońca tysiącami
I ta ręka, która pisze.

Jednakże, podobnie jak w sztukach pięknych, nie wszystkie odniesienia do astronomii w literaturze są przychylne i Newton jest na linii ognia. Podczas pijackiej kolacji w dniu 28 grudnia 1817 r., w której uczestniczyło czterech literatów - Benjamin Haydon, William Wordsworth, Charles Lamb i John Keats - Lamb znieważył Haydona za umieszczenie popiersia matematycznego naukowca Izaaka Newtona na właśnie namalowanym przez niego obrazie. Lamb wyśmiewał Newtona jako "człowieka, który nie wierzy w nic, jeśli nie jest to jasne jak trzy boki trójkąta". Lamb wzniósł toast za "zdrowie Newtona i zamieszanie z matematyką". Keats zgodził się i wraz z Wordsworthem ubolewał nad zniszczeniem piękna przez naukę. To drwiny z nauki pojawiają się w poezji Keatsa i Wordswortha. Żaden naukowiec nie zgodziłby się z opinią wyrażoną przez Keatsa (Lamia, część II, wiersze 229-38 w: Garrod H. W. 1956 The Poetical Works of John Keats:

Nie wszystkie amulety latają
Na sam dotyk zimnej filozofii?
Kiedyś w niebie była straszna tęcza:
Znamy jej wątek, jej teksturę; jest jej dane
W nudnym katalogu rzeczy pospolitych.
Filozofia podetnie skrzydła Aniołowi,
Pokonaj wszystkie tajemnice według zasad i linii,
Opróżnij nawiedzone powietrze i gnom moje -
Rozpleć tęczę…
Fantastyka naukowa

Astronomia kojarzona jest z odrębnym gatunkiem literackim, jakim jest science fiction. "Science fiction to rodzaj prozatorskiej narracji opisującej sytuację, która nie mogłaby mieć miejsca w znanym nam świecie, ale której hipotezę opiera się na jakiejś innowacji w nauce lub technologii, lub pseudotechnologii, zarówno ludzkiej, jak i pozaziemskiej, w pochodzenia" . Science fiction ma długą i chwalebną historię. Jej początki sięgają II w. n.e., gdyż wówczas powstała pierwsza prawdziwa powieść o wyprawie na Księżyc, której autorem był grecki satyryk Lucjan z Samosaty. Nazwał ją Prawdziwą Historią, ponieważ od początku do końca składała się z samych kłamstw. Opisuje rzeczy, których "nie widział, nie cierpiał, ani nie nauczył się od kogoś innego, rzeczy, których nie ma i nigdy nie mogło być; dlatego moi czytelnicy w żadnym wypadku nie powinni im wierzyć". Lucian łączył chłodny umysł z darem do płynnego, łatwego pisania i posiadał duże poczucie humoru. Jego podróżnikami są marynarze, którzy zostali porwani przez strumień wody, gdy przechodzili przez Słupy Herkulesa (naszą Cieśninę Gibraltarską), i zostali wyrzuceni w górę z taką siłą, że po siedmiu dniach i siedmiu nocach wylądowali na Księżycu. Zostali aresztowani przez księżycowych wojowników i uwięzieni przez Króla Księżyca. Łącząc arystotelesowskie postrzeganie ciał niebieskich jako doskonalszych od Ziemi z Księżycem, Lucian opisał ludzi księżycowych jako znacznie bardziej zaawansowanych niż ludzie na Ziemi. Wszystko, co nieczyste i nieczyste, było dla nich odrażające. Seks był albo nieznany, albo ignorowany, a kiedy księżycowy człowiek umierał, po prostu rozpływał się w dymie, tak że nie pozostawiano żadnych szczątków do pochówku. Ta konwencja mówiąca, że istoty niebieskie są czystsze od nas, przetrwała do dziś w wierzeniach o pozaziemskich gościach w UFO. Somnium (Sen) Johanna KEPLERA było zupełnie inne. W 1593 roku, mając 22 lata, student Uniwersytetu w Tybindze, Kepler napisał rozprawę pt. Stanowisko Kopernika na temat tego, jak niebo będzie wyglądało dla obserwatora na powierzchni Księżyca. Debata na temat tej radykalnej tezy została stłumiona. Somnium, napisane w 1609 r. i opublikowane w 1634 r., rozwija tę tezę w dzieło wyobraźni. To było i miało być zarówno edukacyjne, jak i rozrywkowe. Było 223 notatki wyjaśniające jego odniesienia. Praca ta była pierwsza, kładąc nacisk na to, co dla Keplera było nauką, a nie na historię przygodową opowieść science fiction (hard core, w której nauka jest najważniejszą cechą, w przeciwieństwie do science fiction). Bohater Keplera, Islandczyk imieniem Duracotus, zostaje przeniesiony na Księżyc przez demona. Kepler wiedział, że ziemska atmosfera nie rozciąga się aż do Księżyca i że musi istnieć punkt neutralny, w którym siły grawitacyjne Ziemi i Księżyca równoważą się. Kepler wiedział również, że Księżyc zawsze jest zwrócony tą samą twarzą w stronę Ziemi, i wyjaśnia, że warunki na obu półkulach są zupełnie inne. Opisuje zaćmienie Księżyca widziane z Księżyca (tj. zaćmienie Słońca przez Ziemię) i jak wygląda zaćmienie Słońca z perspektywy mieszkańca Księżyca (tj. przejście cienia umbralnego przez powierzchnię Ziemi). W 1865 roku ukazała się książka Juliusza Verne′a "Z Ziemi na Księżyc", a później ukazała się jej kontynuacja "Dookoła Księżyca". Verne świadomie starał się trzymać znanych mu faktów i, ogólnie rzecz biorąc, udało mu się to wyjątkowo dobrze, mimo że jego podstawowy sposób podróżowania był niewłaściwy. Jego podróżnicy zostali wystrzeleni na Księżyc z lufy ogromnej armaty i wyruszyli z prędkością 7 mil s-1. Liczbowo Verne miał rację; 7 mil na s-1 to prędkość ucieczki Ziemi, a pocisk wystrzelony z tą prędkością nigdy nie powróci. Niestety, pocisk zostałby natychmiast zniszczony przez tarcie o atmosferę, a w każdym razie szok odlotu z pewnością zamieniłoby wszystkich podróżnych w galaretę, ale przynajmniej Verne sprawił, że wszystko brzmiało wiarygodnie. Jego opis Księżyca opierał się na najlepszych dostępnych informacjach, a jego fabuła jest genialna; pocisk napotyka mniejszego satelitę Ziemi i jego tor zostaje zmieniony w taki sposób, że zamiast dotrzeć do Księżyca, podróżujący zostają bumerangiem z powrotem na Ziemię. Opisuje "Wojna światów" HG Wellsa (1898)., ak Ziemię najeżdżają groteskowe potwory z Marsa, uciekając przed wysuszeniem swojej planety. Powodują spustoszenie, dopóki nie zostaną zniszczone przez bakterie lądowe, na które nie mają odporności. W 1938 roku audycja radiowa powieści wyprodukowanej przez Orsona Wellesa wywołała powszechną panikę w niektórych częściach Stanów Zjednoczonych, a słuchacze wzięli ją za prawdziwy biuletyn informacyjny. Powieść zupełnie innego rodzaju napisał KONSTANTIN EDWARDOWICZVICH CIOŁKOWSKI, urodzony w 1857 roku w Ijewsku, odległej wiosce w Rosji. Uświadomił sobie, że jedyną praktyczną metodą podróży kosmicznych jest rakieta, która działa na zasadzie reakcji i może pracować w próżni kosmicznej. Jego jedyna powieść, Beyond the Planet Earth, została ukończona prawdopodobnie w 1895 r., choć ukazała się drukiem dopiero w 1920 r., a jej tłumaczenie na język angielski opóźniono aż do 1960 r. Jako opowieść i wysiłek literacki można ją określić jedynie jako okropną. , ale według prognoz naukowych wyprzedzał swoje czasy o całe lata. W swojej powieści podróżnicy użyli silnika rakietowego na paliwo ciekłe zamiast na ciała stałe, takie jak proch strzelniczy; opisał zasadę "krokowego" montażu jednej rakiety na drugiej (co nazwalibyśmy rakietą wielostopniową). Podał także doskonale dokładny opis przyczyn i skutków nieważkości, czyli zerowej grawitacji. Był równie świadomy wielu problemów związanych z długimi podróżami kosmicznymi i zaproponował zabranie ze sobą różnego rodzaju zielonych roślin, aby usunąć nadmiar dwutlenku węgla z atmosfery wewnątrz statku kosmicznego i zastąpić go wolnym tlenem. W latach trzydziestych XX wieku ukazywało się wiele tanich magazynów science fiction (i kryminałów). W ten sposób powstała nazwa "pulp fiction", obecnie będąca synonimem opowiadania historii bez wyrafinowania. Niemniej jednak niektórzy młodzi, a teraz już uznani pisarze zaczynali na tym rynku. W przeciwieństwie do większości pulp fiction, wśród ostatnich autorów, których książki zawierają dużo solidnej wiedzy naukowej, znajduje się wizjoner podróży kosmicznych Sir ARTHUR CLARKE, autor książki 2001: a Space Odyssey, nakręconej przez Stanleya Kubricka. Astronom FRED HOYLE jest także uznanym pisarzem, którego pierwsze i najbardziej znane dzieło science fiction, Czarna chmura, zawiera wzory matematyczne.

"Sztuka kosmiczna"

Podobnie jak science fiction, "sztuka kosmiczna" ma głównie na celu przekazywanie myśli o kosmosie i astronomii, a nie ukazywanie niuansów samodzielnej formy sztuki. Sztuka kosmiczna jest formą ilustracji naukowej, podobną do ilustracji botanicznej. Ponieważ tematu nie widać bezpośrednio, artyści kosmiczni ekstrapolują wiedzę na jego temat na ilustrację, podobnie jak zrobiłby to ilustrator rekonstruując dinozaura ze skamielin lub miejsce historyczne z wykopalisk archeologicznych. Artyści kosmiczni mogą pokazać, jak wyglądałaby odległa planeta, układ podwójny gwiazd lub galaktyka, gdybyśmy byli tam osobiście, lub w jaki sposób można by zrealizować działanie w przestrzeni kosmicznej, takie jak wydobycie asteroidy lub kolonizacja Marsa. Sztuka kosmiczna może również włączać do swojego gatunku elementy fantasy, umieszczając ryby, kwiaty itp. w scenie kosmicznej, aby uzyskać dramatyczny efekt. Wczesnym przykładem tej formy sztuki kosmicznej był The Sower of Systems , przedstawienie chaosu poprzedzającego powstanie planet przez George′a Fredericka Wattsa (1817-1904). Ekspresjonistyczny obraz hipotezy mgławicy Laplace′a łączy się z niewyraźną formą kroczącej postaci w szarym płaszczu, jakby zasiewała pole. Pionierskim artystą kosmicznym we współczesnej szkole był CHESLEY BONESTELL, który ilustrował książki ekspertów w dziedzinie podróży kosmicznych, takich jak WERNHER VON BRAUN i Willy Ley. Nowoczesną sztukę kosmiczną wyróżnia naturalistyczny sposób ilustracji, tworzący szczegółowe pejzaże nawiązujące do pejzażystek amerykańskich romantycznych. Zarówno tematyka, jak i dostępny materiał sprzyjają cyfrowym metodom pracy, ale powszechne są również bardziej tradycyjne techniki. Około 120 artystów kosmicznych tworzy Międzynarodowe Stowarzyszenie Artystów Astronomicznych (http://www.iaaa.org/), założone w 1982 roku. Współcześni praktycy to David Hardy i Paul Doherty (Wielka Brytania), Lynette Cooke (USA) oraz kosmonauci Właidimir Dżanibekow. Aleksjie Leonow , a także Georgij Popławski i Andrjej Sokołow (Rosja). Sztuka kosmiczna ma nieograniczone możliwości. W przyszłości fascynujące będzie spojrzenie wstecz na niektóre spekulacje XX wieku; na przykład, czy baza księżycowa naprawdę będzie przypominać pełną wdzięku kopułową strukturę wizualizowaną przez Bonestell? Poczekamy i zobaczymy.

Odkrycie asteroidy w historii

Odkrycie pięciu głównych planet (innych niż Ziemia) w Układzie Słonecznym zostało utracone w starożytności. Wraz z przyjęciem heliocentrycznego modelu Układu Słonecznego Kopernika zauważono wyraźną anomalię w rozstawie planet. JOHANNES KEPLER uważał, że różnica między Marsem a Jowiszem jest zbyt duża w stosunku do odstępów między innymi parami sąsiednich planet. Doszedł do wniosku, że nieznana planeta krąży wokół Słońca pomiędzy Marsem a Jowiszem. W 1766 roku Titius von Wittenburg opracował empiryczny wzór na odległości planet od Słońca. Wzór został spopularyzowany przez Johanna Bodego i jest dziś znany jako PRAWO BODE lub prawo Titiusa-Bodego. Wzór ma postać:

A = 0,4 + 0,3 x 2n

gdzie A jest odległością od Słońca (w jednostkach odległości Ziemi), a n = ?∞, 0, 1, 2, …. Wartości A określone tym wzorem, odpowiadające im planety i rzeczywiste odległości przedstawiono w tabeli .



Tycjusz przypisał przerwę przy n = 3 nieodkrytym księżycom Marsa. Podobnie jak Kepler, Bode argumentował, że tę lukę zajmuje większa planeta. Odkrycie Urana w 1781 roku w odległości bardzo zbliżonej do przypadku n = 6 utwierdziło wiarę w brakującą planetę. (Należy zauważyć, że Neptun bardzo słabo pasuje do przypadku n = 7 i że "Prawo" wydaje się być niczym więcej niż ciekawostką liczbową.)

Niebiańska policja

Jednym z zwolenników prawa Bodego był BARON FRANZ VON ZACH, który posunął się nawet do przewidzenia elementów orbitalnych "brakującej planety" i podjął samodzielne poszukiwania, aby ją znaleźć. Po kilku latach bezowocnych poszukiwań poddał się. We wrześniu 1800 roku von Zach odbył spotkanie w obserwatorium JOHANNA SHRÖTERA w Lilienthal w celu zorganizowania wspólnego poszukiwania domniemanej planety. Poszukiwania miały być prowadzone w odległości około 4° od ekliptyki, którą podzielono na 24 sekcje, z których każda miała być przeszukiwana przez innego astronoma. 1 stycznia 1801 roku, zanim niebiańska policja zdążyła zabrać się do pracy, sycylijski mnich, ojciec GUISEPPE PIAZZI, w trakcie konstruowania katalogu gwiazd odkrył poruszający się obiekt gwiezdny. Piazzi obserwował obiekt przez 6 tygodni, zanim przerwała mu choroba. Chociaż Piazzi napisał listy do różnych astronomów, w tym do Bodego, ogłaszając odkrycie, do czasu otrzymania listów nowego obiektu nie można już było obserwować. Korzystając z obserwacji Piazziego, różne komputery orbitalne próbowały przewidzieć, gdzie obiekt będzie znajdował się w nadchodzącym roku, ale przewidywania obejmowały 5° nieba. Zainspirowany odkryciem Piazziego niemiecki matematyk CARL FRIEDRICH GAUSS opracował nową metodę ogólnego obliczania orbity. Prace Gaussa umożliwiły odnalezienie nowego obiektu, który otrzymał nazwę Ceres Ferdinandea (później na szczęście skróconą do po prostu CERES), z dokładnością do 0,5° od jego przewidywań niezależnie przez von Zacha i HEINRICHA OLBERSA.

Era wizualna

28 marca 1802 roku Olbers sprawdzał położenie gwiazd w pobliżu Ceres i odkrył PALLAS. 1 września 1804 roku KARL HARDING odkrył trzecią asteroidę, JUNO. Olbers zauważył, że Juno została odkryta w pobliżu jednego z punktów przecięcia orbit Ceres i Pallas i wierząc, że asteroidy są fragmentami jednego obiektu, skoncentrował swoje poszukiwania w pobliżu tych punktów. 29 marca 1807 roku jego pracowitość zaowocowała odkryciem VESTA. W 1845 roku Karl Hencke, niemiecki naczelnik poczty, po 15 latach poszukiwań odkrył piątą asteroidę, Astraea. Hencke odkrył Hebe w 1847 roku, a inni astronomowie szybko rozpoczęli własne poszukiwania. Zastosowano różne techniki obserwacji. Jaśniejsze asteroidy można wykryć dzięki ich nieobecności na opublikowanych mapach gwiazd. W przypadku asteroid słabszych niż pokazano na mapach, obserwatorzy musieli uciekać się do rysowania własnych map i porównywania rysunków tego samego pola gwiazdowego w różnych momentach. Do 1850 roku odkryto 13 asteroid. Szybko rozwinęła się tradycja, że nowo odkrytym obiektom nadano nazwy natychmiast po (lub wkrótce po) ogłoszeniu o odkryciu. Wczesnym odkryciom również przypisywano symbole, choć praktyka ta zanikła już w 1855 r. Numery nadawane według kolejności odkryć wprowadzono w 1851 r. Fakt, że numery i nazwy nadano natychmiast po opublikowaniu ogłoszenia o odkryciu, często powodował zamieszanie. Gwałtowny wzrost liczby odkryć (100 w 1868 r., 200 w 1879 r. i 300 w 1890 r.) przerósł możliwości komputerów orbitalnych próbujących śledzić wszystkie obiekty, w wyniku czego wiele obiektów zaginęło. W 1856 roku Hermann Goldschmidt odkrył (41) Daphne. Obiekt obserwowano tylko przez cztery dni. Goldschmidt myślał, że w następnym roku wyzdrowiał (41), ale okazało się, że jest to nowy obiekt, którym stał się (56) Melete. Ten ostatni obiekt obserwowano tylko przez dwa tygodnie i zaginął do czasu, gdy Goldschmidt podjął wyczerpujące poszukiwania w 1861 r. Karol Luter przypadkowo odnalazł (41) ponownie w 1862 r., ale został wzięty za nowy obiekt i przez pewien czas był ponumerowany (74). . W miarę odkrywania kolejnych asteroid stało się jasne, że większość obiektów znajduje się w pasie, zwanym Pasem Głównym, rozciągającym się w odległości od 2,2 do 3,28 jednostki astronomicznej od Słońca (patrz PAS ASTEROID). Pierwszym obiektem odkrytym poza Pasem Głównym była (65) Cybele w 1861 r. W 1875 r. (153) Hilda została znaleziona w średniej odległości prawie 4 jednostek astronomicznych. Był to prototyp Hild, obiektów znajdujących się w rezonansie ruchu średniego 3:2 z Jowiszem i chronionych przed bliskimi zbliżeniami do tej planety, mimo że ich orbity zbliżają się dość blisko.

Epoka fotograficzna

Do 1892 roku wszystkie obserwacje prowadzono wzrokowo, używając kręgów tranzytowych lub mikrometrów. Wprowadzenie poszukiwań fotograficznych pod koniec 1891 roku przez MAX WOLFA w Heidelbergu w Niemczech, a wkrótce potem przez Auguste'a Charloisa w Nicei we Francji, oznaczało nie tylko, że obserwatorzy mogli wykryć obiekty słabsze niż można było zaobserwować wizualnie, ale że płyta fotograficzna stanowiła trwały zapis obserwacji. Odkryć wizualnych dokonano poprzez obserwację zmian w polach gwiazdowych na przestrzeni kilku godzin, gdy obiekty przemieszczały się przez to pole. W przypadku zdjęć z długim czasem naświetlania, wykonanych teleskopem śledzonym z prędkością gwiazdową, poruszające się obiekty zdradzałyby swoją obecność, tworząc krótkie ślady na płycie. Problem z obserwacjami fotograficznymi polegał na tym, że przynajmniej początkowo często nie mierzono dokładnych pozycji obiektów na płytach, głównie dlatego, że był to czasochłonny proces wymagający specjalistycznego sprzętu pomiarowego. Ogólnie rzecz biorąc, uzyskiwano przybliżone pozycje, które można było szybko wyznaczyć. Dokładne obserwacje uzupełniające można następnie uzyskać za pomocą obserwatorów wizualnych za pomocą mikrometrów. Jednakże obserwatorzy wizualni mieli trudności ze śledzeniem słabszych odkryć fotograficznych, a coraz większa liczba nowo odkrytych obiektów szybko ginęła. Aby uporać się z tym narastającym problemem, wprowadzono tymczasowe oznaczenia. Nowo odkryte obiekty otrzymywały najpierw tymczasowe oznaczenie, a stały numer nadawany był dopiero wtedy, gdy wydawało się, że orbita nowego obiektu jest bezpieczna. Początkowo tymczasowe oznaczenie składało się z roku i jednej litery. Zatem pierwszym obiektem tak oznaczonym był 1892 A, drugim 1892 B, itd. Literę I pominięto, aby schemat ten mógł obsłużyć 25 odkryć rocznie. Rok 1892 zakończył się rokiem 1892 V. Sekwencję liter rozpoczęto od nowa w roku 1893, lecz oznaczenie 1893 Z osiągnięto w maju tego roku. Wprowadzono nową serię podwójnych liter, zaczynającą się od AA, AB,…, AZ, BA, BB itd. Ta dwuliterowa sekwencja nie rozpoczynała się co roku od nowa; ostatnim obiektem odkrytym w 1893 r. był 1893 AP, pierwszym w 1894 r. był 1894 AQ. Dwuliterowy ciąg został wyczerpany w 1907 ZZ. Zamiast rozpoczynać sekwencję potrójną, sekwencja dwuliterowa została po prostu wznowiona za pomocą 1907 AA. Sekwencja została ponownie wyczerpana w 1916 ZZ i rozpoczęto od nowa w 1916 AA. W 1925 roku wprowadzono nowy system oznaczeń tymczasowych. Używało to sekwencji dwuliterowej i było powiązane z datą kalendarzową odkrycia. Pierwsza litera odzwierciedlała pół miesiąca odkrycia obiektu: A oznaczało odkrycia dokonane między 1 a 15 stycznia, B między 16 a 31 stycznia, C między 1 a 15 lutego, …, zostałem pominięty, …, Y pomiędzy 16 i 31 grudnia. W drugim piśmie wskazano kolejność w ciągu każdego pół miesiąca (znowu zostałem pominięty). Jeżeli w ciągu pół miesiąca dokonano więcej niż 25 odkryć, druga sekwencja liter była poddawana recyklingowi i do oznaczenia dodawana była cyfra. Zatem sekwencja oznaczeń obiektów odkrytych w pierwszej połowie stycznia 1998 będzie następująca: 1998 AA, 1998 AB, … , 1998 AZ, 1998 AA1, 1998 AB1, … , 1998 AZ1, 1998 AA2 itd. Zakrojony program poszukiwań prowadzono w Heidelbergu od 1891 r., a program głównie wizualny Johanna Palisy w Wiedniu działał od 1881 r. W latach 1874-1880 Palisa odkryła 28 asteroid w Poli, która wówczas była w Austrii. Po przeprowadzce do Wiednia odkrył kolejnych 55, po czym porzucił poszukiwania i poświęcił się kontynuacji odkryć innych ludzi. Poszukiwania nowych obiektów wznowił w 1905 r., a w 1923 r. odkrył kolejnych 38. Dalsze istotne programy rozpoczęto w Johannesburgu i Simeis w 1911 r., Uccle (Belgia) w 1925 r., Flagstaff (USA) w 1929 r. (poszukiwania doprowadziły do odkrycia Pluton) i Turku (Finlandia) w 1935 r. W dalszym ciągu odkrywano nowe klasy asteroid: 1898, (433) EROS, pierwszy obiekt o odległości peryhelium mniejszej niż 1,3 AU; 1903, (588) ACHILLES, pierwszy obiekt w rezonansie 1:1 z większą planetą (trojany Jowisza); 1920, (944) Hidalgo, obiekt asteroidalny o orbicie kometarnej; 1932, (1862) Apollo, pierwsza asteroida o odległości peryhelium mniejszej niż 1 AU (patrz ASTEROIDY NEARTH). Zadanie skatalogowania asteroid podjęto w Niemczech. Głównym czasopismem publikującym informacje o odkryciach, pozycjach i orbitach było Astronomische Nachrichten (AN). Astronomishes Rechen-Institut w Berlinie-Dahlem zaczął publikować serię okólników szybkiego ostrzegania, okólników RI, w 1926 r. Coroczne zbiory efemeryd mniejszych planet publikowano, najpierw w Jahrbuch Rechen-Institut, a następnie od 1917 r. osobno jako Kleine Planeten. Działalność tych podmiotów została jednak poważnie zagrożona przez II wojnę światową. W 1947 roku Międzynarodowa Unia Astronomiczna podzieliła się zadaniem katalogowania mniejszych planet. Za wydawanie rocznych tomów efemeryd dla ponumerowanych obiektów odpowiedzialny był Instytut Astronomii Teoretycznej w Leningradzie w ZSRR (obecnie Sankt Petersburg, Rosja). Minor Planet Center, założone na Uniwersytecie Cincinnati, miało za zadanie śledzenie nowo odkrytych obiektów i nadawanie tymczasowych i stałych oznaczeń. Centrum rozpoczęło publikację Okólników Minor Planet, zastępujących nieistniejące już Okólniki RI. Pierwszym priorytetem było ponowne odnalezienie ponumerowanych obiektów, które zaginęły. Spośród 1564 obiektów oznaczonych numerem w 1945 r. orbity około 20% uznano za w złym stanie. Nowe programy badawcze w Obserwatorium Goethe Link w Indianie, Obserwatorium McDonald i Krymskim Obserwatorium Astrofizycznym rozwiązały problem utraconych obiektów i pomogły odzyskać wiele obiektów. Jeśli chodzi o obliczenia, Paul Herget, pierwszy dyrektor Minor Planet Center, wykorzystał niedawno opracowany komputer elektroniczny do wykonania obliczeń orbity i ulepszeń. Przed 1973 rokiem wszystkie znane obiekty bliskie Ziemi (NEO) zostały odkryte jako produkty uboczne innych programów astronomicznych. Dwa takie obiekty odkryto w 1948 r. w trakcie przeglądu Lick Proper Motion Survey, a pięć w Palomar w latach 1949-1954 podczas przeglądu nieba Palomar. W 1973 roku Eleanor Helin i Eugene Shoemaker rozpoczęli badanie Palomar Planet-Crossing Asteroid Survey, pierwsze badanie, którego głównym celem było odkrycie NEO. Odkryto więcej nowych klas asteroid: 1976, (2062) Aten, pierwsza asteroida o orbicie mniejszej niż orbita Ziemi; 1977, (2060) CHIRON, pierwszy centaur z orbitą pomiędzy orbitami planet Jowisza. W 1978 roku, kiedy Minor Planet Center przeniosło się z Cincinnati do Smithsonian Astrophysical Obervatory w Cambridge w stanie Massachusetts, wydano 4390 Minor Planet Circulars i było tam ponumerowanych 2060 obiektów, z czego około 20 uznano za zaginione.

Era CCD

Podobnie jak w przypadku przejścia z obserwacji wizualnej na fotograficzną, przejście z obserwacji fotograficznych na obserwacje CCD oznacza, że obserwatorzy mogą docierać do słabszych obiektów szybciej niż było to możliwe wcześniej. Wadą, którą usunięto dopiero niedawno, jest to, że pole widzenia matrycy CCD jest znacznie mniejsze niż pokrycie zapewniane przez kliszę fotograficzną. Płyta wykonana dużym Schmidtem zazwyczaj obejmuje obszar 6 na 6 stopni, podczas gdy wczesne CCD mogą obejmować tylko 6 minut kątowych na 6 minut kątowych. Nowoczesne wielkoformatowe matryce CCD i matryce CCD łagodzą ten problem zasięgu. Pierwsze systematyczne zastosowanie CCD do wyszukiwania asteroid miało miejsce w ramach projektu Spacewatch w 1981 r. Wykorzystując czcigodny reflektor o średnicy 0,91 m w Obserwatorium Stewarda na Kitt Peak, Spacewatch odkrył ponad 180 planetoid NEO i 25 000 asteroid Pasa Głównego. Większość obecnych profesjonalnych poszukiwań asteroid za pomocą CCD jest zoptymalizowanych pod kątem odkrywania NEO, ale w trakcie poszukiwań wychwytuje wiele rutynowych obiektów. Program LINEAR (zespół badawczy Lincoln Laboratory Near-Earth Asteroid Research) odkrył 153 planetoidy NEO i ponad 19 000 asteroid Pasa Głównego. Inne aktywne programy obejmują NEAT (śledzenie asteroid bliskich Ziemi), LONEOS (przeszukiwanie obiektów bliskich Ziemi w Obserwatorium Lowell) i ODAS (badanie asteroid OCA-DLR). Inne programy zawodowe, takie jak czeskie programy w Klet i Ondrejov, koncentrują się na kontynuacji. Wciąż odkrywane są nowe klasy asteroid. Pierwsze OBIEKTY TRANS-NEPTUNIAŃSKIE, po Plutonie, odkryto w latach 1992 i 1993. Orbity niektórych z tych obiektów leżą daleko poza orbitą Neptuna i są zasadniczo okrągłe, podczas gdy inne mają orbity, które znajdują się w rezonansie ruchu średniego z Neptunem ( głównie rezonans 2:3, jak w przypadku Plutona). Chociaż orbity tych ostatnich obiektów przecinają orbitę Neptuna, rezonans uniemożliwia bliskie spotkania z Neptunem. Skrajna słabość większości tych obiektów utrudnia dalsze działania, a wiele odkrytych obiektów należy już uznać za zaginione. Dostępność niedrogich kamer CCD na rynku amatorskim na początku lat 90. XX wieku doprowadziła do odrodzenia się działalności amatorskiej w dziedzinie odkrywania asteroid. Wcześniej wielu amatorów, choć posiadało odpowiednie teleskopy, nie było w stanie prowadzić astrometrycznych obserwacji asteroid, ponieważ nie mieli sprzętu do pomiaru klisz fotograficznych lub klisz. Przetworniki CCD i pojawienie się programów komputerowych do przetwarzania obrazów CCD umożliwiło wielu amatorom obserwację i odkrywanie asteroid. Inni amatorzy stali się oddanymi obserwatorami, pilnie śledzącymi odkrycia potencjalnych NEO za pomocą profesjonalnych ankiet. Japońscy amatorzy są bardzo aktywni od lat 70. XX wieku, najpierw fotografując, a następnie używając matryc CCD. Dużą działalność amatorską prowadzi się także we Włoszech, Australii i USA. W chwili pisania tego tekstu liczba asteroidów jest ponumerowana 10 986, przydzielono ponad 164 000 tymczasowych oznaczeń i wydano ponad 35 000 okólników mniejszych planet. Zaginęła tylko jedna asteroida o numerze. Istnieje ponad 12 000 nienumerowanych obiektów o dobrych orbitach, które w najbliższej przyszłości będą kwalifikowały się do numeracji. Ponad 25 000 innych obiektów, zaobserwowanych jedynie podczas odkrycia, ma orbity różnej jakości i oczekuje na odnalezienie lub ponowne odkrycie

Asteroidy

Asteroidy to małe ciała krążące wokół Słońca, które nie wykazują aktywności kometarnej ani nie mają do niej potencjału. Słowo "mały" ma na celu wykluczenie planet z definicji. Wszystkie znane asteroidy mają średnicę mniejszą niż 1000 km i sięgającą kilku centymetrów (METEOROIDY). Największą znaną planetoidą jest 1 CERES, odkryta 1 stycznia 1801 roku przez Giuseppe Piazzi w Palermo we Włoszech, o średnicy 950 km. Asteroidy nazywane są także mniejszymi planetami. Nowo odkryte mniejsze ciało znane jako 2001 KX76, którego średnica czyni go największym znanym mniejszym ciałem w Układzie Słonecznym (jego średnica, która nie jest zbyt dobrze określona, wynosi około 1200 km, a być może nawet 1400 km) to OBIEKT TRANSNEPTUŃSKI (TNO). Większość asteroid krąży w zamkniętym obszarze pomiędzy Marsem a Jowiszem, zwanym głównym PASEM ASTEROID. Spośród około 30 000 znanych obiektów jedynie 8500 asteroid ma dokładnie określone orbity. Każda z tych asteroid ma ostateczną identyfikację, składającą się z liczby wskazującej kolejność jej pojawienia się oraz nazwy zaproponowanej przez odkrywcę (np. "3752 Camillo" oznacza 3752. odkrytą asteroidę). Dla pozostałych 21 500 dostępne są jedynie wstępne orbity; każda oznaczona jest rokiem odkrycia i dwiema literami wskazującymi datę pierwszej obserwacji w ramach tymczasowej identyfikacji (np. "1998 p.n.e." oznacza trzecią asteroidę (C) odkrytą w drugiej połowie stycznia (B) 1998 r.). Satelita astronomiczny w podczerwieni (IRAS) wykrył tysiąc asteroid, który dostarczył radiometryczne średnice i albedo większości z nich. Około 700 asteroid ma określony okres rotacji. Mniej niż 1000 asteroid ma średnicę większą niż 30 km, a spośród nich około 200 asteroid ma średnicę większą niż 100 km. Ekstrapolując rozkład wielkości asteroid do 1 km, uzyskuje się szacunkową liczbę około miliona asteroid, których średnica jest większa lub równa 1 km. Szacuje się, że globalna masa populacji jest rzędu jednej tysięcznej masy Ziemi. Asteroidy uważano za nieciekawe "robactwo niebios", dopóki nie odkryto, że przechowują różnorodne informacje. W rzeczywistości uważa się, że asteroidy to pozostałości, fragmenty lub "ocalałe" roje PLANETESIMALI, z których powstały planety ziemskie: zapisy pierwotnych procesów chemicznych i fizycznych wciąż można znaleźć zamrożone w rzeczywistych charakterach asteroid. Badanie tych obiektów dostarcza informacji na temat natury tych pierwotnych rojów, nawet jeśli różnicowanie i/lub aktywność wewnętrzna w różny sposób wpływały na ich ewolucję. Obserwacje asteroid naziemne i in situ pokazują populację ciał stałych wykazujących różnorodne właściwości chemiczne i fizyczne: jedną z najciekawszych cech asteroid jest ich różnorodność. Zrozumienie pochodzenia różnorodności wymaga zbadania dużej liczby ciał. Informacje zebrane in situ na temat asteroid RG21 6XS, UK Zarejestrowany pod numerem 785998 i Institute of Physics Publishing 2003 Dirac House, Temple Back, Bristol, BS21 6BE, UK 1 różne asteroidy będące celami misji kosmicznych stanowią potężny test umożliwiający kalibrację technik stosowanych do określania właściwości chemicznych i fizycznych asteroid na podstawie obserwacji naziemnych, które są i pozostaną głównym źródłem danych o asteroidach. Obecna wiedza na temat populacji planetoid została uzyskana głównie z obserwacji naziemnych. Na przykład ostatnie obserwacje wykonane za pomocą 10-metrowego teleskopu Keck II na Mauna Kea ujawniają obecność małego satelity krążącego wokół asteroidy 87 Sylvia. Przewidywana odległość między pierwotnym i wtórnym wynosiła 0,59 cala na obrazach w paśmie H uzyskanych 18 lutego 2001 r. przy użyciu systemu optyki adaptacyjnej na 10 m teleskopie WM Keck II. Na obrazach uzyskanych w odstępie godziny był widoczny niewielki ruch względny (górna granica 0,02 cala). ). Zmierzony współczynnik jasności wyniósł 420 ą 70, co oznacza stosunek rozmiarów około 1:20. Oznacza to, że satelita ma szerokość około 7 km, w przeciwieństwie do Sylvii, która ma szerokość około 130 km. Niewiele dużych asteroid objętych jest programem obserwacyjnym Kosmicznego Teleskopu Hubble'a (HST), a pierwsze wyniki dotyczące 4 VESTA cieszą się dużym zainteresowaniem. Infrared Satellite Observatory (ISO) zaobserwowało kilkadziesiąt asteroid, umożliwiając astronomom uzyskanie danych spektralnych do 45 ľm. Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA) MISJA GALILLEO po raz pierwszy zbliżyła się do dwóch asteroid, 951 GASPRA (październik 1992) i 243 IDA (sierpień 1993), oferując społeczności planetologów możliwość przyjrzenia się z bliska dwóm S- typu asteroidy z pasa głównego. Przelot 253 Mathilde (czerwiec 1997, misja Near Earth Asteroid Rendezvous (NEAR)) dostarczył nam pierwszych danych in situ na temat asteroidy typu C.

Asteroidy pasa głównego

Główny pas asteroid zajmuje obszar wokół Słońca przypominający pączek, zawierający orbity większości asteroid, charakteryzujący się półosiami wielkimi (a) w zakresie od 2,1 AU do 3,3 AU, mimośrodami (e) w zakresie od 0,01 do 0,3 oraz nachyleniem (i) względem płaszczyzny orbity Ziemi (ekliptyki) pomiędzy 0° a 35° (ze średnią wartością 10°). Strukturę pasa asteroid określają oddziaływania grawitacyjne zarówno z Marsem, jak i Jowiszem. Ze względu na większą masę, efekty Jowisza są dominujące i powodują wyczerpywanie się obiektów odpowiadających rezonansom, tj. obszarów, w których okres orbitowania ciała byłby dokładnym całkowitym stosunkiem okresu orbity Jowisza (asteroida 2,5 AU od Słońca mówi się, że znajduje się w "rezonansie" 3:1: to znaczy, że ciało wykona dokładnie trzy okrążenia wokół Słońca na każde okrążenie Jowisza). Te przerwy w jednorodności pasa asteroid nazywane są KIRKWOOD GAPS od nazwiska amerykańskiego astronoma, który je zidentyfikował. Usuwając skutki świeckich zaburzeń planetarnych, można uzyskać opis orbity asteroidy pod względem jej właściwych elementów. Niektóre planetoidy pasa głównego mają bardzo blisko siebie półosie główne, odpowiednie mimośrody i odpowiednie nachylenia: tworzą skupienia w przestrzeni odpowiednich pierwiastków i generalnie wszyscy członkowie gromady należą do tego samego typu składu. W 1918 roku japoński astronom Hirayama nazwał te gromady "rodzinami planetoid" . Analizując 950 znanych asteroid, Hirayama nazwał zidentyfikowane rodziny największego członka rodziny: Themis, Eos, Koronis i Flora. Od tego czasu zidentyfikowano kilka innych rodzin i klanów (grupa asteroid nazywana jest "klanem", gdy niemożliwe jest jednoznaczne zdefiniowanie członka rodziny i/lub oddzielenie go od innych obiektów tła). Rodziny asteroid interpretuje się jako wynik katastrofalnego rozerwania ciała macierzystego w wyniku zderzenia z inną, mniejszą asteroidą. Jeśli tak, to rodziny planetoid stanowią naturalne laboratorium, w którym doszło do uderzeń z dużą prędkością (v∼5 km/s-1) w skali niemożliwej do odtworzenia w naszych laboratoriach. Rozkład wielkościowy członków rodziny (fragmentów ciała macierzystego) jest obrazem skutków zderzenia; skład chemiczny fragmentów wskazuje na wewnętrzną strukturę i skład ciała macierzystego. Badanie rodzin asteroid dostarcza informacji na temat historii kolizyjnej populacji asteroid od czasu jej powstania. Odkrycie nowej rodziny planetoid potwierdzono w 2002 roku. Uważa się, że jest to najmłodsza planetoida, która ma mniej niż 6 milionów lat. David Nesvorny i współpracownicy z Southwest Research Institute w Boulder w Kolorado rozpoznali około 39 asteroidów jako należących do tej samej rodziny, badając ich orbity. Projektując obecne orbity wstecz w czasie, naukowcy odkryli, że zbiegły się one około 5,8 miliona lat temu, a więc musiało to mieć miejsce w momencie, gdy powstały w wyniku rozpadu większego ciała. Spośród 39 dwie to duże asteroidy. Jedna, zwana (832) Karin, od której wzięła się nazwa całej gromady, ma średnicę około 19 km; druga, zwana (4507) 1990, ma długość około 14 km. Zespół szacuje, że ciało macierzyste miało średnicę co najmniej 24,5 km. Rozmiar ciała macierzystego i powstałych przez nie fragmentów może stanowić test dla teoretycznych modeli sposobu, w jaki uderzenia rozbijają ciała skaliste. Stosunkowo świeże powierzchnie dwóch większych fragmentów mogą również ujawnić, z czego zbudowane są asteroidy i jak szybkie wietrzenie w przestrzeni kosmicznej pokrywa je małymi kraterami. Zderzenie Karin mogło być również odpowiedzialne za niedawno odkryte pasmo pyłu asteroidalnego. Rozkład prędkości obrotowej w zależności od średnicy asteroid pasa głównego pokazuje, że obiekty o średnicy około 100 km mają dłuższe okresy rotacji niż zarówno większe, jak i mniejsze asteroidy. W hipotezie kolizyjnej ewolucji asteroid z roju planetozymalnego wartość średnicy zinterpretowano jako wielkość, przy której następuje oddzielenie pierwotnych większych asteroid od ich mniejszych produktów kolizyjnych. Rozkład prędkości wirowania asteroid o średnicy większej niż 50 km jest jednomodalny i odzwierciedla zachowanie rotacyjne uzyskane podczas pierwotnych faz procesu akrecji asteroid, podczas gdy rozkład asteroid o D < 50 km jest sumą trzech składników, " pierwotny", jeden z szybkich rotatorów i jeden z bardzo wolnych rotatorów. Zderzenia zakłócające pozwalają małym fragmentom uzyskać moment pędu, tworząc grupę szybkich rotatorów, natomiast mechanizm spowalniania, który dał początek powolnym rotatorom, w tym 253 Mathilde, wymaga dalszych badań. Kształty 50 szeroko obserwowanych dużych asteroid oceniono za pomocą analizy Fouriera pełnego zestawu krzywych blasku, a pomiary radarowe wykorzystano do określenia kształtów małych obiektów. Dane te wskazują, że większe asteroidy są bardziej regularne niż mniejsze. Wynik ten ponownie wskazuje, że większe ciała są pozostałością pierwotnej populacji, która zachowała w swoim kształcie figury równowagi, podczas gdy mniejsze, ogólnie nieregularne obiekty, są zapisami destrukcyjnych zderzeń. Kierunek osi obrotu (orientacja bieguna) został wyznaczony (w najlepszym przypadku z dokładnością do 15%) dla 50 planetoid. Nawet jeśli dostępna próbka jest zbyt mała, aby wyciągnąć jednoznaczne wnioski, rozkład kierunków biegunów wydaje się bimodalny: ponownie jest to możliwa wskazówka na nałożenie się dwóch różnych grup asteroid. Dokładne określenie kierunku bieguna znacznej liczby asteroid pozwoli na lepsze zrozumienie historii populacji. W rzeczywistości, mimo że większość nachyleń osi obrotu pierwotnych asteroidów była rozłożona wokół jednej wartości w wyniku procesu akrecji, zderzenia spowodują losową zmianę orientacji osi obrotu, których rozkład zostanie rozłożony i spłaszczony. Populacja asteroid rozprzestrzenia się pomiędzy orbitami Marsa i Jowisza. W tej strefie leży granica oddzielająca wewnętrzny Układ Słoneczny (gdzie odparowała woda w mgławicy protosłonecznej) od obszarów zewnętrznych (gdzie nastąpiła kondensacja wody). Strefa ta, rozciągająca się od 2,6 AU do 3,1 AU, znana jest jako wodna strefa zmian, w której w wielu widmach asteroid typu C wykryto sygnatury widmowe przejść elektronowych, możliwe tylko w obecności ciekłej wody. Jest to mocny dowód na obecność, czasami w przeszłości, wody w stanie ciekłym na tych asteroidach. Ilość wody obecnej w asteroidzie jest kwestionowana, ale jej wykrycie byłoby istotne dla zrozumienia związków między asteroidami a KOMETAMI.

Skład asteroidy

Skład chemiczny i mineralogię powierzchni asteroid można określić za pomocą spektroskopii lub, nawet jeśli z mniejszą precyzją, za pomocą spektrofotometrii wielofiltrowej. Analizując za pomocą wyrafinowanych kodów grupowania wszystkie dostępne widma asteroid, uzyskano system taksonomiczny. Główne uznane klasy są oznaczone, w kolejności ich obserwowanej względnej liczebności, literami: S, C, M, D, F, P, V, G, E, B, A (inicjały słów używanych do z grubsza opisu asteroida lub jej widmo, tj. kamienista, węglowa, metaliczna,…). Większość asteroid należy do typu C o niskim albedo, charakteryzującym się stosunkowo neutralnym widmem, wykazującym absorpcję w zakresie fal ultrafioletowych, a czasami oznaki zmian wodnych. Ich widma odpowiadają widmom węglowych meteorytów chondrytycznych, co stanowi silną wskazówkę o podobnym składzie. Kilka asteroid (typu B, G i F) przypomina C widma z niewielkimi różnicami przy krótszych długościach fal, które mogą odzwierciedlać stopnie metamorfizmu materiału podobnego do C. Asteroidy typu D, charakteryzujące grupę trojanów, mają niskie albedo i są bardziej czerwone niż planetoidy typu C. Asteroidy typu P o niskim albedo, dominujące w odległości 3,6 AU

Odległe asteroidy

Poza głównym pasem, w kierunku zewnętrznego obszaru Układu Słonecznego, kilka grup asteroid zachowuje się zupełnie inaczej niż asteroidy z pasa głównego: w rzeczywistości znajdują się one w głównych rezonansach z Jowiszem. Na 3,9 AU (rezonans 3:2) znajduje się grupa Hildy; asteroida Thule spada w rezonansie 4:3 (przy 4,3 AU). Szczególnie interesująca grupa, zwana ASTEROIDAMI TROJAŃSKIMI, rezyduje w rezonansie 1:1. Te asteroidy mają taką samą odległość heliocentryczną i okres orbitalny jak Jowisz: krążą w pobliżu dwóch pozycji równowagi, znanych jako punkty Lagrange′a Jowisza, które leżą około 60° na wschód i zachód od Jowisza w jego płaszczyźnie orbity. Obecnie znanych jest około 200 trojanów; ma istnieć kilka tysięcy, większych niż 15 km. Chociaż trojany są klasyfikowane jako asteroidy na podstawie braku aktywności kometarnej, fizyczna natura trojanów jest niepewna: ich widma optyczne pokazują czerwone kontinua bez dowodów na cechy absorpcji lub emisji (typ taksonomiczny D): ich albedo jest bardzo niskie (2- 3%). Obie te cechy są porównywalne z cechami kilku obserwowanych jąder komet i mogą świadczyć o wspólnych związkach organicznych w obu klasach obiektów. Podobnie jak w przypadku komet, ciemnoczerwone powierzchnie trojanów mogą być cienkimi płaszczami gruzu osłaniającymi zakopany lód, którego szybkość sublimacji (w przypadku odsłonięcia, np. w wyniku zderzenia) jest zbyt mała, aby utrzymać obserwowalną śpiączkę. Orbita Jowisza wyznacza granicę między światami skalistymi (planety podobne do Ziemi, asteroidy, pył) i światami lodowymi (systemy satelitarne planet-olbrzymów, komety, pierścienie); w tych regionach możliwe byłoby znalezienie elementu przejściowego między asteroidą a kometą, które prawdopodobnie są przeciwległymi członkami tej samej populacji pierwotnych planetozymali. W rzeczywistości niedawno odkryto kilka dużych obiektów, zwanych CENTAURAMI, na orbitach przecinających orbity gazowych gigantów. 2060 CHIRON, pierwszy odkryty centaur, jest jedynym członkiem tej grupy, który wykazuje aktywność kometową (jej oznaczenie komety to P/Koval). Centaury to prawdopodobnie ogromna populacja niestabilnych ciał przemierzających planety zewnętrzne; ich łączną liczbę szacuje się na 105-106 obiektów w przeliczeniu na km. Wszystkie znane centaury są podobne dynamicznie, ale ich powierzchnie wykazują dramatyczne różnice widmowe: niektóre mają całkowicie neutralne widmo (podobne do słonecznego), podczas gdy inne wykazują najbardziej czerwone widma ciał Układu Słonecznego. Czy są to łyse komety, a także OBIEKTÓW TRANS-NEPTUNIAŃSKICH?

Asteroidy bliskie Ziemi

ASTEROIDY BLISKOZIEMIOWE (NEA) należą do trzech różnych grup ogólnie małych obiektów znajdujących się w wewnętrznym Układzie Słonecznym. Znanych jest około 500 NEA, a wskaźnik ich odkrywania stale rośnie. Spośród NEA 5,8% należy do grupy Atens charakteryzującej się półosią wielką a<1 AU i odległością aphelium Q>0,983 AU, 48,5% należy do grupy Apollo (a>=1 AU i odległością peryhelium q<=1,017 AU), a 45,7% należy do grupy Amor (1,017 AU6-108 lat. Ponieważ NEA mają niestabilne orbity, potrzebne są ciągłe dostawy nowych obiektów. Powszechnie proponuje się dwa główne mechanizmy zaopatrywania populacji zbliżającej się do Ziemi: pierwszy zakłada, że NEA to fragmenty asteroid pochodzące z głównego pasa, natomiast drugi zakłada, że możliwym źródłem NEA są uśpione lub wymarłe jądra komet. Powszechnie uważa się, że NEA, zarówno pochodzenia asteroidowego, jak i kometarnego, są w sposób ciągły wstrzykiwane na orbity przecinające Ziemię za pośrednictwem kilku różnych kanałów rezonansowych, które zbierają fragmenty wyrzucane losowo z asteroid z pasa głównego w wyniku energetycznych wzajemnych zderzeń asteroid. Obiekty te przechodzą dość złożony proces ewolucji orbitalnej, napędzany ruchem średnim i rezonansami świeckimi, nierezonansowymi perturbacjami świeckimi oraz sekwencją bliskich spotkań z planetami. Ostatecznie w większości wpadają do Słońca lub są wyrzucane z Układu Słonecznego po spotkaniu z Jowiszem; tylko kilka procent zderza się z planetami ziemskimi. Aby zachować równowagę pomiędzy średnim tempem utraty planetoid na orbitach zbliżających się do Ziemi a tempem ich uzupełniania, tempo źródeł musi generować kilkaset nowych obiektów o średnicy większej niż 1 km na 106 lat. Jak dotąd uzyskano stosunkowo niewiele obserwacji spektroskopowych NEA ze względu na ich małe rozmiary, słabe pozorne jasności i ograniczone odstępy widoczności. Nasza obecna wiedza na temat natury NEA sugeruje, że populacja ta charakteryzuje się różnorodną mineralogią powierzchni i obejmuje prawie wszystkie typy taksonomiczne występujące w pasie głównym. Nawet jeśli nasze próbkowanie NEA do obserwacji fizycznych jest mocno stronnicze, wydaje się, że nie istnieje żadna korelacja pomiędzy typem taksonomicznym a wymiarem lub okresem rotacji: zarówno największa, jak i najmniejsza NEA to asteroidy typu S; kilka typów C obejmuje znaczny zakres średnic, podczas gdy rzadkie typy taksonomiczne mają zakres prędkości rotacji, podobnie jak liczne typy S. Na podstawie tych danych wydaje się, że populacja NEA ma w przybliżeniu taki sam udział asteroid typu S i C, jak pas główny. To podobieństwo rodzi pytanie, gdzie znajdują się martwe komety, które nie powinny być głównym składnikiem głównego pasa. Kilka NEA sklasyfikowanych jako typy C jest najwyraźniej utworzonych przez prymitywny materiał podobny do uwodnionych meteorytów chondrytowych CI i CM węglowych. Badanie aspektroskopowe NEA w zakresie 0,45-0,9 ?m wykazało, że spośród 35 obiektów sześć ma widma podobne do widm zwykłych meteorytów chondrytowych, podczas gdy 29 ma właściwości widmowe obejmujące zakres od domen zwykłych meteorytów chondrytowych do najpopularniejszego meteorytu typu S asteroidy pasa głównego. Zakres ten może wynikać z różnorodności mineralogii i rozmiarów cząstek regolitu, a także z zależnego od czasu procesu wietrzenia powierzchni. W tym przypadku, jeśli aktywny jest proces wietrzenia zależny od czasu (jak zaproponowano w celu wyjaśnienia zmian powierzchni zmierzonych na zdjęciach 243 Ida ze statku kosmicznego Galileo), asteroidami bardzo przypominającymi zwykłe meteoryty chondrytowe będą te z najmłodszymi powierzchniami. Obserwacje sugerują, że planetoidy podwójne często pojawiają się na orbitach przecinających Ziemię. Korzystając z dwóch najpotężniejszych astronomicznych teleskopów radarowych na świecie, astronomowie szacują, że około 16% planetoid bliskich Ziemi o średnicy większej niż 200 metrów (219 jardów) to prawdopodobnie układy podwójne. Asteroidy bliskie Ziemi mogą stać się układami podwójnymi, gdy przyciągają je znacznie większe siły grawitacyjne planet, zniekształcając, a czasem przerywając satelitę. Wyniki teoretyczne i modelowanie pokazują, że asteroidy podwójne powstają najprawdopodobniej podczas bliskiego spotkania z planetami wewnętrznymi, Ziemią lub Marsem, czasami zaledwie 16 000 mil od powierzchni planety. W 2002 roku w wiadomościach pojawiły się dwie asteroidy ze względu na ich przewidywane bliskie podejście do Ziemi. 9 lipca 2002 roku astronomowie z MIT odkryli 2002 NT7, kosmiczną skałę o szerokości 2 km, krążącą po dziwnej orbicie. W przeciwieństwie do większości asteroid krążących wokół Słońca w płaszczyźnie planet, 2002 NT7 podąża po torze nachylonym pod kątem 42 stopni. Większość czasu spędza daleko powyżej lub poniżej reszty Układu Słonecznego. Jednak co 2,29 roku asteroida przelatuje przez wewnętrzny Układ Słoneczny niedaleko orbity Ziemi. Po tygodniu dalszych obserwacji badacze przeprowadzili pewne obliczenia. Doszli do wniosku, że istnieje szansa, że 2002 NT7 może uderzyć w naszą planetę 1 lutego 2019 r. To trafiło na pierwsze strony gazet, niepokojąc część opinii publicznej. Nie zgłoszono jednak, że prawdopodobieństwo zderzenia wynosi 1 do 250 000. 14 lipca astronomowie odkryli 2002 NY40. Asteroida ta ma średnicę około 800 metrów i porusza się po orbicie rozciągającej się od pasa asteroid do wewnętrznego Układu Słonecznego. Najbliższe podejście miało miejsce 18 sierpnia 2002 r., przechodząc zaledwie 1,3 razy dalej niż Księżyc i było widoczne przez lornetkę.

Przelot asteroidy

Misja Galileo zmierzająca w stronę Jowisza zbadała asteroidy 951 Gaspra i 243 Ida, odkrywając wokół tej ostatniej pierwszego satelitę asteroid o nazwie Dactyl; wszystkie te trzy to małe obiekty typu S. 243 Ida jest członkiem rodziny Koronis. Przeloty Galileo dostarczyły zdjęć tych asteroid z rozdzielczością przestrzenną, jakiej nigdy nie uzyskano w obserwacjach naziemnych. Obserwacje wykazały, że zarówno 951 Gaspra, jak i 243 Ida mają kształt wydłużony i dość nieregularny, natomiast Dactyl ma raczej gładki, regularny kształt, co kontrastuje z kanciastością innych znanych małych ciał (951 Gaspra, 243 Ida, kometa P/Halley jądro, 4179 Toutatis i 4769 Castalia), ale wykazuje pewne aspekty o porównywalnej szorstkości kończyn z księżycami Marsa (PHOBOS I DEIMOS). Jedną z charakterystycznych cech powierzchni jest układ prążków liniowych (wgłębienia o jednakowej szerokości do kilku km i szerokości kilkuset metrów i głębokości prawdopodobnie nie większej niż kilkadziesiąt metrów), które są podobne do rowków obserwowanych na Fobosie i mogą być sygnaturą ich pochodzenia z powodu niemal katastrofalnej kolizji. Najważniejszymi wynikami było określenie rozkładu wielkości kraterów na powierzchniach obiektów. Z rozkładu częstotliwości kraterów wynika, że wiek 243 Ida wynosił około 1 miliard lat, podczas gdy wiek 951 Gaspra wynosił zaledwie 200 milionów lat. Obie asteroidy są pokryte warstwą regolitu o znacznych różnicach w albedo i kolorze. Sekwencja zdjęć, na których widoczny jest Dactyl, pozwoliła nam wyznaczyć jego orbitę w funkcji masy 243 Idy. Połączenie tej wartości z oszacowaną objętością 243 Ida daje gęstość nasypową 243 Ida na poziomie 2,6 ± 0,5 g cm-3, co jest zgodne z masowym składem chondrytycznym. 27 czerwca 1997 roku NEAR przeleciał blisko (około 1200 km) asteroidy 253 Mathilde z pasa głównego, wykonując pierwszy przelot w pobliżu asteroidy typu C. Aby scharakteryzować 253 Mathilde, przeprowadzono kilka naziemnych badań rozpoznawczych. Ustalono okres rotacji wynoszący 17,4 dnia: 253 Mathilde jest wyjątkowo powolnym i opadającym rotatorem. Obserwacje spektralne 253 Mathilde wykazały, że jej neutralne właściwości odblaskowe są wysoce jednorodne na całej badanej powierzchni, a wyniki widma są porównywalne z wynikami chondrytów węglowych i czarnych zwykłych. Obserwacje koloru NEAR na całym dysku w zakresie od 400 do 1100 nm ściśle zgadzają się z wynikami widma teleskopowego. NEAR odkrył, że 253 Mathilde jest jednakowo nijaka zarówno pod względem albedo, jak i koloru (bardziej łagodna pod względem wariacji kolorystycznych niż Fobos). 253 Mathilde ma albedo geometryczne wynoszące 0,041 ± 0,003 przy 0,55 μ. W ramach projektu NEAR odkryto pięć kraterów o średnicy 19-33 km, co odpowiada średniemu promieniowi 26,5 km. Przelot pozwolił także na bezpośrednie określenie masy i oszacowanie gęstości na 1,3 ± 0,2 g cm-3. Porównanie tej gęstości z gęstością chondrytów węglowych sugeruje, że porowatość 253 Mathilde wynosi ∼ 50%. W lutym 2000 r. główny cel misji, spotkanie z bardzo wydłużoną planetoidą z grupy Amor typu S 433 EROS, został osiągnięty za pomocą serii manewrów, które spowolniły statek kosmiczny do prędkości względem asteroidy wynoszącej zaledwie 5 m s-1 przed wejściem na orbitę. Zestaw szczegółowych i precyzyjnych danych na temat trzech planetoid typu S (951 Gaspra, 243 Ida i Dactyl), drugiego pod względem składu planetoidy pod względem liczebności, jest już dostępny, a w ciągu przyszłego roku pojawią się nowe informacje na temat innej osobliwej asteroidy typu S (433 Eros) zostanie uzyskany. Na podstawie analizy tych danych prawdopodobnie możliwe będzie ustalenie, czy asteroidy S są prymitywnymi zbiorowiskami minerałów, niewiele zmienionymi od czasu, gdy powstały jak zwykłe kondryty, czy też materiałem w postaci meteorytów bazaltowych i kamienno-żelaznych, które uległy intensywnemu stopieniu i ewolucja. Pierwszy przelot statku typu C (253 Mathilde) wykazał bardzo małą gęstość tego ciała i bardzo jednorodny kolor powierzchni. Zderzenia na 253 Mathilde silnie wpłynęły na morfologię jej powierzchni. Czy te znaki są wspólne dla całej klasy C? W piątek 2 listopada 2002 roku należąca do NASA sonda kosmiczna Stardust została przetestowana podczas przelotu obok asteroidy Annefrank i odkryła, że asteroida jest około dwukrotnie większa od przewidywanej, ale ma ciemniejszą powierzchnię. Gwiezdny pył przeleciał w odległości około 3300 km (2050 mil) od asteroidy w ramach próby przed spotkaniem statku kosmicznego ze swoim głównym celem, kometą Wild 2, w styczniu 2004 r. Rozdzielczość kamery była wystarczająca, aby pokazać, że Annefrank znajduje się w odległości około 8 km (5 mil) długości, dwukrotnie większej od przewidywanej na podstawie obserwacji naziemnych. Powierzchnia odbija około 0,1 do 0,2 procent światła słonecznego, nieco mniej niż oczekiwano. Można zobaczyć kilka kraterów o średnicy setek metrów. Prosta krawędź po prawej stronie obrazu może być artefaktem przetwarzania.

Ewolucja kolizyjna

Po powstaniu Jowisza i Marsa roje planetozymalne krążące pomiędzy tymi dwiema planetami doświadczyły silnych zaburzeń i uległy znacznemu wyczerpaniu, a pozostałości "zamrożono" na znacznie stabilniejszych orbitach. Długoterminowe perturbacje mogły spowodować wzajemne zderzenia, które wraz z wietrzeniem przestrzeni kosmicznej były jedynymi procesami modyfikującymi pierwotną populację planetozymali. Chociaż objętość przestrzeni, w której krążą asteroidy, jest duża, a przekroje asteroid małe, prawdopodobieństwo wystąpienia kolizji asteroid w przedziale czasowym zgodnym z wiekiem Układu Słonecznego jest dość wysokie (rzędu jednej kolizji na miliard lat). . Co więcej, fakt, że okresy rotacji asteroid są zgodne z rozkładem Maxwella, można uznać za wskazówkę, że zderzenia w populacji asteroid były wystarczająco częste, aby wytworzyć stan odprężenia kolizyjnego w przypadku bardziej masywnej populacji pierwotnej. Wiele innych obserwowalnych cech asteroid jest przypuszczalnie efektem ewolucji kolizyjnej: kształt i rozkład wielkości, właściwości fizyczne i chemiczne rodzin, właściwości rotacyjne. Niestety, skutki zderzenia dwóch asteroid, zależne głównie od ich rozmiarów i prędkości względnej, są słabo poznane. Symulacja laboratoryjna uderzeń małego pocisku (∼10-3 kg) z dużą prędkością (kilka km na s-1, rzędu prędkości dźwięku w materiałach skalistych) w większy cel ∼10 kg) nie uwzględnia reżim grawitacyjny, który dominuje w zderzeniach asteroid, nawet jeśli stosowane są prawa skali. Jaki jest stosunek katastrofalnych zderzeń zakłócających (w których następuje rozproszenie większości masy ciała) do zderzeń fragmentacyjnych (w których ciało zostaje rozbite, ale fragmenty ponownie gromadzą się w układzie gruzu)? W jaki sposób powstanie krateru uderzeniowego wpływa na skład chemiczny pierwotnej populacji asteroidy? Jakie są skutki zderzenia z obiektem sterty gruzu? Jaka jest utrata masy (wyrzucenie z Układu Słonecznego lub wprowadzenie na orbity planet lub przecinających Słońce) wywołane procesem ewolucji kolizyjnej? Odpowiedzi na te pytania pozwolą nam zrozumieć rolę wzajemnych zderzeń w kształtowaniu się współczesnej populacji planetoid. Na podstawie tego, w co dzisiaj wierzymy, oraz informacji dostarczonych przez obserwacje, możemy jedynie nakreślić wstępny scenariusz procesów, które rządziły powstawaniem i ewolucją rojów planetozymalnych znajdujących się w odległości od 2,3 AU do 5 AU od Słońca. Rozpad bardzo dużych ciał, takich jak Ceres, PALLAS i Westa, wydaje się być wydarzeniem nieprawdopodobnym, a fakt, że w niektórych z nich zachowała się większość swojej starożytnej skorupy, sugeruje, że nawet duże uderzenia miały ograniczony wpływ modyfikujący na większe asteroidy . Rozważania te sugerują, że jeśli masa pierwotnej populacji asteroid była większa, potencjalne impaktory należały do raczej małych ciał. Najmniejsze pozostałości w rzeczywistej populacji asteroid to prawdopodobnie fragmenty większych ciał. Asteroidy średniej wielkości mogły ulegać powtarzającym się zderzeniom, mogąc częściowo zmodyfikować swój skład (tworzenie się zespołów minerałów szokowych, obróbka termiczna itp.) i/lub ich właściwości fizyczne (stosy gruzu, okres rotacji, orientacja osi obrotu itp.), ale wciąż zachowując swój pierwotny charakter. Jeśli zderzenia były rzadkimi zdarzeniami, scenariusz przedstawiony w obserwacjach jest nadal prymitywny i patrzymy na stosunkowo nieskazitelną pozostałość pierwotnych planetozymali. Jeśli kolizje miały wpływ na pierwotny rój przez cały okres istnienia Układu Słonecznego, tylko większe asteroidy mogą zachować w nienaruszonym stanie niektóre oryginalne cechy, podczas gdy większość asteroid odzwierciedla efekty dokładnego ponownego przetwarzania, a poszukiwanie śladów oryginalnych odcisków będzie musiało być dużo bardziej ostrożnie.

Astrologia

Astrologia to teoria mówiąca, że planety, Słońce i Księżyc, a także 12 "znaków zodiaku" łączą się w różnych, stale zmieniających się konfiguracjach względem siebie nawzajem i lokalnego horyzontu, wpływając na wydarzenia "podksiężycowe". W astrologii, podobnie jak w astronomii klasycznej przed przyjęciem hipotezy Kopernika, przyjmowano, że Ziemia znajduje się w centrum skończonego wszechświata, a środek Ziemi stanowi środek sfer ciał niebieskich - w kolejności od góry z Ziemi, Księżyca, Merkurego, Wenus, Słońca, Marsa, Jowisza, Saturna, gwiazd "stałych", ekliptyki i często "pierwotnej siły napędowej". Ruch tych 10 kul był według Arystotelesa kołowy i równomierny, zgodnie z naturą pierwiastka, eteru, z którego się składały. Ruchy czterech żywiołów tworzących świat podksiężycowy były liniowe w stosunku do środka Ziemi, elementy ziemi i wody poruszały się "w dół" w kierunku centrum, a elementy powietrza i ognia poruszały się "w górę" od centrum. Okrągłe ruchy sfer niebieskich zakłócają liniowe ruchy czterech elementów podksiężycowych, powodując w ten sposób zmiany na Ziemi oraz w otaczających ją warstwach wody, powietrza i ognia. Powstałe w ten sposób kombinacje pierwiastków tworzą podstawowe materiały, z których kształtowane są ciała ziemskie i atmosferyczne, na które następnie w sposób ciągły wpływają ruchy ciał niebieskich i pomocnicze oddziaływania ciał podksiężycowych. Zatem WSZECHŚWIAT jest rozległą, ale skończoną maszyną napędzaną naturalnymi ruchami pięciu elementów składowych, wśród których główny wpływ ma ETER o swoim regularnym ruchu kołowym, a astrologia jest nauką badającą działanie tej uniwersalnej maszyny.

Niebiańskie wróżby

W starożytnej Mezopotamii i w wielu kulturach znajdujących się pod jej wpływem wiele zjawisk niebieskich - zaćmienia, koniunkcje Księżyca i planet między sobą oraz z gwiazdami, duża liczba zjawisk spowodowanych zniekształceniem światła przechodzącego przez atmosferę, i inne zjawiska - uważano za wiadomości wysyłane przez bogów, aby ostrzec władców ludzi lub zbiorowe grupy ludzi o zbliżającej się katastrofie lub szczęściu. Interpretacja tych niebiańskich znaków była także nauką, dzięki której ludzie wielkiej wiedzy starali się udzielać przydatnych rad królom i innym urzędnikom państwowym. Doświadczenie tych uczonych czytelników wróżb doprowadziło do rozpoznania okresowego zachowania Słońca, tzw. Księżyca i planet, a ostatecznie do rozwoju matematycznych metod przewidywania samych zjawisk (które ze względu na swoją przewidywalność powinny być wówczas, ale nie były, uważane za wiadomości wysyłane przez rozgniewanych lub zadowolonych bogów). Doprowadziło to również do rozwoju niektórych technik interpretacji niebiańskich znaków, które zostały przeniesione do astrologii, w tym przewidywania losu osoby na podstawie pozycji planet w chwili jej narodzin lub obliczonego poczęcia. W praktyce te protohoroskopy z ostatnich czterech wieków p.n.e. nie były częścią astrologii, ponieważ zjawiska te były raczej złowieszcze niż skuteczne, a skomplikowana geometria stosowana w astrologii nie była czynnikiem wpływającym na ich interpretację

Temat lub horoskop

Podstawowym narzędziem służącym do interpretacji wpływów ciał niebieskich w danym momencie - powiedzmy narodzin tubylca - był diagram zwany motywem lub horoskopem. Ten diagram przedstawia EKLIPTYKĘ podzieloną na 12 znaków zodiaku po 30? każdy, w postaci koła lub czworoboku z zaznaczonymi czterema głównymi punktami - ascendent na wschodnim horyzoncie, potomek na zachodnim horyzoncie, środek nieba na południu w punkcie obliczonym przy użyciu lokalnych ukośnych wzniesień i antyśrodka nieba 180? naprzeciwko niego na północ. Pomiędzy i w tych głównych punktach znajdują się wierzchołki 12 miejsc astrologicznych. Znaki zodiaku są podzielone na różne podpodziały: dekany po 10? każda, dwunaste po 2?30 każda i wyrazy o różnej długości, zwykle pięć do znaku zodiaku. W temacie zapisywane są długości geograficzne planet, których położenie ujawnia ich konfiguracje (aspekty) względem siebie - koniunkcja, sekstyl (do 60?), kwartyl (do 90?), trygon (do 120?) i opozycja (do 180?). ?) - które można obliczyć za pomocą różnych wzorów matematycznych, aby można je było mierzyć we wzniesieniach ukośnych lub rektascensyjnych, lub aby uwzględnić szerokości geograficzne planet. Ponadto na temacie zaznaczane są różne działki (określane jako odległość pomiędzy dwoma rzeczywistymi lub wyimaginowanymi ciałami niebieskimi odmierzona od trzeciego) oraz prorogator (obliczany na różne sposoby), a także mogą być takie stałe punkty, jak wywyższenia (punkty maksymalna skuteczność) planet i czterech potrójności (Baran, Lew, Strzelec; Byk, Panna, Koziorożec; Bliźnięta, Waga, Wodnik; Rak, Skorpion, Ryby).

Domeny wpływów

Każdy znak zodiaku jest klasyfikowany według licznych kategorii: męski - żeński; nieparzyste - parzyste; zwierzę - człowiek; wieś - las; itp. Ponadto istnieją melotezje zodiakalne, przypisując różne części ciała ludzkiego znakom zodiaku; topotezja, robiąca to samo z rodzajami terenu na powierzchni Ziemi; listy zwierząt, zawodów, metali, klejnotów, kolorów itp. znaków zodiaku. Każdy ze znaków ma szczególny wpływ na przypisane mu kategorie. Każda trójka, w liczbie czterech, jest powiązana z kierunkiem kardynalnym i elementem. Każde z 12 miejsc astrologicznych ma władzę nad pewnym aspektem życia tubylca (forma ciała, odziedziczony majątek, rodzeństwo, rodzice, dzieci, choroby, małżeństwo, sposób śmierci, podróże, zawód, zysk, strata) lub nad podjętym przedsięwzięciem. Mają wpływ na swoje domeny zgodnie ze znakami zodiaku, na które się nakładają, oraz obecnością w nich lub aspektami planet i działek. Również siedem planet (dziewięć w Indiach, gdzie uwzględnione są węzły wstępujące i zstępujące Księżyca) ma swoje własne domeny, wśród fizycznych typów ludzi i zwierząt, a także typów psychologicznych, a każda z nich jest powiązana z typami terenu, zwierzętami roślin, minerałów itp. oraz do pierwiastka i jego humorów (ogień - gorący i suchy, woda - zimna i wilgotna, powietrze - gorące i wilgotne, ziemia - zimna i sucha). Są one również klasyfikowane jako męskie i żeńskie oraz jako korzystne, szkodliwe i nijakie. Gdy siedem planet krąży wokół znaków zodiaku, a one z kolei krążą wokół nieruchomej Ziemi, wpływy, jakie rzucają na sferę podksiężycową, stale się zmieniają, powodując wciąż nowe wydarzenia i transformacje na Ziemi. Zgodnie z teorią astrologiczną można je wszystkie przewidzieć przy założeniu (rzekomo posiadającym pewne podstawy empiryczne), że przyjęte domeny wpływów ciał niebieskich są rzeczywiście prawidłowe. Historycznie rzecz biorąc, system nie pozostawał statyczny; po prostu nie było wystarczająco skomplikowane, aby rozróżnić pozornie nieograniczone odmiany ludzkiego doświadczenia. Aby uwzględnić te różnice, astrolodzy - zwłaszcza astrolodzy z Indii i islamu, których należycie naśladowano w średniowiecznej Europie i Bizancjum - opracowali znacznie więcej podziałów znaków zodiaku w celu pomnożenia potencjalnej liczby skutków działania planety, wymyślili skomplikowane metody przypisywania liczbowej wagi wpływom każdej planety i rozszerzono liczbę efektywnych ciał poprzez wprowadzenie nowych partii.

Rodzaje astrologii

Paradygmatycznym typem astrologii jest genetlialogia, nauka zajmująca się interpretacją tematów narodzin lub obliczanego czasu poczęcia, wynaleziona prawdopodobnie w I wieku p.n.e. w Egipcie ptolemejskim. Takie przewidywania można i stosowano także w odniesieniu do zwierząt, a nawet roślin. Chociaż teoretycznie przepowiednie są unikalne dla każdego momentu w danej miejscowości, wielu astrologów mądrze radziło neofitom, aby przed próbą opisania swojego przyszłego życia dowiedzieli się czegoś o statusie społecznym i ekonomicznym rodziny tubylca. Działem genetlialogii jest horoskop ciągły, który pozwala na przydatność astrologa przez całe życie. Ponieważ planety i ekliptyka nie przestają się obracać, można stwierdzić ich zmienny wpływ na pierwotny wzór życia określony na podstawie horoskopu urodzeniowego, tworząc nowy horoskop na każdą rocznicę urodzin, na początek każdego miesiąca lub nawet dzień życia tubylca, a także można obliczyć czas, w którym każda planeta przechodzi do innego znaku zodiaku lub miejsca astrologicznego, zmieniając w ten sposób jego skutki, a także można obserwować wyimaginowany ruch prorogatora podczas ukośnych wzniesień poprzez terminy różnych planet oraz przeszłości ciał i aspektów różnych planet. Astrologia katarchiczna, wynaleziona jednocześnie z wersją genetlialogiczną, pozwala przewidzieć przebieg jakiegoś ludzkiego przedsięwzięcia na podstawie horoskopu chwili jego powstania. Istnieją dwa główne działy astrologii katarchicznej, odnoszące się do małżeństwa i wojen. Niektóre aspekty astrologii medycznej są również katarchiczne, chociaż inne aspekty zależą od genetlialogii. Te dwie podstawowe formy astrologii zostały przeniesione z grecko-rzymskiego Egiptu do Indii w II wieku naszej ery. W Indiach astrologia interrogacyjna rozwinęła się z astrologii katarchicznej. W tej formie astrolog odpowiada na konkretne pytania zadawane przez swojego klienta na podstawie tematu chwili, w której pytanie zostało zadane. To wyraźnie rodzi poważne pytania dotyczące ogólnej teorii astrologii; albowiem albo klient kieruje się wolną wolą przy ustalaniu, kiedy zada pytanie, tak że pomiędzy ciałami niebieskimi a wydarzeniem naziemnym przestaje istnieć czysto fizyczne połączenie, albo też o jego wyborze decydują gwiazdy i zatem teoretycznie można je przewidzieć za pomocą astrologii i odpowiedzieć na nie bez uciekania się do nowego tematu. Te trzy typy astrologii zostały przekazane z Indii do Sasańskiego Iranu w III-V wieku naszej ery, podobnie jak pierwsze dwa z Cesarstwa Rzymskiego. Sasanie dodali do nich czwarty główny typ, astrologię historyczną, która wykorzystuje formy horoskopów ciągłych (np. horoskopy początków wszystkich lub wybranych lat) oraz koniunkcje dwóch najdalszych ze znanych wówczas planety, Saturn i Jowisz, lub koniunkcje dwóch złych planet, Saturna i Marsa, w Raku. Praktycy astrologii historycznej sporządzali także horoskopy koronacji królów i innych początków historycznych, w tych przypadkach kierując się zasadami astrologii katarchicznej.

Kwestia ważności astrologii

Oczywiście, niezależnie od tego, jakie twierdzenia opierały się na podstawach empirycznych, cała ta teoria opiera się na arbitralnych założeniach dotyczących relacji między poszczególnymi znakami zodiaku i planetami a fizycznymi częściami i psychologicznymi aspektami obiektów i istot podksiężycowych, a także na później obalonej teorii KOSMOSU. W starożytności argumenty przeciwko słuszności astrologii opierały się w dużej mierze na problemach praktycznych: jak wyjaśnić często duże różnice między fizycznymi i psychicznymi cechami bliźniąt a ich odrębnym życiem; jak wytłumaczyć jednoczesną śmierć dużej liczby osób w różnym wieku w bitwie lub katastrofie naturalnej; jak być pewnym dokładnego momentu urodzenia i lokalnego ascendentu w tym momencie. Kościół chrześcijański, a później islam, często potępiały astrologię, ponieważ pozbawia ona mężczyznę lub kobietę wolnej woli i w ten sposób pozbawia ich możliwości uzyskania zbawienia własnymi wysiłkami, a także dlatego, że czyni Boga nieistotnym dla wszechświata, który jest wiecznym i automat. Żaden z tych argumentów nie podważył w poważnym stopniu wiarygodności astrologii wśród wielu osób, podobnie jak upadek teorii geocentrycznej, choć zniechęciło to wiele osób o poglądach naukowych do przyznania jej jakiejkolwiek wiarygodności. Podobnie jak kilka innych współczesnych nauk, które w rzeczywistości nieustannie wykazują swoją niezdolność do dokładnego przewidywania przyszłości, astrologia wciąż jest w stanie przyciągnąć i utrzymać patronat niezliczonych klientów.

Badania astrometryczne

Znaczenie badań astrometrycznych W astronomii badanie definiuje się jako "badanie mające na celu ustalenie jakości lub ilości czegoś". W zależności od charakteru badania może to oznaczać przyjrzenie się dużej liczbie obiektów w celu znalezienia tych, które spełniają określone kryteria . W powyższej definicji nie określono, czy badanie obiektów spełniających założone kryteria musi być wynikiem programu obserwacyjnego, czy też poszukiwań w literaturze. Chociaż termin przegląd w astronomii jest dość często stosowany w odniesieniu do programów obserwacyjnych, w niektórych ostatnich badaniach astrometrycznych wykorzystano materiał opublikowany w dostępnej literaturze. Co więcej, badania astrometryczne nowej generacji mogą być nawet przeprowadzane przez Internet (patrz "Nowe tysiąclecie" poniżej). Dlatego też mówiąc o badaniach, możemy mieć na myśli obserwacyjne badania astrometryczne, bibliograficzne badania astrometryczne i nadchodzące badania astrometrii komputerowej. Kiedy ankietę można nazwać astrometryczną? Innymi słowy, jakie są główne cechy przeglądu astrometrycznego? Aby odpowiedzieć na te pytania, należy najpierw rozważyć, czym jest astrometria? Astrometria to dział astronomii zajmujący się pozycjami (bezwzględnymi lub względnymi), ruchami i odległościami trygonometrycznymi ciał niebieskich . Każdy z tych parametrów ma swoje znaczenie w badaniu naszego środowiska gwiezdnego. Jaka powinna być dokładność danego parametru astrometrycznego? Ważne jest określenie poziomu dokładności, ponieważ od tej wartości w pewnym stopniu zależeć będzie jakość badania. Na przykład nikt dzisiaj nie podjąłby się przeprowadzenia badań astrometrycznych na poziomie dokładności Durchmusterungs , ponieważ taki poziom byłby niezwykle niski jak na dzisiejsze standardy; jednakże znaczenie tych badań w momencie ich publikacji jest niezaprzeczalne. Co to jest badanie astrometryczne? Łącząc wszystkie powyższe rozważania, badanie astrometryczne można zdefiniować jako poszukiwanie obiektów niebieskich spełniających określoną dokładność w zakresie ich bezwzględnego lub względnego położenia, ruchu lub odległości trygonometrycznych. Niektóre z tych badań zostały lub są prowadzone za pomocą naziemnych kręgów południkowych, ASTROLABÓW lub teleskopów astrograficznych, podczas gdy inne - już ukończone lub planowane na przyszłość - wykorzystywały lub będą korzystać z instrumentów kosmicznych.

Krótki opis historyczny badań astrometrycznych

Kompilacja katalogów zawierających pozycje i RUCHY WŁAŚCIWE jest jedną z najbardziej znanych czynności w astrometrii. Na początku astronomii podanie pozycji ciał niebieskich było dla wielu starożytnych kultur prawdziwą koniecznością. Astrometria, której korzenie sięgają cywilizacji przedgreckiej, dostarczyła informacji potrzebnych do obliczenia zaćmień Słońca i Księżyca, a co ważniejsze, do określenia czasu. Dzięki pozycjom uzyskanym przez poprzedników i własnym obserwacjom HIPPARCHUS był w stanie zidentyfikować precesję osi obrotu Ziemi. To także dzięki starym i nowym katalogom astrometrycznym Edmund HALLEY wprowadził w 1718 roku ruch własny gwiazd. Kilka lat później, w 1802 roku, HERSCHEL zaobserwował względny ruch orbitalny dwóch składników Castora, wyznaczając początek astrometrii podwójnych gwiazd. Kolejny punkt zwrotny pojawił się w 1838 roku, kiedy Friedrich Wilhelm BESSEL był w stanie określić PARALAKSĘ 61 Cygni. Historię katalogów astrometrycznych - przyjmując za parametr detektor używany w procesie obserwacyjnym - można podzielić na trzy różne okresy: wizualny (z instrumentem lub bez), fotograficzny i CCD (instrumenty naziemne lub kosmiczne). Biorąc pod uwagę epoki, w których stosowano różne detektory, można powiedzieć, że ogólnie rzecz biorąc, nieuzbrojone oko ludzkie było używane jako detektor od samych początków astronomii aż do roku 1610, kiedy to GALILEO GALILEI zaczął używać teleskopu podczas swoich obserwacji. Po 1610 r. w większości badań astrometrycznych używano kręgów południkowych lub innych typów instrumentów optycznych do wspomagania ludzkiego oka. Takie podejście przetrwało ponad 300 lat. Jeden z pierwszych katalogów, jaki kiedykolwiek powstał, został sporządzony przez Hipparcha. Ukończono go około 129 roku p.n.e. (odbyła się debata dotycząca liczby obiektów wymienionych przez Hipparcha: niektórzy historycy zgodzili się, że gwiazd było 1080, inni zaś, że tylko 850). Katalog Hipparcha znalazł się w Almagestie Ptolemeusza, największym kompendium astronomii tamtych czasów, obowiązującym przez około 14 wieków. Poprzednie zestawienia astronomów greckich i chińskich datowane są na około 300 rok p.n.e., a nawet 360 rok p.n.e. . W średniowieczu najważniejszym zestawieniem, o którym warto wspomnieć - choć nie można go uważać za katalog w obecnym znaczeniu - są Tablice Alfonsyńskie, powstałe za panowania Alfonsa Mądrego i opublikowane po raz pierwszy - prawdopodobnie - po 1277 roku. prawdziwym celem Tablic było umożliwienie obliczenia pozycji planet; Jednym z głównych użytkowników Tablic Alfonsyńskich był Kopernik . Kolejny katalog opracowany w pierwszej połowie XV w. to ULEGH BEG. TYCHO BRAHE jest jednym z pierwszych astronomów, którzy - korzystając ze swojego kwadrantu ściennego - zaczęli dokonywać dokładnych, systematycznych obserwacji w latach przed pojawieniem się teleskopu. Jego obserwacje obejmują supernową z 1572 r., kometę z 1577 r. i duży zbiór pozycji Marsa. Po śmierci Brahego w 1601 r. stanowiska te wykorzystał jego asystent JOHANNES KEPLER i odegrały kluczową rolę w wyprowadzeniu praw Keplera. Wraz z wprowadzeniem teleskopu jako instrumentu astronomicznego wiele katalogów strefowych (niezależnych) zaczęto obserwować za pomocą kręgów południkowych. Większość badań obserwacyjnych przeprowadzonych od początku do połowy XIX wieku ograniczała się do pewnych określonych obszarów i nie było żadnych porozumień co do "systemu", jaki należy zastosować (pod koniec XIX wieku zaproponowano wygodę posiadania systemu we współczesnym znaczeniu terminu, do którego należy odnosić stanowiska). Jedną z pierwszych prób przeprowadzenia kompleksowych badań ARGELANDER rozpoczął od obserwacji strefy od +80° do -2°. Strefy od -2° do bieguna południowego dodano później. To pierwsze badanie - znane jako Durchmusterungs - składało się z trzech części: Bonner Durchmusterung, Córdoba Durchmusterung i Cape Photographic Durchmusterung. Najważniejszym dziełem początków XX w. był Katalog Główny (GC) , którego wstępna wersja została opublikowana przez Lewisa Bossa w 1910 r. Wersja ta nosiła nazwę Wstępnego Katalogu Ogólnego (PGC), a został on później uzupełniony publikacją KG w 1937 r., która obejmowała ponad 33 000 gwiazd. W projekcie PCG/GC należy podkreślić ostateczny cel Lewisa Bossa: zbudowanie podstawowego systemu. Cel ten ostatecznie osiągnął jego syn, Benjamin Boss. W tym sensie warto wspomnieć o katalogu N30 opracowanym przez Morgana (1952). Szczegółowy opis historyczny katalogów astrometrycznych można znaleźć w Eichhorn . Omówienie różnych typów katalogów można znaleźć także w Jascheku . Kiedy klisza fotograficzna została ostatecznie zaakceptowana przez społeczność astronomiczną jako detektor (około 1880 r.), zaczął się rozwijać fotograficzny przegląd astrometryczny. Co ciekawe, pierwszym programem obserwacyjnym nowo wprowadzonym teleskopem astrograficznym (instrumentem towarzyszącym kliszy fotograficznej) była obserwacja największego międzynarodowego projektu ostatnich lat XIX wieku: Katalogu Astrograficznego (AC). Program ten spotkał się z dużą krytyką, ponieważ wielu uważało, że jest zbyt wcześnie w rozwoju teleskopów astrograficznych i klisz fotograficznych, aby podjąć się tak dużego projektu przy użyciu raczej małego (2° × 2°) pola widzenia. Jednak z dzisiejszej perspektywy uruchomienie AC można uznać za inicjatywę pozytywną. Dzięki tej decyzji astrometria dysponuje obecnie wspaniałym zestawem ponad czterech milionów pozycji z pierwszej epoki (obecnie 100-letnich) umożliwiających bardzo dokładne określanie ruchu własnego. Chociaż AC samo w sobie powinno być uważane za badanie obserwacyjne, nigdy nie było wykorzystywane jako takie aż do niedawna. W tym sensie przy użyciu opublikowanych współrzędnych AC stworzono dwa główne katalogi: katalog 4 milionów oraz AC2000 . Pierwsza łączyła AC z Katalogiem Gwiazd Przewodnika Kosmicznego Teleskopu Hubble'a (GSC) w celu obliczenia ruchów właściwych; oba zestawy stanowisk (AC i GSC) zostały zredukowane do systemu PPM. Oprócz pozycji i wniosków właściwych, Katalog 4 Million umożliwia także identyfikację krzyżową z innymi badaniami, takimi jak Durchmusterungs, PPM, SAO i VARIABLE STARS. AC2000 zawiera ponad cztery i pół miliona pozycji (i wielkości) ze średnią epoką 1907. Aby zredukować opublikowane współrzędne x, y AC, Corbin i Urban (1990) najpierw skompilowali ACRS do wykorzystania jako ramka odniesienia. Pozycje AC2000 znajdują się w systemie Hipparcos/ICRS. Nowsza ponowna analiza AC2000 dała AC2000.2 (Urban i in. 2001). Oprócz 4 Million i AC2000 istnieje kilka innych badań, w których wykorzystano AC. Spośród nich PPM był pierwszy. Szczegółową i fascynującą historię Katalogu Astrograficznego można znaleźć w Eichhorn . Podczas gdy trwała obserwacja AC, trwały także inne fotograficzne - strefowe - badania: strefy Yale i AGK2 (AGK1 obserwowano za pomocą okręgów południków). W sumie Yale opublikowało 30 katalogów z epokami od 1928 do 1942. Pierwszy tom stref Yale, który się ukazał, obejmował ponad 5000 gwiazd równikowych (Schlesinger i in. 1926); ostatnia (strefa od -60° do -70°) uległa licznym opóźnieniom i została opublikowana dopiero w 1983 r. Ostatnim z serii AGK był AGK3 . W związku z rozwojem sztucznych satelitów i pilną koniecznością ich śledzenia, już w połowie lat 60. XX w. zaistniała potrzeba opracowania ogólnego, kompleksowego zestawienia obejmującego istniejące katalogi w jeden. Realizacji takiego projektu podjęło się Smithsonian Astrophysical Observatory, a w 1966 roku społeczności astronomicznej udostępniono "Katalog gwiazd" z podtytułem "Pozycje i ruchy własne 257 997 gwiazd dla epoki i równonocy 1950". Katalog, znany jako SAO (szczegóły konstrukcji katalogu można znaleźć w Haramundanis 1966), obejmuje zakres od +90° do -90° i przez wiele lat był standardowym układem odniesienia dla redukcji większości klisz fotograficznych. Tysiące pozycji asteroid, komet, głównych planet i naturalnych satelitów uzyskano, wykorzystując SAO jako główny katalog referencyjny pozycji gwiazd i ich ruchów własnych. Jednakże, jak dobrze wiadomo, czas - poprzez odpowiednie ruchy - jest zawsze odpowiedzialny za degradację każdego katalogu astrometrycznego. SAO nie był wyjątkiem i po ponad 25 latach użytkowania został zastąpiony przez PPM. PPM - obejmujący także całe niebo - zawiera ponad 375 000 pozycji i ruchów właściwych w systemie 2000/FK5. Typowe wartości skuteczne błędy na półkuli północnej wynoszą 0,27 sekundy łuku w pozycjach z epoki 1990 i 0,42 ars wieku - 1 w ruchach właściwych, podczas gdy odpowiednie wartości na niebie południowym są znacznie lepsze . Główna poprawa PPM w stosunku do SAO została dokonana poprzez włączenie stuletnich danych AC. Po publikacji PPM zastąpił SAO jako układ odniesienia dla większości programów astrometrii fotograficznej. W związku z zaprzestaniem produkcji klisz fotograficznych i pojawieniem się detektorów CCD, PPM zostało obecnie zastąpione katalogami o znacznie większej gęstości. Podczas gdy niektórzy astronomowie zajmowali się obserwacją i redukcją dużych katalogów pozycji, inni skupiali swoją uwagę na poszukiwaniu gwiazd o dużych ruchach własnych. Według Luytena (1963) tego typu projekty odniosły ogromne korzyści dzięki wprowadzeniu mikroskopu mrugającego. Luyten (1970) przeprowadził kilka badań gwiazd o dużych ruchach własnych, co doprowadziło do wykrycia dużej liczby obiektów. Podzbiory tych badań i/lub ich rewizja lub reorganizacja zostały opublikowane jako badania Luyten Half Second (LHS), Luyten Two Tenths (LTT) i New Luyten Two Tenths (NLTT). Większość wyników została opublikowana przez Uniwersytet Minnesota w Minneapolis (USA). Wśród dużych badań ruchów własnych jednym z najważniejszych jest badanie Lowell Proper Motion Survey , ponieważ obejmuje wyszukiwanie wykresów dla każdej gwiazdy. Aby przedstawić pełniejszy opis historyczny badań astrometrycznych, należy odwołać się do misji Hipparcos. Satelita Hipparcos - finansowany i obsługiwany przez ESA - był pierwszym eksperymentem kosmicznym poświęconym astrometrii. Jego głównym celem było określenie dokładnych pozycji, ruchów właściwych i paralaks 118 218 gwiazd. Dokładność parametrów astrometrycznych wynosi w przybliżeniu 1 mas dla pozycji i paralaks oraz 1 mas rok-1 dla ruchów własnych gwiazd o jasności zaledwie 10mag. Położenia i ruchy własne z Katalogu Hipparcosa (ESA 1997a) są realizacją optyczną ICRS i stanowią najdokładniejszy duży katalog astrometryczny, jaki kiedykolwiek zaobserwowano. Znaczenie Hipparcos polega na tym, że po raz pierwszy umożliwiła astronomom dokładną kalibrację jasności i mas wielu pobliskich gwiazd oraz badanie struktury kinematycznej Galaktyki w sąsiedztwie Słońca. Wpływ, jaki Hipparcos wywarł na astronomię, można docenić w materiałach ze spotkania Hipparcos w Wenecji w 1997 r. , które zawiera prawie 200 artykułów naukowych opartych na danych Hipparcosa. W ramach misji Hipparcos narzędzia do mapowania gwiazd znajdujące się na satelitie zostały wykorzystane do zbudowania mniej dokładnego katalogu: Katalogu Tycho. Ponowna analiza oryginalnych danych z tego eksperymentu dała Katalog Tycho-2 , który stał się jednym ze standardowych zestawień w astrometrycznej redukcji klatek CCD (głównie w obserwacjach koła południka). Więcej szczegółów na temat HIPPARCOS oraz KATALOGÓW HIPPARCOS I TYCHO znajduje się w innych artykułach. Można powiedzieć, że w ciągu ostatnich 14 lat historię astrometrii wyznaczyły dwa główne wydarzenia: pierwszym z nich był wystrzelenie w 1989 r. wspomnianej misji Hipparcos; drugim było ustanowienie 1 stycznia 1998 r. Międzynarodowego Niebiańskiego Systemu Odniesienia (ICRS) jako nowego układu odniesienia, kończąc w ten sposób reżim serii FK. Dzięki tej istotnej zmianie, po raz pierwszy, układ odniesienia astrometrii - Międzynarodowy Układ Odniesienia Nieba (ICRF) - do którego należy odnosić pozycje, opiera się na 212 pozagalaktycznych ŹRÓDŁACH RADIOWYCH obserwowanych za pomocą interferometrii o bardzo długiej linii bazowej (VLBI). technik . Feissel i Mignard (1998) dokonali ważnego przeglądu dotyczącego przyjęcia i konsekwencji tej zmiany. Dziś, po znaczących osiągnięciach w swojej historii i dzięki zastosowaniu nowej generacji niezwykle wysokiej jakości instrumentów ziemskich i kosmicznych, astrometria przechodzi nowe i głębokie zmiany. Od ziemskich instrumentów zasilanych wieloma włóknami po najbardziej zaawansowane i wyrafinowane satelity - istnieje powszechna potrzeba lepszego pozycjonowania ciał niebieskich, a astrometria po raz kolejny musi zapewniać dokładne pozycje, właściwe ruchy i paralaksy gwiazd. Fakt, że niektóre z nadchodzących misji kosmicznych, aby odnieść sukces, będą musiały opierać się na naziemnych obserwacjach astrometrycznych, ilustruje znaczenie nowej astrometrii. Aby sprostać wymaganiom stawianym przez dzisiejszą astronomię, prowadzone są nowe badania astrometryczne nastawione na zapewnienie parametrów klasycznych. Ze względu na rosnące możliwości rozwoju zarówno komputerów, jak i detektorów, obecne projekty rosną pod względem rozmiaru (ogółem ponad 500 milionów wpisów) i dokładności (kilka mas). Niektóre z tych nowych badań opierają się na nowych obserwacjach, podczas gdy wiele innych wykorzystuje obszerny materiał dostarczony przez bazy danych, w ten sposób nawiązując do nowego sposobu uprawiania astronomii w ogóle: wirtualnych obserwatoriów.

Najważniejsze osiągnięcia

W ciągu ostatnich kilku lat w większości projektów astrometrycznych nastąpił niezwykły postęp. Można je podsumować w następujący sposób.

Pozycje i ruchy właściwe

Ponieważ matryce CCD stały się standardowymi detektorami w prawie każdym projekcie astronomicznym, istnieje realna potrzeba opracowania katalogów pozycji (a w idealnym przypadku także ruchów własnych) zawierających dużą liczbę gwiazd. W pewnym sensie można powiedzieć, że astronomia - ponownie - znajduje się w sytuacji podobnej do tej, która miała miejsce w połowie lat 60. XX w., kiedy wydano SAO (wówczas zastąpione przez PPM). Ze względu na niewielką liczbę obiektów, które obejmują (według dzisiejszego standardu), te dwa katalogi nie są obecnie odpowiednie do astrometrycznej redukcji większości klatek CCD. Aby przezwyciężyć problem zbyt małej liczby gwiazd na minutę łuku kwadratowego, konieczne było sporządzenie znacznie większych katalogów. Pierwszym krokiem w tym kierunku był Katalog Gwiazd Przewodnika po Kosmicznym Teleskopie Hubble'a (GSC) autorstwa Laskera i innych, który obecnie został zastąpiony przez GSC II zarówno pod względem ilościowym, jak i jakościowym. Inną ważną kompilacją, o której warto wspomnieć, jest USNO-A2.0 , która jest standardem - przynajmniej na razie - dla astrometrycznej redukcji większości klatek CCD. Podzbiór - zwany USNOSA2.0 - zawierający około pięćdziesiąt milionów gwiazd, jest najczęściej używany do redukcji klatek CCD mniejszych planet i komet. Jak zwykle po opublikowaniu katalogu jego zawartość jest analizowana i porównywana zewnętrznie z innymi kompilacjami w celu ostatecznej oceny jakości. USNO-A2.0, podobnie jak GSC II, nie jest wyjątkiem. Bardzo szczegółową analizę USNO-A2.0 przeprowadzili Assafin i inni. W tej pracy autorzy porównali niektóre pozycje USNO A2.0 z pozycjami obserwowanymi dla koła południka CCD Valinhos . Obecnie trwa rozbudowa katalogu USNO-A2.0 o nazwę USNO-B . Będzie zawierać ruchy właściwe i klasyfikację gwiazd/galaktyk. O krok od USNO-A2.0 (przynajmniej z ilościowego punktu widzenia) jest GSC II. Po ukończeniu będzie zawierał prawie 109 wpisów z typowym błędem 0,3 sekundy łukowej (najgorszy przypadek wynosi od 0,35 do 0,65 sekundy łuku dla gwiazd słabszych niż 16 mag w pobliżu krawędzi płyty). Wstępna wersja tej kompilacji, znana jako GSC 2.2, jest gotowa do użycia i zawiera listę ponad 430 milionów gwiazd. Stanowiska GSC II, a także GSC 2.2 znajdują się w systemie ICRF. Celem pocztowym GSC 2.2 jest wspieranie działania zarówno teleskopów GEMINI, jak i VLT. Momany i inni przeprowadzili zewnętrzne porównanie GSC 2.2. W ramach ESO Imaging Survey (EIS) autorzy ci porównali pozycje GSC 2.2 z pozycjami zgłaszanymi przez innych w obszarze niektórych gromad otwartych. Prawdopodobnie najnowszym projektem, który osiągnął część swoich celów, jest Katalog Astrografów CCD USNO (UCA). Wstępny katalog - UCAC1 - w ICRS zawiera ponad 27 milionów gwiazd z dokładnością pozycjonowania mniejszą niż 20 mas dla obiektów w zakresie 9-14 mag. Podano także wstępne ruchy własne z różnych źródeł. UCAC1 zostanie zastąpiony przez UCAC2 - obsługujący zakres od -90° do +30° - który będzie dostępny w połowie 2002 roku. Gdy zakończono, projekt UCA zapewni pierwszy katalog astrometryczny w całości zaobserwowany za pomocą teleskopu naziemnego wykorzystującego CCD jako detektor. Aby poprawić jakość ruchów własnych, które mają zostać uwzględnione w projekcie UCAC, płytki AGK2 (mające ponad 70 lat obecnie) są ponownie mierzone w USNO, a następnie zostaną połączone z nowoczesnymi stanowiskami . Różne raporty z postępu prac nad projektem UCAC można znaleźć u Zachariasa . Wśród projektów zorientowanych na wyznaczanie bezwzględnych ruchów własnych dużą liczbę danych dostarczyły dwa programy: Northern Proper Motion Program (NPM) opracowany w Lick Observatory oraz Southern Proper Motion Program (SPM), nad którym pracuje konsorcjum Uniwersytetu Yale (USA) i Uniwersytetu Narodowego w San Juan (Argentyna). Pierwsza partia NPM - zwana NPM1 - została wypuszczona w 1993 roku. Zawiera pozycje, ruchy właściwe i dwukolorową fotometrię dla 149 000 gwiazd poza Drogą Mleczną. Druga partia serii NPM2 będzie zawierać około 300 000 gwiazd znajdujących się w Drodze Mlecznej. Ponieważ galaktyki odniesienia są "nieobecne" na niebie Drogi Mlecznej, Katalog Hipparcosa służy do powiązania ruchów właściwych NPM2 z systemem (absolutnym) zdefiniowanym przez NPM1. NPM2 zostanie wydany w 2003 roku. Pierwsza epoka obserwacji SPM rozpoczęła się w 1965 roku i trwała do 1974 roku. Druga epoka, wykorzystująca klisze fotograficzne, rozpoczęła się w 1987 roku i została przerwana w 1993 roku z powodu braku klisz fotograficznych. Teraz obserwacja drugiej epoki zostanie wznowiona przy użyciu dwóch kamer CCD . Opublikowano dwa główne wyniki SPM: SPM 1.0 oraz SPM 2.0 . W ramach projektu SPM ogłoszono także katalog pozycji około 30 milionów gwiazd . Niedawno opublikowano wyniki innego ważnego procesu digitalizacji klisz fotograficznych. Właściwości astrometryczne badania SuperCOSMOS zostały przeanalizowane przez Hambly′ego i innych. Porównując pierwszą publikację danych - południową czapę polarną Galaktyki - z zewnętrznymi zbiorami danych, doszli do wniosku, że pozycje (w ICRF poprzez Tycho 2) są dokładne z dokładnością lepszą niż ±2 sekundy łukowej przy magnitudo J, R ∼ 19, 18, podczas gdy wykazano, że prawidłowe pomiary ruchu mają dokładność typowo ±10 mas rok -1 przy tym samym poziomie wielkości. Bardzo dużą uwagę poświęcono także astrometrii gromad otwartych. W ciągu ostatnich kilku lat ukazało się wiele artykułów na ten temat. Niektórzy z nich skorzystali z dostępnych obszernych baz danych, podczas gdy inni opierali się na nowych obserwacjach. W obu przypadkach - analizie baz danych lub nowych obserwacji - efektem było określenie pozycji, ruchów właściwych i jasności dużej liczby gwiazd. Ważnym badaniem prowadzonym za pomocą teleskopu WIYN jest WIYN Open Cluster Study (WOCS). Wyniki tego badania zostały opublikowane przez Plataisa. Istnieje znaczna liczba wkładów w badania w klastrach otwartych, w których wykorzystano bazy danych i bardzo dokładne katalogi astrometryczne. Wśród nich są Baumgardt ,Dias , Sanner i Geffert oraz Masden . WEBDA to zaktualizowany zbiór danych z gromad otwartych, prowadzony przez Jean-Claude'a Mermillioda w Instytucie Astronomii Uniwersytetu w Lozannie (Szwajcaria). Baza danych posiada bardzo proste funkcje, które zapewniają łatwe wyszukiwanie danych oraz udostępnia informacje astrometryczne, fotometryczne i spektroskopowe. Uwzględniono także różne dane (takie jak prawdopodobieństwo członkostwa) i odniesienia bibliograficzne.

Podwójne gwiazdy

Najważniejszym zestawieniem DOUBLE STARS jest katalog Washington Double Star (WDS). Główną zaletą kompilacji jest to, że jest ona aktualizowana codziennie. Obserwatorium Marynarki Wojennej Stanów Zjednoczonych wydało niedawno serię czterech płyt CD. Tom I zawiera podstawowe dane astrometryczne (współrzędne J2000, kąt położenia, separacja itp.) dla ponad 84 000 systemów. Tom drugi to zbiór 1465 orbit. Tom III jest w rzeczywistości Trzecim Katalogiem Interferometrycznych Pomiarów Gwiazd Podwójnych. Tom IV - ostatni z serii - to zbiór różnic wielkości dla ponad 10 000 systemów. Od początku lat 80. CHARA jest wiodącą grupą badawczą wykorzystującą techniki plamkowe do pomiaru odległości i kątów położenia gwiazd podwójnych (podstawowe informacje do określania masy gwiazd). Do chwili obecnej opublikowano 19 katalogów zawierających kąty położenia i odległości dla około 10 000 gwiazd. Grupa zakończyła budowę układu interferometrycznego składającego się z sześciu 1-metrowych teleskopów do rozdzielania układów podwójnych z odstępami kątowymi do 0,2 mas. CHARAarray będzie w pełni operacyjny gdzieś w roku 2002. Sprawozdania z postępu prac nad tą tablicą można znaleźć u McAlistera , Turnera , Sturmanna oraz dziesięciu Brummelaara . Inne ważne badania - wykorzystujące techniki plamkowe - kontynuowały obserwacje gwiazd podwójnych. Najnowsze raporty z badania Rochester Institute of Technology (RIT) można znaleźć w pracach Horcha. Kolejny ważny wynik z tej grupy jest związany z różnicami wielkości dla około 130 par . Podsumowanie ostatnich 4 lat działalności przedstawili Robinson i inni, natomiast nową kamerę o nazwie RYTSI, zaprojektowaną przez tę grupę, opisali Horch i inni. Wyniki z grupy obserwatoriów Pic du Midi, uzyskane za pomocą systemu Pupil Interferometry Speckle and Coronograph (PISCO) , zostały opublikowane przez Scardię oraz Prieura. Z drugiej strony separacje kątowe, kąty położenia, a także różnice wielkości dla systemów 606 - przy użyciu "zwykłej" kamery CCD - zostały opisane przez Gili i Bonneau oraz Lampens . Mason i inni ponownie przeanalizowali informacje zawarte w Tycho-2, próbując dostarczyć podstawowych danych na temat gwiazd podwójnych. Kolejna rewizja i ponowna redukcja Tycho-2 przez Fabriciusa zaowocowała odkryciem ponad 13 000 nowych dubletów, głównie z odstępem od 0,3 do 1 sekundy łukowej. Właściwe połączenie z danymi WDS pozwoliło na stworzenie Katalogu Tycho Double Star (TDSC), który zawiera ponad 100 000 wpisów. TDSC jest dostępny w CDS.

Paralaksy

W kontekście astrometrii słowo paralaksa jest prawie zawsze kojarzone z paralaksami trygonometrycznymi; to znaczy bezpośredni sposób określania odległości gwiazd. Metoda jest ograniczona do odległości mniejszych niż 100 szt. Historia oznaczeń paralaksy - podobnie jak katalogów astrometrycznych - jest bardzo bogata. Mówi się na przykład, że pierwszą próbę uzyskania paralaksy gwiazdy podjął Tycho Brahe. Ponieważ nie mógł uzyskać żadnej rozsądnej wartości, doszedł do wniosku, że albo (a) Ziemia znajdowała się w spoczynku w centrum wszechświata, albo (b) gwiazdy znajdowały się zbyt daleko, aby można było zmierzyć ich paralaksy. Ponieważ Brahe nie wierzył, że gwiazdy mogą znajdować się tak daleko, wybrał pierwszą opcję. Wynik ten pozwolił mu potwierdzić, że Kopernik całkowicie mylił się w swojej heliocentrycznej teorii Układu Słonecznego. Jak już wspomniano, to właśnie Bessel w 1838 roku wyznaczył pierwszą paralaksę tryginometryczną 61 Cygni. Do roku 1890 istniało około 30 gwiazd, których paralaksy były znane z dokładnością do ±0,05 sekundy łukowej . Pod koniec XIX wieku - wraz z przyjęciem kliszy fotograficznej jako detektora - wyznaczanie paralaks trygonometrycznych stało się standardowym programem badawczym w niektórych najważniejszych obserwatoriach. W tym sensie w 1903 roku Frank Schlesinger - znany jako "ojciec współczesnej astrometrii" - rozpoczął w Obserwatorium Yerkes jeden z najwybitniejszych projektów tamtych czasów . Inne instytucje, takie jak McCormick, Allegheny, Sproul, Greenwich, Cape, Boschha i Sztokholm wkrótce zainicjowały podobne projekty, podczas gdy Obserwatorium Lick i Stacja USNO Flagstaff zaczęły później używać swoich teleskopów zwierciadlanych i obie rozszerzyły swoje ustalenia na słabsze gwiazdy. Większość prac nad określeniem paralaks trygonometrycznych w erze fotografii została podsumowana w różnych wydaniach Ogólnego katalogu paralaks trygonometrycznych - lepiej znanego jako Katalog paralaks Yale (YPC). Pierwsze wydanie serii przygotowali Schlesinger (1924) oraz Schlesinger i Jenkins (1935). Trzecie wydanie zostało opublikowane przez Jenkins (1952), a następnie jej dodatek z 1963 r. Czwartą edycję YPC, ostatnią z serii, przygotowali van Altena i inni. Zawiera listę paralaks trygonometrycznych dla 8112 gwiazd, w tym oznaczenia fotograficzne i CCD. Gdy CCD stała się dostępna do użytku naukowego, rozpoczęto różne programy mające na celu określenie paralaks trygonometrycznych. Dwa z pierwszych raportów wykorzystujących techniki CCD to raporty Moneta (1981) oraz Moneta i Dahna (1983). Na szczęście oznaczenia paralaksy trygonometrycznej przeprowadzono także na półkuli południowej we wczesnym etapie ery techniki CCD . Obecnie, ze względu na obecne zapotrzebowanie astronomii na badanie i katalogowanie otoczenia Słońca, pobliskim gwiazdom udało się zyskać nowe zainteresowanie i w związku z tym wyznaczane są nowe odległości. Od szczegółowych badań pojedynczych gwiazd po przeglądy półkul - nowe wyniki publikowane są niemal co roku. Wśród wyników dotyczących pojedynczych gwiazd wymieniamy nowe spostrzeżenia dotyczące Proximy Centauri (naszego najbliższego sąsiada, odkrytego przez R. Innesa w 1915 r.) oraz Gwiazdy Barnarda autorstwa Benedicta ; wspomniano nawet o pewnych dowodach na towarzysza Proxima Centauri. Również w kategorii pojedynczych gwiazd warto wspomnieć, że zidentyfikowano gwiazdę polową, która może być najbliższym Słońcu karłem M9. Prawdopodobnie jednym z najważniejszych wyników (głównie ze względu na konsekwencje, jakie będzie to miało) jest określenie przez Benedicta absolutnej paralaksy i względnego ruchu własnego kalibratora skali odległości RR Lyrae. Różne wyszukiwania pobliskich gwiazd również przyniosły nowe wyniki. Wśród nich badanie mające na celu identyfikację brązowych karłów w odległości 8 pc od Słońca nie ujawniło żadnych nowych gwiezdnych towarzyszy w dużych odległościach; program ten wykorzystuje już istniejące obrazy z pierwszej epoki, które łączy się z nowymi obserwacjami w paśmie J. Poszukiwania zorientowane na znalezienie najmłodszych i najbliższych (d<60 szt.) gwiazd względem Ziemi (z wykorzystaniem informacji rentgenowskich oraz danych astrometrycznych z Hipparcosa i Tycho) prowadzą Song i inni. Ostatecznym celem projektu jest wykrywanie planet-olbrzymów. Obserwacje prowadzone są z obserwatorium Lick dla celów północnych oraz z Obserwatorium Siding Spring na południu. Szczegółowa analiza pomiarów płyt brytyjskiego teleskopu Schmidta za pomocą automatycznego pomiaru płyt (APM) przeprowadzona przez Scholza i inni zaowocowała odkryciem wcześniej nieznanych jasnych (12

Inne projekty

Teraz, gdy matryce CCD stały się standardowymi detektorami w astronomii, prawdopodobnie nadszedł czas, aby zmienić starą klasyfikację instrumentów astronomicznych. Najbardziej uderzający przypadek dotyczy kręgów południków (MC). Od ich pierwszego zastosowania w astronomii aż do kilku lat temu gwiazdy obserwowano naocznie (pojedynczo), gdy przekraczały południk. Kolejnym krokiem w rozwoju technik obserwacyjnych było zastąpienie ludzkiego oka fotopowielaczami. Teraz, gdy kamery CCD zostały podłączone do większości MC na całym świecie, procedura obserwacyjna została zastąpiona trybem skanowania dryfu. Takie podejście pozwala uzyskać paski o długości od kilku minut do kilku godzin w rektascencji i około 10-20 minut łuku (w zależności od rozmiaru i typu chipa CCD) w deklinacji. Ten zbiór danych można łatwo porównać z danymi uzyskanymi ze zwykłego teleskopu astrograficznego. Obserwacje są następnie redukowane za pomocą dowolnego katalogu referencyjnego. Ponadto niektóre MC zajmowały się obserwacjami obiektów tradycyjnie obserwowanych przez teleskopy typu astrograficznego: mniejszych planet (prawdopodobnie można to zinterpretować jako "powrót do korzeni", odkąd Ceres została odkryta przez Piazziego obserwującego za pomocą MC). Wśród tych obserwacji możemy wymienić te zawarte w różnych katalogach południków Carlsberga lub te zaobserwowane przez automatyczny krąg południków San Fernando - zlokalizowany w San Juan w Argentynie od 1996 r. Prawdopodobnie najbardziej kompleksowym raportem pod tym względem jest raport Stone′a (2000), który obejmuje ponad 56 000 pozycji (w ICRF) dla asteroid z 1940 roku. Bordeaux Automated Meridian Circle właśnie opublikowało katalog M2000 , który zawiera listę ponad dwóch milionów gwiazd o wartości granicznej 16,3mag. Zaobserwowane pasmo deklinacji pokrywa się z Carte du Ciel obserwowanym w Bordeaux. Mediana wewnętrznego błędu standardowego pozycji jest rzędu 35 mas, natomiast zewnętrzne porównanie z katalogami Hipparcosa i Tycho-2 daje szacunkową wartość lepszą niż 40 mas. Automatyczny krąg południków San Fernando (wyposażony w matrycę CCD od grudnia 1999 r.) zajmuje się obserwacją części południowego nieba w zakresie jasności około 16 mag. Projekt zakłada obserwację od +3° do -60°'. Do tej pory ukończono około 30%. Paski (o długości od 20 minut do 3 godzin w rektascencji i 18 minut łuku przy deklinacji) są redukowane przy użyciu Tycho-2 jako układu odniesienia . Oczekuje się, że obserwacje zakończą się w 2005 roku. MC z Obserwatorium Abrahão de Moraes (niedaleko Valinhos, Brazylia) był zaangażowany w różne projekty. Wśród nich należy wspomnieć o rozszerzeniu ICRF do 15 mag V. Projekt ten obejmuje ponad 44 000 gwiazd zlokalizowanych wokół niektórych pozagalaktycznych źródeł radiowych. Instrument ten wykorzystano także do określenia pozycji w celu określenia ruchu właściwego w południowych obszarach gwiazdotwórczych. Kolejny ważny katalog ukończony w 2000 roku został przygotowany w Obserwatorium Astronomicznym im. Nikołajewa. Obserwacji dokonano za pomocą osiowego koła południka (AMC). Katalog - dostępny w Internecie - zawiera ponad 14 000 gwiazd i został zredukowany przy użyciu USNO-A2.0 jako układu odniesienia. AMC uruchomiono w 1995 r. i od tego czasu uczestniczy w obserwacjach w ramach różnych projektów. W wielu badaniach wzięły także udział astrolabia. W ciągu ostatnich 20-25 lat wprowadzono wiele ulepszeń w instrumentach, jednym z przykładów jest fotoelektryczne Astrolabium II (PA II) opracowane w Chinach . Ostatnie wyniki uzyskane za pomocą tego nowego instrumentu zostały opublikowane przez Manrique i innych. Inne mniejsze kompilacje astrometryczne - wykorzystujące astrolabia fotoelektryczne - opublikowali Hui i Rui oraz Martin. Inne badania, choć w swoim zakresie astrometrycznym, w rzeczywistości zostały zaprojektowane i zorientowane na poprawę parametrów astrometrycznych obiektów astrofizycznych. Na przykład López i Girard poprawili pozycje ponad 1000 gwiazd zmiennych. Na potrzeby tego projektu autorzy zmierzyli płyty z pierwszej epoki SPM. Kolejnym projektem mającym na celu poprawę pozycji i ruchów właściwych gwiazd zmiennych jest Astrometryczny Katalog Gwiazd Zmiennych (ACVS) autorstwa Gulyaeva i Ashimbaevy (1997). Do tego badania autorzy wzięli gwiazdy wymienione w GCVS i NSV i porównali je z gwiazdami z Katalogu 4 milionów . Korzystając z kart wyników zalecanych przez GCVS i NSV, dokonano około 21 500 pozytywnych identyfikacji krzyżowych. SDSS to projekt na dużą skalę, mający na celu uzyskanie fotometrii optycznej i pozycji gwiazd o wielkości do 22 mag na około jednej czwartej nieba, którego środkiem jest północna czapa galaktyczna. Dodatkowo uzyskane zostaną widma około miliona galaktyk, 100 000 kwazarów i 50 000 gwiazd. To "nienastrometryczne" badanie powinno zaowocować ogromną liczbą wysokiej jakości stanowisk, które w porównaniu z pierwszą epoką POSS zaowocują również ruchami właściwymi. Obserwacje w ramach tego projektu rozpoczęły się w 1999 r. i mają trwać 5 lat. Oprócz projektów dotyczących długości fal optycznych, o których mowa w poprzednim akapicie, niektóre propozycje oparte na długości fal radiowych również wnoszą istotny wkład do astrometrii. Wśród nich jedną z takich propozycji, bardzo ważną ze względu na swój globalny zasięg, jest VERA (VLBI Exploration of Radio Astrometry), która jest sponsorowana przez Narodowe Obserwatorium Astronomiczne Japonii i grupę japońskich uniwersytetów. Projekt ma na celu wyznaczenie pozycji, paralaks i ruchów własnych źródeł maserowych w całej Galaktyce

Nowe tysiąclecie

Astronomia w ogóle, a astrometria w szczególności, cieszą się dużym uznaniem ze względu na duże bazy danych, które są obecnie w użyciu i które powstaną w najbliższej przyszłości. Ten nowy sposób wykonywania astrometrii lub wydobywania danych do ponownej analizy obejmuje wykorzystanie obiektów takich jak Aladin Sky Atlas (CDS), Astrovirtel, Astrogrid (brytyjskie wirtualne obserwatorium), SuperCOSMOS Sky Survey lub zapowiadane Astrophysical Virtual Observatory (AVO). oraz między innymi Narodowe Obserwatorium Wirtualne (NVO). Ogromna moc tych narzędzi - gdy będą w pełni dostępne do użytku publicznego i ogólnego - umożliwi obsługę różnych, bardzo dużych baz danych. Niektóre z udogodnień - jak VizieR czy SIMBAD - umożliwiają także wizualizację wszystkich danych (współrzędnych, wielkości, ruchu własnego itp.) przechowywanych dla danego obiektu. Wiele źródeł drastycznie zmieni sposób, w jaki nowe badania astrometryczne będą przeprowadzane w nadchodzących latach. Wśród nich znajdują się już istniejące sposoby wyodrębniania obrazów (klatek) z digitalizacji głównych przeglądów fotograficznych (POSS I, POSS II itp.) - znane jako Digitized Sky Survey (DSS) - dodane do nowego "banku obrazów" takie jak EIS, projekt MISAO czy Obserwatorium Marii Mitchel (MMO). Innym alternatywnym miejscem dla obrazów uzyskanych w wyniku digitalizacji ważniejszych przeglądów fotograficznych jest stacja USNO Flagstaff . Ponieważ cały ten materiał jest dostępny na wyciągnięcie ręki, za pośrednictwem sieci, nie zawsze konieczne będzie posiadanie teleskopów (dużych lub małych), aby podjąć się wybitnych programów badawczych zorientowanych na astrometrię. Obecnie realizowanych jest wiele projektów wykorzystujących te nowe możliwości. Obecnie DSS okazał się jednym z najbardziej rozbudowanych banków obrazów w użyciu. Od potwierdzenia supernowych po identyfikację milionów galaktyk , DSS pozwala na podjęcie niemal każdego projektu. Jako astrometryczny przykład tej możliwości można wymienić poprawę pozycji źródeł ICRF i prawie trzech tysięcy obiektów wymienionych w Second Byurakan Survey of Blue Compact Galaxies . Ponadto połączenie klatek DSS z różnych epok lub migotanie pomiędzy obrazami DSS z obrazami z innych przeglądów (takimi jak te dostępne w banku obrazów MISAO lub te z SkyMorph) pozwala na identyfikację gwiazd o wysokim ruchu własnym . Innym możliwym sposobem lokalizowania "brakujących" gwiazd o dużym ruchu własnym jest połączenie różnych badań; projekt wykorzystujący to podejście jest opracowywany przez Goulda i Salima . Jednak w wyszukiwaniu kompilacji baz danych można uwzględnić nie tylko obiekty gwiezdne; obiekty niegwiazdowe - takie jak mniejsze planety i komety - są również brane pod uwagę i przedłożono do MPC szereg stanowisk przed odkryciem, co usprawnia określanie parametrów orbitalnych . Ponadto klatki uzyskane w wyniku poszukiwań niektórych najważniejszych mniejszych planet (w szczególności NEO), takich jak LINEAR, NEAT i LONEOS, są również odpowiednie do wykorzystania na przykład do wyznaczania ruchu własnego. Ramki te są łatwo dostępne poprzez udogodnienia SkyMorph. Istnieje również szereg programów badawczych wykorzystujących już istniejące, wysokiej jakości katalogi astrometryczne, głównie Hipparcos i Tycho-2. Bazy te zostały wykorzystane między innymi w badaniach ruchów własnych gromad otwartych (Dias i in. 2001) oraz w kompleksie gwiazdotwórczym . W niektórych innych przypadkach wysoka dokładność tych zestawień (głównie Tycho-2) pozwoliła na określenie "astrometrycznych prędkości radialnych" gwiazd należących do gromad otwartych . Artykuły, a także adresy internetowe wymienione w tej sekcji to tylko mały (i niekompletny) przykład tego, co można zrobić, korzystając z materiałów dostępnych w głównych centrach danych. Jednakże potencjał tych nowych narzędzi nie został jeszcze w pełni wykorzystany; Kiedy to nastąpi, od tego momentu duży wpływ będzie mieć sposób, w jaki astrometria będzie przeprowadzać nowe przeglądy astrometryczne. Te nowe możliwości, a także jeszcze większy zbiór danych, które mają dostarczyć nadchodzące misje kosmiczne (GAIA, SIM itp.) zaplanowane na nadchodzące lata, zmienią sposób, w jaki będą wykonywane badania astrometryczne w najbliższej przyszłości. Będą znacznie łatwiejsze i jednocześnie znacznie bardziej skomplikowane w opracowaniu: łatwe, bo po prostu mając dostęp do sieci, będzie można wydobyć wiele megabajtów informacji; skomplikowane, ponieważ będzie wymagało nie tylko większych urządzeń komputerowych do prawidłowego przetwarzania takiej ilości danych, ale także (i prawdopodobnie ważniejsze) nowych koncepcji w technologii komputerowej . Kiedy to nastąpi, astrometria będzie miała szansę na rozwój i ekspansję na nowe i nieoczekiwane dziedziny. Jednak oczywiście zmieni się nie tylko astrometria; w rzeczywistości najbardziej znacząca zmiana nastąpi w sposobie, w jaki widzimy i rozumiemy otaczający nas wszechświat.

Załącznik

Podsumowanie akronimów


Obecnie używa się dużej liczby akronimów w odniesieniu do badań astrometrycznych, instrumentów i instytucji zaangażowanych w projekty astrometryczne. Poniżej znajduje się podsumowanie akronimów wspomnianych w niniejszej pracy oraz innych, które można znaleźć w innej aktualnej literaturze.

2MASS Two-Micron All Sky Survey
AC Astrographic Catalogue
ACRS Astrographic Catalogue Reference Stars
ACT Astrographic Catalogue and Tycho
ACVS Astrometric Catalogue of Variable Stars
AGK Astronomisches Gesselschaft Katalog
APS Automated Plate Scanner
AVO Astrophysical Virtual Observatory
BD Bonner Durchmusterung
CAMC Carlsberg Automatic Meridian Circle
CCD Charge-coupled device
CDS Centre de données astronomiques de Strasbourg
CHARA Center for High Angular Resolution Astronomy
CoD Córdoba Durchmusterung
CPC2 Second Cape Photographic Catalogue
CPD Cape Photographic
CTIO Cerro Tololo Inter-American Observatory
CTIOPI CTIO Parallax Investigation
DENIS Deep Near-Infrared Survey
DSS Digitized Sky Survey
EIS ESO Imaging Survey
ESA European Space Agency
ESO Europen Southern Observatory
FAME Full-Sky Astrometric Mapping Explorer
FK Fundamental Katalogs
FOCAT-S Photographic Catalogue-South
GAIA Global Astròmetric Interferometer for Astrophysics
GC General Catalogue
GCVS General Catalogue of Variable Stars
GSC Guide Star Catalogue
HDEC Henry Draper Extension Charts
HDF Hubble Deep Field
HIPPARCOS High Precision Parallax Collecting Satellite
HST Hubble Space Telescope
IAU International Astronomical Union
ICRF International Celestial Reference Frame
ICRS International Celestial Reference System
LHS Luyten Half Second
LINEAR Lincoln Near Earth Asteroid Research
LONEOS Lowell Observatory NEO Search
LTT Luyten Two Tenths
MISAO Multitudinous Image-Based Sky-Survey
and Accumulativè Observations
NASA National Aeronautics and Space Administration
NEA Near-Earth asteroid
NEAT Near-Earth asteroid tracking
NEO Near-Earth object
NLTT New Luyten Two Tenths
NOAO National Optical Astronomical Observatories
NPM Northern Proper Motion Survey
NSV New Catalogue of Suspected Variable Stars
NTT New Technology Telescope
NVO National Virtual Observatory
OAFA Observatorio Astronómico Félix Aguilar
PGC Preliminary General Catalogue
PISCO Pupil Interferometry Speckle and Coronograph
POSS Palomar Observatory Sky Survey
PPM Positions and proper motions
RECONS Research Consortium on Nearby Stars
RIT Rochester Institute of Technology
ROA Real Instituto y Observatorio de la Armada
SAOC Smithsonian Astrophysical Observatory Catalogue
SDSS Sloan Digital Sky Survey
SIM Space Interferometry Mission
SIMBAD Set of Identifications, Measurements
Bibliography for Astronomical Data
SPM Southern Proper Motion Survey
SRS Southern Reference System
TAC Twin Astrograph Catalogue
TPMC Tokyo Photoelectric Meridian Circle
TRC Tycho Reference Catalogue
UCAC-S United States Naval Observatory CCD Astrograph Catalogue-South
UKST United Kingdom Schmidt Telescope
USNO United States Naval Observatory
VERA VLBI Exploration of Radio Astrometry
VLBI very-long-baseline-interferometry
VLT very large telescope
WEBDA WEB Database of Open Clusters
WDS Washington Double Star Catalogue
WIYN Wisconsin Indiana Yale NOAO
WOCS WIYN Open Cluster Studies
YPC Yale Parallax Catalogue

Astrometria za pomocą Kosmicznego Teleskopu Hubble'a

W 1990 roku NASA wystrzeliła Kosmiczny Teleskop Hubble′a. Oprócz kamer i spektrografów obsługujących zakres od dalekiego ultrafioletu do bliskiej podczerwieni, obserwatorium zawiera trzy INTERFEROMETRY światła białego. W ramach wsparcia inżynieryjnego i naukowego ich głównym zadaniem było prowadzenie teleskopu; do pozycjonowania i utrzymywania celów naukowych w otworach instrumentu naukowego z tolerancjami zbliżającymi się do 0,1, co odpowiada 100 milisekundom łuku (100 mas). Wskazywanie i śledzenie wymaga dwóch takich precyzyjnych czujników naprowadzania (FGS), pozostawiając trzeci wolny dla ASTOMETRII. Celem projektowym astrometrii z FGS była precyzja 3 mas w całym polu obserwacji. Zaprojektowany i zbudowany na początku lat 80. XX w. FGS stanowił postęp o rząd wielkości w porównaniu z istniejącymi technikami naziemnymi. Opóźnienia w uruchomieniu HST zapewniły technikom naziemnym wystarczający czas na osiągnięcie tego celu, a nawet przekroczenie tego celu. Tym samym na nowo zdefiniowano cel postartowy. Cel ten, czyli astrometria małego pola z precyzją 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. HST FGS pozostanie konkurencyjnym narzędziem astrometrycznym do wykrywania słabych celów na zatłoczonych polach i słabych układów podwójnych o małej separacji, aż do pojawienia się naziemnych interferometrów o dużej aperturze i interferometrów kosmicznych o dłuższej linii bazowej (patrz także ASTOMETRIA: TELESKOPY I TECHNIKI). W tym artykule opisano badania naukowe, które można przeprowadzić za pomocą FGS, i przedstawiono niektóre najnowsze wyniki nauki. Opisujemy, w jaki sposób te dane są modelowane, pozyskiwane i kalibrowane. Następnie pokażemy, jak astrometr FGS 3 działa jako interferometr. Na koniec przedstawiamy przewodnik po literaturze, który zawiera dodatkowe szczegóły dotyczące każdego elementu omawianego w tym artykule. Astrometrię z dokładnością do 1 mas można uzyskać za pomocą szerokokątnej kamery planetarnej HST. Techniki są podobne do tych stosowanych w naziemnej astrometrii CCD i należy je omówić osobno.

Wybór celów nauki

Wybór celów naukowych w zakresie astrometrii HST jest słusznie uzależniony od tego, co można zrobić z ziemi. Unikalne możliwości HST muszą pozostać zarezerwowane dla wymagających ich projektów. W tej części podsumowujemy mocne strony astrometrii HST, wskazując kilka przykładów rodzajów obiektów, do których idealnie nadają się HST i FGS. Ponieważ interferometr FGS oferuje dwa tryby obserwacji, skanowanie prążków i śledzenie prążków, pozostałą część tego artykułu dzielimy na każdym etapie według trybów.

Skanowanie prążków: użycie HST do astrometrii gwiazd podwójnych Podczas próby rozdzielenia docelowej GWIAZDY PODWÓJNEJ należy wziąć pod uwagę cztery cechy techniki obserwacyjnej o wysokiej rozdzielczości (<1 ): granica jasności źródła, zdolność rozdzielcza, dokładność astrometryczna i różnica wielkości między składnikami, które można zaobserwować. Chociaż wszystkie cztery parametry są współzależne, podajemy limity prądu dla każdej charakterystyki oddzielnie, aby zilustrować skuteczność HST FGS 3 jako instrumentu astrometrycznego. W przypadku gwiazd podwójnych obserwacje HST FGS 3 dostarczają wyników obecnie nieosiągalnych technikami naziemnymi. HST FGS 3 ma dokładność do 1-3 mas przy granicy rozdzielczości 15 mas dla różnic wielkości mniejszych niż 2 mag. Może skutecznie obserwować cele z dokładnością do co najmniej V ∼ 15. Przy separacji składników większej niż 200 mas może pokonać różnice jasności co najmniej V = 4 mag, co wykazało wykrycie Gliese 623B. Przyszły rozwój interferometrów naziemnych powinien poprawić dokładność pomiarów astrometrycznych i zapewnić lepszą rozdzielczość, ale nadal będzie ograniczony do stosunkowo jasnych celów i umiarkowanych różnic wielkości. HST FGS 3 to jedyny dostępny obecnie instrument o wysokiej rozdzielczości, który (a) może zapewnić wysoce precyzyjną astrometrię dla bardzo bliskich układów podwójnych, (b) umożliwia obserwację stosunkowo słabych celów oraz (c) może pokonać co najmniej umiarkowanie duże różnice wielkości pomiędzy elementami systemu binarnego. Śledzenie prążków: wykorzystanie HST do uzyskania paralaks. W przypadku braku odległości astrofizyce brakuje precyzji. Nasza wykazana precyzja pomiaru PARALAKSY wynosi 0,5 masy lub więcej, biorąc pod uwagę sześć epok obserwacji przy maksymalnym współczynniku paralaksy. Często cel paralaksy jest niemożliwy do zmierzenia, ponieważ gwiazdy odniesienia nie znajdują się w polu widzenia urządzenia pomiarowego; jest to szczególnie prawdziwe w przypadku małoformatowych (zwykle kilku łuków kwadratowych) kamer CCD. FGS zapewnia duże pole widzenia, a jego kształt przypomina marynatę. Kształt ten pochodzi od lustra pick-off w płaszczyźnie ogniskowej HST. Obserwacje paralaksy są zazwyczaj przeprowadzane w odstępie sześciu miesięcy, w którym to czasie, ze względu na ograniczenia oświetlenia układu HST, pole widzenia FGS obraca się o 180?. Obszar w kształcie soczewki (rysunek 6), wspólny dla dwóch skrajnych orientacji, zapewnia stosunkowo duże pole o krótkiej osi = 3,5 i długiej osi = 14. FGS 3 ma duży zakres dynamiki, umożliwiający śledzenie pozycji prążków dla gwiazd w zakresie magnitudo 4 ≤ V ≤ 17. Ten duży zakres dynamiki zapewnia filtr o neutralnej gęstości, który zmniejsza wielkość jasnych gwiazd o 5 mag. Niefiltrowany zakres wynosi 8,5 ≤ V ≤ 17. HST może uzyskać dokładne paralaksy dla układów podwójnych, których składowe są oddzielone 0,03 < ? < 1,0 . Prawie jednoczesne skanowanie prążków i pomiary śledzące pozwalają określić położenie komponentów względem gwiazd odniesienia, co jest niezbędne do określenia środka masy układu, a tym samym mas poszczególnych składników. Wreszcie istnieje terminowość wyników. Nie trzeba już czekać od trzech do sześciu lat na paralaksę obiektów interesujących astrofizycznie. Odległość do wystarczająco interesującego i ważnego obiektu można uzyskać w tej samej skali czasu, co inne informacje astrofizyczne. Jeśli obiekt lub klasa obiektów jest teraz interesująca, można teraz przetestować teorię.

Wyniki nauki

Cele naukowe obejmowały pobliskie gwiazdy używane jako sondy do poszukiwań planet pozasłonecznych; gwiazdy, których astrofizyka byłaby w dużym stopniu wspomagana przez dokładne odległości; gwiazdy podwójne o małej masie w celu zdefiniowania relacji masy do jasności dla niższego ciągu głównego; członkowie gromady Hiady, klucz do skali odległości; obiekty pozagalaktyczne (QSO) zapewniające inercyjny układ odniesienia dla Hipparcosa; oraz uosobienie zatłoczonych pól, gromada pozagalaktyczna R136 w Wielkim Obłoku Magellana. Po raz kolejny dzielimy według techniki, omawiając reprezentatywne wyniki pierwszego skanowania prążków, a następnie śledzenia prążków.

Skanowanie prążków i gwiazdy podwójne

Nauka o skanowaniu prążków opiera się na dekonwolucji i założeniu, że wszystkie obiekty w polu są źródłami punktowymi. W poszukiwaniu najnowszych wyników naukowych zwracamy się do układu podwójnego Wolf 1062 = Gl 748 o małej masie, zaobserwowanego na poparcie projektu dotyczącego masy i jasności o niższej sekwencji głównej. Ponieważ każdy obserwowany prążek jest liniową superpozycją dwóch prążków (po jednym dla każdej gwiazdy składowej układu podwójnego), modeluje się go z dwoma identycznymi prążkami pojedynczej gwiazdy. Ich rozmieszczenie wzdłuż osi i względne amplitudy zapewniają różnice w separacji i jasności. Względna separacja wzdłuż dwóch osi dostarcza informacji o kącie położenia. Średnia bezwzględna różnica między zaobserwowaną i obliczoną odległością wynosi tylko 1,1 mas i tylko 0,77° w kącie położenia. Rysowane są wektory resztkowe dla wszystkich punktów danych, ale są one mniejsze niż punkty. Być może jeszcze bardziej imponujące będzie uświadomienie sobie, że przedstawione pudełko ma rozmiar zaledwie 0,6, więc dobre widzenie z ziemi dałoby obraz gwiazdy wielkości całej postaci. Połączenie obserwacji skanowania prążków i śledzenia prążków dla układu podwójnego L722-22 o małej masie dało względną paralaksę π = 0,1656 ±0,0008 i masy składników 0,179 i 0,112 M z formalnymi błędami losowymi dla tak małej masy jako 1,5%.

Śledzenie prążków: pozycje w ramce odniesienia

Nauka o śledzeniu prążków polega przede wszystkim na powiązaniu położenia celu z pozycjami gwiazd wyznaczającymi układ odniesienia. Tutaj omawiamy program paralaksy Hyadesa i podstawowy projekt astrometryczny z udziałem HIPPARCOS. Trygonometryczne obserwacje paralaksy uzyskano dla siedmiu członków Hyades w sześciu polach widzenia. Zostały one przeanalizowane wraz z ich właściwymi ruchami w celu określenia odległości do gromady. Niepewność formalna poszczególnych paralaks wynosi średnio 1 mas. Ten stosunkowo duży błąd wynika zarówno ze złego rozmieszczenia przestrzennego, jak i małej liczby gwiazd odniesienia w każdym polu. Znajomość punktu zbieżności i średniego ruchu właściwego Hiad ma kluczowe znaczenie dla obliczenia odległości do środka gromady. W zależności od wyboru układu ruchu własnego uzyskana odległość od środka gromady różni się o 9%. Dlatego pełne wykorzystanie paralaks HST FGS oczekuje na ustanowienie dokładnego i spójnego systemu ruchu właściwego. Obserwacje separacji gwiazd Hipparcosa od obiektów pozagalaktycznych przeprowadzono w celu określenia rotacji układu instrumentalnego Hipparcosa względem układu odniesienia ICRS-VLBI. Ustalenie na podstawie 78 obserwacji daje dokładność rzędu 2 mas rms w przypadku przesunięć rotacji współrzędnych w pobliżu średniej epoki obserwacji HST i 2 mas rok-1 w szybkości rotacji współrzędnych. Głównymi źródłami błędów są błędy pomiaru HST i błędy prawidłowego ruchu wprowadzone przez trzyletnią różnicę czasu między średnimi epokami obserwacyjnymi Hipparcosa i HST.

Modelowanie danych

Nasze dwa przykłady to gwiazda podwójna do skanowania prążków i pole paralaksy do śledzenia prążków

Skanowanie brzegowe

Uważamy, że gwiazda podwójna jest najprostszym obiektem wymagającym skanowania prążków. Zakładamy, że prążek wytwarzany przez gwiazdę podwójną jest liniową superpozycją prążków wytwarzanych przez dwie pojedyncze gwiazdy. Odpowiedź interferometru na rzeczywistą gwiazdę podwójną pokazano na rysunku 2. Jeśli F(x) jest prążkiem wytwarzanym przez pojedynczą gwiazdę na osi x, gwiazdę podwójną należy opisać wzorem

D(x) = A × F(x + zx) + B × F(x + x + Sx) (1)

gdzie A i B są względnymi intensywnościami dwóch składników (ograniczając A + B = 1). Przesunięcie punktu zerowego zx i separacja komponentów Sx uzupełniają model, przy czym podobne wyrażenie istnieje dla prążków utworzonych wzdłuż osi y. Sy i Sx dają separację binarną i, po przekształceniu na współrzędne równikowe, kąt położenia. Otrzymujemy różnicę wielkości z

Δm = ?2,5 × log(A/B). (2)

Jeśli w trybie śledzenia prążków zostanie zaobserwowany układ binarny, FGS zablokuje się w błędnej pozycji przejścia przez zero, która jest generowana przez dwie ściśle nakładające się krzywe s. Obserwacja w trybie skanowania prążków podaje względne położenie dwóch składników. Położenia względne można wyznaczyć jednorazowo z dokładnością i precyzją do 1 mas prążki obu gwiazd ulegają dekonwolucji.

Śledzenie marginesów

Za przykład śledzenia prążków uważamy typowy cel paralaksy i powiązane z nim gwiazdy odniesienia. Główny cel naukowy jest idealnie otoczony przez pięć do dziesięciu innych gwiazd używanych jako układ odniesienia, względem którego określamy położenie i ruch. Astrometria śledząca prążki jest na ogół procesem dwuetapowym. Najpierw określamy charakterystykę układu odniesienia. Jako płytę ograniczającą wybiera się jedną z epok obserwacji. Z tych danych możemy określić skalę i obrót względem płyty ograniczającej dla każdego zestawu obserwacji w obrębie jednej orbity. Ponieważ w przypadku wielu naszych obiektów obserwacje obejmują okres ponad dwóch lat, uwzględniliśmy także efekty paralaksy gwiazdy odniesienia (π) i ruchu własnego (&mi;)

ξ = ax + by + c ? (Px ? π + μx ? t) (3) η = dx + ey + f ? (Py ? π + μy ? t). (4) Orientację względem sfery niebieskiej uzyskuje się z astrometrii naziemnej. Niepewność orientacji pola wynosi zazwyczaj 0,03° < !εθ < 0,09°. Współczynniki paralaksy Px i Py uzyskujemy z predyktora orbity Ziemi JPL. Wreszcie, dθa wystarczająco bogatego pola odniesienia (n > cztery gwiazdki) ograniczamy Σπ = 0 i Σ&piu;= 0 dla całego układu odniesienia. Drugi krok polega na zastosowaniu stałych płytki do pomiarów celu naukowego. Współczynniki płyty a, b, ..., f są stosowane jako stałe, podczas gdy w powyższych równaniach rozwiązujemy cel naukowy μ i π.

Astrometr

Projektowanie


FGS 3 jest interferometrem. Interferencja zachodzi w pryzmacie, który został przecięty na pół i pokryty ćwierćfalową powłoką opóźniającą, a następnie ponownie złożony. Rysunek 4 przedstawia jeden z tych pryzmatów Koestera. Większość FGS składa się z optyki pomocniczej służącej do zasilania pryzmatów Koestera . W szczególności selektory gwiazd poruszają się po chwilowym polu widzenia w całym polu interferometru . Sygnał wyjściowy każdej ściany (powierzchni A i B) jest mierzony przez PMT. Sygnały te są łączone

S = A - B/A + B (5)

tworząc sygnał S, który ma wartość zero dla fal padających dokładnie pionowo na przednią powierzchnię pryzmatu Koestera. Pochylanie czoła fali do przodu i do tyłu (równoważne skierowaniu teleskopu nieco w bok, następnie na cel, a następnie nieco w drugą stronę) generuje wzór prążków. Idealny instrument wygenerowałby idealnie symetryczny wzór prążków. Znacząca aberracja sferyczna zwierciadła głównego HST powykonawczego, w obecności wewnętrznych niewspółosiowości FGS, tworzy na prążkach sygnaturę imitującą komę. Koma powoduje zmniejszoną modulację oraz liczne szczyty i doliny na obrzeżach. FGS 3 tworzy najmniej skomplikowane prążki na najszerszym obszarze pola obserwacji. Zamienny FGS zainstalowany w 1997 r. zawiera przegubowe, składane na płasko lusterko, które usuwa większość wewnętrznych niewspółosiowości. Ten FGS (FGS 1r) wytwarza prawie idealne prążki i powinien co najmniej dawać doskonałe wyniki w przypadku gwiazd podwójnych. FGS 3 pozostanie w służbie do czasu pełnej kalibracji FGS 1r w roku 2000.

Tryby pracy FGS

Omawiamy strategie pozyskiwania danych najwyższej możliwej jakości. Nasz cel, precyzja astrometrii małego pola wynosząca 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. Należą do nich mechanicznie zaszumione środowisko na orbicie, samokalibracja FGS 3 i znaczące zmiany czasowe w naszym instrumencie. Rozwiązania obejmują gęstszy zestaw gwiazd kontroli dryfu dla każdej obserwacji naukowej, precyzyjne dostrajanie czasów ekspozycji, nakładające się obserwacje terenowe i analizy do kalibracji, a także ciągłą serię obserwacji monitorujących trendy. Największy wpływ na jakość danych ma traktowanie wszystkich danych uzyskanych na tej samej orbicie jako obserwacji jednostkowej, np. talerz'.

Skanowanie brzegowe

Cel umieszcza się w środku "marynaty", a selektory gwiazd otrzymują polecenie przesunięcia chwilowego pola widzenia na obraz docelowej gwiazdy. Ta akcja tworzy grzywkę. W praktyce uzyskuje się 10-30 skanów w układzie posuwisto-zwrotnym do przodu i do tyłu w poprzek gwiazdy. Ostateczny prążek wynika z procesu odwrócenia, przesunięcia i dodania. Mamy dowody na to, że w trakcie orbity pozycje gwiazd przewodników podawane przez FGS 1 i FGS 2 zmieniają się. Powoduje to dryftowy ruch astrometru FGS 3. Dryft może przekroczyć 30 mas w ciągu 36 minut. Szybkości dryfu x i y są na ogół odmienne, a dryft nie jest stały. Ponieważ jednak pojedynczy skan obiektu naukowego zajmuje około 1 minuty, dryft na skan zmniejsza się do mniej niż 1 mas. Strategia akwizycji danych z ruchem posuwisto-zwrotnym prawie samokompensuje dryf.

Śledzenie marginesów

W celu śledzenia prążków elektronika pokładowa lokalizuje przejście przez zero pomiędzy najwyższym dodatnim i najniższym pikiem prążków ujemnych. Położenie tego przejścia przez zero jest określane z częstotliwością 40 Hz w czasie obserwacji w zakresie od 10 < t < 300 s. Mediana >2400 przejść przez zero zapewnia solidne oszacowanie pozycji. Selektory gwiazd służą do przesuwania chwilowego pola widzenia z jednej gwiazdy na drugą w polu widzenia FGS. Dryf można skorygować, ale powoduje to dodatkowy narzut, skracając czas dostępny na orbicie na obserwację celu naukowego . Zestaw obserwacji astrometrycznych musi zawierać wizyty do jednej lub większej liczby gwiazd odniesienia, wielokrotne podczas każdej sekwencji obserwacji. Zakładając brak ruchu charakterystycznego dla wszystkich gwiazd odniesienia i gwiazd docelowych w okresie 40 minut, określa się dryft i koryguje układ odniesienia i gwiazdę docelową pod kątem tego dryfu. W rezultacie zmniejszamy udział budżetu błędu z dryftu do mniej niż 1 mas. Na ryc. 1 cel naukowy można obserwować trzy razy podczas sesji obserwacyjnej (pojedyncza orbita), a każdą gwiazdę odniesienia dwukrotnie.

Kalibracja astrometryczna

Kalibracja trybu skanowania prążków ma na celu określenie różnic separacji i wielkości pomiędzy składnikami gwiazd podwójnych. Jak omówiono wcześniej, wszystkie prążkowe cele skanowania są obserwowane w pobliżu środka zamarynowania. Dla kontrastu śledzenie prążków odbywa się na całym polu widzenia. Wymagania kalibracyjne dla tych dwóch trybów pracy są zupełnie inne.

Kalibracja skanowania prążków

Najbardziej podstawową kalibracją każdego instrumentu astrometrycznego jest określenie skali w jednostkach sfery niebieskiej. Skala FGS pochodzi z pomiarów kilku kalibracyjnych gwiazd podwójnych, często obserwowanych za pomocą interferometrii plamkowej za pomocą teleskopów klasy 4 m. Na podstawie tych pomiarów plamkowych uzyskano niezwykle dobrze określone elementy orbitalne. Te orbity gwiazd podwójnych dają, dla dowolnej daty obserwacji HST FGS, dokładne separacje kątowe układu podwójnego, a tym samym skalę. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych.

Kalibracja śledzenia prążków

Zespół teleskopu optycznego (OTA) HST to aplanatyczny TELESKOP CASSEGRAINA konstrukcji Ritchey-Chretien. Naszym początkowym problemem było mapowanie i usuwanie zniekształceń optycznych, których wpływ na mierzone pozycje przekraczał 0,5. Nie istniało żadne pole gwiazdowe ze skatalogowaną astrometrią o precyzji 1 mas, co stanowiło nasz pożądany cel w zakresie wydajności, do wykorzystania jako siatka odniesienia. Naszym rozwiązaniem było użycie FGS 3 do samodzielnej kalibracji. W wyniku tej aktywności zniekształcenia zmniejszają się do wartości lepszych niż 2 mas na większości pola widzenia FGS 3 (rysunek 1). Model ten nazywany jest kalibracją zniekształceń kąta pola optycznego (OFAD). Do opisu tych zniekształceń przyjęliśmy a funkcjonalna forma przed wprowadzeniem na rynek, pierwotnie opracowana przez konstruktora instrumentu, firmę Perkin-Elmer Corporation. Zniekształcenia te można opisać (i zamodelować do poziomu jednej milisekundy łuku) za pomocą dwuwymiarowych wielomianów piątego rzędu




gdzie x, y to obserwowane pozycje w polu widzenia FGS, x , y to skorygowane pozycje, a wartości liczbowe współczynników aij i bij wyznaczane są poprzez kalibrację. Do wstępnego oszacowania OFAD wykorzystano ślady promieni. Wymagane uwolnienie grawitacyjne, odgazowanie struktur grafitowo-epoksydowych w FGS i regulacja zwierciadła wtórnego HST po wystrzeleniu aby ostatecznego określenia współczynników OFAD aij i bij dokonano w drodze kalibracji na orbicie. Jako pole kalibracyjne wybrano M35. Ponieważ naziemne pozycje naszych docelowych gwiazd kalibracyjnych były znane tylko z dokładnością do 23 milisekund łuku, pozycje gwiazd oszacowano jednocześnie z parametrami zniekształceń. Dokonano tego podczas kalibracji maratonu przeprowadzonej 10 stycznia 1993 r. w FGS 3. Całą sekwencję 19 orbit pokazano na rycinie 6. GaussFit został wykorzystany do jednoczesnego oszacowania względnych pozycji gwiazd, kierunku i obrotu teleskopu podczas każdego orbity ( kwaternionami), powiększenie teleskopu, współczynniki wielomianu OFAD i cztery parametry opisujące optykę selektora gwiazd wewnątrz FGS.

Inne kalibracje śledzenia prążków

Ponieważ każdy FGS zawiera elementy załamujące światło, możliwe jest, że zmierzone położenie gwiazdy może zależeć od jej wewnętrznego koloru. Zmiany pozycji będą zależeć od koloru gwiazdy, ale oczekuje się, że kierunek przesunięcia będzie stały w stosunku do osi FGS. To boczne przesunięcie koloru byłoby nieistotne, o ile gwiazdy docelowe i referencyjne mają podobny kolor. Jednak z pewnością nie dotyczy to wielu obiektów naukowych (np. bardzo czerwonych gwiazd, takich jak Proxima Centauri i gwiazda Barnarda). Wreszcie, aby zapewnić duży zakres dynamiki, przed pryzmatem Koestera można umieścić filtr o neutralnej gęstości. W rezultacie nastąpi niewielkie, ale dające się skalibrować przesunięcie pozycji (z powodu klina filtra) podczas porównywania pozycji jasnej gwiazdy ze słabym układem odniesienia. Przesunięcie jest stałe pod względem kierunku (w stosunku do FGS 3) i wielkości, ponieważ filtr nie obraca się w swoim uchwycie. Utrzymanie kalibracji śledzenia prążków Przewidywano, że grafitowo-epoksydowy stół optyczny FGS 3 będzie wydzielał gaz przez pewien czas po wystrzeleniu HST. Przewidywano, że odgazowanie zmieni względne położenie elementów optycznych na stole optycznym. Rezultatem wszelkich zachodzących zmian była zmiana skali. Wielkość zmiany skali była o wiele za duża, aby wynikała ze zmian rzeczywistego powiększenia w zespole optycznym HST. Dwa z parametrów opisujących optykę selektora gwiazd powodują zmianę przypominającą skalę, jeśli pozwoli się im zmieniać się w czasie. Rozwiązaniem było okresowe odwiedzanie pola kalibracyjnego M35 w celu monitorowania zmian przypominających skalę i innych wolno zmieniających się nieliniowości. Ponowne wizyty będą konieczne, jeśli pożądane będzie wykonanie astrometrii z dokładnością do 1 mas za pomocą dowolnego FGS. Wynik tej czynności ocenia ważność bieżących współczynników OFAD i ostrzega o konieczności ponownej kalibracji. Dzięki tym danym usuwamy powoli zmieniającą się składową OFAD, tak że nieskorygowane zniekształcenia pozostają poniżej 2 mas dla środka FGS 3. Charakter tych zmian jest generalnie monotoniczny z gwałtownymi skokami w połączeniu z misjami serwisowymi HST.

Astrometria: historia

Chociaż termin "astrometria" powstał dopiero w XIX wieku, mierzenie położenia i odległości kątowej gwiazd i planet stanowi jedno z najstarszych zajęć astronoma. Do czasów HIPPARCHUSA (fl 126 p.n.e.) w klasycznej Grecji ustalono już pomiary pozycji astronomicznych w stosunku do koła 360°, natomiast starożytni Babilończycy z roku 1750 p.n.e. pozostawili nieinstrumentalne obserwacje zachodniego i wschodniego wydłużenia Wenus względem Słońca, co można słusznie uznać za astrometryczne. Od czasów greckich po dzień dzisiejszy astronomowie zajmujący się astrometrią używali instrumentów wykorzystujących skalę 360°. Ze swej natury astrometria polega na ustalaniu i udoskonalaniu współrzędnych fizycznych na niebie, na podstawie których można określić ilościowo ruchy ciał. Hipparch, Klaudiusz PTOLEMUSZ i inni Grecy uznali, że ekliptyka stanowi naturalny i dość oczywisty podstawowy układ współrzędnych astronomicznych, ponieważ wysokości Słońca w środku lata i w środku zimy powodują przesilenia, równonoce i bieguny zodiaku. Co więcej, te współrzędne zodiaku można powiązać z innym zestawem współrzędnych, opartym na równiku ziemskim (lub równiku) i biegunach ziemskich; w czasach Ptolemeusza odległość między nimi wynosiła 23° 51′ 20 cali, a obecnie wynosi 23° 26′ 21". Geometryczne punkty na niebie, w których przecinają się płaszczyzny ekliptyki i równika, równonoce, tworzą współrzędne pochodzenia naturalnego, a przecięcie wiosenne w marcu zostało wykorzystane przez Ptolemeusza i innych klasycznych astronomów do wyznaczenia początku dnia gwiazdowego. Ponad dwa tysiące lat temu punkt ten znajdował się w konstelacji Barana, co dało początek określeniu "PIERWSZY PUNKT BARANA", który do dziś jest używany jako punkt zerowy długości geograficznej niebieskiej (lub rektascencji) na mapach astronomicznych. Jednak już w starożytności uznano, że ten pierwszy punkt nie jest ustalony (jak w rzeczywistości jest kilka punktów na niebie, jeśli ma się wystarczająco dużo czasu), ale powraca sam do siebie, czyli "precesuje". Ptolemeusz określił tę precesję jako 1° na każde stulecie, chociaż uzyskał tę wielkość poprzez zaokrąglenie liczb dla pierwszego punktu, które wyprowadził z obserwacji obejmujących około 400 lat do roku 150 ne. Używając znacznie lepszych instrumentów i wykorzystując je do ciągłego udoskonalania i udoskonalania -zdefiniuj swoją liczbę pomiędzy 1675 a 1715 rokiem, JOHN FLAMSTEED w Anglii otrzymywał 1° co 72 lata, czyli 50" rok-1 dla stałej precesji, co jest bardzo korzystne w porównaniu z przyjętym dzisiaj 50,290 966&Primne; rok-1. Ustalenie pierwszego punktu Barana i ilościowe określenie jego błędnego ruchu po niebie jest jednym z podstawowych osiągnięć astrometrii i nadal stanowi sedno pomiarów położenia gwiazd, wymagające konstruowania wykresów i tabel w sposób zapewniający określonej "epoce" cyklu precesyjnego, takiej jak rok 1900 lub 2000 n.e. Praktyczny pomiar dokładnego położenia tego wolno poruszającego się kawałka pustej przestrzeni na niebie umożliwił przez wieki była próbą pomysłowości, gdyż nieuchronnie nie jest zajmowana przez żadną konkretną gwiazdę. W II wieku naszej ery Ptolemeusz w swoim Almagestie opisał technikę wykorzystującą księżyc w nowiu jako pośrednika. W dniu lub w okolicach równonocy wiosennej, w latach, w których w czasie równonocy przypadał dogodny nów księżyca, Ptolemeusz mierzył odległość kątową zachodzącego Słońca od Księżyca. Gdy Słońce znalazło się poniżej horyzontu, zalecił zmierzenie położenia Księżyca na podstawie sąsiednich gwiazd, gdy staną się widoczne. Na podstawie tych pozycji gwiazd można było ustalić pozycję Słońca i określić w ten sposób (na podstawie zdobytej kilka miesięcy wcześniej wiedzy o gwiazdach w tym obszarze nieba), która jasna gwiazda znajduje się najbliżej pierwszego punktu Barana. Uznając, że ruch Księżyca sam w sobie może być źródłem błędów w mniej więcej godzinie, gdy Słońce chowa się pod horyzontem, TYCHO BRAHE w Danii od 1582 r. powtórzył technikę Ptolemeusza, wykorzystując jako pośrednika znacznie wolniej poruszającą się planetę Wenus, i obliczyli dla tej epoki, że pierwszy punkt Barana znajdował się w odległości 26° 0″ 30″ od gwiazdy α Arietis, co znajdowało się w odległości 15" od tej samej wartości obliczonej dla roku 1585 przez Dreyera w latach 90. XIX wieku. Sukces prac astrometrycznych Tycho, a większa dokładność, jaką osiągnął w porównaniu ze średniowiecznymi Arabami, takimi jak Ulugh Beigh i Al Sufi, oraz starożytnymi greckimi astronomami, którzy prowadzili obserwacje tysiąclecie wcześniej, zależała od ulepszeń techniki, obejmujących fundamentalne innowacje w konstrukcji instrumentów, wyrafinowane krzyżowe sprawdzanie procedur i rosnąca świadomość na temat refrakcji atmosferycznej. Ogromny postęp, jaki astrometria poczyniła w ciągu ostatnich czterech stuleci, wynika z rosnącej świadomości czynników uznawanych przez Tycho za ważne: innowacji w instrumentach, udoskonalonych technik i czujności na potencjalne źródła błędów. Jednak błyskawiczny rozwój astrometrii od 1580 roku nastąpił jedynie w odpowiedzi na intelektualne problemy astronomii i kosmologii, z których pierwszym była hipoteza Kopernika. W XVI wieku uznano, że jeśli Ziemia rzeczywiście porusza się w przestrzeni, to rozmiary kątowe figur konstelacji powinny wykazywać niewielkie wahania sezonowe, w miarę zbliżania się lub oddalania obserwatora naziemnego od pozycji z czerwca i grudnia. Sam Tycho próbował wykryć takie wahania sezonowe. Jednakże wraz z rozwojem koncepcji nieskończonego wszechświata w XVII wieku, tę kopernikańską paralaksę gwiazdową uznano za najbardziej prawdopodobną do wykrycia podczas sześciomiesięcznego przemieszczenia kątowego gwiazd pierwszej wielkości, takich jak Syriusz, przy założeniu że gdyby wszystkie gwiazdy miały podobną jasność wewnętrzną, to gwiazdy pierwszej wielkości były najbliżej Ziemi, a zatem powinny wykazywać największe paralaksy. Rozwój w XVII i XVIII wieku podziałek o większej skali na kwadrantach astronomicznych, celownikach teleskopowych, mikrometrach i noniuszach oraz podobnych technik instrumentalnych był silnie napędzany chęcią astronomów do wykrycia tej nieuchwytnej paralaksy gwiazdowej. W miarę jak pojemność astrometryczna epoki wzrosła z 1′ Tycho Brahe′a do 25″ Heweliusza, a następnie do 10" Flamsteeda, a paralaksy w dalszym ciągu nie stwierdzono, astronomowie w całej Europie zdali sobie sprawę z dwóch rzeczy: po pierwsze, trójwymiarowy wszechświat gwiezdny musi być niewiarygodnie jest ogromna, a po drugie, nadzieja na jej pomyślne zgłębienie musi wiązać się z ciągłym doskonaleniem konstrukcji precyzyjnych instrumentów, połączonym z równoległym rozwojem wyrafinowanych technik ich użycia. Co więcej, uznanie to było credo astrometru przez ostatnie cztery stulecia, od Uraniborga Tycho po satelitę kosmicznego Hipparcos Europejskiej Agencji Kosmicznej. Poszukiwania paralaksy gwiazdowej, choć zakończone sukcesem dopiero w 1838 r., stały się tak pilne i inspirujące dla astronomów, że po drodze zrodziły się z nich liczne inne odkrycia i kierunki badań. To właśnie CHRISTIAAN HUYGENS w latach pięćdziesiątych XVII wieku stwierdził, że skale stopniowane nie są dostatecznie wyrafinowane, aby wykryć paralaksę, co w istocie doprowadziło do początków fotometrii gwiazdowej. Próbując porównać jasność Syriusza ze światłem emitowanym z obszaru powierzchni Słońca wielkości otworka (zakładając, że Słońce, Syriusz i wszystkie gwiazdy mają tę samą wewnętrzną jasność), Huygens obliczył, że Syriusz był oddalony o 27 664 jednostek astronomicznych od układ Słoneczny. Technika Huygensa zachęciła Sir Johna Herschela do badań fotoastrometrycznych w 1836 roku, podczas których obliczył, że Vega jest 40 razy jaśniejsza od Słońca i Arcturusa 200, a zatem odpowiednio oddalona od Układu Słonecznego. Następnie, w następstwie pomyślnego zastosowania spektroskopii i fotografii w astrometrii w latach sześćdziesiątych XIX wieku, fotometria rozpoczęła niezależny rozwój jako podstawowe narzędzie astrofizyki. Poszukiwania paralaksy gwiazdowej miały także doprowadzić ROBERTA HOOKE (1669), Johna Flamsteeda (1698-1702), a zwłaszcza JAMESA BRADLEYA (1727-1728), do wynalezienia i rozwoju sektora zenitalnego (teleskop o długim ogniskowym zawieszony w punkcie dokładnie w zenicie) jako sposób na wykrycie paralaksy gwiazdowej, obecnie uznawanej za mającą nie więcej niż kilka sekund łuku, na pozbawionym refrakcji atmosferycznej niebie zenitu. Zarówno Hooke, jak i Flamsteed uzyskali podejrzanie duże paralaksy: Hooke określił paralaksy gwiazdy - Draconis na około 27 cali, a Flamsteed dla Polaris 40″, chociaż doskonałe instrumentarium i procedury obserwacyjne Bradleya doprowadziły do jego uznania w 1728 r., że Nowy znaleziony ruch gwiazd stałych, który sam w sobie był produktem obrotu Ziemi wokół Słońca, miał roczne przemieszczenie wynoszące 20,00-20,25′. To była aberracja. Jego wykrycie i oznaczenie ilościowe było triumfem wyrafinowanej astrometrii XVIII wieku i choć nadal nie ujawniło paralaksy, dostarczyło jednak fizycznego dowodu ruchu Ziemi w przestrzeni. Bradley twierdził, że jego sektor zenitowy był w stanie wykryć kąt 0,5 cala, a w 1748 roku wykorzystał niewielki ruch kiwający - Draconisa do wykrycia niewielkiej okresowej zmiany nachylenia osi obrotu Ziemi względem ekliptyki. Jednym z założeń koncepcji nieskończonego wszechświata był możliwy niezależny ruch samych gwiazd, zwłaszcza w następstwie teorii powszechnego ciążenia Sir ISAACA NEWTONA po 1687 r. Od niepamiętnych czasów zakładano, że gwiazdy są nieruchome w swoje miejsca, chociaż w 1718 roku EDMOND HALLEY opublikował artykuł, który wykazał, że gwiazdy pierwszej wielkości Aldebaran (Palilicium), Syriusz i Arcturus wykazywały niezależny lub "właściwy ruch" w stosunku do sąsiednich, słabszych gwiazd. Było to wynikiem pomysłowych badań historycznych, podczas których Halley wykrył systematyczne przemieszczanie się szerokości geograficznej tych gwiazd, jak odnotowali Hipparch, Ptolemeusz, Tycho i współcześni astronomowie. Rzeczywiście obliczył, że Syriusz zmienił swoje położenie wzdłużne o 2 stopy w ciągu 120 lat od Tycho. Sugerowało to nie tylko, że te gwiazdy mogą poruszać się w przestrzeni, ale że nasza pozycja obserwacyjna w Układzie Słonecznym również może się poruszać. William Herschel w 1783 roku jako pierwszy zastosował ruchy właściwe do wyznaczenia wierzchołka Słońca, punktu na niebie, w stronę którego zmierza Układ Słoneczny (patrz RODZINA HERSCHELA). O szybkim postępie w astrometrii i jej instrumentarium mówi coś fakt, że w latach 1838-1840 astronomowie stosujący trzy różne techniki obserwacji odkryli nie mniej niż trzy paralaksy gwiazdowe. Co więcej, żadna z tych paralaks nie zostałaby zmierzona, gdyby nie odkrycie i coraz dokładniejsze określenie ilościowe ruchów własnych gwiazd, ponieważ były to duże ruchy własne wykazywane przez 61 Cygni (5,2 roku-1) i α Centauri (3″ .7), co sugerowało ich względną bliskość Układu Słonecznego, a tym samym przydatność do pomiaru paralaksy. Chociaż Vega (α Lyrae) wykazuje znacznie mniejszy (ale wyraźny) ruch własny, została również uznana za odpowiedniego kandydata do pomiaru paralaksy. Gwiazdy te zmierzyli odpowiednio FRIEDRICH WILHELM BESSEL w Königsburgu za pomocą heliometru, THOMAS HENDERSON na Przylądku Dobrej Nadziei za pomocą koła ściennego i Friedrich Georg WILHELM STRUVE w Dorpacie za pomocą mikrometru filarowego na 24-centymetrowym refraktorze Fraunhofera . Chociaż ich dane zostały nieco zmienione przez późniejszych obserwatorów na podstawie większych serii obserwacji, ich paralaksy pozostają zasadniczo prawidłowe: 61 Cygni, 0,3483; α Centauri, 0,913; Vega, 0,261. Pod wieloma względami te paralaksy stanowiły punkt krytyczny w astrometrii, dzięki czemu na długotrwałe pytanie astronomiczne udało się odpowiedzieć poprzez połączone zastosowanie wyższej teorii matematycznej i wyjątkowo dokładnych obserwacji dokonanych za pomocą nowego rodzaju teleskopów Na początku i w połowie XIX w. nastała era astrometrii manualnej (w której astronom pracował oczami, rękami i uszami, bez pomocy elektromagnetycznych i fotograficznych).Astronomia ta miała na celu nie tylko ostateczne ustalenie szeregu stałych astronomicznych, lecz na dostarczaniu stale aktualizowanego i udoskonalanego zbioru danych, na podstawie których można kontynuować oryginalne badania mechaniki niebieskiej. Co więcej, zaczęły one zależeć od zintegrowanego wykorzystania anglo-niemieckich technik w oprzyrządowaniu i francuskiej matematyki Badania gwiazd podwójnych i potrójnych, których pionierem był w dużej mierze William Herschel w 1802 r., wykazały, że grawitacja Newtona, której działanie dotychczas wykazano jedynie w Układzie Słonecznym, była w oczywisty sposób uniwersalna. Bessel, Struve, Sir James South i inni w całej północnej Europie próbowali określić ilościowo elementy orbit układu podwójnego, aby wyodrębnić elementy grawitacyjne z ξ Ursae Majoris i innych układów gwiezdnych, a to Felix Savary, Johann Encke i Johna Herschela w latach 1830-1832, któremu się to udało. Prace nad gwiazdami podwójnymi wymagały najwyższej dokładności instrumentalnej, ponieważ refraktory montowane równikowo, z achromatyczną optyką Josefa Fraunhofera, Roberta Aglaé Cauchoix i innych, wykorzystujące funkcje mikrometru lub heliometru z największą delikatnością, udostępniły do 1830 roku wiarygodne dane astrometryczne, które byłyby niewyobrażalne w 1780 r. Do 1833 r. John Herschel opublikował osiowe składowe orbit sześciu gwiazd podwójnych z dokładnością do czterech miejsc po przecinku jednej sekundy łukowej i chociaż wiele setnych i tysięcznych sekundy łukowej zostało później zmodyfikowanych, ich dziesiąte, zgodnie z pierwotnym pomiarem, rzadko potrzebna korekta. Dopracowane badania astrometryczne przeprowadzone w połowie XIX wieku ujawniły obecność wielu systematycznych nieregularności gwiazdowych, z których wyłonił się bogaty zbiór odkryć fizycznych. Do roku 1840 wszystkie wielkie obserwatoria w Europie - w Königsburgu, Dorpacie, Berlinie, Bonn, Greenwich i innych - zajmowały się przede wszystkim pracami astrometrycznymi, które w tamtym czasie stanowiły najwyższy szczyt osiągnięć astronomicznych. Z jednej strony ich energię poświęcono pracom w oparciu o refraktor równikowy w astronomii gwiazd podwójnych, chociaż okrąg ścienny i tranzytowy ułatwiły również rutynowe pomiary pozycji południków z dokładnością do ułamka jednej sekundy łukowej. Ponieważ w ślad za przykładami Bessela, Struve′a, Enckego, Friedricha Wilhelma Augustusa Argelandera i George′a Biddella Airy′ego stawało się wymogiem, aby obserwatorium publikowało swoje prace tak szybko, jak to możliwe, szybko zgromadzono ogromny zbiór znakomitych danych astrometrycznych. staje się dostępny w Europie i Ameryce. To właśnie na podstawie opublikowanego astrometrycznego archiwum danych południkowych zarówno John Couch Adams, jak i Jean Joseph Urbain Le Verrier dokonali spektakularnych niezależnych odkryć Neptuna w 1846 roku. Również na podstawie stosunkowo długich serii wysokiej jakości danych astrometrycznych Bessel był w stanie określić ilościowo okresowe wahanie pozycji Syriusza, na podstawie którego był w stanie obliczyć obecność Syriusza B w 1844 r. Co więcej, po obu tych odkryciach, wyciągniętych z istniejących danych astrometrycznych, nastąpiło teleskopowe potwierdzenie, kiedy Johann Galle i Heinrich d′Arrest zaobserwował Neptuna z Berlina 23 września 1846 r. i kiedy Alvan Clark zobaczył Syriusza B z nową 18-stką w szkle przedmiotowym w Bostonie w 1862 r. Wynalazek fotografii w 1839 r. otworzył ogromny potencjał astrometrii. Oprócz możliwości zapewnienia znacznie większej dokładności, uwolnił astronoma od okularu teleskopu, umożliwiając wygodniejszy i spokojniejszy pomiar pozycji astrometrycznych z klisz fotograficznych. Jednak dopiero po 1881 roku, wraz z utworzeniem Carte du Ciel, astrometria fotograficzna naprawdę pokazała, co może zdziałać. Jednak w miarę jak astrofizyka zdominowała astronomię w XX wieku, podstawowa rola astrometrii w nauce spadła, ale rozwój interferometrii radiowej w latach pięćdziesiątych XX wieku wprowadził nową i ważną formę astrometrii, ponieważ anteny radiowe znajdowały się w odległości wielu kilometrów lub nawet do dokładnego położenia źródeł radiowych na niebie z dokładnością do kilku sekund łuku. Jednakże rozwój projektu HIPPARCOS Europejskiej Agencji Kosmicznej w 1989 r. ponownie przywrócił astrometrii optycznej centralną rolę. Satelita kosmiczny Hipparcos umożliwił wykonywanie doskonałych pomiarów astrometrycznych do 0,002 cala w praktycznie przemysłowy sposób, bez żadnych problemów atmosferycznych występujących w obserwatoriach naziemnych. Chociaż astrofizyka w dalszym ciągu w dużej mierze stanowi siłę napędową współczesnych badań astronomicznych, jej krytycznie dokładna dane astrometryczne, jakie umożliwił Hipparcos, są niezbędne, zwłaszcza do zrozumienia procesów fizycznych zachodzących w naszym własnym układzie gwiezdnym.Astrometria satelitarna jest w istocie wyraźnie postrzegana jako rozwiązanie przyszłości, jeśli chodzi o najbardziej krytyczne dokładności. Nadchodząca satelita NASA, FAME (Full Sky Astrometric Mapping Explorer), która ma zostać wystrzelona około 2004 roku, będzie mapować niewiarygodne 40 milionów pozycji gwiazd ze zwiększoną dokładnością od dwóch do dziesięciu (w zależności od wielkości) w porównaniu z poprzednimi satelitami, w ciągu przewidywanego 5-letniego okresu funkcjonowania ESA GAIA (Europejska Agencja Kosmiczna Global Astrometric Interferometer for Astrophysics) ponadto będzie miał także 5-letni okres działania, podczas którego oczekuje się, że zmapuje 500 razy więcej obiektów niż Hipparcos, 100 razy dokładniej. Można ponadto argumentować, że astrometria w jej działach fotograficznych, fotoelektrycznych, radiowych i satelitarnych nadal znajduje się w centrum badań astronomicznych, ponieważ sama astrofizyka opiera się na precyzyjnych pomiarach i interpretacji różnych form energii z kosmosu. To właśnie użycie instrumentów do pomiaru i ilościowego określenia energii docierającej do Ziemi z kosmosu czyni astronomię zdecydowanie najstarszą z nauk ścisłych.

Astrometria: teleskopy i techniki

Celem astrometrii jest określenie pozycji i ruchu ciał niebieskich, takich jak gwiazdy i planety, a także sztucznych satelitów. Astrometria jest najstarszą gałęzią astronomii i aż do XIX wieku cała profesjonalna astronomia była astrometrią. Jednym z głównych celów astrometrii jest pomiar odległości kątowych gwiazd i innych ciał niebieskich względem gwiazd odniesienia, które mają znane pozycje. Można to osiągnąć wykonując zdjęcia przez teleskop podobny do aparatu fotograficznego, czy to na emulsji fotograficznej , czy przy użyciu detektorów elektronicznych, takich jak URZĄDZENIE SPRZĘŻONE Z ŁADUNKIEM (CCD), stosowane obecnie w większości aparatów. Pozycje gwiazd referencyjnych ustalane są metodami astrometrii absolutnej. Katalog takich stanowisk i ruchów określa układ odniesienia. Większość pomiarów astrometrycznych przeprowadza się w dwóch wymiarach, na sferze niebieskiej, podobnych do szerokości i długości geograficznej. Trzeci wymiar, czyli odległość ciał niebieskich w przestrzeni, jest znacznie trudniejszy do zmierzenia i stanowi jedno z największych wyzwań astronomicznych. Tylko odległości w naszym Układzie Słonecznym można zmierzyć z dużą precyzją za pomocą technik radarowych i laserowych. Bardzo precyzyjne pomiary kątowe rzędu 1 milisekundy łukowej (mas) można dziś osiągnąć za pomocą naziemnych teleskopów optycznych, satelitów astrometrycznych i radioteleskopów. Kąt 1 mas jest tysięczną częścią sekundy łukowej, która z kolei jest 3600 częścią stopnia. Księżyc na niebie ma średnicę około pół stopnia lub 1800 sekund łukowych. Parę świec oddalonych od siebie o 10 cm dzieli 1 m, patrząc z odległości 20 000 km. Po niebie poruszają się nie tylko Słońce, Księżyc i planety. Jeśli przyjrzysz się wystarczająco uważnie, gwiazdy "stałe" również się poruszają, powoli krążąc wokół centrum naszej Galaktyki, Drogi Mlecznej. Nawet galaktyki poruszają się w gromadach galaktyk. Zatem dokładne pozycje astrometryczne zależą od czasu. Bez znajomości ruchów nie można dobrze przewidzieć pozycji na przyszłość. Po stuleciach powolnych ulepszeń, w ciągu ostatnich dwóch dekad osiągnięto dramatyczny wzrost precyzji. W 1980 r. najnowocześniejszym stanem była pozycja absolutna wynosząca 100 mas, od 1995 r. było to około 1 mas, a obecnie projektowane misje kosmiczne obiecują 0,05-0,005 mas. Ten niesamowity postęp wynika z technologii, wykorzystania nowych technik i sprzętu.

Astrografy i koncepcja płaszczyzny stycznej

Jedną z podstawowych technik astrometrycznych jest wykorzystanie a kamera (astrograf) do mapowania fragmentu sfery niebieskiej na powierzchni obrazu. Aparatem tutaj może być także teleobiektyw, dedykowany teleskop soczewkowy (refraktor) lub teleskop lustrzany (reflektor). W idealnym przypadku powierzchnia obrazu jest płaszczyzną prostopadłą do osi optycznej kamery i styczną do kuli. Kamera (rysunek 1) jest skierowana na pozycję A na niebie, a gwiazda w S jest nanoszona na S′ w płaszczyźnie stycznej. Ogniskowa f określa skalę tego odwzorowania:

scale(arcsec mm-1) = 206 265/[f(mm)]

Podstawową ideą jest pomiar prostokątnych współrzędnych x, y w płaszczyźnie stycznej, następnie wykorzystanie znanej pozycji niektórych gwiazd odniesienia w polu w celu określenia parametrów mapowania i na koniec obliczenie współrzędnych sferycznych pozostałych mierzonych gwiazd pola. Szczegóły techniczne wyjaśniono poniżej.

Szerokie pole

Teleskop o wysokiej jakości, szerokim, kilkustopniowym POLU WIDZENIA wymaga złożonej konstrukcji optycznej, której nie da się uzyskać za pomocą refraktora dwusoczewkowego ani teleskopu z dwoma zwierciadłami. Astrografy wieloobiektywowe to klasyczne teleskopy w tej kategorii, podobne do teleobiektywów. W przypadku większych apertur (około 0,7 m i więcej) często stosuje się układy katadioptyczne, czyli teleskopy zwierciadlane z dodatkowymi soczewkami. Przykładami są TELESKOP SCHMIDT i duże reflektory z "korektorami pola". Te teleskopy szerokokątne są wykorzystywane w astrometrii głównie do zagęszczania istniejących układów odniesienia. Pozycje wielu słabszych gwiazd są określane w odniesieniu do kilku jasnych gwiazd odniesienia o znanych pozycjach. Duże pole widzenia pozwala na jednoczesną obserwację odpowiednio dużej liczby gwiazd odniesienia w danym polu. Najważniejszymi przykładami astrografów są astrografy z Katalogu Astrograficznego (AC), zbudowane około 1900 roku o ogniskowej 3,7 m, instrumenty z serii 2 i 3 Astronomische Gesellschaft Katalog (AGK) o ogniskowej 2 m, pięciosoczewkowa konstrukcja z 1975 r. Astrograf hamburski, bliźniaczy astrograf US NAVAL OBSERVATORY (USNO) z czerwoną soczewką zaprojektowaną w 1990 roku oraz astrografy Lick i Yale o aperturze 0,5 m. Astrografy Lick i Yale wykorzystują odległe galaktyki jako stałe punkty odniesienia i zestaw ekspozycji wykonanych w odstępie około 20-30 lat (różnica epok) w celu określenia bezwzględnych WŁAŚCIWYCH RUCHÓW gwiazd odpowiednio w programach ruchu własnego Północy i Południa (NPM, SPM). NPM jest już ukończony, natomiast trwają obserwacje drugiej epoki SPM w Argentynie. Projekt USNO CCD Astrograph Catalog (UCAC) rozpoczął się w 1998 roku w CERRO TOLOLO INTERAMERICAN OBSERVATORY i ostatecznie obejmie całe niebo do jasności około 16mag. Pozycje gwiazd w zakresie 10-14 mag są podawane z dokładnością do około 20 mas. Właściwe wnioski zostaną uzyskane poprzez wykorzystanie nowych miar danych NPM i SPM z wczesnej epoki.

Wąskie pole

Refraktory o długiej ogniskowej (≈ 10-15 m) i duże reflektory zapewniają pole widzenia od kilku minut kątowych do 1° przy dużym powiększeniu, co pozwala na rozpoznanie niewielkich przemieszczeń obrazów gwiazd. Teleskopy te są używane głównie w astrometrii do wyznaczania paralaks trygonometrycznych, co jest najbardziej bezpośrednią, podstawową techniką określania odległości poza Układem Słonecznym. Niewielkie przesunięcia położenia stosunkowo bliskiej gwiazdy docelowej są mierzone w stosunku do odległych gwiazd, które są wybierane na podstawie właściwości widmowych i fotometrycznych. Tutaj również zastosowano koncepcję płaszczyzny stycznej; jednakże nie są potrzebne żadne dokładne (absolutne) położenia gwiazd referencyjnych. Obserwacje danego pola prowadzone są przez kilka lat, a następnie mapowane na siebie, przy założeniu średniej wartości stałych gwiazd tła. Rysunek 2 wyjaśnia zasadę trygonometrycznych obserwacji paralaksy. Podczas gdy Ziemia okrąża Słońce, pozycja pobliskiej gwiazdy zmienia się nieznacznie (kolejność 0,5 sekundy łukowej lub mniej). Największe przesunięcia obserwuje się dla pozycji 1 i 2, w odstępie około pół roku. Na ognisku na płaszczyźnie pozycje pobliskiej gwiazdy docelowej i niektórych odległych gwiazd tła są wykreślane na przestrzeni roku (pomijając ruchy właściwe). Głównym problemem jest oszacowanie odległości (paralaks) gwiazd tła. W idealnym przypadku powinny być nieskończenie daleko, czyli w stałym położeniu, czyli w środku elips. W takim przypadku zaobserwowana zmiana położenia docelowej gwiazdy względem gwiazd tła bezpośrednio dałaby jej prawdziwą, absolutną paralaksę . W rzeczywistości pomiar ujawnia względną paralaksę w odniesieniu do średniej paralaksy gwiazd tła. Przykładami są refraktory YERKES OBSERVATORY i ALLEGHENY OBSERVATORY, a także reflektor 1,55 m Strand Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, najbardziej precyzyjny i produktywny instrument w tej kategorii. Wyniki wszystkich znaczących paralaks trygonometrycznych i związanych z nimi obserwacji ruchu własnego są zestawiane w katalogach wydawanych przez Uniwersytet Yale. Aby uzyskać bardzo precyzyjne położenie słabych obiektów, takich jak zwarte, pozagalaktyczne źródła radiowej ramki odniesienia, przyjęto procedurę wieloetapową. Teleskop szerokokątny służy do wyznaczania pozycji drugorzędnych gwiazd odniesienia w układzie głównych gwiazd odniesienia. Instrumenty o długim ogniskowaniu podążają w stronę słabszych, granicznych wielkości magnitudo i zagęszczają sieć gwiazd odniesienia

Detektory

Obecnie w optycznych programach astrometrycznych ważne są trzy typy detektorów: CCD, fotometr z modulacją siatki i emulsje fotograficzne. Detektor CCD w teleskopie jest najważniejszym detektorem szeroko stosowanym w akwizycji danych astronomicznych. Wysoka wydajność kwantowa i stabilność geometryczna sprawiają, że jest to bardzo odpowiednie urządzenie do astrometrii. Jedynym poważnym problemem matrycy CCD jest jej stosunkowo mały rozmiar w porównaniu z kliszą fotograficzną. Typowy CCD ma dziś 30-50 mm z boku, podczas gdy typowa płyta fotograficzna może mieć powierzchnię 100 razy większą. Mozaika matryc CCD może pokrywać duży obszar w płaszczyźnie ogniskowej; jednakże pomiędzy chipami pozostają przerwy i, co ważniejsze dla precyzyjnej astrometrii, potrzebne są dodatkowe parametry w modelu mapowania dla każdego pojedynczego chipa CCD. Może to stanowić poważny problem, gdy gęstość gwiazd odniesienia jest niska. Technikę modulacji siatki zastosowano w wielokanałowym fotometrze astrometrycznym (MAP) w Obserwatorium Allegheny. Mierzy względne położenie gwiazd w płaszczyźnie ogniskowej za pomocą ruchomej linijki ronchi. Instrument ten jest bardzo precyzyjny (dokładność 3 mas na noc na jasnym celu); jednakże w danym momencie można mierzyć tylko jedno źródło docelowe w odniesieniu do kilku gwiazd odniesienia. Zasada modulacji siatki jest również stosowana w misji kosmicznej HIPPARCOS i została wyjaśniona na rysunku 3. Pomiary fotometryczne z dużą rozdzielczością czasową przeprowadzane są za siatką w płaszczyźnie ogniskowej. Gwiazdy (lub siatka) poruszają się, a różnica faz między sygnałami z dwóch gwiazd określa ich dokładne względne położenie w ułamkach stałej siatki. Wymagana jest wiedza a priori dotycząca całkowitej liczby kroków siatki, w których gwiazdy są od siebie oddzielone. Emulsje fotograficzne na kliszy lub płytkach szklanych wymagają maszyny pomiarowej w celu wyodrębnienia informacji x, y o pozycjach obrazu gwiazd. Emulsje fotograficzne nie są już używane w żadnym większym programie astrometrycznym. Dane przechowywane w archiwach płytowych są jednak nadal cenne, a ich ekstrakcja nie została jeszcze zakończona.

Maszyny pomiarowe

W przeszłości ludzie obsługiwali ręcznie jedno- i dwuosiowe maszyny do pomiaru płytek, centrując obrazy gwiazd na krzyżykach mikroskopu i kółkach odczytujących. Techniki dysektora obrazu mogą automatycznie wyśrodkować obraz gwiazdy, wykorzystując właściwość symetrii profilu obrazu. Pełna digitalizacja (skanowanie) klisz fotograficznych wykonywana jest na nowoczesnych maszynach. W tym przypadku pomiar fotometryczny (przezroczystość lub gęstość) jest rejestrowany jako funkcja położenia x, y detektora skanującego. Można to osiągnąć za pomocą mikrodensytometru, matrycy CCD lub urządzenia skanującego liniowo. We wszystkich przypadkach dokładny pomiar położenia detektora względem płytki wzdłuż dwóch osi ma kluczowe znaczenie, a większość maszyn korzysta z metrologii laserowej lub precyzyjnych enkoderów zapewniających powtarzalność około 0,1 μm. Dokładność ograniczają błędy systematyczne procesu pomiarowego oraz stabilność geometryczna nośnika fotograficznego, która w zależności od rodzaju emulsji jest rzędu 0,4-1,0 μm. Przykładami są maszyny mikrodensytometryczne PDS, które były dostępne na rynku, maszyna GALAXY z byłego ROYAL OBSERVATORY, GREENWICH, APM w Cambridge w Wielkiej Brytanii, APS w Minneapolis, MAMA w OBSERVATOIRE DE PARIS, PMM z Obserwatorium Marynarki Wojennej USA, HAM1 w Hamburger Sternwarte i SuperCosmos w KRÓLEWSKIM OBSERWATORIUM W EDYNBURGU.

Koło tranzytowe i astrometria absolutna

Koło tranzytowe (TC) to teleskop zamontowany na stałej osi wschód-zachód, dzięki czemu może poruszać się tylko wzdłuż lokalnego południka. Południk to wielkie koło przechodzące przez bieguny niebieskie i zenit, prostopadłe do horyzontu. TC dokonuje dwóch niezależnych obserwacji: czasu, w którym obiekt docelowy przecina południk (tranzyt) i kąta, odległości od zenitu, którą odczytuje się z okręgów przymocowanych do osi wschód-zachód teleskopu. Kierunek zenitu wyznacza się w praktyce, patrząc w przeciwnym kierunku (nadir) w dół, na powierzchnię zwierciadła rtęciowego, która reprezentuje lokalną płaszczyznę horyzontu ze względu na grawitację Ziemi. W celu sprawdzenia stabilności azymutu instrumentalnego obserwuje się skolimowane znaki odniesienia położone w pewnej odległości w kierunku północnym i południowym. W ubiegłych stuleciach obserwacje tranzytów prowadzono metodą "oko i ucho", obserwując gwiazdę przechodzącą przez drut mikrometryczny przez okular teleskopu i słuchając sygnałów czasu w celu oszacowania ułamka sekundy. Nowoczesne instrumenty wykorzystują detektory fotoelektryczne i podążają za gwiazdą przez pewien czas w płaszczyźnie ogniskowej, aby uzyskać wiele pomiarów dla pojedynczego tranzytu. Najlepszy współtwórca może przeprowadzać względne obserwacje; jednakże jest również w stanie wykonać astrometrię absolutną (fundamentalną), co oznacza, że może określić położenie ciał niebieskich bez apriorycznej wiedzy o pozycjach innych gwiazd. W ten sposób teleskopy TC przez stulecia zapewniały główne katalogi gwiazd odniesienia (katalogi podstawowe). Do najważniejszych należą serie FK3, FK4 i FK5 z tego stulecia, opublikowane przez Astronomisches Recheninstitut w Heidelbergu w Niemczech. Ostatnio podstawowa praca z teleskopami TC została zastąpiona dokładniejszymi technikami, takimi jak misja kosmiczna Hipparcos i obserwacje radiowe VLBI. Na obserwacje Najlepszych Współtwórców wpływa wiele czynników. Niedoskonałości instrumentalne, takie jak wygięcie tubusu teleskopu, można określić poprzez odpowiednie modelowanie serii obserwacji. Krytyczna jest stabilność instrumentu, umożliwiająca powtarzalne podążanie za tym samym wzorcem w danym przedziale czasu. Ruch biegunowy, wędrówka osi Ziemi względem powierzchni Ziemi i inne zmiany lokalnego układu współrzędnych wchodzą w zakres obserwacji TC i wymagają rozwiązania. Co więcej, oś obrotu Ziemi nie jest ustalona w przestrzeni inercyjnej. Układ współrzędnych związany z równikiem Ziemi porusza się względem gwiazd (precesja i nutacja). Skończona prędkość światła powoduje aberrację astronomiczną, czyli przesunięcie kątowe obserwowanej trajektorii w stosunku do rzeczywistej pozycji. Wszystkie te efekty wchodzą w pełnym zakresie do obserwacji absolutnych TC, podczas gdy obserwacje różnicowe (względne) mają do czynienia jedynie ze zmianami tych efektów w polu widzenia. Szczególną troską w przypadku obserwacji TC jest załamanie światła w atmosferze ziemskiej. Obserwacje zarówno dolnego, jak i górnego tranzytu gwiazd w pobliżu bieguna pomagają w określeniu modelu refrakcji. Niemniej jednak załamanie zmienia się w zależności od warunków atmosferycznych, takich jak temperatura. Turbulencje atmosfery ostatecznie ograniczają bezwzględne obserwacje TC poprzez niemodelowane systematyczne wkłady i przypadkowy szum. Przykładami instrumentów TC są CARLSBERG MERIDIAN TELESCOPE i południk w OBSERVATOIRE DES SCIENCES DE L′UNIVERS DE BORDEAUX oraz i 7 w teleskopach Obserwatorium Marynarki Wojennej Stanów Zjednoczonych.

Technika skanowania TDI

Najnowszą innowacją w astrometrii jest zastosowanie przetworników CCD w płaszczyźnie ogniskowej teleskopów typu TC. Przetwornik CCD może pracować w trybie integracji z opóźnieniem czasowym (TDI), w którym transfer ładunku do odczytu CCD jest zsynchronizowany z ruchem gwiazdy w chipie. Działa to jednak dobrze tylko w przypadku gwiazd poruszających się po wielkim okręgu (równiku) i przy małej szerokości skanowanego paska. We wszystkich pozostałych przypadkach gwiazdy w różnych lokalizacjach na matrycy CCD poruszają się po znacznie nieliniowych ścieżkach, co powoduje rozmazanie obrazu. Pionierskim instrumentem tego typu jest Astrometryczny Skaningowy Teleskop Tranzytowy Flagstaff (FASTT). Carlsberg Meridian Telescope (CMC, La Palma i Cambridge, Wielka Brytania) oraz Bordeaux TC wykorzystały technikę skanowania TDI do katalogów strefowych. Część obrazowania projektu SLOAN DIGITAL SKY SURVEY (SDSS) również wykorzystuje tę samą technikę. Jednakże teleskop SDSS może podążać za dowolnymi wielkimi kręgami na niebie, aktywnie sterując teleskopem i jednocześnie obracając płaszczyznę detektora.

Astrolabium

ASTROLABIUM jest przykładem instrumentu równej wysokości, mierzącego czas przejścia gwiazdy przez mały okrąg o stałej wysokości lub odległości od zenitu (często 30° lub 45°). Osiąga się to poprzez konfigurację lustra-pryzmatu przed zamontowanym poziomo teleskop. Bezpośrednie i odbite obrazy docelowej gwiazdy są odwzorowywane na płaszczyźnie ogniskowej. Pozorne ruchy obu obrazów są w przeciwnych kierunkach i krzyżują się, gdy gwiazda osiągnie ustaloną odległość od zenitu, dla której instrument został zaprojektowany. Pozycje gwiazd można wywnioskować z obserwacji przejść w kierunku wschodnim i zachodnim. Astrolabium ma dwie główne zalety w porównaniu z TC. Wszystkie gwiazdy są obserwowane w stałej odległości od zenitu, co upraszcza korekcję refrakcji, a konfiguracja instrumentalna jest bardziej stabilna i pozwala uniknąć problemów z zginaniem. Główną wadą astrolabium jest jego ograniczone pokrycie nieba w deklinacji δ φ - z < δ < φ + z, gdzie φ to szerokość geograficzna, a z to stała odległość zenitu instrumentu. Podobnie jak w przypadku TC, zdolność astrolabium do tworzenia podstawowego katalogu i monitorowania rotacji Ziemi ma obecnie wyłącznie znaczenie historyczne ze względu na wyjątkową dokładność VLBI i technik astrometrii kosmicznej. Fotograficzny teleskop zenitowy (PZT) PZT jest teleskopem montowanym pionowo, z soczewką na obrotowym stoliku u góry i lustrem u dołu. Za pomocą PZT obserwuje się względne położenie lokalnego zenitu względem gwiazd. Przez dziesięciolecia PZT był używany do określania orientacji Ziemi. Ponieważ techniki VLBI są obecnie znacznie dokładniejsze, PZT są przestarzałe.

Interferometria

Interferometria jest najdokładniejszą znaną obecnie techniką astrometryczną, wykorzystującą falową naturę spójnego światła (lub ogólnie promieniowania elektromagnetycznego) do pomiarów kątowych. Powszechnie stosowany jest interferometr Michelsona. Jego podstawową zasadę przedstawiono na rysunku 5. Dwa stałe teleskopy (sidereostaty) A i B obserwują tę samą gwiazdę. Wiązka z co najmniej jednego z teleskopów musi przejść przez linię opóźniającą o zmiennej długości, aby jednocześnie (spójnie) obserwować ten sam czoło fali przychodzącej i w ten sposób uzyskać wzór interferencyjny (prążki) na sumatorze wiązek. W zależności od położenia gwiazdy względem linii bazowej (kąt ?), opóźnienie (d) jest różne i należy je odpowiednio dostosować. Podstawowym pomiarem interferometrycznym jest długość opóźnienia w funkcji czasu, przy jednoczesnym zachowaniu maksymalnego kontrastu prążków (widoczności)

cos γ = d/b Przy znanej linii bazowej b daje to miarę γ. Wielokrotne obserwacje kilku gwiazd w ciągu nocy pozwalają nam określić położenie gwiazd i parametry orientacji Ziemi. Aby sterować linią opóźnienia i uzyskać prążki, wymagana jest aprioryczna informacja o przybliżonych pozycjach gwiazd. Następnie interferometr określa d w ułamku długości fali, podczas gdy długość linii bazowej jest monitorowana za pomocą dodatkowej metrologii. Dzięki tej technice można uzyskać globalną dokładność rzędu kilku mas, a pomiary względne (gwiazdy podwójne, ciemnienie kończyn gwiazd) są co najmniej 10 razy dokładniejsze. Podobnie jak w przypadku kręgów tranzytowych, właściwości atmosfery obecnie ograniczają dokładność. Mark I (MOUNT WILSON OBSERVATORY) był pierwszym interferometrem gwiazdowym zgodnym fazowo, a następnie Mark II i Mark III (około 1990 r.). Przykładami operacyjnych interferometrów optycznych są COAST (Cambridge, Wielka Brytania), SUSI (Australia), GI2T (Francja), PTI (PALOMAR OBSERVATORY) i prototypowy interferometr optyczny Marynarki Wojennej (NPOI). Tylko COAST i NPOI mają trzy lub więcej sidereostatów i regularnie mogą wykonywać obrazowanie. Instrument CHARA rozpoczął pracę na Mt Wilson. Projekt SPACE INTERFEROMETRY MISSION (SIM) (zatwierdzony przez NASA do wystrzelenia w 2009 r.) opiera się na tej samej technice. Podobne techniki stosuje się na częstotliwościach radiowych. Sygnały IA i IB z dwóch radioteleskopów są podawane do korelatora. Produkt korelatora, C,



osiąga maksimum, gdy τ = d/c, gdzie c jest prędkością światła, a d opóźnieniem. Interferometria bardzo długiej linii bazowej (VLBI) jest najdokładniejszą techniką radioastrometryczną. Tutaj poszczególne teleskopy są zwykle daleko od siebie na różnych kontynentach i nie są już bezpośrednio połączone. Zamiast tego sygnał na każdej stacji jest modulowany za pomocą bardzo precyzyjnego wzorca częstotliwości (zegar atomowy, maser), digitalizowany i zapisywany na specjalnych taśmach. Taśmy ze wszystkich stacji są później przetwarzane w centrum korelatora, a opóźnienia i współczynniki opóźnień są wyodrębniane jako podstawowe informacje. Zdolność rozdzielcza R interferometru nie jest już równa zdolności rozdzielczej jego poszczególnych apertur; zamiast tego kryterium Rayleigha

R(rad) = 1.22Λ/b

dotyczy separacji dwóch połączonych teleskopów o długości bazowej b. Jest to szczególnie ważne w przypadku fal radiowych λ, które są bardzo długie (od milimetra do metra) w porównaniu z długościami fal optycznych. Interferometry optyczne, a także VLBI mają możliwość astrometrii absolutnej. VLBI ma obecnie najwyższą dokładność ze wszystkich technik astrometrycznych szerokiego pola. Parametry orientacji Ziemi są rutynowo uzyskiwane na poziomie submasowym, a Międzynarodowy Niebiański System Odniesienia (ICRS) jest definiowany na podstawie pozycji 212 pozagalaktycznych, kompaktowych źródeł radiowych obserwowanych za pomocą VLBI.

Interferometria plamkowa

Interferometria plamkowa to technika pozwalająca przezwyciężyć ograniczenia widzenia naziemnych teleskopów optycznych-IR w zastosowaniach o bardzo małym polu, takich jak obserwacje gwiazd podwójnych. Jeśli apertura teleskopu jest duża w porównaniu z parametrem Frieda (r0 ? 0,15 m, patrz OPTYKA ADAPTACYJNA), podczas fotografowania gwiazdy przy dużym powiększeniu na dysku widzenia widać dużą liczbę pojedynczych plamek. Wykonywanie pojedynczych zdjęć z krótkimi czasami integracji (≈1/30 s) pozwala na rozróżnienie plamek. Rozmiar plamek zależy od apertury teleskopu. Autokorelacja A,

A(u) = ∫l(x+u)l(x)dx

nad obszarem zdjęcia ukazuje kąt separacji i orientacji (z niejednoznacznością 180°) gwiazdy podwójnej z rozdzielczością zbliżoną do teoretycznej zdolności rozdzielczej teleskopu bez wpływu atmosfery. Bardziej złożoną strukturę obiektu można analizować za pomocą technik transformacji Fouriera. Interferometria plamkowa działa tylko w obrębie plamki izoplanatycznej i dlatego jest ograniczona do pola widzenia około 5 sekund łukowych.

Astrometria kosmiczna

Kosmiczny Teleskop Hubble′a (HST) wyposażony jest w dwa instrumenty do obserwacji astrometrycznych: precyzyjne czujniki naprowadzania (FGS) oraz kamerę szerokokątną i planetarną (WFPC). FGS umożliwia dwuwymiarowe określanie względnego położenia obiektów w pierścieniowym polu widzenia o wymiarach ?13′ na 4′, obserwując jeden cel na raz. Druga kamera szerokokątna i planetarna (WFPC2) firmy HST wykorzystuje cztery detektory CCD do bezpośredniego obrazowania w pasmach od UV do IR. Informacje astrometryczne można uzyskać, stosując koncepcję płaszczyzny stycznej opisaną w pierwszej części. Zniekształcenia kąta pola optycznego określono za pomocą gęstych pól kalibracyjnych (klaster kulisty), redukując liczbę parametrów wymaganych w modelu mapowania dla zastosowań użytkownika. Pole widzenia wynosi tylko około 75 cali w przypadku trzech chipów CCD Wide Field i około 34 cali w przypadku matrycy CCD Planetary Camera. Optyka korekcyjna jest zintegrowana z drugim WFPC2, który został zainstalowany w grudniu 1993. Instrument nadaje się do astrometrii bardzo słabych źródeł (do ?26 mag); jednakże obrazy są niedostatecznie próbkowane, a do precyzyjnego centrowania stosowane są techniki ditheringu. Hipparcos, satelita zbierający paralaksy o wysokiej precyzji, był pierwszą misją kosmiczną poświęconą astrometrii. Wystrzelony w 1989 roku, obserwował całe niebo przez 3,5 roku, tworząc katalog 118 000 gwiazd z pozycjami absolutnymi, ruchami właściwymi i paralaksami trygonometrycznymi z dokładnością do 1 mas. Dzięki podzielonemu zwierciadłu dwa pola na niebie oddzielone o ?58° zostały zmapowane na tę samą płaszczyznę ogniskową. Satelita obracał się w sposób ciągły, a światło gwiazd przecinających pola było modulowane za pomocą dobrze skalibrowanej siatki. Korzystając z katalogu wejściowego, wybrane punkty w płaszczyźnie ogniskowej były wychwytywane przez detektor fotoelektryczny. Surowe dane obejmują stały strumień pomiarów natężenia światła w funkcji czasu. Tylko jeden wymiar (wzdłuż skanu) obserwowano z dużą precyzją. Oś obrotu satelity powoli ulegała precesji, aby umożliwić globalne pokrycie nieba. Każdy punkt na niebie został przeskanowany około 120 razy w różnych kierunkach w celu ustalenia obu współrzędnych. Dane odciętych, czyli kąty mierzone wzdłuż kierunku skanowania, wszystkich skanów wielkiego koła zostały później połączone w jedną dużą redukcję (rekonstrukcja sfery), aby jednocześnie określić parametry astrometryczne gwiazd i parametry instrumentalne. W rezultacie ustalono sztywny, samospójny, instrumentalny układ współrzędnych. Zewnętrzną orientację osi (trzy pozycje i trzy właściwe parametry ruchu) wykonano w połączeniu z obserwacjami naziemnymi, łącząc układ Hipparcosa z ICRS. Wszystkie gwiazdy do około 7mag zaobserwowano w dwóch przejściach pasmowych, podobnie jak B i V, a także większość gwiazd do 8,5mag, a niektóre wybrane do 12,5mag. Dane z mapy gwiazd uzyskane z misji Hipparcos zostały wykorzystane do zbadania wszystkich gwiazd do około 11mag w ramach projektu Tycho. Ponowna ocena danych z Tycho, zakończona w 1999 r., pozwoliła na utworzenie katalogu Tycho-2 zawierającego 2,5 miliona gwiazd (fotometria i położenie), uzupełnionego właściwymi wnioskami w powiązaniu z katalogami naziemnymi. Dokładność pozycji Tycho jest rzędu 10-70 mas, w zależności od wielkości. W 1999 r. NASA wybrała misję kosmiczną Full-Sky Astrometric Mapping Explorer (FAME) z planowanym wystrzeleniem w 2004 r. Podobnie jak Hipparcos, satelita ten będzie skanował całe niebo w ciągu 5 lat misji, aby określić pozycje, ruchy właściwe i paralaksy wynoszące 40 milionów gwiazd z dokładnością od 0,5 mas do 50 ?as, w zależności od wielkości. W przeciwieństwie do Hipparcos, FAME wykorzystuje szereg matryc CCD w trybie skanowania TDI.

Globalne spojrzenie na techniki astrometryczne

Techniki kosmiczne a techniki naziemne

Zasadniczo istnieją trzy różnice w astrometrii kosmicznej w porównaniu z astrometrią naziemną.

1. Atmosfera. Brak atmosfery ziemskiej pozwala na uzyskanie ostrzejszych zdjęć, niezakłóconych przez turbulentne medium. Wyższa zdolność rozdzielcza bezpośrednio prowadzi do lepszego stosunku sygnału do szumu i słabszych wielkości granicznych. Brak turbulencji oznacza także znaczną redukcję szumu losowego przy pomiarze odległości kątowych. Atmosferyczny błąd losowy jest w przybliżeniu

σatm ≈ kt-1/2F1/3(cos z)-1 z czasem ekspozycji t w sekundach, polem widzenia F w minutach kątowych, odległością od zenitu z i parametrem k w zakresie 10-70 mas, w zależności od warunków atmosferycznych. Dostępność większego widma częstotliwości (w tym UV i IR) do obserwacji kosmicznych nie miała dotychczas większego znaczenia dla astrometrii.
2. Grawitacja. Grawitacja bliska zeru dla instrumentów kosmicznych bezpośrednio prowadzi do większej stabilności i niezależności niektórych błędów od kierunku wskazywania. Jednakże efekty termiczne (satelita w świetle słonecznym lub w cieniu) powodują inne problemy, a kontrola temperatury do poziomu 1/100 K jest często wymagana w astrometrycznych misjach kosmicznych. Gradient grawitacyjny instrumentów naziemnych zapewnia wygodną metodę definiowania jednej osi układu współrzędnych. Opcja ta nie jest już dostępna w misjach kosmicznych.
3. Orientacja. Niezależność Ziemi oznacza brak problemów z rotacją Ziemi i nieregularnościami lokalnych ziemskich układów współrzędnych. Oznacza to także brak dostępnej definicji północy lub podobnej orientacji zewnętrznej. Równik nie ma żadnego znaczenia dla misji kosmicznych, a płaszczyzna ekliptyki jedynie słabo wchodzi w zakres aberracji świetlnej.

Technika redukcji płaszczyzny stycznej

Niech ξ, η będą prostokątnymi współrzędnymi kartezjańskimi zdefiniowanymi jako punkt zerowy na przecięciu osi optycznej z płaszczyzną styczną (A′), ξ skierowany na wschód i η na północ. Rzut gnomoniczny podaje współrzędne styczne jako



gdzie α, δ oznacza rektascencję i deklinację S oraz α0, δ0 deklinacji A. W tym punkcie jednostką ξ, η są radiany. Zmierzone współrzędne x, y są wówczas dokładnie równoległe do ξ, η

x = fξ y = fη gdzie f jest ogniskową, a x, y w tych samych jednostkach co f, np. milimetry. Równanie jest w rzeczywistości najprostszym modelem fizycznym pomiędzy czysto matematycznymi ξ, η i obserwowalnymi w świecie rzeczywistym x, y. Przykładem bardziej realistycznego modelu płyty jest



przy czym P1 do P9 to parametry, które należy oszacować w procesie regulacji przy użyciu gwiazd odniesienia o znanych pozycjach (ξ, η), a r2 = x2 + y2. Parametry od 1 do 4 reprezentują model ortogonalny, który jest zwykle najprostszym modelem praktycznym. Pozwala na punkt zerowy, skalę i obrót (wyrównanie) pomiędzy x, y i ξ, η. Uwzględnienie składników P5 i P6 daje pełny model liniowy. Parametry 7 i 8 reprezentują nachylenie płaszczyzny ogniskowej w stosunku do idealnej płaszczyzny stycznej, a P9 to składnik zniekształcenia optycznego trzeciego rzędu, istotny w większości prawdziwych teleskopów. Po oszacowaniu parametrów funkcja modelu, taka jak równanie, podaje współrzędne ξ, η ze zmierzonych x, y dowolnej gwiazdy o wcześniej nieznanym położeniu. Następnie poprzez rozwiązanie otrzymuje się jego współrzędne sferyczne α, δ



Zaawansowane tematy i metody redukcji

Systematyczne błędy pozycji w zależności od wielkości (zwane równaniem wielkości) są częstym problemem w wielu tradycyjnych technikach astrometrycznych, szczególnie w astrometrii fotograficznej. Z wyjątkiem porównań zewnętrznych, te błędy systematyczne można określić obserwując obrazy tej samej gwiazdy przy różnych poziomach ekspozycji. Oczywiście można to osiągnąć, biorąc te same pola o różnych czasach ekspozycji. Inną możliwością jest zastosowanie SIATKI DYFRAKCYJNEJ przed aperturą (w pobliżu źrenicy wejściowej). Oprócz centralnego obrazu zerowego rzędu siatka tworzy znacznie słabsze obrazy wyższego rzędu, rozmieszczone symetrycznie wokół obrazu centralnego. Te obrazy to w zasadzie widma; jednakże, w zależności od stałej siatki i pasma pasmowego, można je wykonać prawie kołowo. Instrumentalne równania wielkości można również zredukować, łącząc dane zebrane za pomocą instrumentu w położeniu normalnym i odwróconym. Jednakże równań wielkości wywołanych błędem prowadzenia nie można zredukować za pomocą tej techniki. W przypadku detektorów liniowych, takich jak CCD, w zasadzie nie oczekuje się już równań wielkości. Niemniej jednak przy niedoskonałej wydajności transferu ładunku błąd systematyczny przypominający komę może być znaczący w danych CCD. Techniki regulacji blokowej (BA) w obserwacjach astrograficznych umożliwiają uzyskanie szerokokątnych (aż do globalnych) wyników astrometrycznych przy użyciu jedynie obserwacji różnicowych w wąskim polu. Wymagane są nakładające się pola. Zamiast rozwiązywania każdego pola osobno, stosuje się schemat redukcji, aby rozwiązać wszystkie parametry płyty i wszystkie pozycje gwiazd jednocześnie, wykorzystując fakt, że dana gwiazda ma unikalną pozycję na wszystkich zdjęciach lub klatkach CCD, na których się znajduje. Technikę tę wprowadzono do astronomii w 1960 roku; jednakże nie był on wykorzystywany aż do lat 70. XX wieku z powodu braku mocy komputerowej. Metoda jest bardzo wrażliwa na błędy systematyczne, które nie są odzwierciedlone w danych, a jeśli nie zostanie właściwie zastosowana, może dać gorsze wyniki niż tradycyjna redukcja. Proces rekonstrukcji sfery projektu Hipparcos jest w rzeczywistości bardzo podobny do procesu BA. Ze względu na większą liczbę obserwacji na gwiazdę i jednoczesną obserwację dwóch szeroko odległych pól, dane Hipparcosa są lepiej uwarunkowane w celu uzyskania rozwiązania globalnego niż nakładające się płyty.

Najnowocześniejsze dokładności i ograniczenia

Obecnie najdokładniejsze pozycje uzyskuje się na podstawie obserwacji radiowych VLBI dla kilkuset kompaktowych źródeł pozagalaktycznych. Uważa się, że pozycje niektórych źródeł są podawane z dokładnością do 0,1 mas. Poważnym problemem jest struktura źródła, właściwości atmosferyczne i jonosferyczne oraz stabilność stacji naziemnych (modelowanie efektów krótkookresowych). VLBI jest również techniką bardzo kosztowną w utrzymaniu i jest stosowana głównie w pracach związanych z orientacją Ziemi i geodezją, a na marginesie można uzyskać dobrą astrometrię. Techniki interferometryczne mają w zasadzie większy potencjał w zakresie najwyższej dokładności pozycjonowania niż inne metody. Jednak obserwacja jest powolna, jeden obiekt na raz. Najwyższe rozdzielczości kątowe i najdokładniejszą astrometrię bliskich gwiazd podwójnych uzyskuje się za pomocą interferometrów optycznych (NPOI, 70 μas). Paralaksy na poziomie 0,5 mas osiągane są dla dobrze obserwowanych gwiazd przez tradycyjne naziemne teleskopy długoogniskowe wyposażone w matryce CCD, działające równie dobrze jak najlepsze instrumenty kosmiczne, z FGS HST (0,4 mas). Jednak technika naziemna osiągnęła już swój teoretyczny limit wyznaczony przez atmosferę i misje kosmiczne nowej generacji prawdopodobnie poprawią ten wynik 10-krotnie. Katalog Hipparcosa jest obecnie najdokładniejszą realizacją optycznego układu odniesienia, podającą pozycje 118 000 gwiazd na poziomie 1 mas. Przy właściwym błędzie ruchu wynoszącym około 1 mas rok-1 i średniej epoce 1991,25 błędy pozycji dla epoki 2000 są już rzędu 10 mas. Najdokładniejsze pozycje dla większości gwiazd o jasności 9-12 mag podaje obecnie katalog Tycho-2 (20-70 mas). Naziemne astrografy szerokokątne są już w stanie to ulepszyć, obniżając 20 mas do 14 mag (projekt UCAC). Ograniczeniem tutaj ponownie jest atmosfera w połączeniu z dostępnym czasem integracji ze względu na zaplanowany czas trwania projektu i ograniczone pole widzenia. Udana misja kosmiczna FAME prawdopodobnie sprawi, że przyszłe badania astrograficzne typu astrograficznego staną się przestarzałe, aż do granicznej wielkości 15mag. Zejście do słabszych magnitudo pozostanie domeną naziemnych teleskopów astrometrycznych przez co najmniej dekadę ze względu na ich efektywność kosztową. USNO A2.0 i GSC-2 (Space Telescope Science Institute) dostarczają obecnie jedyne pozycje całego nieba (w przybliżeniu 0,2 sekundy łukowej) słabych gwiazd do 20mag. Pochodzą one z płytek pomiarowych Schmidta, mierzone za pomocą PMM. W przypadku nawet słabszych gwiazd zaobserwowano dotychczas jedynie małe, wybrane obszary. Interferometry kosmiczne, takie jak SIM, zwiększą dokładność astrometryczną do kilku mikrosekund łukowych; jednak tylko dla kilku wybranych źródeł. Ostatecznie możliwa do osiągnięcia dokładność pozycjonowania będzie zależała od stosunku sygnału do szumu, a co za tym idzie liczby zebranych fotonów oraz powodzenia w kontrolowaniu błędów systematycznych, co pozostanie najważniejszym wyzwaniem technicznym dla projektów astrometrycznych. Uzyskanie precyzyjnych ruchów własnych jest obecnie problematyczne, a pełne wykorzystanie danych fotograficznych sprzed dziesięciu lub stu lat jest aktywnym zadaniem współczesnej astrometrii. Prawdopodobnie zmieni się to w przyszłości, kiedy udana astrometryczna misja kosmiczna nowej generacji obejmie wszystkie wielkości danych z epoki.

Zeszyty obserwacji astronomicznych dla amatorów

Astronom obserwacyjny musi przede wszystkim być systematyczny. Błędna obserwacja jest gorsza niż bezużyteczna, może łatwo zmylić wszelkie późniejsze analizy. Niezbędne jest prowadzenie starannej i dokładnej dokumentacji. Historia może być tu istotna, chociaż może być apokryficzna; było to cytowane nie raz. W 1781 roku William Herschel odkrył planetę Uran i przeglądając stare zapisy, okazało się, że Uran był widziany kilkakrotnie, chociaż zawsze był mylony z gwiazdą. Według tej historii francuski astronom Le Monnier (patrz LE MONNIER) widział ją nie mniej niż sześć razy i gdyby porównał swoje obserwacje, nie mógłby nie dokonać odkrycia, mimo że Uran znajdował się w tym czasie w pobliżu jednego ze swoich stacjonarnych zwrotnica. Le Monnier tego nie sprawdził i jedna z jego obserwacji została później odnaleziona na odwrocie papierowej torby, w której kiedyś znajdowały się perfumy do włosów. Do każdej obserwacji - wizualnej, fotograficznej czy elektronicznej - należy dołączyć kilka niezbędnych notatek. Jeśli którykolwiek z nich zostanie pominięty, obserwacja szybko traci dużą część lub całość swojej wartości. Zasadniczo główne wymagania to

imię obserwatora
data
czas, GMT (nigdy nie używaj wariantów takich jak czas letni w Wielkiej Brytanii lub stref czasowych w innych krajach)
używany sprzęt (dla teleskopu, typ, apertura, powiększenie; dla aparatu, typu, filmu, czasu naświetlania)
widzenie warunków
oraz wszelkie inne dane, które wydają się istotne.

Oczywiście rodzaj użytego notatnika zależy całkowicie od charakteru dokonywanych obserwacji. "Staromodny" obserwator planet prowadziłby oddzielną księgę dla każdego obiektu - jedną dla Jowisza, drugą dla Marsa i tak dalej. Podczas tworzenia szkicu planety lub obiektu księżycowego wiele zależy od umiejętności artystycznych obserwatora. Niektórzy są w stanie wykonać "gotowe" rysunki, siedząc bezpośrednio przy teleskopie; inni wykonują wstępne szkice, idą do biurka, aby wykonać ostateczne kopie, a następnie ponownie sprawdzają przy teleskopie. Czasami może pojawić się pokusa, aby odłożyć wykonanie ostatecznych kopii na następny dzień. Zawsze należy się temu przeciwstawić; Wkradanie się błędów jest praktycznie pewne. Obserwatorzy planet często korzystają ze skali widzenia opracowanej dawno temu przez E M ANTONIADI. Istnieje pięć stopni, od 1 (idealne warunki przejrzystości i stałości) do 5 (warunki tak złe, że nie ma sensu obserwować niczego poza śledzeniem jakiegoś zjawiska, które się nie powtórzy). W praktyce Antoniadi 1 jest bardzo rzadko spotykany, przynajmniej w krajach takich jak Wielka Brytania. Podczas rysowania Jowisza lub Marsa pomocne jest użycie przygotowanego krążka, aby uwzględnić spłaszczenie w przypadku Jowisza lub fazę w przypadku Marsa; nie jest to takie proste w przypadku Saturna, gdzie odręczne szkicowanie jest tak naprawdę jedyną odpowiedzią. Zdjęcia należy bardzo starannie segregować, z podaniem dat i godzin oraz innych niezbędnych danych. To samo dotyczy zapisów elektronicznych. Wielu amatorów obecnie systematycznie poluje na nowe, komety, supernowe w galaktykach zewnętrznych (patrz INASTRONOMIA WSPÓŁPRACY AMATORSKO-PROFESJONALNEJ), a przy tych zapisach najważniejszy jest czas, szczególnie jeśli dokonuje się odkrycia, a obserwator nie może się doczekać priorytet. W sumie sposób prowadzenia notatnika astronomicznego jest kwestią zdrowego rozsądku. Nigdy nie nagrywaj niczego, czego nie jesteś całkowicie pewien; jeżeli pojawi się cień wątpliwości, zanotuj go obok obserwacji. Pamiętaj też, że zbyt łatwo jest "zobaczyć" to, czego oczekuje połowa. Zostało to bardzo wyraźnie pokazane podczas obserwacji Marsa przed i po przesłaniu pierwszych zdjęć przez sondy kosmiczne. Do tego czasu wielu całkowicie uczciwych obserwatorów pokazywało skomplikowaną sieć kanałów. Gdy tylko stało się jasne, że kanały nie istnieją, zniknęły one z notatek obserwatorów. Warto w tym miejscu poczynić jeszcze jedną uwagę. Noobserwacja nabierze naprawdę pożytku, jeśli zostanie pozostawiona odłogiem w notatniku; jeśli jest potrzebny do analizy, należy go wysłać do organizacji takiej jak BRYTYJSKIE STOWARZYSZENIE ASTRONOMICZNE lub AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH. Jednakże odesłanie oryginalnego notesu jest szczytem szaleństwa; prawdopodobnie zostanie gdzieś zagubiony i być może zaginie na poczcie. Zanim wyślesz obserwację, czy to rysunek, czy zapis, upewnij się, że masz doskonałą kopię. To prawda, wymaga to czasu, ale warto.

Fotografia astronomiczna amatorów z teleskopami

Współczesny astronom-amator jest w stanie wykonać piękne zdjęcia nocnego nieba, często przy użyciu zaskakująco skromnego sprzętu. Jednym z najlepszych sposobów na rozpoczęcie jest umieszczenie lustrzanki jednoobiektywowej (SLR) na solidnym statywie, otwarcie przysłony obiektywu tak szeroko, jak to możliwe, i wykonanie 10-minutowego naświetlania. Spowoduje to zarejestrowanie gwiazd jako śladów ze względu na obrót Ziemi i jest dobrym sposobem na pokazanie różnych kolorów gwiazd. Krótsze ekspozycje (zwykle 1-2 minuty) pozwolą zarejestrować gwiazdy jako punkty i są dobrym sposobem na pokazanie różnych konstelacji. W ten sposób można również fotografować zdarzenia przejściowe, takie jak zorze polarne i jasne komety. Niestety, nowoczesne lustrzanki jednoobiektywowe nie nadają się do astrofotografii, ponieważ do utrzymania otwartej migawki wykorzystują baterie. Ekspozycja astrofotograficzna może być dość długa (do 1 godziny), co bardzo szybko wyczerpuje baterie aparatu. Najlepszym typem aparatu do tej pracy są te, które zostały wyprodukowane pod koniec lat 70. XX wieku, takie jak Nikon, Pentax i Canon. Są to wytrzymałe, ręczne aparaty, które można kupić po rozsądnych cenach w większości sklepów z używanymi aparatami. Ważny jest także wybór soczewek. Obiektywy szerokokątne i standardowe doskonale nadają się do wykonywania zdjęć konstelacji i Drogi Mlecznej. Małe teleobiektywy (135 mm) dobrze nadają się do zdjęć większych gromad gwiazd i obiektów głębokiego nieba, podobnie jak teleobiektywy o długiej ogniskowej (200-500 mm), ale te drugie można stosować do zaćmień i komet. W przypadku długich ekspozycji konieczne jest umieszczenie aparatu na napędzanym montażu paralaktycznym. W ten sposób kamera może śledzić ruch nieba i tworzyć dokładne obrazy gwiazd. Po dokładnym ustawieniu mocowania na biegun możliwe jest wykonywanie ekspozycji do 30 minut bez konieczności dokonywania jakichkolwiek korekt napędu. Przydatnym elementem wyposażenia w tego typu astrofotografii jest przegub kulowy, który mieści się pomiędzy aparatem a uchwytem i umożliwia skierowanie aparatu w praktycznie dowolnym kierunku. Kolejnym bardzo przydatnym wyposażeniem jest linka blokująca, która utrzymuje migawkę otwartą przez dłuższy czas. Przymknięcie przysłony obiektywu o jeden f/stop (tj. f/2 do f/2.8) radykalnie poprawia jakość zdjęć gwiazd, szczególnie w okolicach brzegów kadru. Podłączenie aparatu do nowoczesnego teleskopu pozwala na szczegółowe fotografowanie, ale wymaga większej precyzji układu napędowego. Aparat mocuje się zwykle poprzez umieszczenie adaptera pomiędzy tylną komorą wyciągu teleskopu a korpusem aparatu. Dobrymi celami fotograficznymi jest Księżyc (patrz KSIĘŻYC, MAPY KSIĘŻYCA) i jest to prawdopodobnie najłatwiejsza forma fotografii teleskopowej, ponieważ ze względu na jasność Księżyca czasy ekspozycji mogą być dość krótkie. Uchwycenie sekwencji zmieniających się faz Księżyca może być satysfakcjonujące, podobnie jak niesamowity spektakl całkowitego zaćmienia Księżyca. W przypadku wszystkich rodzajów fotografii astronomicznej dobrym pomysłem jest stosowanie naświetlań w nawiasie. Oznacza to, że stosuje się szereg różnych czasów ekspozycji w okolicach prawdopodobnego prawidłowego czasu ekspozycji. W ten sposób zazwyczaj zostanie osiągnięta prawidłowa ekspozycja, a zanotowanie czasu ekspozycji, który daje najlepszy wynik, pozwoli na trafniejsze przypuszczenie następnym razem, gdy podobny obiekt będzie fotografowany w podobnych warunkach. Słońce jest także dobrym celem fotograficznym, lecz należy zachować szczególną ostrożność podczas obserwacji Słońca, gdyż nawet spojrzenie na Słońce na niebie może spowodować uszkodzenie oczu. Należy także zachować ostrożność w przypadku sprzętu, ponieważ ciepło słoneczne może uszkodzić soczewki, jeśli są one skierowane bezpośrednio na Słońce przez zbyt długi czas. Najłatwiejszą i najbezpieczniejszą metodą fotografii słonecznej jest rzutowanie obrazu Słońca na białą kartkę i fotografowanie obrazu bezpośrednio na karcie. W ten sposób możliwe jest codzienne fotografowanie plam słonecznych. Filtry słoneczne o pełnej aperturze i poza osią zapewniają dobrą widoczność plam słonecznych. Zaawansowani amatorzy używają również filtrów wodorowych alfa do fotografowania Słońca przy bardzo określonej długości fali, wybranej tak, aby ukazać dramatyczne protuberancje widoczne na krawędziach Słońca. Chociaż są drogie, filtry te dają oszałamiające rezultaty, zwłaszcza gdy Słońce znajduje się w fazie aktywnej. Duża ilość światła emitowanego przez Słońce oznacza, że ekspozycja fotograficzna może być krótka. Aby sfotografować planety, które mają bardzo małe średnice kątowe, można skorzystać z projekcji okularowej. Polega to na umieszczeniu okularu pomiędzy teleskopem a aparatem w celu wyświetlenia na kliszy bardzo powiększonego obrazu planety. Chociaż jest w stanie dawać dobre wyniki, zwykle jest dość trudny ze względu na niestabilność atmosfery ziemskiej (słabe widzenie) i trudność w skupieniu się na tak słabym obrazie. Fotografowanie galaktyk i mgławic głębokiego nieba daje satysfakcję, ale wymaga bardzo dobrego śledzenia z napędu równikowego ustawionego na biegun. Chociaż większość współczesnych teleskopów wyposażona jest w dokładne napędy. Podczas dłuższych ekspozycji konieczne jest dokonanie drobnych poprawek w śledzeniu teleskopu. Tradycyjnie robi się to na jeden z dwóch sposobów. Do montażu można przymocować oddzielny teleskop i używać go jako lunety do monitorowania wszelkich odchyleń od doskonałej wydajności śledzenia. Ta metoda działa dobrze, ponieważ jasne gwiazdy, które nadają się do naprowadzania, są zwykle łatwe do znalezienia. Lunetę należy zamocować sztywno, w przeciwnym razie może wystąpić wygięcie, które pogorszy prowadzenie. Druga metoda polega na zastosowaniu guidera pozaosiowego, mocowanego pomiędzy teleskopem a kamerą, który odwraca światło gwiazdy prowadzącej za pomocą małego pryzmatu lub zwierciadła. Działają one dobrze, ponieważ prowadzenie odbywa się poprzez główną optykę teleskopu, więc nie występuje żadne ugięcie, ale w praktyce może być trudne, ponieważ wybór odpowiednich gwiazd prowadzących jest poważnie ograniczony. Nowoczesną opcją jest użycie autoguidera ze sprzężeniem ładunkowym z guidoskopem, ponieważ zapewni to najlepsze śledzenie ze wszystkich i eliminuje potrzebę patrzenia przez obserwatora przez teleskop prowadzący podczas długich ekspozycje. Ustawianie ostrości na obiektach głębokiego nieba jest dość wymagające i najlepiej jest je osiągnąć, używając średnio jasnej gwiazdy i przesuwając ostrość w tę i z powrotem, aż do uzyskania dobrej ostrości. Jeśli używany aparat posiada możliwość zmiany matówki, dobrym rozwiązaniem jest zamontowanie matówki o wysokiej transmisji, np. firmy Beattie. Charakteryzują się bardzo jasnym obrazem i minimalnym bałaganem, ponieważ nie są potrzebne żadne pomoce do ustawiania ostrości w ciągu dnia (podzielony obraz). Tradycyjnie do astrofotografii głębokiego nieba używano szybkich filmów (zwykle 400-1600 ISO), ale jednym z najlepszych filmów do tego rodzaju fotografii jest slajd Kodak EliteChrome 200 ISO. Kilka cech, takich jak drobne ziarno i dobra czułość na czerwień, czyni go doskonałym wykonawcą. Również cyfrowa manipulacja astrofotografami jest bardzo popularna wśród współczesnych astrofotografów. Film można zeskanować i ulepszyć cyfrowo w celu usunięcia zanieczyszczeń świetlnych, śladów samolotów i satelitarnych, a także wzmocnienia kontrastu i koloru w rzeczywistości cyfrowej ciemni.

Towarzystwa i publikacje astronomiczne

Pierwsze nowoczesne obserwatoria finansowane ze środków publicznych powstały, aby służyć potrzebom nawigacji i pomiaru czasu, a ich pierwsze publikacje miały odpowiednio formę almanachów, efemeryd i tym podobnych. Wcześniej na scenie pojawiły się La Connoissance des Temps (Obserwatorium Paryskie, 1679) i Almanachy Nautyczne (Obserwatorium w Greenwich, 1767; Obserwatorium San Fernando (Hiszpania), 1792; Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, 1855). Tworzenie danych kalendarzowych i nawigacyjnych odpowiednich dla określonych lokalizacji i języków było również główną funkcją znacznie liczniejszych obserwatoriów w XIX wieku. Stowarzyszenia zawodowe (i publikacje) służą walidacji społeczności naukowej i jej wspólnego zasobu wiedzy, zwyczajów i doświadczeń. Jednak pierwsze towarzystwo naukowe - Royal Society of London, założone w 1660 roku - było w dużej mierze amatorskie. Jej Transakcje Filozoficzne, zapoczątkowane w 1665 roku, po raz pierwszy umożliwiły szybkie upowszechnienie nowych odkryć naukowych, a także zapewniły forum do ich krytyki. Pierwszym stowarzyszeniem o charakterze astronomicznym było Londyńskie Towarzystwo Astronomiczne (wkrótce przekształcone w KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE (RAS)), założone w 1820 r. przez Johna Herschela i innych (patrz RODZINA HERSCHEL), aby zaspokoić potrzebę, której Towarzystwo Królewskie nie zaspokajało . Nazwiska żydowskie pojawiają się na wczesnych listach członkowskich, na długo przed przyjęciem Żydów na angielskie uniwersytety, a kobieta, Caroline Herschel, otrzymała medal w 1828 r.; drugą była Wiera Rubin w 1996 r. Wydawanie Pamiętników Towarzystwa rozpoczęło się w 1821 r. i początkowo składały się z artykułów prezentowanych w krótkiej formie na comiesięcznych spotkaniach. Wkrótce redakcja musiała zwrócić uwagę, że podziękowanie prelegentowi za jego wystąpienie niekoniecznie oznaczało bezwarunkową akceptację lub gwarancję miejsca we Wspomnieniach. Mała komisja od czasu do czasu przeglądała teksty i rekomendowała Radzie Towarzystwa, które z nich powinny zostać opublikowane. Tym samym Pamiętniki mogą być zarówno pierwszą publikacją specyficznie astronomiczną, jak i pierwszą tego typu publikacją, która została zrecenzowana. Jednakże w pamiętnikach nie przewidziano mniej istotnych pozycji, takich jak wcześniejsze powiadomienia o spotkaniach, krótkie notatki na temat zjawisk astronomicznych i raporty z obserwatoriów, dlatego w 1827 roku Towarzystwo ustanowiło swoje miesięczne zawiadomienia. To rozwinęło się i ostatecznie zwiększyło częstotliwość; obecnie ukazuje się trzy razy w miesiącu i jest wiodącym czasopismem w tej dziedzinie. Wspomnienia stały się narzędziem publikacji bardzo długich artykułów i zestawień danych, a w 1977 r. uległy samozniszczeniu na rzecz mikrofisz w Monthly Notices. Wczesne wydania obu czasopism sporadycznie ukazywały się w języku francuskim, ale przez większość swoich historii były monoglotyczne. Druga publikacja astronomiczna, która ukazała się w latach dwudziestych XIX wieku, Astronomische Nachrichten, była owocem entuzjazmu jednego człowieka, Heinricha Christiana Schumachera, dyrektora obserwatorium w Altonie od 1823 roku aż do jego śmierć w 1850 r. Astronomische Nachrichten nadal był wydawany w Altonie, najpierw przez CA Petersona, a następnie, od 1855 r. przez CAF Petersa. W 1872 roku obserwatorium Altona zostało przeniesione do Kilonii, gdzie czasopismo redagowano aż do lat trzydziestych XX wieku, kiedy to przeniesiono je do Berlina. Schumacher zaproponował publikację artykułów w "dowolnym języku europejskim"; Od początku powszechne były publikacje w języku francuskim i angielskim, a obecnie prawie wszystkie artykuły są w języku angielskim. W USA ukazała się kolejna publikacja będąca dziełem jednej osoby: Astronomical Journal, założony przez BENJAMINA APTHORPA GOULDA w 1849 roku na zamierzonej imitacji pisma niemieckiego. Jej strony były otwarte zarówno dla profesjonalistów, jak i amatorów z całego świata. Publikację przerwała wojna secesyjna, ale Gould wznowił ją w 1886 r. Astronomical Journal wydawany jest obecnie przez AMERICAN ASTRONOMICAL SOCIETY. Osobliwością wśród publikacji astronomicznych jest The Observatory, założone w 1877 roku i do dziś będące zbiorową własnością obecnych redaktorów. Oprócz krótkich artykułów naukowych zawiera sprawozdania ze spotkań, recenzje i wesołe artykuły. Francja wydawała szeroką gamę czasopism, począwszy od 1884 r. wraz z Bulletin Astronomique publikowanym w Obserwatorium Paryskim, ale nie ograniczającym się do prac tam wykonanych. Société Astronomique de France i jego Biuletyn zostały założone w 1887 r., a Journal des Observateurs założono w 1915 r. W 1969 r. to i Bulletin Astronomique zostały połączone w Astronomy i Astrophysics , wraz z Annales d′Astrophysique, Zeitschrift für Astrophysik i Biuletynem Instytutu Astronomicznego Holandii, który został założony w 1921 roku przez pięć holenderskich obserwatoriów i instytutów, które wcześniej wydawały własne publikacje. W 1863 roku niemieccy astronomowie założyli społeczeństwo, ASTRONOMISCHE GESELLSCHAFT, w kontekście stopniowego zjednoczenia kraju; Wkrótce potem rozpoczął własne publikacje, a pod koniec stulecia przejął odpowiedzialność za Astronomische Nachrichten. Inne stowarzyszenia narodowe założone w XIX wieku to Societ? Astronomica Italiana (którego Memorie ukazało się od 1872 r.), Société Royale Belge d′Astronomie (Ciel et Terre od 1880 r., Biuletyn od 1895 r.), Królewskie Towarzystwo Astronomiczne Kanady (założone w 1868 r.) i Amerykańskie Towarzystwo Astronomiczne (1899).

Literatura periodyczna końca XIX i XX wieku

Rozwój "astrofizyki" w późniejszych dekadach XIX wieku doprowadził do zaangażowania w "nową" astronomię naukowców z szerokiego zakresu dyscyplin, co czasami prowadziło do napięć między nimi a "starymi" (pozycyjnymi) astronomami . W Wielkiej Brytanii RAS i jego publikacje zdołały wchłonąć nowe tematy. Społeczność amerykańska uległa częściowemu rozłamowi wraz z założeniem czasopisma Astrophysical Journal (ApJ) w 1895 roku przez George′a Ellery′ego Hale′a i jego współpracowników. Początkowo publikował głównie wyniki spektroskopowe z obserwatoriów Yerkes, a wkrótce potem z obserwatoriów Mount Wilson, przy pewnym oporze ze strony astronomów z innych lokalizacji. Ostatecznie rozprzestrzeniło się na cały kraj (a później na świat) i objęło wszystkie aspekty astronomii, chociaż zdarzały się chwile, gdy redaktorzy uważali za konieczne wyraźnie powiedzieć, że z radością przyjmą artykuły z zakresu radioastronomii i przyrządów astronomicznych, co było zaproszeniem, którego nie wszyscy uznano za przekonujące. ApJ, pierwotnie należący do Yerkes Observatory, jest obecnie wydawany przez University of Chicago Press, ale pod kierownictwem Amerykańskiego Towarzystwa Astronomicznego. Od początku było to całkowicie monoglotyczne. Społeczności niemieckie i francuskie również uległy fragmentacji w miarę rozwoju, wraz z założeniem Zeitschrift für Astrophysik w 1930 r. i Annales d′Astrophysique w 1938 r., obie pierwotnie monojęzyczne, ale z licznymi artykułami w języku angielskim, zanim zostały wchłonięte przez astronomię i astrofizykę w 1969 r. Wydaje się, że żadna inna wspólnota narodowa nie była wystarczająco duża, aby utrzymać dwie profesjonalne publikacje, a astrofizycy w innych krajach zwrócili się ku materiałom akademickim i czasopismom fizycznym w swoich krajach lub, coraz częściej, do ApJ. Dalsza fragmentacja literatury astronomicznej jest zjawiskiem stosunkowo późnym, z wyjątkiem specjalistycznych publikacji z zakresu meteorytyki (od 1935 r. w USA i 1941 r. w ZSRR) i selenografii, obu powiązanych z wyspecjalizowanymi towarzystwami. Publikacje dotyczące Słońca i Układu Słonecznego oraz równoległych oddziałów Amerykańskiego Towarzystwa Astronomicznego i niektórych innych towarzystw zawodowych ukazały się po drugiej wojnie światowej. W drugiej połowie XX wieku istniały dwa główne czynniki powstawania nowych towarzystw i publikacji. W bardziej zaawansowanych krajach rozwijających się oraz w krajach powstałych w wyniku rozpadu ZSRR, Jugosławii i Czechosłowacji astronomowie często zakładali własne, zazwyczaj dość małe, stowarzyszenia. Kraje o jeszcze mniejszej populacji zawodowych astronomów zwykle przystępują do MIĘDZYNARODOWEJ UNII Astronomicznej za pośrednictwem komitetu krajowego pod auspicjami Narodowej Akademii Nauk. Nowe czasopisma wydawane są głównie przez wydawców komercyjnych, czasami za zachętą ze strony członków społeczności astronomicznej, którzy uważali, że starsze publikacje nie są w wystarczającym stopniu obsługiwane. Żaden z nich nie jest obecnie poważnym konkurentem w tym sensie, że jest zarówno duży, jak i wysoko ceniony. W rzeczywistości, jak zobaczymy, dominującą tendencją była dalsza koncentracja ważnych artykułów w największych recenzowanych czasopismach, z których wszystkie są obecnie publikowane niemal wyłącznie w języku angielskim. Czas pokaże, w jakim stopniu publikacje elektroniczne zmienią obecne wzorce. Już w XIX wieku niektórzy astronomowie zauważyli, że literatura staje się zbyt obszerna, aby każdy mógł ją całą prześledzić. Próba stworzenia Bibliographica Astronomica trwała zaledwie rok lub dwa (około 1895). Bardziej udany był Astronomischer Jahresbericht, zapoczątkowany przez Astronomische Gesellschaft w 1899 r., zawierający początkowo wszystkie streszczenia w języku niemieckim (ale tytuły artykułów zwykle w języku oryginalnym). Przetrwał obie wojny światowe (choć w drugiej z niepełnym pokryciem literatury) i w 1969 roku został przekazany komercyjnemu wydawcy i wydał tekst w języku angielskim, jako Astronomy and Astrophysics Abstracts.

Amatorzy astronomii

Od chwili założenia Królewskie Towarzystwo Astronomiczne zapraszało astronomów pracujących w pełnym i niepełnym wymiarze godzin, płatnych i ochotniczych, astronomów zawodowych i amatorów. Jednakże w miarę jak jego działalność i publikacje skupiały się w coraz większym stopniu na zainteresowaniach i produktach pełnoetatowego, płatnego sektora zawodowego, nieuchronnie zaczęły powstawać amatorskie towarzystwa astronomiczne. Spośród tych, które przetrwały, pierwszym było Leeds (1859), drugim Liverpool (1881), a w 1890 r. pojawiło się szerzej zakrojone Brytyjskie Stowarzyszenie Astronomiczne. ukazała się w tym samym roku i nadal kwitnie. W USA pierwsze stowarzyszenia amatorskie pojawiły się w Chicago (1863) i Baltimore (1881) jeszcze przed założeniem Amerykańskiego Towarzystwa Astronomicznego w 1899 roku. Towarzystwo Astronomiczne Pacyfiku i jego publikacje pochodzą z 1889 r. Od samego początku (w związku z koordynacją obserwacji zaćmienia słońca widocznego z Kalifornii) organizacją "pro/am" i taką pozostała, choć ostatecznie odrębna seria wydawnicza konieczne stało się Publikacje służące płatnym profesjonalistom oraz seria Ulotek (1925-71), a ostatnio czasopismo Mercury skierowane do amatorów. AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH, założone w 1911 r., jest zdominowaną przez amatorów wspólną organizacją, której wkład w badania astronomiczne jest osiągany jedynie przez nieco podobne Stowarzyszenie Française des Observateurs d′Étoiles Variables (1921), a w tamtych czasach przez Korporacja Obserwacyjna Towarzystwa Astronomów Amatorów w Moskwie, której Biuletyn (1925-1937) został później włączony jako jedno z wydawnictw Akademii Nauk ZSRR.

Współpraca międzynarodowa

Międzynarodowa współpraca astronomiczna rozpoczęła się w XVIII wieku współpracą przy wyprawach mających na celu obserwację tranzytów Wenus, a w 1800 roku w Lilienthal zorganizowano korpus 24 "policji niebieskiej", aby monitorować ekliptykę w poszukiwaniu planety pomiędzy Marsem a Jowiszem, zgodnie z przewidywaniami przez prawo Bodego. Projekty, w wyniku których powstał masywny Bonner Durchmusterung (gwiazd), rozpoczęty w 1859 r., i jego południowe przedłużenie, Cordoba Durchmusterung, miały w dużej mierze charakter zaściankowy, ale doprowadziły do porozumienia między 17 obserwatoriami w sprawie zapewnienia bardzo dokładnych pozycji gwiazd Durchmusterung aż do dziewiąta wielkość. Jednak prace postępowały powoli i zostały wyprzedzone przez pojawienie się płyt fotograficznych na sucho emulsji. Udane fotografowanie obiektów astronomicznych w wielu obserwatoriach skłoniło dyrektora w Paryżu, admirała EB Moucheza, przy wsparciu Davida Gilla na Przylądku Dobrej Nadziei, do podjęcia od 1885 r. próby koordynacji międzynarodowej Carte du Ciel, opartej na fotografii mapy nieba oraz towarzyszący mu katalog pozycji i wielkości do 11 m. Stały Komitet Międzynarodowy i jego Biuletyn (1892-1915) działał aż do wybuchu pierwszej wojny światowej, organizując regularne konferencje, zachęcając do postępu wśród około 20 obserwatoriów i organizując publikację części Carte w miarę udostępniania materiałów. Prace zakończono właściwie dopiero w 1964 roku, ale wcześniejsze płyty stanowią cenne źródło do określenia ruchów właściwych w długim okresie. Początkowo odnosząca sukcesy, ale także ofiara I wojny światowej, odniosła sukces Międzynarodowa Unia Współpracy w Badań nad Energią Słoneczną (Transakcje publikowane od 1906 do 1914), której głównym inicjatorem był Hale. Unia podjęła na przykład próbę standaryzacji pomiarów rotacji Słońca, aby można było zidentyfikować rzeczywiste różnice w zależności od szerokości geograficznej i czasu. Ostatnim na przedwojennej scenie był plan Jacobusa Kapteyna dla wybranych obszarów (aby pomiary jasności gwiazd, koloru, ruchu własnego, prędkości radialnej itd. Galaktyka). W 1919 r. przedstawiciele 16 zwycięskich narodów zebrali się w Brukseli, aby utworzyć Międzynarodową Radę ds. Badań (obecnie Międzynarodowa Rada Związków Naukowych, ICSU), do której zaproszono do współpracy narody neutralne. W tym samym czasie odbyło się spotkanie organizacyjne Międzynarodowej Unii Astronomicznej. W ciągu następnych kilku lat dodatkowych 16 krajów uznano za kwalifikujące się do członkostwa w IRC, co stanowiło istotne ograniczenie dla IAU, ponieważ żaden kraj nie mógł do niej przystąpić (ani początkowo nawet wysyłać ludzi na jej spotkania) bez uprzedniego uzyskania członkostwa w IRC. Pierwsze oficjalne Zgromadzenie Ogólne IAU odbyło się w Rzymie w 1922 r. i wzięło w nim udział dziewięć krajów (Belgia, Kanada, Francja, Wielka Brytania, Grecja, Włochy, Japonia, Meksyk i Stany Zjednoczone). Do drugiego Zgromadzenia liczba ta wzrosła do 22. Chiny i Związek Radziecki były ważnymi dodatkami w okresie międzywojennym, ale Niemcy, Austria, Węgry, Bułgaria i Turcja były nadal niemile widziane aż do roku 1945. IAU ostatecznie przejęła odpowiedzialność za obie Carte du Ciel i Wybrane Obszary, choć z pewnymi trudnościami, ponieważ w obu przypadkach Niemcy były w dużym stopniu zaangażowane. Po drugiej wojnie światowej zajmowała się gromadzeniem i rozpowszechnianiem (telegramem, a ostatnio pocztą elektroniczną) szybko aktualnych wiadomości astronomicznych. Liczba członków IAU, licząca około 150 astronomów u jej podstaw, wzrosła obecnie do około 8000 w 81 krajach. Od samego początku IAU wydawała własną serię publikacji, początkowo po prostu sprawozdania z odbywających się co trzy lata Zgromadzeń Ogólnych, ale obecnie obejmującą materiały z specjalistycznych sympozjów i kolokwiów sponsorowanych lub zatwierdzony przez IAU. Unia staje się coraz bardziej aktywna w promowaniu edukacji i badań astronomicznych w krajach rozwijających się i pozostaje wyjątkowa wśród międzynarodowych związków naukowych ze względu na to, że posiada zarówno indywidualnych członków, jak i kraje przystępujące

Wzory publikacji

Czołowy astronom XIX wieku mógłby równie dobrze opublikować połowę lub więcej swoich artykułów w czasopismach nieastronomicznych, a prawie wszystkie wydały książki rejestrujące ich bardziej zaawansowane wysiłki. Sto lat później astronom lub astrofizyk prawdopodobnie opublikuje wszystkie swoje prace pozakonferencyjne w tym czy innym z nielicznych specjalistycznych, prestiżowych czasopism i opublikuje monografie jedynie w formie podręczników lub książek branżowych, jeśli w ogóle. Zmiany, jakie zaszły w pierwszej połowie XX wieku, ukazuje analiza objętości Astronomischer Jahresbericht dla lat 1900, 1925 i 1955 (te ostatnie daty wybrano w celu uniknięcia zniekształcenia przez wojny światowe). Pierwszą i najbardziej oczywistą tendencją jest rozwój tej dziedziny: nie tylko wzrasta liczba artykułów, ale także ogromnie wzrosła ich średnia długość. Drugim jest stopniowe przejście od obserwacji do teorii, które niewątpliwie trwa w ostatnich dziesięcioleciach, chociaż wiele dzisiejszych "obserwacji" (takich jak obfitość pierwiastka w gwieździe obliczona na podstawie jej widma) można by uznać za teorię w roku 1925. (i czary w 1900 r.). Po trzecie, okres rozkwitu publikacji obserwacyjnych nastąpił w okresie międzywojennym, kiedy istniało ich ponad 200, a zawierały one około jednej szóstej czasopism w porównaniu z jedną dziesiątą w 1900 i 1955 r.; odsetek ten spadł obecnie znacznie niżej. Czwarty trend dotyczy zmian w równowadze między narodami, w szczególności wzrostu składek ze Stanów Zjednoczonych. Wreszcie, co jest jeszcze bardziej oczywiste, jeśli spojrzymy na czasy późniejsze, stopniowa koncentracja "władzy wydawniczej" w kilku rękach redakcyjnych. W 1997 r. w Astronomical Journal ukazało się 5272 stron, 9136 w Monthly Notices, 17 141 w serii Astronomy and Astrophysics i jego suplementach oraz 22 948 w Astrophysical Journal, jego Letters and Suplements. Nic innego (z wyjątkiem być może materiałów konferencyjnych i abstraktów) nie może w najmniejszym stopniu konkurować pod względem wielkości i poziomu jakości w postrzeganiu społeczności astronomicznej.

Spektroskopia astronomiczna

Jako nauka pasywna, astronomia czerpie większość informacji z przychodzącego PROMIENIOWANIA z nieba. Taka analiza byłaby aż nazbyt prosta, gdyby nie kwantowa natura materii i promieniowania. Elektrony są związane na skwantowanych orbitach wokół swoich jąder i muszą emitować promieniowanie o dyskretnych długościach fal, które są dokładnie określone przez przejścia pomiędzy dyskretnymi stanami energetycznymi. Powstałe linie widmowe są niezwykle ważnymi narzędziami do identyfikacji i charakteryzowania źródła emitującego.

Sygnatury widmowe

Pierwszą koncepcję spektroskopii wywodzi się od Newtona, który jako pierwszy zauważył, że rozproszenie światła słonecznego na różne kolory przez pryzmat odzwierciedla właściwości samego światła słonecznego. Co więcej, niezwykłe jest to, że około 200 lat później, pod koniec XIX wieku, kiedy Balmer rozpoznał szereg wodorowy w liniach absorpcyjnych widma słonecznego, dostrzeżonych po raz pierwszy przez Fraunhofera, nastąpiło to przed odkryciem elektronu, teorią kwantową czy tezą Bohra. atom. Ta wskazówka z niebios, że materia będzie absorbować światło w bardzo grzeczny sposób, z widmem, które można modelować jako szereg wodorowy i które można zastosować do innych rodzajów atomów, stała się motywacją do rozwoju współczesnej fizyki. Dziś wiemy oczywiście, że skwantowane stany energetyczne elektronu krążącego wokół atomu zależą od masy jądra i ładunku jądrowego. Dlatego każdy izotop każdego gatunku atomowego ma charakterystyczny zestaw poziomów elektronowych. Stąd powstałe przejścia tworzą unikalny i jednoznaczny podpis umożliwiający identyfikację.

Pomiar ruchów na dużą skalę

Być może najważniejszą cechą widm atomowych jest częstotliwość spoczynkowa lub długość fali przejść. Są one bardzo dokładnie znane, albo poprzez obliczenia mechaniki kwantowej, albo pomiary laboratoryjne, z typową dokładnością większą niż jedna część na miliard. Ta wysoka dokładność umożliwia pomiar dowolnego przesunięcia długości fali spoczynkowej w wyniku ruchu źródła emitującego. Przesunięcia Dopplera mierzone za pomocą precyzyjnej spektroskopii są kamieniem węgielnym współczesnej astronomii. Tak różnorodne zjawiska, jak ruchy orbitalne gwiazd podwójnych, krzywe rotacji galaktyk i ruchy promieniowe wokół masywnych czarnych dziur to tylko kilka przykładów ważnych ruchów kinematycznych ujawnionych za pomocą spektroskopii. Być może najważniejszym ze wszystkich pomiarów było rozpoznanie przepływu galaktyk przez Hubble′a. Systematyczne PRZESUNIĘCIE CZERWONEJ widm galaktyk, rozpoznanie ich kosmologicznej natury i stale rosnącej wielkości ruchów wraz z odległością stanowią podstawę modelu rozszerzającego się wszechświata. Wynik ten ma ogromne znaczenie, że światło, które obserwujemy przy różnych przesunięciach ku czerwieni, pochodzi z różnych odległości. Ze względu na skończoną prędkość światła oznacza to, że mamy środki do badania historii wszechświata w funkcji czasu, próbkując jedynie w naszej własnej epoce. W ostatniej dekadzie przesunięte ku czerwieni ruchy Dopplera galaktyk wykorzystano do mapowania przestrzennego rozkładu materii w bardzo dużych skalach, co sugeruje powstawanie struktur we wczesnym Wszechświecie. Badanie galaktyk i KWASARÓW przy bardzo dużych przesunięciach ku czerwieni stało się jednym z podstawowych problemów współczesnej astrofizyki

Pomiar ruchów lokalnych

Ze względu na dyskretny charakter stanów energii elektronów, następujące przejścia mają nie tylko precyzyjnie określoną częstotliwość przejść, ale także wewnętrznie wąskie szerokości linii, zazwyczaj zdominowane przez ruchy Dopplera w systemach emitujących. Kiedy spektrometry stały się wystarczająco mocne, a detektory wystarczająco czułe, zaczęto rozpoznawać profile linii. Stwierdzono, że zmierzone profile widmowe niosą ważne informacje na temat lokalnej kinematyki. Na przykład niezwykle szerokie profile linii widoczne w kierunku GALAKTYK SEYFERTA zinterpretowano jako materię wypływającą z obszarów jądrowych, ponieważ na podstawie wielkości ruchów nie wydaje się, aby były one powiązane grawitacyjnie. Za dowód wypływających wiatrów uznano profile linii P Cygni w otoczkach gwiazdowych, z emisją przesuniętą ku czerwieni i absorpcją z przesunięciem ku błękitowi. Wynika to z założenia, że materię znajdującą się przed gwiazdą można zidentyfikować na podstawie jej absorpcji w stosunku do gwiazdy, podczas gdy jej widma mogą być przesunięte w kierunku błękitu w wyniku ruchu wypływającego w naszą stronę. Z tego samego argumentu odwrotne profile P Cygni, w których ruchy widm emisji i absorpcji są odwrócone, zinterpretowano jako skrócenie. W jeszcze innych źródłach asymetryczne profile linii ze znacznymi ulepszeniami po jednej stronie profilu linii były dowodem kinematycznym na obecność gazu w szoku. Stało się to jeszcze bardziej przekonujące w połączeniu z argumentami pobudzającymi. Stwierdzono, że w pobliskich układach zaobserwowane ruchy Dopplera w kierunku promieniowym są zgodne z wykrywalnymi WŁAŚCIWYMI RUCHAMI w linii wzroku. Jest to zgodne z naszymi oczekiwaniami, że Ziemia nie jest wyjątkowym punktem obserwacyjnym. Po usunięciu ruchów systematycznych widma często nadal wykazują ruchy nietermiczne. Oznacza to, że profile linii są szersze, niż można to wytłumaczyć samymi ruchami termicznymi. Doprowadziło to do badań turbulencji, zwłaszcza w odniesieniu do roli pól magnetycznych.

Pomiar wzbudzenia

Różne poziomy energii w atomie zostaną określone w zależności od warunków otoczenia, takich jak temperatura, gęstość cząstek i pole promieniowania. Próbkując odpowiedni zestaw przejść, możemy skonstruować rozkład populacji, a tym samym zmierzyć wzbudzenie źródła emitującego. W szczególności łatwo zauważyć, że sukcesywnie wyższe stany jonizacji będą wymagały większego wzbudzenia, ponieważ elektrony będą widzieć słabiej osłonięte jądro (patrz WZBUDZENIE I JONIZACJA). Zatem jeśli w wykrytym promieniowaniu dominują linie pochodzące od silnie zjonizowanych atomów, możemy wywnioskować, że obszar emitujący musi być zjonizowany przez energetyczne fotony. Względne siły różnych linii atomowych są zatem środkiem do identyfikacji typu widmowego gwiazdy, oprócz jej kolorów. Względne intensywności linii określają również twardość promieniowania. Pozwoliło nam to rozróżnić normalne jądra galaktyczne, których jonizację można łatwo wytłumaczyć promieniowaniem młodych gwiazd, od LINERSÓW i Seyfertów, których pole promieniowania musi być stopniowo zmniejszane., trudniej. Innym przykładem potęgi spektroskopii była identyfikacja obiektów HERBIG-HARO jako obszarów wzbudzenia uderzeniowego. Choć kiedyś uważano, że źródła te są miejscami młodych gwiazd, spektroskopia wykazała coś innego. Wraz z właściwymi ruchami i pomiarami prędkości Dopplera oraz profilami linii względne intensywności różnych zjonizowanych linii były zgodne z modelami wstrząsów.

Pomiar obfitości

Wykrycie licznych przejść atomowych pozwala na ocenę liczebności pierwiastków. Dzięki zwiększonej czułości można mierzyć ich liczebność nie tylko na Słońcu i innych gwiazdach, ale także w chmurach i galaktykach zewnętrznych. Dane takie mają kluczowe znaczenie dla sprawdzenia modeli NUKLEOSYNTEZY, zrozumienia obfitości metali w funkcji czasu i miernika ewolucji. Na przykład gwiazdy POPULACJA I i POPULACJA II można rozróżnić na podstawie ich metaliczności. To, czy CHMURY O DUŻEJ PRĘDKOŚCI w Galaktyce mają charakter pierwotny, czy pochodzą z dysku Galaktyki, można również określić, mierząc względną obfitość metali. Szczegółowe pomiary różnych pierwiastków w wyrzutach SUPERNOVA można również wykorzystać do sklasyfikowania rodzaju zdarzenia supernowego, a także do sprawdzenia mechanizmów wytwarzania pierwiastków.

Ważne linie atomowe

Istnieje wiele linii atomowych, które są szczególnie interesujące. Należą do nich linie Balmera w zakresie optycznym, linie Bracketta w bliskiej podczerwieni, linie rekombinacji radiowej, linia wodoru atomowego o długości 21 cm i linia zjonizowanego węgla w dalekiej podczerwieni. Ogólnie rzecz biorąc, linie widmowe zjonizowanego wodoru są ważne dla śledzenia REGIONÓW H II. W szczególności linie podczerwone i radiowe są przydatne do badania głęboko osadzonych źródeł.

Linie optyczne

Szereg Lymana wodoru, który składa się z linii rekombinacji kończących się w stanie n = 1 (gdzie n jest całkowitą liczbą kwantową orbit Bohra - Sommerfelda), występuje w zakresie fal ultrafioletowych. Szereg Balmera, którego linie kończą się w stanie n = 2, znajduje się w optyce. Linie wodoru wraz z liniami innych pierwiastków wykorzystano do klasyfikacji typów widmowych gwiazd. Temperatura w fotosferze, wywnioskowana z rodzaju wzbudzonych linii, jest ważną częścią diagramu HERTZSPRUNGA - RUSSELLA dotyczącego ewolucji gwiazd. Linia Hα przy 6563 Å, czyli linia Balmera n = 3-2, jest jedną z najbardziej przydatnych linii w pracach optycznych, śledzących obszary, które zostały fotojonizowane przez pobliską gwiazdę. Jest to szczególnie ważne w przypadku galaktyk zewnętrznych, ponieważ obszary jądrowe są często silnie zjonizowane przez koncentrację masywnych gwiazd lub aktywne jądro zasilane przez CZARNĄ DZIURĘ. Jasną emisję jądrową w linii Hα można wykorzystać do pomiaru jasności jonizującej, bezwzględnego ruchu gazu od jego przesunięcia ku czerwieni, co z kolei pozwala określić odległość na podstawie zależności Hubble′a, a co być może najważniejsze, charakteru jądra na podstawie obserwowanej szerokości linii. Pojawienie się SPECTROGRAPHÓW o wysokiej rozdzielczości pozwala astronomowi rozróżnić wąskie linie linii zgodne z rotacją galaktyki od znacznie szerszych linii, które mogą reprezentować wiatry wychodzące z obszaru jądrowego. W przypadku aktywnych jąder zasilanych procesami nietermicznymi promieniowanie ma twardsze widmo niż zwykłe światło gwiazd. Dlatego linie pochodzące z wyższych stanów wzbudzenia wodoru lub rzadszych pierwiastków stają się wykrywalne, a czasami nawet silniejsze. W ostatniej dekadzie spektroskopia optyczna poczyniła ogromne postępy dzięki budowie instrumentów o dużej aperturze, takich jak teleskopy Kecka i wystrzeleniu teleskopu Hubble′a. Większy obszar zbierania oznacza, że wykrywane są systemy o coraz większym przesunięciu ku czerwieni. Teleskop Hubble′a ze swoimi znakomitymi możliwościami obrazowania nad atmosferą oznacza, że spektroskopię można wykonywać z rozdzielczością poniżej 0,1. Niektóre z najlepszych dowodów na istnienie masywnych czarnych dziur w jądrach galaktyk pochodzą z pomiarów Hubble′a bardzo dużych ruchów obrotowych w środkowych kilku dziesiątych sekundy łukowej (patrz rysunek 1). W przypadku prac gwiazd jednym z najważniejszych osiągnięć było opracowanie spektrografów o ogromnych zdolnościach rozdzielczych. Spektrografy Eschelle′a są obecnie w stanie rozróżnić linię z rozdzielczością lepszą niż 100 000. Dopasowując wiele linii widmowych jednocześnie, można wykryć ruchy Dopplera rzędu kilku metrów na sekundę. Umożliwiło to rozwój badań planet pozasłonecznych, w przypadku których planety krążące po orbitach wokół pobliskich gwiazd można wywnioskować na podstawie wzajemnych ruchów gwiazd spowodowanych przyciąganiem grawitacyjnym ciała wtórnego. Z ruchów Dopplera tych chwiejących się gwiazd wywnioskowano obecnie około 20 planet.

Linie ultrafioletowe

Ponieważ seria Lymana leży w ultrafiolecie, do czasu udostępnienia teleskopów kosmicznych poczyniono niewielkie postępy. Za pomocą spektrografu o wysokiej rozdzielczości Goddarda na Teleskopie Hubble′a można zmierzyć linie absorpcyjne dla wielu gatunków atomowych i molekularnych. Umożliwiło to pomiar obfitości pierwiastków w źródłach galaktycznych i pozagalaktycznych. W szczególności zawartość metali jest ważna dla ustalenia, czy materia ma charakter pierwotny lub została już przetworzona w procesie powstawania gwiazd. Obfitość pierwiastków w obłokach międzygwiazdowych mierzona w fazie gazowej można porównać z liczebnością kosmiczną, aby wywnioskować, jaka część różnych pierwiastków jest zamknięta w ziarnach pyłu. Pomiar linii Lymana z deuteru można porównać z odpowiednimi liniami wodoru w celu oszacowania frakcji deuteru. Jest to oczywiście sprawdzenie syntezy pierwiastków we wczesnym Wszechświecie, ponieważ deuter nie powstaje w wyniku nukleosyntezy gwiazdowej. Frakcja deuteru zależy od pierwotnej gęstości barionów w ciągu pierwszych kilku minut Wielkiego Wybuchu. Wyższa gęstość barionów spowodowałaby szybsze tempo tworzenia helu 4, co prowadziłoby do zubożenia deuteru. Linie Ly α są również badane pod kątem absorpcji w stosunku do kwazarów. Ponieważ w drodze do odległych kwazarów znajduje się dużo wodoru, wszystkie linie absorpcyjne Lymana tworzą pasmo absorpcji po niebieskiej stronie linii Lymana, które jest nieodłączną częścią układu kwazara. Tak zwany LYMAN ALPHA FOREST stał się ważnym narzędziem do badania ośrodka międzygalaktycznego.



Chociaż linia Hα i inne linie optyczne są bardzo przydatne, są one podatne na efekty ekstynkcji pyłu. Jest to szczególnie uciążliwe w przypadku rdzeni obłoków molekularnych, w których młode gwiazdy są głęboko osadzone, lub w przypadku dysków jądrowych położonych krawędziowo, gdzie ekstynkcja w linii wzroku może mieć wiele wielkości w zakresie długości fal optycznych. Można porównać intensywność linii Hα i Hβ celu oszacowania skutków ekstynkcji. Jednak w praktyce jest to zawodne, jeśli obie linie są poważnie wymierane. Co więcej, jeśli ekstynkcja jest wystarczająco wysoka, linia Hα może w ogóle nie być wykrywalna. W bliskiej podczerwieni ekstynkcja spowodowana pyłem jest znacznie zmniejszona. W rezultacie linie wodoru Bracketta przy 2 &mmu;m i 4 μm okazały się bardzo przydatne do badania źródeł wbudowanych zarówno w Galaktyce, jak i w układach zewnętrznych. W średniej podczerwieni występują również linie o drobnej strukturze wynikające z interakcji spin-orbita elektronów, gdzie występuje różnica energii w zależności od tego, czy spin elektronu jest zgodny z orbitalnym wektorem pędu elektronu. Na przykład szczególnie przydatne przejście wynika z linii 2P3/2-2P1/2 dla Ne II przy 12,8 μm. Linię tę z powodzeniem wykorzystano do badania eegionów H II, mgławic planetarnych, jąder pozagalaktycznych i najsłynniejszych strumieni zjonizowanego gazu wokół Centrum Galaktyki. Wykryto, że zjonizowany gaz nie tylko ma postać strumieni krążących wokół centrum Galaktyki, ale także kinematykę określa się na podstawie profili linii Ne II. Orbity dopasowane do ruchów zjonizowanego gazu sugerują centralny, masywny obiekt o masie około trzech milionów mas Słońca. Wraz z rozwojem coraz bardziej czułych detektorów i teleskopów kosmicznych, okno bliskiej podczerwieni staje się bardzo ważnym narzędziem diagnostycznym dla galaktyk zewnętrznych. Obserwatorium Kosmiczne w Podczerwieni było w stanie wykryć i zmierzyć wiele linii atomowych w bliskiej i średniej podczerwieni w kierunku wielu systemów. Dostarczają one informacji na temat obfitości substancji chemicznych i wzbudzenia , a także ruchu tych galaktyk. Informacje te okazały się bardzo przydatne do zrozumienia, czy galaktyki świecące w podczerwieni mogą być napędzane samymi procesami formowania się gwiazd.

Neutralny wodór atomowy

Ponieważ 90% wszechświata ma postać wodoru, jest on niewątpliwie najważniejszym atomem. Podczas gdy pierwotna identyfikacja serii Balmera koniecznie dotyczyła światła optycznego, seria Lymana dotyczy ultrafioletu, podczas gdy serie Aschen, Brackett i późniejsze - podczerwieni. Wszystkie te linie wymagają dużej ilości energii do wzbudzenia, co czyni je dobrymi znacznikami w środowiskach gwiazdowych i otaczających je zjonizowanych obszarach. Dla niższych obszarów wzbudzenia istnieje linia odwrócenia spinu o długości 21 cm. Linia ta powstaje w wyniku oddziaływania spinów elektronu i protonu. Atom wodoru ma nieco więcej energii, gdy spiny są równoległe i antyrównoległe. Powstały foton po odwzbudzeniu emitowany jest przy długości fali 21 cm. Wymagane wzbudzenie jest tak małe, że linię tę można wykryć w całej Galaktyce i łatwo w galaktykach zewnętrznych. Co więcej, w odróżnieniu od linek optycznych, linka o długości 21 cm jest odporna na efekty ekstynkcji. Stąd informacje kinematyczne z profili linii można prześledzić w całej Galaktyce, nawet jeśli obserwujemy krawędź systemu na dysku i wewnątrz dysku. Jednym z pierwszych wyników 21 cm była identyfikacja szeregu RAMION SPIRALNYCH w Galaktyce, wcześniej niewidzianych. Ta 21-centymetrowa linka stała się najważniejsza narzędzie do badania dynamiki galaktycznej, oddziałujących galaktyk, środowiska gromad i przesunięć ku czerwieni w pobliskim wszechświecie. Jedną z ważnych cech linii wodoru jest to, że może ona istnieć tam, gdzie nie ma materii gwiazdowej. Stąd daleko w Galaktyce, gdzie materia nie jest już wystarczająco gęsta, aby tworzyć gwiazdy, wciąż możemy prześledzić MATERIĘ MIĘDZYGWIAZDOWĄ. Badania w odległości 21 cm wykazały, że często galaktyki zawierają kilka razy więcej wodoru atomowego niż ich zasięg optyczny. Stwierdzono dwa niezwykle ważne efekty. Najpierw w GALAKTYKACH SPIRALNYCH, gdzie możemy zobaczyć ruchy rotacyjnych gwiazd i gazu odkryto, że krzywa rotacji galaktyki prześledzona w wodorze atomowym wydaje się płaska na tyle, na ile jesteśmy w stanie wykryć wodór. Sugeruje to, że w zewnętrznych częściach galaktyki znajduje się mnóstwo materii. W przeciwnym razie krzywa rotacji będzie opadać wraz ze wzrostem promienia ze względu na malejące działanie grawitacyjne zamkniętej masy wraz ze wzrostem odległości. To jeden z kluczowych wyników sugerujących istnienie CIEMNEJ MATERII. Jeśli jest tam wystarczająca ilość ciemnej materii, może to mieć wpływ na pytanie, czy Wszechświat jest otwarty, czy zamknięty, tj. czy jest wystarczająco dużo materii, aby ograniczyć ekspansję Wszechświata Hubble′a. Drugim ważnym rezultatem było wykrycie osobliwych ruchów i struktur w zewnętrznych częściach galaktyk, które można przypisać interakcjom z pobliskimi układami . Takich interakcji zwykle nie widać w układzie optycznym, który śledzi wewnętrzne części galaktyki. Ma to konsekwencje dla dynamicznej natury powstawania i ewolucji galaktyk, a także dla powstawania i zasilania masywnych czarnych dziur, zwłaszcza w oddziałujących układach. Linie radiowe i linie dalekiej podczerwieni W przypadku wodoru wyższe linie rekombinacji, kończące się na wyższych stanach n, występują w zakresie fal radiowych. Główną zaletą tych linii jest brak ekstynkcji pyłu na falach radiowych, co sprawia, że intensywność tych linii jest bardzo dokładną miarą całkowitej jasności jonizującej. Główną wadę badań radiowych, czyli grubą rozdzielczość kątową, przezwyciężono dzięki opracowaniu INTERFEROMETRÓW RADIOWYCH. Podczas gdy linie rekombinacji na długościach fal centymetrowych mogą podlegać efektom nietermicznego wzbudzenia, linie na falach milimetrowych są na ogół wolne od takich efektów i mają siłę linii prawie równą emisji kontinuum radiowego z obszarów H II. W dalekiej podczerwieni istnieje wiele ważnych linii. Jedną z interesujących linii jest linia drobnej struktury C II 2P3/2-2P1/2


Linie molekularne

Chociaż za pomocą optycznych linii absorpcyjnych wykryto kilka cząsteczek, takich jak CN, wrota do astronomii molekularnej otworzyły się dopiero pod koniec lat sześćdziesiątych. Było to częściowo spowodowane koniecznością oczekiwania na rozwój technologii detektorów. Jednak istniał również wielki sceptycyzm, czy cząsteczki w ogóle mogą istnieć w ośrodku międzygwiazdowym. Pesymizm ten opierał się częściowo na niskiej gęstości gazu związanej z atomowymi chmurami wodoru, co sugerowało, że cząsteczki ulegną dysocjacji pod wpływem pól promieniowania otoczenia. Z perspektywy czasu możemy teraz stwierdzić, że skoro gwiazdy powstają z gazu, gaz musi przejść przez gęstą fazę, która jest znacznie gęstsza niż faza atomowa. Taka gęsta faza zapewniałaby oczywiście osłonę przed promieniowaniem międzygwiazdowym i umożliwiałaby tworzenie się cząsteczek. Jednak w latach sześćdziesiątych XX wieku nie istniały żadne teoretyczne podstawy dotyczące FORMOWANIA GWIAZD, CHEMII MIĘDZYGWIAZDOWEJ ani ewolucji CHMUR MIĘDZYGWIAZDOWYCH. Wytrwałość kilku radioastronomów doprowadziła do odkrycia OH, H2O, NH3, CO i wielu innych cząsteczek.

Cząsteczki

Podczas gdy przejścia atomowe zazwyczaj mieszczą się w zakresie długości fal optycznych lub bliskiej podczerwieni, przejścia molekularne zazwyczaj zachodzą przy znacznie dłuższych falach. Dzieje się tak dlatego, że w przypadku cząsteczek możliwe są również ruchy obrotowe i wibracyjne atomów w cząsteczce. Zapewniają one nowe zestawy skwantowanych stanów energetycznych. Przejścia między stanami rotacyjnymi zazwyczaj przypadają na długości fal radiowych, a przejścia wibracyjne zazwyczaj na podczerwień. Podczas gdy przejścia atomowe charakteryzują się temperaturami rzędu tysięcy kelwinów, przejścia molekularne wymagają temperatur od dziesiątek do setek kelwinów. Cząsteczki te są zatem dobrymi sondami dla większości Wszechświata, który jest chłodny przy temperaturach bliskich 10 K. Od wczesnego wykrycia kluczowych cząsteczek H2O i NH3 pod koniec lat 60. XX wieku oraz CO na początku lat 70. XX w. zidentyfikowano ponad 110 gatunków molekularnych zostały obecnie zidentyfikowane w ośrodku międzygwiazdowym. Dostępność przejść molekularnych o różnych wymaganiach dotyczących wzbudzenia umożliwia badanie ośrodka międzygwiazdowego w szerokiej kombinacji temperatur i gęstości. W szczególności przejścia o wysokich momentach dipolowych z powodzeniem wykorzystano do badania bardzo gęstych obszarów obłoków molekularnych, w których powstają gwiazdy. Dzięki ogromnemu udoskonaleniu technologii detektorów na falach radiowych i budowie teleskopów o dużej aperturze, cząsteczki są obecnie łatwo wykrywane w galaktykach zewnętrznych. Być może najważniejszymi wynikami było odkrycie i uświadomienie sobie, że obłoki molekularne są dominującym składnikiem ośrodka międzygwiazdowego, że linie molekularne wraz z pyłem są ważnymi czynnikami chłodzącymi dla fazy gazowej oraz że cząsteczki mogą śledzić masę, temperaturę, gęstość i ruchy ośrodka międzygwiazdowego.

Rozwój oprzyrządowania

Postęp w dziedzinie spektroskopii atomów i cząsteczek w astronomii nastąpił dzięki szeregowi innowacji technologicznych. Opracowano spektroskopię siatkową o coraz większej rozdzielczości. Podczas gdy spektroskopia długich szczelin może uzyskać widma wycinka nieba, obecnie panuje trend w kierunku spektroskopii wielowłóknowej. W tym schemacie setki włókien optycznych jest rozmieszczonych jednocześnie na wcześniej określonych źródłach docelowych w płaszczyźnie ogniskowej. Włókna są następnie podawane do spektrometru w celu pomiaru widm dla setek źródeł jednocześnie. W przypadku fal radiowych interferometria ze spektroskopią jest jeszcze skuteczniejsza, ponieważ jednocześnie obrazowana jest cała wiązka główna jednego z elementów teleskopu układu. Dzięki opracowaniu potężnych cyfrowych KORELATORÓW można analizować duże szerokości widma dla każdego piksela wiązki pierwotnej. Duże postępy osiąga się także w zakresie kompensacji skutków atmosferycznych. Platformy kosmiczne, wysoko latające samoloty i balony otworzyły nowe okna widmowe. OPTYKA ADAPTACYJNA na falach optycznych i techniki samokalibracji na falach radiowych skutecznie kompensują atmosferyczne efekty WIDZENIA. Oznacza to, że możliwa jest spektroskopia słabszych źródeł. Oczywiście technologia detektorów uległa poprawie dla wszystkich długości fal, podczas gdy budowane są coraz większe teleskopy. Wysiłki te przyniosły ogromną poprawę czułości.

Astronomia i astrofizyka w Indiach

Rozwój astronomii i astrofizyki w Indiach nastąpił głównie od czasu uzyskania przez kraj niepodległości w 1947 r. Obecne prace są prowadzone w kilku wybranych instytutach badawczych i na niektórych wydziałach uniwersyteckich. Indyjskie Towarzystwo Astronomiczne zrzesza około 300 pracujących naukowców z A&A oraz kolejnych 50-60 absolwentów.

Udogodnienia

W sektorze instytucjonalnym do najważniejszych obiektów należą Teleskop Optyczny Vainu Bappu o średnicy 2,3 m i 1-metrowy teleskop w Kavalur w południowych Indiach, pod kierownictwem Indyjskiego Instytutu Astrofizyki (IIA) w Bangalore, 1-metrowy teleskop w Obserwatorium Stanowe Uttar Pradesh (UPSO) w Naini Tal u podnóża Himalajów oraz 1-metrowy teleskop na podczerwień w Gurushikhar w południowym Radżastanie pod kierownictwem Laboratorium Badań Fizycznych (PRL) w Ahmedabadzie. Teleskopy słoneczne istnieją w Kodaikanal w południowych Indiach, w UPSO w Naini Tal i w Udaipur, pierwszy zarządzany jest przez IIA, a trzeci przez PRL. W latach sześćdziesiątych XX wieku radioastronomia wkroczyła na szeroką skalę wraz z paraboliczną, cylindryczną anteną o długości 550 m, ustawioną na północno-południowym zboczu wzgórza w pobliżu południowego kurortu w Ooty, przy czym oś cylindra była równoległa do osi Ziemi. Teleskop ten jest obsługiwany przez TATA INSTITUTE OF FUNDAMENTAL RESEARCH (TIFR) w Bombaju, który właśnie zakończył jeszcze bardziej ambitny projekt znany jako Giant Metrewave Radio Telescope (GMRT) w Khodad, około 90 km od Pune. System ten, kontrolowany i obsługiwany przez KRAJOWE CENTRUM ASTROFIZYKI RADIOWEJ (NCRA) w Pune, składa się z 30 anten, każda o średnicy 45 m, rozmieszczonych na układzie ramion w kształcie litery Y o długości około 14 km. Działa optymalnie w zakresie długości fal metrowych. Przy niższych częstotliwościach (34,5 MHz) w Gauribidnur niedaleko Bangalore znajduje się układ radiowy w kształcie litery T, obsługiwany wspólnie przez IIA i Instytut Badań Ramana (RRI) w Bangalore. Indyjscy astronomowie zbudowali podobną tablicę na wyspie Mauritius. W swojej siedzibie w Bangalore RRI posiada również 10-metrową antenę do astronomii fal milimetrowych. Astronomia kosmiczna w Indiach rozpoczęła się od badań promieni kosmicznych pod kierunkiem HJ Bhabha w TIFR, a później pod kierunkiem VA Sarabhai w PRL. Krajowa placówka balonowa w Hyderabad obsługuje różne eksperymenty z balonami. Działalność ta przekształciła się w pełnoprawny program kosmiczny, który obecnie rutynowo wysyła satelity i przygotowuje ładunki o charakterze komercyjnym i naukowym. Jej siedziba znajduje się w Indyjskiej Organizacji Badań Kosmicznych w Bangalore. W sektorze uniwersyteckim jedynym znaczącym działającym obiektem jest 1,2-metrowy teleskop w Obserwatorium Japal Rangapur pod kontrolą Uniwersytetu Osmania w Hyderabadzie. Jednakże główne źródło zasobów dla uniwersytetów zostało utworzone w 1988 r. przez Komisję ds. stypendiów uniwersyteckich (UGC) w New Delhi w Pune. Centrum to, znane jako Międzyuczelniane Centrum Astronomii i Astrofizyki (IUCAA), zapewnia doskonałą bibliotekę zasobów A&A, zaawansowane centrum komputerowe z oprogramowaniem związanym z A&A, centrum danych i laboratorium oprzyrządowania. Z obiektów tych mogą korzystać odwiedzający pracownicy naukowi i studenci uniwersytetów, których podróże pokrywane są z dotacji zapewnianych przez UGC w IUCAA. IUCAA pomaga także pracownikom naukowym uniwersytetów w korzystaniu z obiektów obserwacyjnych w Indiach i za granicą w ramach różnych programów obserwacji gościnnych. Na różnych etapach budowy znajdują się trzy nowe teleskopy optyczne. IUCAA będzie miała 2-metrowy teleskop w pobliżu Giravali, około 70 km od Pune, podczas gdy IIA zbudowała niedawno 2-metrowy teleskop w Han Le, na wysokości 4000 m w pobliżu Ladakhu w północnych Himalajach. UPSO i TIFR wspólnie planują instalację 3-metrowego teleskopu w Devasthal, niedaleko Naini Tal.

Obszary badawcze

INDYJSKA ASTRONOMIA tradycyjnie zajmuje się astronomią i spektroskopią gwiazd, astronomią słoneczną i planetarną. Jednak w ciągu ostatnich trzech dekad XX wieku rozszerzyła swój zakres o fizykę Słońca, w tym oscylacje Słońca, astronomię i modelowanie pulsarów, problemy promieni kosmicznych i astrofizykę wysokich energii, soczewkowanie grawitacyjne, zjawiska pozagalaktyczne astronomia i kosmologia. Teleskop Ooty był odpowiedzialny za szeroko zakrojone badanie rozmiarów kątowych źródeł radiowych metodą zakrycia Księżyca. Kosmologia teoretyczna rozciąga się od abstrakcyjnych modeli matematycznych w ogólnej teorii względności (ponieważ Indie zawsze miały silną szkołę w zakresie ogólnej teorii względności) po dopasowanie modeli do obserwacji dyskretnych populacji źródeł pozagalaktycznych. Dzięki mniej sztywnemu spojrzeniu na alternatywy dla idei głównego nurtu, rozkwitły one w Indiach bardziej niż na Zachodzie. Indyjska astronomia dała o sobie znać na arenie międzynarodowej. Nieżyjący już Vainu BAPPU był prezesem Międzynarodowej Unii Astronomicznej, natomiast kilku indyjskich astronomów zajmowało stanowiska przewodniczących różnych komisji IAU.

Astrofizyczne granice właściwości cząstek

Odkąd NEWTON zaproponował, że Księżyc na swojej orbicie podlega tym samym prawom ruchu, co jabłko spadające z drzewa, niebo stało się ulubionym laboratorium do testowania podstawowych praw fizyki, zwłaszcza teorii grawitacji Newtona i EINSTEINA. Niedawno astrofizyka i kosmologia stały się kluczowymi poligonami doświadczalnymi dla mikrokosmosu cząstek elementarnych. Ten obszar badań naukowych jest częścią dyscypliny często nazywanej fizyką astrocząstek lub astrofizyką cząstek. Istnieje kilka ważnych przypadków, w których niewyjaśnione zjawiska astrofizyczne można przypisać nowym cząstkom elementarnym lub nowym właściwościom znanych cząstek; Dobrymi przykładami są deficyt neutrin słonecznych i problem ciemnej materii. W tym miejscu omówiona zostanie inna szeroko rozpowszechniona metoda, w której wykorzystuje się ustalone właściwości gwiazd, a nawet całego wszechświata, aby ograniczyć możliwe modyfikacje spowodowane nowymi właściwościami cząstek elementarnych.

Masy neutrin

Jednym z najwcześniejszych astrofizycznych ograniczeń cząstek jest kosmologiczne powiązanie z masami trzech znanych NEUTRINO, elektronu, mionu i neutrina taonowego ?e, ?μ i ?τ. Główną ideą jest to, że cząstki te, pomimo swoich słabych interakcji, musiały zostać wytworzone termicznie w gorącym i gęstym wczesnym Wszechświecie, tworząc w ten sposób "kosmiczne morze neutrin", podobnie jak kosmiczne mikrofalowe promieniowanie tła 3K. Szczegółowe obliczenia ujawniają, że obecna gęstość neutrin i antyneutrin wynosi około 113 cm-3 dla każdego z trzech "smaków" ve, vμ i v?τ, co można porównać z fotonami mikrofalowymi o powierzchni około 400 cm-3. Masy wszystkich neutrin muszą odpowiadać mv 40 eV, w przeciwnym razie ich działanie grawitacyjne spowolniłoby ekspansję Wszechświata poniżej obserwowanego tempa. To odkrycie ?μ w 1962 r. wraz z odkryciem kosmicznego mikrofalowego tła w 1963 r. zainspirowało S. S. Gershteina i Ya B. ZELDOVICHA do wysunięcia tej tezy w 1966 r. Bezpośrednie eksperymentalne granice m? są znacznie mniej restrykcyjne niż granice kosmologiczne, z wyjątkiem ?e i nie wiadomo, czy neutrina w ogóle mają masę. Jednakże wiele dowodów na "oscylacje smaku neutrin" zgromadzono na podstawie pomiarów neutrin atmosferycznych i słonecznych, co sugeruje, że mają one masy, a różnice mas między nimi są niezwykle małe, mniejsze niż około 0,1 eV. W każdym razie masy neutrin wydają się być znacznie mniejsze niż masy innych podstawowych fermionów, elektronu i jego dwóch cięższych braci (mionu i tau), a także sześciu kwarków . Pochodzenie tego widma masowego pozostaje tajemnicą fizyki cząstek elementarnych. Kosmologiczna granica m? stanowi standardowy argument ograniczający właściwości wszelkich teoretycznie proponowanych nowych cząstek, takich jak monopole, aksiony lub cząstki supersymetryczne. Ich udział w kosmicznej gęstości masy musi być zgodny z wiekiem i tempem ekspansji współczesnego wszechświata. Zwykle ich gęstość reliktowa, czyli gęstość cząstek, która przetrwała z wczesnego Wszechświata, jest trudniejsza do oszacowania niż w przypadku neutrin, gdzie po prostu skaluje się wraz z gęstością kosmicznych fotonów mikrofalowych. Ogólnie rzecz biorąc, należy martwić się szczegółowym mechanizmem pierwotnej produkcji i szybkością anihilacji nowych cząstek. Zupełnie inna astrofizyczna metoda ograniczania mas neutrin opiera się na czasie przelotu ze źródła impulsowego. Neutrina o masie m?, wyemitowane ze źródła w odległości D w czasie t = 0, ale o różnych energiach E?, docierają do

t = D / c√1 - (m?c2/Ee)2

gdzie Ev ≥ mvc2 to całkowita energia łącznie z masą spoczynkową, a c to prędkość światła. Są opóźnione, ponieważ poruszają się wolniej niż c. Mierzenie czasów ich przybycia i energii pozwala w zasadzie wyodrębnić mv . Supernowa typu II (SN), czyli zapadnięcie się masywnej gwiazdy, powoduje powstanie ogromnego wybuchu neutrin trwającego kilka sekund. Zdarzenie takie zostało zmierzone raz 23 lutego 1987 roku, kiedy antyneutrina elektronowe z SN 1987A w DUŻYM CHMURZE MAGELLANIC (D ≈ 50 kpc = 163 000 lat świetlnych) zostały zarejestrowane w trzech działających wówczas detektorach neutrin . Sygnał jest kompatybilny z oczekiwanym wewnętrznym czasem trwania wybuchu, bez dowodów na rozproszenie w czasie przelotu, co prowadzi do limitu m?e 20 eV. Supernowe w naszej galaktyce lub w jej pobliżu są rzadkie, być może kilka na stulecie. Jeśli jednak ktoś miał szczęście i zaobserwował kolejny wybuch neutrina z jednym z nich, znacznie większym z dostępnych obecnie detektorów, można by je poprawić, nawet w przypadku ?? i ??, które są trudniejsze do wykrycia. Dzięki nadchodzącym dużym "teleskopom neutrinowym" być może będzie można mierzyć impulsy neutrin z bardziej spekulacyjnych źródeł, takich jak rozbłyski gamma, z potencjalnie znacznie lepszą czułością m?.

Nukleosynteza Wielkiego Wybuchu

Inny standardowy argument kosmologiczny opiera się na tempie ekspansji wczesnego Wszechświata w epoce pierwotnej NUKLEOSYNTEZY, około 3 minuty po Wielkim Wybuchu. Gęstość promieniowania w tym czasie determinuje szybkość ekspansji, co z kolei wpływa na zawartość pierwotnego helu, która, jak się szacuje, wynosi 22-25% masowych, resztę stanowi wodór oraz śladowe ilości deuteru, helu-3 i litu-7. Niezależnie od niepewności, zaobserwowane pierwotne liczebności pierwiastków świetlnych implikują gęstość promieniowania odpowiadającą dwóm do czterech rodzin neutrin, ładnie obejmując w nawiasie trzy znane rodzaje ve, vμ i vτ. Są to jedyne możliwe rodziny, ponieważ dodatkowe rodziny przyczyniłyby się do szerokości rozpadu bozonu cechowania Z0, który jest precyzyjnie mierzony od około 1990 r. Jednakże metodę nukleosyntezy Wielkiego Wybuchu, polegającą na liczeniu rodzin neutrin, można zastosować do bardziej egzotycznych cząstek, które są nie objęte argumentem szerokości zaniku Z0. Każda forma promieniowania, która została wzbudzona termicznie we wczesnym Wszechświecie, przyczynia się do tempa ekspansji. Dlatego siła interakcji i masy wszelkich proponowanych nowych cząstek muszą przejść test, czy nie prowadzą one do nadmiernej kosmicznej gęstości masy i energii w epoce nukleosyntezy. Masa fotonów W przeciwieństwie do neutrin, od których oczekuje się masy, fotony powinny być całkowicie bezmasowe, co jest teoretycznym założeniem wymagającym weryfikacji eksperymentalnej. Limity czasu przelotu sygnału radiowego pulsarów nie są dużo lepsze niż około 10-11 eV, czyli częstotliwość plazmy ośrodka międzygwiazdowego imitująca masę fotonu. Badania laboratoryjne prawa Coulomba dają mγ 10-14 eV; nie znikający mγ zmodyfikowałby zachowanie odwrotne kwadratowe. Podobnie zmienność przestrzenna wyższych wielobiegunowych składników wielkoskalowych pól magnetycznych daje 0,6 × 10-15 eV i 0,8 × 10-15 eV odpowiednio z pola magnetycznego Jowisza i Ziemi. Najbardziej restrykcyjna granica 10?27 eV opiera się na równowadze magneto-grawitacyjnej gazu w MAŁYM OBŁOKU MAGELLANA, która wymaga, aby zasięg oddziaływania przekraczał charakterystyczną skalę pola wynoszącą około 3 kpc. Ta granica jest zaskakująco bliska 10-33 eV, gdzie długość fali fotonu Comptona przekraczałaby promień obserwowalnego Wszechświata i tym samym przestałaby mieć jakiekolwiek zauważalne konsekwencje.

Gwiezdna utrata energii

Szczególnie udany astrofizyczny argument przemawiający za ograniczeniem właściwości słabo oddziałujących cząstek o małej masie, zwłaszcza neutrin, wywodzi się od J. Bernsteina, M. Rudermana i G. Feinberga (1963). Argumentowali, że przypuszczalny magnetyczny moment dipolowy neutrina prowadziłby do niedopuszczalnie dużej utraty energii w gwiazdach w wyniku procesu plazmowego ,



który jest kinematycznie dozwolony, ponieważ częstotliwość plazmy we wnętrzu gwiazdy nadaje fotonom efektywną masę. Ten kanał utraty energii przyczyniłby się do emisji neutrin z wnętrz gwiazd w standardowych procesach. Niestandardowy kanał strat energii, spowodowany emisją neutrin z niestandardowymi sprzężeniami lub emisją hipotetycznych cząstek, takich jak aksiony, może powodować różnorodne obserwowalne efekty. Pozostałości gwiazd (BIAŁE KARLERY, GWIAZDY NEUTRONOWE) schładzałyby się szybciej. Normalne gwiazdy zużywałyby paliwo jądrowe szybciej, a tym samym spalałyby się wcześniej. Czas życia gwiazd o gałęziach poziomych spalających hel, mierzony liczbą gromad kulistych, jest szczególnie precyzyjnym miernikiem nowych kanałów utraty energii. Podobnie możliwe opóźnienie zapłonu helu w wyniku chłodzenia cząstek rdzeni czerwonego olbrzyma może być dobrze ograniczone przez obserwowaną granicę jasności wierzchołka gałęzi czerwonego olbrzyma w gromadach kulistych. Nawet nasze Słońce zapewnia interesujące ograniczenia. Zwiększona szybkość spalania spowodowałaby, że byłby on bardziej rozwinięty niż odpowiada jego wiekowi, powodując zauważalne przesunięcia jego precyzyjnie zmierzonych częstotliwości oscylacji pmod, co jest dziedziną badań znaną jako heliosejsmologia. Argumenty tego rodzaju stosowano do najróżniejszych przypadków; być może najbardziej użytecznym ograniczeniem jest ograniczenie μ? ≾ 3×10-12μB na magnetycznym momencie dipolowym dowolnego neutrina. Tutaj μB = eh/2me, gdzie e jest ładunkiem elektronu, a ja masą elektronu, jest magnetonem Bohra odpowiadającym momentowi magnetycznemu elektronu, który jest zwykle stosowany jako miara możliwych momentów magnetycznych neutrin. Eksperymenty laboratoryjne dają znacznie słabsze limity. Podobnie można wyprowadzić granicę hipotetycznego ładunku elektrycznego neutrina, ev ≾ 2 × 10-14e, mającą zastosowanie do wszystkich smaków. W przypadku zmierzonych antyneutrin elektronowych z SN 1987A galaktyczne pole magnetyczne spowodowałoby odchylenie zależne od energii, a tym samym rozproszenie sygnału w czasie przelotu; wynikowa granica wynosi e?e ≤? 3 × 10-17e. Granica laboratoryjna, oparta na zachowaniu ładunku w rozpadzie β, wynosi e?e ≾ 3 × 10-21e. Jeśli neutrina mają masę, mogą ulec rozkładowi; jednym z możliwych kanałów jest emisja fotonu. Brak anomalnych strumieni promieniowania X lub gamma ze Słońca lub w połączeniu z wybuchem neutrina SN 1987A, a także ograniczenia dotyczące deformacji widmowej natury ciała doskonale czarnego w kosmicznym mikrofalowym tle ograniczają ten kanał rozpadu radiacyjnego. Jednakże element matrycy tego procesu zależy od momentu przejścia elektromagnetycznego, który podlega powyższemu ograniczeniu utraty energii gwiazdowej; jest bardziej restrykcyjny dla m? 1 eV niż bezpośrednie ograniczenia rozpadu fotonów.

Supernowa 1987A

Sygnał neutrina SUPERNOVA 1987A umożliwił szczególnie przydatne zastosowanie argumentu dotyczącego utraty energii gwiazdowej. Powstająca gwiazda neutronowa, która powstała po zapadnięciu się, ochładza się w wyniku emisji neutrin w ciągu kilku sekund, a skala czasu jest wyznaczona przez szybkość dyfuzji neutrin; gwiazda protoneutronowa jest tak gorąca i gęsta, że nawet neutrina nie mogą swobodnie uciec. Konkurujący kanał chłodzący ze słabiej oddziałującymi cząstkami, które nie są uwięzione, skróciłby i osłabił sygnał neutrina, ponieważ całkowita ilość energii, czyli energia wiązania grawitacyjnego gwiazdy neutronowej, jest stała. Ten prosty argument był stosowany w wielu przypadkach, ale być może najciekawszy jest ten dotyczący aksjonów, hipotetycznych cząstek o małej masie, które pierwotnie zaproponowano w kontekście chromodynamiki kwantowej, teorii silnego oddziaływania między kwarkami. Później odkryto, że aksjony są również dobrymi kandydatami na cząstki ciemnej materii wszechświata. Modele Axion zasadniczo charakteryzują się jednym dowolnym parametrem, którym można wybrać masę ma. Wymóg, aby osie nie przenosiły większości energii SN 1987A, przekłada się na granicę ma ≲ 10-2 eV. Z drugiej strony wymóg, aby ich kosmiczna gęstość masy nie była zbyt duża, prowadzi do ma ≳ 10-5 eV, w przeciwieństwie do powyższego przypadku neutrin, dla których kosmologia zapewnia górną granicę masy. W pozostałym zakresie mas mogą istnieć osie, które dostarczają większość lub całość kosmicznej ciemnej materii.

Dziwne gwiazdy

Podstawowymi składnikami materii jądrowej są kwarki, a nie protony i neutrony, i można się zastanawiać, czy gwiazdy neutronowe nie przechodzą przejścia fazowego do ośrodka składającego się z wolnych kwarków. Nawet dziwny kwark jest stosunkowo lekki, więc można spekulować, że "gwiazdy neutronowe", pozostałość masywnych gwiazd po zapadnięciu się supernowej typu II, są w rzeczywistości "dziwnymi gwiazdami" składającymi się z silnie oddziałującego ośrodka up (u), kwarki dolne (d) i dziwne (s). Zaskakująco trudno jest rozróżnić te dwa przypadki obserwacyjnie. Uważa się, że dziwne gwiazdy mogą obracać się szybciej, zanim się rozpadną, więc pulsary submilisekundowe, jeśli kiedykolwiek zostaną wykryte, mogłyby być może rozwiązać kwestię stanu podstawowego materii jądrowej. Podsumowując, astrofizyka i kosmologia zapewniają ważne ograniczenia dotyczące właściwości i interakcji cząstek elementarnych, które często uzupełniają się z tym, co można zmierzyć w eksperymentach laboratoryjnych.

Dżety astrofizyczne

W astronomii istnieje wiele sytuacji, w których stwierdza się, że gaz krąży wokół centralnej masy grawitacyjnej. Dzieje się tak w GWIAZDACH PODWÓJNYCH, gdzie jednym ze składników jest zwarty obiekt - biały karzeł, gwiazda neutronowa lub czarna dziura - a masa jest przenoszona od normalnego gwiezdnego towarzysza. Dzieje się tak w jądrach galaktyk, gdzie obiektem grawitacyjnym jest masywna czarna dziura, a także ma to miejsce podczas najwcześniejszej fazy ewolucji protogwiazdy. Te przepływy gazu nazywane są DYSKAMI AKRECJI i często towarzyszą im szybkie wypływy, uruchamiane w kierunkach przeciwnych, mniej więcej prostopadle do dysków. Wypływy są zwykle nazywane strumieniami i w tym artykule opisano część tego, co o nich wiemy. Pierwszy przykład astrofizycznego dżetu odkrył HEBER CURTIS w 1918 roku przy użyciu Obserwatorium Licka w Kalifornii. Obserwował galaktykę znaną jako M87 w gromadzie galaktyk w Pannie, a kiedy zbadał jądro, znalazł "ciekawy promień prosty". . . najwyraźniej połączony z jądrem cienką linią materii. Była to niezwykła obserwacja (dokonana przez wybitnego astronoma), a dżet w M87 jest nadal jednym z najdokładniej zbadanych obiektów tej klasy. To, co obserwujemy bezpośrednio w M87, to dość prosty obiekt o długości około 2 kpc. Można go dostrzec od długich fal radiowych po wysokoenergetyczne promieniowanie rentgenowskie i stwierdzono, że na całej swojej długości wykazuje około ośmiu obszarów o dużej intensywności, zwanych "węzłami". Dżet można prześledzić w skali rzędu 0,01 pc, która jest mniejsza niż 10-5 razy jego całkowita długość i mniej niż 100 razy promień czarnej dziury, która, jak stwierdzono, znajduje się w jądrze M87 i której masa jest mierzona na około 3 miliardy mas Słońca (patrz M87: JĄDRO I STRUMIEŃ. Wiemy, że gaz wypływa z czarnej dziury w M87, ponieważ możemy użyć bardzo długiej interferometrii bazowej do pomiaru jego prędkości. Odkryto, że że niektóre części dżetu wydają się poruszać na zewnątrz z prędkością, która wydaje się być aż sześciokrotnie większa od prędkości światła. W rzeczywistości jest to dość powszechne zjawisko zwane ekspansją nadświetlną. Nie narusza to szczególnej teorii względności (co stanowi, że wszelki ruch materialny zachodzi wolniej niż prędkość światła). Zamiast tego nadświetlna ekspansja jest iluzją, która wymaga jedynie, aby gaz w strumieniu poruszał się w naszą stronę z prędkością bliską prędkości światła. Z tego powodu dżety jak które w M87 są często stylizowane na dżety relatywistyczne. To całkiem naturalne, że te strumienie poruszają się z prędkością bliską prędkości światła; w końcu jest to prędkość ucieczki z centralnej czarnej dziury. Dżet w M87 wykazuje inną wspólną cechę tych obiektów, a mianowicie, że jego przeciwrównoległy dżet, którego obecność oczekuje się, nie został jeszcze wykryty. To jest ilustracja efektu zwanego ABERRACJĄ. Kiedy źródło promieniowania porusza się z prędkością bliską prędkości światła, wydaje się, że emituje emisję wzdłuż kierunku swojego ruchu. W rezultacie, jeśli źródło się do nas zbliży, będzie wyglądało na bardzo jasne, natomiast jeśli źródło się od nas oddali, będzie wydawało się słabe. To wyjaśnia, dlaczego jesteśmy w stanie wykryć tylko jeden dżet w M87 i dlaczego duża część najjaśniejszych źródeł, które widzimy, wykazuje RUCH NADŚWIETLNY. Przejdźmy teraz do węzłów. Uważa się, że są to fale uderzeniowe powstające w wypływających strumieniach, gdy na przykład prędkość strumienia u źródła wzrasta o wartość większą niż prędkość dźwięku w strumieniu, a zatem jest większa niż prędkość, z jaką informacja może być przekazywana przez strumień. poruszający się płyn strumieniowy. W przepływie musi w końcu powstać silna nieciągłość uderzeniowa, co okazuje się doskonałym miejscem do przyspieszania wysokoenergetycznych, relatywistycznych elektronów o energiach do 100 TeV. Elektrony te promieniują, wirując spiralnie w polu magnetycznym przenikającym dżet - proces znany jako PROMIENIOWANIE SYNCHROTRONOWE - i uważa się, że to właśnie jest odpowiedzialne za całą emisję promieniowania radiowego w zakresie rentgenowskim. Dżet M87 jest stosunkowo słaby. Wiemy o nim tak dużo, ponieważ jest tak blisko. W przeszłości niemal na pewno był zaopatrywany w paliwo gazowe w znacznie większym tempie niż obecnie. Zostałby wówczas sklasyfikowany jako KWASAR. Kwazary to nadpobudliwe jądra bardzo odległych galaktyk, które w zakresie fal optycznych mogą przyćmić swoje gwiezdne gospodarze. Emitują potężnie w całym spektrum elektromagnetycznym. Kwazary często wykazują gigantyczne, podwójne źródła radiowe - dwa "płaty" intensywnej emisji radiowej zlokalizowane po przeciwnych stronach galaktyki. Historycznie rzecz biorąc, tak to wyglądało w którym pierwotnie zidentyfikowano kwazary. Przez długi czas pozostawało tajemnicą, w jaki sposób te płatki radiowe mogą powstawać i utrzymywać się. Wraz z odkryciem dżetów relatywistycznych zagadka została rozwiązana. Źródłem ich mocy jest centralna czarna dziura i otaczający ją dysk akrecyjny. Tworzy to relatywistyczne cząstki i pole magnetyczne, które wypływają na zewnątrz, wzdłuż dwóch przeciwrównoległych kierunków, aby uzupełnić płatki radiowe i wypchnąć je z galaktyki, podobnie jak spaliny kojarzone z samochodami i samolotami odrzutowymi. W pewnym sensie dżety przenoszą produkty przemiany materii na czarną dziurę. Znamy tysiące takich podwójnych źródeł radiowych i udokumentowaliśmy ich właściwości, dzięki czemu zaczynamy rozumieć, w jaki sposób pasują one do sekwencji ewolucyjnej. Najpotężniejsze dżety relatywistyczne, które są wysyłane niemal bezpośrednio na nas, nazywane są czasami BLAZARSAMI i powszechnie obserwuje się je jako źródła promieniowania ?. Fotony o energiach sięgających kilku GeV powstają, gdy foton promieniowania rentgenowskiego jest rozpraszany przez relatywistyczny elektron - proces znany jako odwrotne rozpraszanie Comptona. (W kilku lokalnych przykładach udało się wykryć bardzo wysokoenergetyczne promienie ? o energiach TeV, które prawdopodobnie powstają w pobliżu centralnej czarnej dziury.) Zaskakująco duże natężenie tych dżetów promieniowania ? mówi nam, że w wielu W niektórych przypadkach odprowadzają one dużą część całkowitej mocy generowanej przez silniki centralnych czarnych dziur. Nie wszystkie dżety są powiązane z odległymi galaktykami. W naszej Galaktyce i pobliskich galaktykach odkryto wiele czarnych dziur wielkości gwiazd. Kiedy mają one gwiezdnych towarzyszy, którzy mogą utracić gaz, gaz zostanie przyciągnięty przez czarną dziurę i może również utworzyć dysk akrecyjny. Wczesnym przykładem było źródło SS433, w którym odkryto dwa poprzedzające je antyrównoległe dżety poruszające się z prędkością nieco ponad jedną czwartą prędkości światła. W niektórych przypadkach źródła te wytwarzają również dżety relatywistyczne, czyli mniejsze wersje pozagalaktycznych źródeł radiowych. Wykazują gigantyczne wybuchy, ekspansję nadświetlną i promienie, w związku z czym czasami nazywane są "mikrokwazarami". Są one szczególnie dobre do badania, ponieważ astronomowie mogą obserwować wiele cykli zmian w czasie potrzebnym na zmianę kwazara. Odkryto także, że dżety są powiązane z nowo powstałymi gwiazdami. Tutaj ponownie znajduje się krążący dysk zbudowany z gazu, który nie osiadł jeszcze na gwieździe (ani nie skondensował się w planety). Te "MŁODE OBIEKTY GWIAZDOWE" obserwuje się głównie w liniach emisyjnych w świetle optycznym i podczerwieni, a dżet porusza się z prędkościami kilku stu km na sekundę, co jest porównywalne z prędkością ucieczki z centralnej protogwiazdy. Dżety te czasami wykazują również poruszające się fale uderzeniowe, zwane obiektami Herbiga-Haro (rysunek 2), które rozprzestrzeniają się wzdłuż dżetów. (Ponieważ prędkości strumieni są znacznie mniejsze niż prędkość światła, w tym przypadku nie ma ani ruchu nadświetlnego, ani aberracji.) Jest prawie prawdopodobne, że tutaj również zachodzą podobne podstawowe procesy fizyczne. Te "dżety protogwiazdowe" są szczególnie dobre do badania, ponieważ prędkości przepływu można dokładnie zmierzyć za pomocą linii widmowych. Charakter mechanizmu powstawania i kolimacji dżetów jest nadal przedmiotem kontrowersji. Wielu astronomów uważa, że w dysku akrecyjnym generowane są silne pola magnetyczne, które są odpowiedzialne za uruchomienie i skupienie wypływu. Większość energii dżetu pochodzi prawdopodobnie z obiektu znajdującego się blisko centralnego obiektu, czarnej dziury, gwiazdy neutronowej, białego karła lub protogwiazdy, również za pośrednictwem pola magnetycznego. Symulacje komputerowe przepływów namagnesowanego gazu wokół centralnych ciał grawitacyjnych zaczynają dawać pewien wgląd w to, w jaki sposób i dlaczego dżety są tak częstym towarzyszem dysków akrecyjnych.

Astrofizyka do 1900 roku

W praktyce nie ma wyraźnej linii podziału między astrofizyką a astronomią. Pierwszą z nich definiuje się zwykle jako badanie właściwości fizycznych ciał niebieskich, drugą zaś z ich położeniem i ruchem. Jednakże te dwa rodzaje pomiarów są często ze sobą powiązane. Na przykład masę gwiazd - właściwość fizyczną - zwykle mierzy się obserwując orbity dwóch gwiazd wokół siebie. Jednakże od początku było oczywiste, że używany sprzęt i wiedza wymagana w przypadku tych dwóch rodzajów działalności były różne. W drugiej połowie XIX wieku, gdy przedmiot ten zaczął się szybko rozwijać, uznano go za odrębny kierunek studiów, chociaż minęło trochę czasu, zanim "astrofizyka" stała się akceptowaną nazwą. W tamtym czasie pomiary astrofizyczne opisywano równie często w kategoriach "chemii nieba", jak i "fizyki nieba". Ponieważ obserwacje te różniły się od tradycyjnych pomiarów pozycyjnych, astrofizykę czasami nazywano "nową astronomią". (Aby zwiększyć zamieszanie, badania ruchu nazywano czasami "astronomią fizyczną"). Te współczesne terminy zostaną tutaj zignorowane: odpowiednie prace będą po prostu nazywane "astrofizycznymi".

Wczesne obserwacje astrofizyczne

Niektóre właściwości fizyczne ciał niebieskich można określić poprzez bezpośrednią obserwację przez teleskop. Z tego punktu widzenia obserwacje o znaczeniu astrofizycznym sięgają wynalezienia teleskopu na początku XVII wieku. Wcześniej spekulowano - na przykład, że gwiazdy są ciałami podobnymi do Słońca - ale nie było to żadnych solidnych dowodów. Kilka obserwacji Galileusza przeprowadzonych w 1610 roku za pomocą nowo wynalezionego teleskopu astronomicznego okazało się mieć implikacje fizyczne. Jednym z nich było odkrycie, że topografia Księżyca jest w pewnym stopniu podobna do ziemskiej (pierwszy krok w kierunku księżycowej geologii ery kosmicznej). Najważniejszymi jego obserwacjami dla późniejszej astrofizyki było odkrycie PUNKTÓW SŁOŃCOWYCH. Oprócz rejestrowania złożonej i zmieniającej się natury plam słonecznych Galileusz wykorzystał je także do pokazania, że Słońce, podobnie jak Ziemia, obraca się wokół własnej osi. Później, w XVII wieku, kolejne odkrycie Galileusza - księżyce Jowisza (patrz Jowisz: SATELITY) - doprowadziło do pierwszego określenia prędkości światła. R?MER pracujący w nowo powstałym Obserwatorium Paryskim odkrył, że godziny pojawiania się i znikania księżyców za Jowiszem wydają się systematycznie zmieniać. Przypisał to zmianom odległości Ziemia-Jowisz oraz skończonej prędkości światła. Pomiary R?mera stanowią wczesny przykład faktu, że choć badania astrofizyki polegają głównie na tym, że astronomowie opierają się na rozwoju fizyki, czasami byli w stanie wnieść coś w zamian. W drugiej połowie XVII wieku NEWTON zbadał, w jaki sposób światło słoneczne po przejściu przez pryzmat rozkłada się na kolory składowe. Takie obserwacje spektroskopowe miały stać się najważniejszą częścią astrofizyki, ale dopiero z pewnym opóźnieniem. W 1800 roku WHerschel w Anglii powtórzył eksperyment Newtona (patrz RODZINA HERSCHEL), ale z nowym celem pomiaru mocy grzewczej różnych części widma słonecznego. Termometr, którego użył, zarejestrował istnienie znacznego ogrzewania poza czerwonym końcem widma widzialnego. Była to pierwsza identyfikacja promieniowania podczerwonego (choć, jak to często bywa w przypadku ważnych osiągnięć, Herschel zinterpretował to inaczej). Równolegle do tego w następnym roku doszło po raz pierwszy wykrycie promieniowania ultrafioletowego. Ritter w Niemczech, zainspirowany pracą Herschela, badał działanie widma słonecznego na chlorek srebra. Odkrył, że maksymalny rozkład substancji chemicznej nastąpił poza fioletowym końcem widma widzialnego. (Był to wczesny krok na drodze do fotografii). Jeszcze rok później, w 1802 roku, Wollaston, który również badał widmo słoneczne w Anglii, odkrył, że jest ono przecięte kilkoma ciemnymi liniami. Uważał, że reprezentują one po prostu punkty rozgraniczenia, w których zaczynają się i kończą różne kolory widmowe. Dziesięć lat później Fraunhofer w Niemczech odkrył, że całe widmo słoneczne przecinają ciemne linie. Wykrył ich prawie 600; nic więc dziwnego, że zaczęto je nazywać LINIAMI FRAUNHOFERA.

Widmo słoneczne

Jak sugeruje ten zalew odkryć, to zainteresowanie Słońcem, a w szczególności jego widmem, spowodowało rozwój astrofizyki w XIX wieku. Powody tego zainteresowania były różne. Jednym z nich było to, że Słońce jest doskonałym źródłem światła. W porównaniu z innymi źródłami światła, czy to niebieskimi, czy laboratoryjnymi, Słońce wytwarzało obfite ilości światła. W rezultacie nawet bardzo nieefektywny sprzęt optyczny może dać rezultaty. Innym powodem było szczególne zainteresowanie naukowców z początku XIX wieku zjawiskami koloru. Najłatwiejszym sposobem ich badania było widmo słoneczne. Badania laboratoryjne wykazały, że różne substancje wytwarzają różne zestawy linii widmowych. Dlatego też od początku istniała tendencja do przypuszczeń, że linie Fraunhofera mogą być powiązane z substancjami chemicznymi występującymi na Ziemi. Przypuszczenie to zostało jednak w pełni potwierdzone dopiero w drugiej połowie XIX wieku. Najpierw należało rozwiązać wiele problemów. Na przykład stwierdzono, że niektóre linie Fraunhofera nie pochodziły w ogóle na Słońcu, ale byli pod wrażeniem światła słonecznego podczas jego przejścia przez atmosferę ziemską. Mówiąc bardziej zasadniczo, widma laboratoryjne składały się z jasnych, a nie ciemnych linii. Jak połączono tę dwójkę? W 1849 roku FOUCAULTowi w końcu udało się wykazać tożsamość linii pojawiających się w emisji i absorpcji. Aby to zrobić, eksperymentował z parą linii w widmie słonecznym, które Fraunhofer oznaczył jako "D", ponieważ były szczególnie intensywne. Jednakże te same linie były również odpowiedzialne za opóźnianie prób interpretacji widm. Trudność polegała na tym, że linie D wydawały się być wszechobecne w laboratorium. Bez względu na to, jaką substancję badano, zawsze zdawała się ona pojawiać. Dopiero w latach pięćdziesiątych XIX wieku w pełni rozpoznano powszechne zanieczyszczenie chemikaliów laboratoryjnych solą, co doprowadziło do pojawienia się linii D sodu. Całe to oczyszczenie ziemi musiało nastąpić, zanim widmo słoneczne mogło zostać właściwie zinterpretowane. Ostatni krok w tym procesie można uznać za kluczowe wydarzenie w podstawach astrofizyki. Zrobił je KIRCHHOFF we współpracy ze swoim kolegą z Heidelbergu, Bunsenem, około 1860 roku. Ich badania rozpoczęły się w laboratorium wraz z wynalezieniem palnika Bunsena. Bunsen zamierzał zastosować powstały w ten sposób nieświecący płomień do badania kolorów emitowanych przez różne pierwiastki podczas ich spalania. W tym celu zaproponował zastosowanie zestawu filtrów barwnych. Kirchhoff zasugerował, że Bunsen powinien zamiast tego użyć pryzmatu, co doprowadziło do porównania ze widmem słonecznym. Kirchhoff ustalił dwie podstawowe zasady analizy widm. Po pierwsze, żarzące się ciała stałe lub ciecze dają widmo ciągłe, natomiast gazy tworzą linie lub pasma (których położenie zależy od konkretnego obecnego gazu). Po drugie, gdy źródło widma ciągłego ogląda się przez chłodniejszy gaz, długości fali, przy których zachodzi absorpcja, odpowiadają tym, przy których następuje emisja podczas ogrzewania gazu. Bezpośrednie konsekwencje dla Słońca były podobnie dwojakie. Po pierwsze, ciało Słońca musi składać się z gorącej, gęstej materii, aby wytworzyć obserwowane widmo ciągłe. Po drugie, linie absorpcyjne powstające w chłodniejszej atmosferze słonecznej można wykorzystać do badania składu chemicznego Słońca. Chociaż było to badanie linii atmosferycznych, które zdominowało późniejszą astrofizykę XIX wieku, wnioski Kirchhoffa dotyczące ciała Słońca wywarły natychmiastowy wpływ na współczesną myśl. Powszechnie rozpowszechniony w pierwszej połowie XIX wieku obraz Słońca przedstawiał plamy słoneczne jako dziury w świetlistej chmurze, przez które można było oglądać zimniejsze wnętrze. W istocie W. Herschel spekulował, że wnętrze Słońca, wyobrażane jako posiadające stałą powierzchnię, może być nawet zamieszkane. Analiza widma Kirchhoffa wykazała, że taki obraz jest niemożliwy.

Inne badania słoneczne

W tym czasie pojawił się kolejny problem dotyczący Słońca. W pierwszej połowie XIX wieku podjęto pierwsze znaczące próby pomiaru ilości ciepła docierającego do nas ze Słońca. Takie pomiary tego, co zaczęto nazywać "STAŁĄ SŁONECZNĄ", dostarczyły ilościowego oszacowania ogromnej ilości istoty energetycznej emitowane przez Słońce. Mniej więcej w tym samym czasie zaczęła się kształtować idea oszczędzania energii. Pojawiło się więc pytanie - skąd Słońce czerpie energię? Było jasne, że źródła chemiczne zapewnią świecenie Słońca jedynie przez bardzo krótki czas, więc potrzebne było źródło fizyczne. Rozwiązanie, które zyskało szeroką akceptację w drugiej połowie XIX wieku, zaproponował HELMHOLTZ w 1854 roku. Zasugerował on, że Słońce uzyskuje ciepło w wyniku skurczu grawitacyjnego. Wymagana szybkość była znacznie niższa od granicy obserwacyjnej, a proces był w stanie utrzymać energię słoneczną przez kilka milionów lat. Naukowcom zajmującym się fizyką ten czas życia wydawał się rozsądny, ale spotykał się z coraz większym atakiem ze strony geologów i biologów. Myśleli - jak się okazało słusznie - że ewolucja powierzchni Ziemi i jej mieszkańców wymagała znacznie dłuższego okresu czasu. W połowie XIX wieku zwrócono uwagę na jeszcze jedną cechę Słońca. To była jego zmieniająca się działalność. Na początku lat czterdziestych XIX wieku SCHWABE, niemiecki astronom amator, na podstawie obliczeń plam słonecznych odkrył, że liczba widocznych na dysku słonecznym zmienia się okresowo w czasie. Jego wnioski zostały opublikowane kilka lat później przez HUMBOLDTA, w czasie, gdy prowadzono szereg badań nad fluktuacjami pola magnetycznego Ziemi. W 1852 roku SABINE z Anglii zauważyła, że te fluktuacje magnetyczne zmieniają się w okresie pokrywającym się z cyklem plam słonecznych. Wniosek ten został wkrótce potwierdzony i rozszerzony przez innych, co doprowadziło do ciągłego zainteresowania . Stosunki słoneczno-ziemskie w drugiej połowie XIX wieku. Główne cechy atmosfery Słońca zostały już dostrzeżone, zanim Kirchhoff zainteresował się widmem słonecznym. Ponieważ atmosfera słoneczna była zbyt słaba, aby można ją było dostrzec w pełnym świetle słonecznym, należało zbadać jej właściwości podczas zaćmień słońca. Wyprawy na zaćmienia w latach 1842 i 1851 pokazały, że powierzchnię Słońca zwieńcza CHROMOSFERA (tzw. ze względu na jej czerwony kolor). Powyżej rozciągała się znacznie cieńsza KORONA. Z chromosfery rozciągały się duże "płomienie" (później zwane "występami"). Wyjaśnienie widma słonecznego przez Kirchhoffa otworzyło teraz drogę do bardziej szczegółowego badania struktury atmosfery. Pierwszy postęp astrofizyczny nastąpił w 1868 roku. W tym samym roku z Indii można było zobaczyć zaćmienie słońca i jeden z obserwatorów - Francuz JANSSEN - przyglądał się widmom protuberancji. On i inni znaleźli jasne linie, które wskazywały, że protuberancje to chmury gazu. Janssen doszedł do wniosku, że linie są tak jasne, że powinny być widoczne podczas zaćmienia. Następnie przeskanował kończynę słoneczną i wykazał, że rzeczywiście tak było. W tym samym czasie LOCKYER w Anglii przeprowadził obserwacje spektroskopowe Słońca i zaobserwował te same linie. Oznaczało to, że zarówno chromosferę, jak i protuberancje można było odwzorować na krańcu Słońca, bez konieczności zaćmienia. Ponieważ korona była tak słaba, w XIX wieku nadal można ją było obserwować tylko podczas zaćmień. Podczas zaćmienia w 1869 roku odkryto pierwszą jasną linię koronalną. Teraz stało się oczywiste, że linie emisyjne zarówno chromosfery, jak i korony znacznie różnią się od widma absorpcyjnego Słońca. Z pracy Kirchhoffa oznaczało to, że żadne z nich nie mogło być źródłem linii Fraunhofera. Podczas zaćmienia w 1870 roku amerykański astronom YOUNG wykazał, że linie absorpcyjne w rzeczywistości powstały w ograniczonym obszarze - zwanym "warstwą odwracającą" - pomiędzy chromosferą a pozorną powierzchnią Słońca. Wyjaśnienie jasnej powierzchni Słońca również rozwinęło się dalej w latach sześćdziesiątych XIX wieku. Pod koniec tej dekady Andrews w Anglii wykazał, że gazów o wystarczająco wysokiej temperaturze nie można skroplić. Potwierdziło to to, co już podejrzewano: że ciało Słońca musi składać się z gazu pod wysokim ciśnieniem, a nie z cieczy, jak przypuszczał Kirchhoff. To zrodziło nowe pytanie - dlaczego Słońce w ogóle wydawało się mieć wyraźnie określoną powierzchnię (oznaczoną jako fotosfera)? Powszechnie uznano, że fotosfera musi reprezentować poziom na Słońcu, przy którym gazy stały się wystarczająco chłodne, aby mogły nastąpić skroplenie materiałów ogniotrwałych. Odnowiona wiara w zachmurzoną powierzchnię Słońca pozostawała w modzie aż do początków XX wieku. Zatem w ciągu kilku lat obserwacje spektroskopowe dostarczyły w miarę wyraźny obraz atmosfery Słońca. Następnych kilka dekad poświęcono na wyjaśnianie niektórych niejasności tego obrazu. Jeden związany ze składem chemicznym. Następny Kirchhoffa wielu obserwatorów porównało widma ziemskie z widmem słonecznym, próbując określić skład chemiczny Słońca. Stwierdzono, że prawie wszystkie pierwiastki, które można było wykryć, to metale (chociaż wodór odnotowano wcześnie). Jednak nie udało się zidentyfikować jednej bardzo jasnej linii w widmie chromosferycznym. Lockyer zasugerował, że tak wytwarzany przez nowy pierwiastek, zwany w związku z tym "helem", którego nie znaleziono jeszcze na Ziemi. Sugestia ta została mocno zakwestionowana, ale Lockyer został potwierdzony w latach 90. XIX wieku, kiedy Ramsay odkrył gaz w skałach lądowych, poprzez jego widmo. Podobnie stwierdzono, że niemożliwe jest zidentyfikowanie linii koronalnych. Dlatego też wysunięto równoległą sugestię, że są one spowodowane nowym pierwiastkiem, oznaczonym jako "koronium". W tym przypadku nigdy nie znaleziono żadnego odpowiadającego elementu. (Dopiero w połowie XX wieku wykazano, że linie koronalne powstają w wyniku znanych pierwiastków w stanach silnie zjonizowanych.)

Astrofizyka gwiazd

W początkach astrofizyki Słońce było tak popularnym celem obserwacji, że cały temat nazywano czasem po prostu "fizyką Słońca". Pominęło to fakt, że odkrycia Kirchhoffa zostały natychmiast zastosowane do obserwacji widm gwiazd. Wkrótce stało się jasne, że widma gwiazd mogą znacznie się od siebie różnić. Zatem oprócz badania składu chemicznego gwiazd konieczne było również zbadanie możliwości klasyfikowania gwiazd w grupy. Zajmował się tym w latach sześćdziesiątych XIX wieku przede wszystkim jezuicki astronom SECCHI. Po zbadaniu kilku tysięcy gwiazd doszedł do wniosku, że można je wszystkie podzielić na cztery grupy, w zależności od wyglądu ich widm. Zauważono, że te typy widmowe były skorelowane z kolorami gwiazd - białym, żółtym lub czerwonym. W tym samym okresie projekt HUGGINS w Anglii wykorzystał widma o większym rozproszeniu do poszukiwania składników chemicznych. Pomimo różnic pomiędzy widmami odkrył, że wiele linii można utożsamić z pierwiastkami występującymi na Ziemi i Słońcu. W tych wczesnych dniach widma gwiazd - podobnie jak widmo Słońca - były obserwowane wizualnie. Podczas gdy Słońce wytwarzało odpowiednią ilość światła, nie dotyczyło to gwiazd. Oczywistą odpowiedzią było użycie fotografii, ale modny w latach sześćdziesiątych XIX wieku proces "mokrej płyty" był niewystarczająco czuły. Fotografowanie widm gwiazd stało się możliwe dopiero pod koniec lat 70. XIX wieku, kiedy dostępna stała się metoda "suchej płyty". Wkrótce nastąpiły nowe odkrycia. Ważna z nich wynikała z faktu, że klisze fotograficzne były bardziej czułe na ultrafiolet niż ludzkie oko, w wyniku czego w tym obszarze wykryto wiele nowych linii. Huggins w Anglii i VOGEL w Niemczech znaleźli tam linie, które ich zdaniem przedłużały sekwencję linii wodoru występujących w widzialnym. Badanie długości fal tych linii doprowadziło Szwajcara BALMERA do ogłoszenia wzoru numerycznego na długości fal linii wodorowych, nazywanych obecnie jego imieniem. Jego sukces ugruntował pogląd, że linie widmowe powstają w wyniku powiązanych sekwencji wibracji atomowych. Fotograficzna rejestracja widm gwiazd umożliwiła także pierwszy w miarę dokładny pomiar prędkości radialnych. Doprowadziło to do odkrycia spektroskopowych układów podwójnych: pierwszy znaleziony - Mizar - został odkryty przez pannę Maury na Harvardzie pod koniec lat osiemdziesiątych XIX wieku.

Gwiazdy i mgławice

Fotografia ostatecznie pomogła także w innym rodzaju pomiarów astrofizycznych - jasności gwiazd. W latach osiemdziesiątych XIX wieku E C PICKERING na Harvardzie i Pritchard na Oksfordzie stworzyli katalogi fotometryczne jaśniejszych gwiazd na półkuli północnej w oparciu o wizualne szacunki jasności. Zostały one rozszerzone na gwiazdy półkuli południowej na początku lat 90. XIX wieku przez Baileya obserwującego w Peru. Powszechnie panowało już wówczas przekonanie, że przyszłością będzie fotometria fotograficzna. Niestety, trudno było osiągnąć porozumienie co do tego, jak zredukować obrazy fotograficzne do równoważnych wielkości (dopiero powoli zdano sobie sprawę, że wielkość fotograficzna i wizualna mogą znacznie się różnić w zależności od koloru gwiazdy). W rezultacie fotometria fotograficzna do końca XIX wieku przyczyniła się jedynie w niewielkim stopniu. Pod koniec stulecia hotografia - zwłaszcza prace badawcze na Harvardzie - okazała się cenną metodą wykrywania gwiazd zmiennych. Zainteresowanie wizualną obserwacją zmiennych, na które pierwotnie zwracał uwagę Argelander w Niemczech, wzrosło od połowy stulecia. System oznaczania gwiazd zmiennych za pomocą liter alfabetu obowiązywał już w latach osiemdziesiątych XIX wieku, a pod koniec stulecia badano przykłady głównych typów zmiennych. Największą uwagę przykuły NOVAE (supernowe wyodrębniono jako odrębną kategorię dopiero w XX wieku). Hug ins w 1866 roku jako pierwszy zbadał widmo nowej. Odkrył, że składa się ono ze zwykłego widma absorpcyjnego gwiazd z nałożonymi na siebie jasnymi liniami. Dlatego zarówno to, jak i późniejsze widma nowych zostały zinterpretowane jako wskazujące na eksplozję chmury gazu z ciała gwiazdowego. W latach sześćdziesiątych XIX wieku Huggins przeprowadził przegląd widm jasnych mgławic. (W XIX wieku "mgławica" oznaczała dowolną rozległą plamę światła w porównaniu z gwiazdami, które były źródłami punktowymi). Od czasów WHerschela toczyła się debata na temat natury mgławic. Czy były to jakieś ciecze, czy też gwiazdy skupione tak blisko siebie, że nie dało się ich rozróżnić? Pierwszym obiektem zbadanym przez Hugginsa była Mgławica Planetarna. Pokazał jasne widmo liniowe, co natychmiast zinterpretowano jako oznaczające, że mgławice są obłokami gazu. Problem polegał na tym, że niektórych linii widmowych nie można było powiązać z żadnymi znanymi elementami ziemskimi. Dlatego zasugerowano, analogicznie do helu, że obecny jest nowy pierwiastek - "mgławica". Chociaż pomysł pozostawał w użyciu przez resztę stulecia, mgławica, podobnie jak korona, ostatecznie okazała się fałszywa. W XX wieku wykazano, że jasne linie wynikają z obecności tlenu w stanie rozrzedzonym. W miarę obserwowania większej liczby widm mgławic początkowe wnioski dotyczące ich natury stawały się coraz bardziej wątpliwe. Mgławice planetarne i tak zwane mgławice "nieregularne" (których najlepszym przykładem była mgławica Oriona) zawsze dawały linie emisyjne. Jednakże inne mgławice (kluczowym przykładem jest mgławica Andromeda) dały widma, które wydawały się być ciągłe, bez ciemnych i jasnych linii. Interpretacja tego rodzaju widma była przedmiotem sporu przez resztę stulecia. Pierwsza wskazówka dotycząca dalszych działań pojawiła się dopiero w 1899 r., kiedy SCHEINER w Niemczech odkrył słabe ślady linii absorpcyjnych na fotografii widma mgławicy Andromedy z długim czasem naświetlania. Do tego czasu bezpośrednie zdjęcia dostarczyły dalszych informacji na temat tego ostatniego typu mgławic. LordROSSE, obserwując w Irlandii w latach czterdziestych XIX wieku, zauważył wizualnie, że kilka mgławic wydawało się mieć strukturę spiralną. Kiedy pod koniec stulecia dostępne stały się czułe klisze fotograficzne, wykazano - zwłaszcza KEELER w Stanach Zjednoczonych - że istnieje znacznie więcej mgławic spiralnych. Naturalnym było przypuszczenie, że niezwykłe widmo i niezwykły kształt takich mgławic są ze sobą powiązane. Pod koniec XVIII wieku francuski matematyk LAPLACE zasugerował sposób, w jaki mógł powstać Układ Słoneczny. Wyobraził sobie kurczącą się mgławicę, która w miarę kurczenia się wirowała szybciej. Szybkość wirowania w końcu osiągnęła punkt, w którym materiał został wyrzucony w pierścieniach wokół równika. Materia ta następnie skondensowała się, tworząc planety, a końcowa centralna kondensacja utworzyła Słońce. Obraz nakreślony przez tę "hipotezę mgławicy" sugerował, że kurcząca się materia będzie wyglądać bardzo podobnie do mgławicy spiralnej. Dlatego zaczęto sądzić, że takie mgławice są po prostu pobliskimi układami planetarnymi w procesie formowania. W 1885 roku zamieszanie pogłębiło pojawienie się nowej gwiazdy - właściwie supernowej - w mgławicy Andromedy. Można to oczywiście porównać z innymi nowymi gwiazdami - zwykłymi gwiazdami nowymi - obserwowanymi w Drodze Mlecznej w XIX wieku. Odpowiednie błędne oszacowanie odległości sugerowało, że mgławica Andromedy była częścią naszej własnej Galaktyki. Innym czynnikiem mającym wpływ na to było rozmieszczenie mgławic spiralnych. Stało się jasne, że nie miały one miejsca w pobliżu płaszczyzny Drogi Mlecznej (tzw. "strefa unikania"). Chociaż przyczyna nie była znana (później stwierdzono, że jest to zasłaniający pył w Drodze Mlecznej), rozkład ten sugerował, że mgławice są powiązane z naszą Galaktyką. Na początku stulecia szeroko dyskutowano pogląd, że wiele mgławic to gromady gwiazd, niektóre pod względem wielkości dorównujące naszej Drodze Mlecznej. Pod koniec stulecia większość uważała, że Wszechświat jest zdominowany przez Drogę Mleczną.

Ewolucja gwiazd

W tym czasie rozwinęło się żywe zainteresowanie ewolucją gwiazd. Po ustaleniu różnych kategorii gwiazd nieuniknione było pytanie, w jaki sposób grupy są ze sobą powiązane. Współczesne zainteresowanie ewolucją w geologii i biologii w naturalny sposób zachęcało do poszukiwania zależności o charakterze ewolucyjnym. Pierwszym szeroko rozpowszechnionym poglądem, opracowanym szczególnie przez Zöllnera i Vogela w Niemczech, było to, że gwiazdy tworzą pojedynczą sekwencję ewolucyjną. Urodziły się gorące i białe. W miarę rozpraszania ciepła stawały się kolejno żółte, a następnie czerwone. Wystąpił problem. Jedynym znanym mechanizmem fizycznym napędzającym zmiany było kurczenie się. Zarówno Lane w USA, jak i Ritter w Niemczech wykazali, że kurcząca się kula w rzeczywistości nagrzewa się, a nie chłodzi. Jednak ich wyniki zakładały, że gwiazda jest kulą gazu doskonałego. Nikt wówczas nie przypuszczał, że taki model może reprezentować prawdziwą gwiazdę. Pod koniec stulecia zaczęły gromadzić się dowody na to, że gwiazdy tego samego koloru mogą znacznie różnić się innymi cechami, takimi jak rozmiar. Najbardziej radykalna rewizja XIX-wiecznego obrazu ewolucji gwiazd - "hipoteza meteorytyczna" Lockyera zaproponowana w latach osiemdziesiątych XIX wieku - zakładała, że tak właśnie było. Lockyer zasugerował, że gwiazdy powstają z mgławic składających się z obłoków meteorytów (popularnych obiektów badań w drugiej połowie stulecia). Kurczenie się mgławicy doprowadziło do zwiększonej szybkości zderzeń pomiędzy wchodzącymi w jej skład meteorytami, a tym samym podniosło jej temperaturę. Mgławica, widoczna teraz jako gwiazda, stopniowo zmieniała swój kolor z czerwonego, przez żółty, aż do białego. Zanim osiągnięto ten ostatni punkt, wszystkie meteoryty wyparowały. Dlatego też biała gwiazda teraz ostygła i stała się mniejsza w miarę powracania do sekwencji z żółtej na czerwoną. W przeciwieństwie do innych schematów, hipoteza Lockyera zakładała zatem, że czerwone gwiazdy można podzielić na dwie kategorie - albo bardzo duże, albo bardzo małe.

Interpretacja widm

Lockyer oparł swoje argumenty na porównaniu widm meteorytów w laboratorium z widmami szerokiego zakresu gwiazd. Niektóre z tych prac zostały zaatakowane, a jego hipoteza nie zyskała szerokiego wsparcia. Niemniej jednak szczegółowe badania widm gwiazd stawały się coraz bardziej tematem zainteresowania. W połowie lat osiemdziesiątych XIX wieku EC Pickering z Harvardu zainicjował zakrojone na szeroką skalę badania spektroskopii i fotometrii gwiazd. Pierwsze wyniki pojawiły się w latach 90. XIX wieku jako pamiątkowy katalog widm gwiazd Drapera. (Draper był pionierem amerykańskiego astrofizyka, którego rodzina przekazała pieniądze na projekt po jego śmierci.) W katalogu wprowadzono alfabetyczną klasyfikację widm gwiazd, która jest nadal używana. Widma użyte do klasyfikacji na Harvardzie były zbyt małe, aby je szczegółowo zbadać, ale panna Maury zbadała bardziej szczegółowo podzbiór gwiazd. Odkryła, że gwiazdy tego samego koloru mogą nadal wykazywać subtelne różnice w wyglądzie swoich widm. Spekulowała, że mogą one mieć wpływ na ewolucję gwiazd. (W istocie jej prace doprowadziły do rozróżnienia dokonanego przez Hertzsprunga na gwiazdy olbrzymy i karły na początku XX wieku). Podstawowy problem polegał na tym, że teoretyczne rozumienie widm pozostawało przez cały XIX wiek dość prymitywne. Trudność polegała na tym, że widma nie tylko same w sobie były często złożone, ale co gorsza, mogły się zmieniać w zależności od źródła światła. Na przykład widmo laboratoryjne pierwiastka wytworzonego za pomocą łuku elektrycznego może mieć pewne linie różniące się od widma tego samego pierwiastka wytworzonego za pomocą iskry elektrycznej. Jedno z proponowanych wyjaśnień było takie, że elementy można rozbić w stopniu zróżnicowanym w zależności od warunków, jakim były poddawane. Sugestia ta spotkała się ze znacznym sprzeciwem, między innymi dlatego, że podstawową zasadą XIX-wiecznej nauki było przekonanie, że atomy są niezniszczalne. Niestety Lockyer, który był najsilniejszy zwolennik tego argumentu, początkowo miał błędne wyobrażenie o tym, co się dzieje. Już wcześniej zauważono, że w widmach laboratoryjnych różnych pierwiastków niektóre linie często pokrywały się w swoich pozycjach. Locker nazwał je liniami "podstawowymi" i uważał, że ujawniają one obecność wspólnego produktu rozpadu z pierwiastków początkowych. Gdy stały się dostępne spektroskopy o wyższej dyspersji, odkryto, że te podstawowe linie po prostu znajdowały się blisko siebie, a nie pokrywały się. W związku z tym nie miały one żadnego zasadniczego znaczenia. Pod koniec stulecia Lockyer pod wpływem swojego asystenta, FOWLERA, zmienił swoje poglądy na temat rozkładu pierwiastków. Zwrócono teraz uwagę na inną grupę wersetów - oznaczonych jako "udoskonalone" - które różniły się w zależności od źródła. Linie te rzeczywiście były powiązane z tym, co obecnie nazwalibyśmy zjonizowanymi atomami. Jednak współcześni Lockyerowi byli w większości tak zdezorientowani jego reinterpretacją, że nowy pomysł nie wzbudził początkowej uwagi. Do tego czasu - końca stulecia - dowody zaczynały się gromadzić, tak że atomy mogły zostać rozbite. Kluczowym tego przykładem jest praca JJ Thomsona nad elektronem. Szczegółowe zrozumienie widm astronomicznych musiało poczekać na rozwój teorii kwantowej w XX wieku. Próbując zinterpretować widma, Słońce pozostawało głównym źródłem danych porównawczych przez cały XIX wiek. Na przykład odkryto, że widma plam słonecznych mają pasma podobne do widm czerwonych gwiazd. Ponieważ uważano, że plamy słoneczne są chłodniejsze od Słońca jako całości, zgadzało się to z oczekiwaniami dotyczącymi temperatur gwiazd. Problem polegał na tym, aby faktycznie przedstawić liczbę związaną z temperaturami. Biała gwiazda może być gorętsza niż czerwona, ale o ile gorętsza? Ponownie spodziewano się, że najpierw uda się odpowiedzieć na to pytanie w odniesieniu do Słońca. W połowie XIX wieku możliwości powiązania temperatury ciała z emitowanym przez nie promieniowaniem były ograniczone. Opierały się one głównie albo na prawie Newtona, albo na prawie Dulonga i Petita, ale dawały one bardzo różne wyniki. Na przykład jedno oszacowanie z 1860 r. sugerowało, że powierzchnia Słońca ma temperaturę około 7 000 000 ?C, podczas gdy inne z 1872 r. sugerowało 1400 ?C. Spośród różnych proponowanych poprawek, ta, która ostatecznie okazała się najbardziej użyteczna, została wysunięta przez Stefana w 1879 roku. Jego sugestia dotycząca zależności od czwartej potęgi temperatury nie miała oparcia teoretycznego aż do rozwoju teorii kwantowej. Dlatego w XIX wieku traktowano go z pewną rezerwą.

Rozwój astrofizyki

W 1859 roku po raz pierwszy zaobserwowano rozbłysk słoneczny. Było ono na tyle intensywne, że było widoczne w białym świetle na tle tarczy Słońca, a towarzyszyła mu potężna burza magnetyczna i rozległe zorze polarne na Ziemi. Trudność polegała na tym, że takie zdarzenia były zwykle niewidoczne, ponieważ ograniczenia instrumentalne oznaczały, że większość obserwacji Słońca prowadzono na żywo. Zmieniło się to w latach 90. XIX wieku, kiedy HALE w USA (a także DESLANDRES we Francji) wprowadzili pomysł oglądania całego Słońca w świetle pojedynczej linii, umożliwiając w ten sposób skanowanie aktywności słonecznej na całym dysku. Rozwój ten dobrze ilustruje ciągły związek między nowymi badaniami astrofizycznymi a lepszym instrumentarium. Pod koniec stulecia na końcach teleskopów zawieszano nie tylko coraz większą różnorodność sprzętu: same teleskopy przechodziły zmiany. Zatem fakt, że klisze fotograficzne były wrażliwe na inny obszar widma niż ludzkie oko, oznaczał, że teleskopy refrakcyjne do zastosowań fotograficznych musiały być specjalnie zaprojektowane i dostosowane. Co więcej, potrzeba maksymalnego uchwycenia światła doprowadziła do rosnącego zainteresowania wykorzystaniem teleskopów zwierciadlanych w badaniach astrofizycznych. W początkach swojej działalności wielu astronomów uważało astrofizykę za słabszy dodatek do astronomii klasycznej. Było mniej rygorystyczne i nie wymagało podstaw matematycznych niezbędnych w astronomii klasycznej. Pomimo prób powiązania aktywności słonecznej z ziemską pogodą, przyniosło to mniej praktyczne skutki niż klasyczna astronomia, która stanowiła tradycyjną podstawę ziemskiego pomiaru czasu i położenia. Przede wszystkim nie istniała zadowalająca teoria, która umożliwiłaby zintegrowanie tego wszystkiego w jedną całość. Nic dziwnego, że wielu pionierów strofizyków było amatorami lub wywodziło się z innych dyscyplin. Jednak w ciągu kilku dziesięcioleci astrofizyka stała się odrębnym tematem: w latach 90. XIX wieku poświęcono jej już główne czasopismo - Astrophysical Journal (patrz ASTRONOMICAL TOWARZYSTWA I PUBLIKACJE). Co istotne, rozwiązanie to wprowadzono w Stanach Zjednoczonych. Ameryka Północna odegrała jedynie niewielką rolę w rozwoju astronomii klasycznej. Wraz z nastaniem nowego stulecia w świecie astronomicznym powszechnie przyjęto, że odegra on znacznie większą rolę w rozwoju astrofizyki.

Atom

Najmniejsza cząsteczka pierwiastka chemicznego, która zachowuje właściwości tego pierwiastka. Każdy atom składa się ze zwartego jądra, w którym znajduje się cała jego całkowita masa z wyjątkiem niewielkiej części, otoczonego chmurą elektronów - lekkich cząstek o ujemnym ładunku elektrycznym. Typowe jądro atomowe ma promień około 10-14 m; całkowity promień atomu (czyli promień jego chmury elektronów) jest około 10 000 razy większy (około 10?10 m). Jądro składa się z pewnej liczby protonów (masywnych cząstek o dodatnim ładunku elektrycznym) wraz z pewną liczbą neutronów (cząstek o masie podobnej do protonu, ale o zerowym ładunku elektrycznym), przy czym wszystkie te cząstki są powiązane ze sobą silnym oddziaływaniem jądrowym. Otaczająca chmura ujemnie naładowanych elektronów jest utrzymywana wokół dodatnio naładowanego jądra dzięki sile elektromagnetycznej. Kompletny (neutralny) atom zawiera taką samą liczbę protonów jak elektrony, a ponieważ ma taką samą liczbę cząstek naładowanych dodatnio i ujemnie, ma zerowy ładunek wypadkowy. Atom, który utracił jeden lub więcej elektronów i dlatego ma ładunek dodatni, nazywany jest jonem dodatnim. Atom, który pozyskał jeden lub więcej dodatkowych elektronów i w związku z tym ma ładunek ujemny, nazywany jest jonem ujemnym. Każdemu pierwiastkowi przypisany jest symbol chemiczny w formie litery lub pary liter; na przykład wodór oznacza się H, hel He i tak dalej. Atom charakteryzuje się liczbą atomową (oznaczoną symbolem Z), która oznacza liczbę protonów w jego jądrze, oraz liczbą masową (A), która oznacza całkowitą liczbę protonów i neutronów zawartych w jego jądrze. Tradycyjnie pierwiastek jest oznaczony jego symbolem chemicznym, poprzedzonym liczbą masową jako indeksem górnym i liczbą atomową jako indeksem dolnym. Zatem pierwiastek X o liczbie atomowej Z i liczbie masowej A można zapisać jako A ZX. Na przykład normalny atom wodoru z jednym protonem i bez neutronów w jądrze (Z = 1; A = 1) byłby oznaczony przez 11 H; jądro helu z dwoma protonami (Z = 2) i dwoma neutronami (A = 2 + 2 = 4) byłoby oznaczone jako 42 He i tak dalej. Liczba atomowa określa pierwiastek chemiczny, którego przykładem jest dany atom. Zatem na przykład każdy atom wodoru ma Z = 1, każdy atom helu ma Z = 2 i tak dalej. Jądra tego samego pierwiastka chemicznego mogą jednak zawierać różną liczbę neutronów. Atomy, które mają tę samą liczbę protonów, ale różną liczbę neutronów w swoich jądrach, a zatem mają tę samą liczbę atomową, ale różną liczbę masową, nazywane są izotopami. Na przykład "ciężki wodór" lub deuter, oznaczony jako 21H (lub 2D), to izotop wodoru, który w swoim jądrze ma jeden proton i jeden neutron, a nie tylko jeden proton. Hel występuje w dwóch postaciach, hel-4 (42 He) i hel-3 (32 He), lżejszy izotop z dwoma protonami, ale tylko jednym neutronem w jądrze. Średnia liczba różnych naturalnie występujących izotopów danego pierwiastka, ważona według ich względnej liczebności, jest masą atomową tego pierwiastka. Chociaż mechanika kwantowa wykazała, że elektronów w atomach nie można traktować ściśle jako punktów zlokalizowanych w przestrzeni i że chmury elektronów otaczające jądro reprezentują obszary, w których prawdopodobieństwo znalezienia elektronów jest największe, model atomu wodoru Bohra zaproponowany w 1913 r. autorstwa duńskiego fizyka Neilsa Bohra (1885-1962) w dalszym ciągu stanowi dobrą podstawę do opisu sposobu, w jaki atomy emitują i pochłaniają promieniowanie. Według tego modelu atom wodoru składa się z pojedynczego protonu, wokół którego pojedynczy elektron porusza się po jednej z szeregu dozwolonych orbit, z których każda odpowiada innemu poziomowi energii. Jeśli elektron spadnie z wyższego poziomu na niższy (dokonuje "przejścia w dół"), emituje foton (ilość energii promieniowania) o energii równej różnicy energii pomiędzy górnym i dolnym poziomem. Długość fali emitowanego promieniowania jest odwrotnie proporcjonalna do energii fotonu (im większa różnica poziomów energii, tym krótsza długość fali emitowanego promieniowania). I odwrotnie, jeśli elektron pochłonie ilość energii równą różnicy energii między niższym i wyższym poziomem, przeskoczy na wyższy poziom (dokonuje "przejścia w górę"). Emisja i absorpcja promieniowania, która zachodzi, gdy elektrony dokonują przejść w dół i w górę pomiędzy różnymi poziomami energii atomów wodoru, powoduje powstanie szeregu linii emisyjnych lub absorpcyjnych tworzących widmo wodoru. W przypadku masywnych atomów, które mają wiele elektronów ułożonych w koncentrycznych powłokach, zbiór poziomów energii i dozwolonych przejść jest bardziej złożony, ale obowiązuje ta sama ogólna zasada: przejścia w dół powodują emisję promieniowania, a przejścia w górę mają miejsce po absorpcji energii.

Zorza polarna

Zorza polarna to rozległe źródło światła o różnych formach i kolorach, które można zaobserwować na dużych, a czasami na średnich szerokościach geograficznych. Ich jasność może osiągnąć intensywność światła pełni księżyca. Owal zorzy polarnej (po jednej na każdej półkuli) to miejsce, w którym można zaobserwować większość zórz polarnych. Jest to pas otaczający każdą z Ziemi bieguny magnetyczne o maksymalnym zasięgu równoleżnikowym o północy magnetycznej. Zorze polarne (wewnątrz owalu) i zorze dzienne są zwykle słabe i rozproszone, natomiast w owalu są bardziej intensywne i zmienne w czasie. W obu przypadkach zorze powstają w wyniku interakcji cząstek pochodzenia słonecznego z atomami i cząsteczkami górnych warstw atmosfery ziemskiej w wyniku bezpośrednich zderzeń i reakcji chemicznych. Jednakże w przypadku owalu zorzy polarnej cząstki są przyspieszane przez pewne złożone procesy magnetosferyczne prowadzące do zjawisk o jaśniejszej intensywności i różnych formach, przy czym oba znaki są w dużym stopniu zależne od czasu. Zorze polarne obserwuje się zwykle na wysokości od 80 do 300 km, w zależności od charakterystyki wytrącających się cząstek (energii elektronów i protonów) oraz składu atmosfery, co prowadzi do widma zorzy składającego się z wielu linii atomowych i molekularnych obojętnych lub zjonizowanych. Występowanie i intensywność zorzy polarnej zależą od aktywności Słońca; na przykład w obserwacjach można znaleźć typowy 11-letni cykl słoneczny. Charakterystyka zorzy polarnej stanowi ostatni etap szeregu procesów rozpoczynających się w atmosferze słonecznej i biorących pod uwagę ziemską magnetosferę i fizykę atmosfery.

Krótkie tło historyczne

Obserwując nasze otoczenie, ujawniają się różne zjawiska. Występują regularne zjawiska, takie jak wschody i zachody słońca, ruchy gwiazd i planet. Występują także zjawiska występujące nieregularnie, o charakterze astronomicznym lub geofizycznym, takie jak tęcze, komety, aureole i zorze polarne. Zanim stały się przewidywalne, ich wystąpienie było powiązane z kilkoma ważnymi wydarzeniami. Dlatego właśnie zjawiska te zostały odnotowane w celach wróżbiarskich, a także prawdopodobnie dla ciekawości. W pierwszych wiekach naszej ery Chińczycy, Grecy i Rzymianie odnotowali zorze polarne. Jednak ludzie zamieszkujący obszary położone na dużych szerokościach geograficznych byli bardziej przyzwyczajeni do ich występowania i nazwali je Zorzą Polarną. Pierwsze współczesne obserwacje zorzy rozpoczęły się w drugiej połowie XVI wieku za sprawą Tycho Brahe z jego obserwatorium w Uraniborgu. Jakiś czas później występowanie zorzy zorzy zmniejszyło się, szczególnie na średnich szerokościach geograficznych. P. Gassendi opisał kilka zorzy obserwowanych na początku XVII wieku i zaproponował nazwę "aurora borealis". Po odkryciu plam słonecznych w 1609 roku, regularnie obserwowano Słońce. Występowanie plam słonecznych znacznie spadło od 1645 do 1715 roku, czyli do "minimum Maundera", podczas którego wystąpiło niewiele zorzy. Aktywność słoneczna została wznowiona na początku XVIII wieku, a na średnich szerokościach geograficznych (1716 i 1726) zaobserwowano kilka intensywnych zórz polarnych. E Halley, a później JJ Dortou de Mairan zostali poproszeni o zbadanie ich pochodzenia odpowiednio przez Towarzystwo Królewskie (Londyn) i Acad′emie Royale des Sciences (Paryż). Wcześniej wysunięto różne hipotezy wyjaśniające występowanie zorzy polarnej. Mairan zasugerował w 1733 roku, że światło zorzy zostało wygenerowane przez płyn słoneczny uderzający w ZIEMSKĄ SATMOSFERĘ. Choć była to hipoteza przybliżona, była to pierwsza hipoteza oparta na związku Słońca z Ziemią. W drugiej edycji swojego raportu Mairan stwierdził, że istnieje związek pomiędzy plamami słonecznymi i zorzą polarną, a także ich sezonowym występowaniem. Związek między występowaniem zorzy polarnej a zaburzeniami magnetycznymi został eksperymentalnie wykazany przez P. Hiortera w 1741 r., obserwując jednocześnie maleńkie zaburzenia doświadczane przez igłę kompasu (podawana w stopniach Celsjusza). Mairan podejrzewał, że zorze polarne mogą pojawiać się na półkuli południowej i skierował notatkę do Don Ulloa, hiszpańskiego oficera marynarki, który potwierdził obserwacje zorzy polarnej podczas okrążania Przylądka Horn w 1745 roku. J. Cook badający wysokie południowe szerokości geograficzne potwierdził występowanie " aurora australis" w 1770 r. W drugiej połowie XVIII wieku W. Wargentin (1717-1783) na podstawie różnych obserwacji wywnioskował, że zorze polarne można obserwować z różnych miejsc w tym samym czasie i rozciągają się poziomo jako pas otaczający Biegun Północny. Po odkryciu elektronu K. Birkeland zaproponował w 1896 r., że zorze polarne powstają w wyniku elektronów wyrzucanych ze Słońca i kierowanych przez ziemskie pole magnetyczne do regionów położonych na dużych szerokościach geograficznych. Poparł tę ideę eksperymentami laboratoryjnymi. Jednak ze względu na odpychanie elektrostatyczne konieczne było uwzględnienie PLAZMY wyrzuconej przez Słońce, a nie samych elektronów. S Chapman i V Ferraro wykazali, że poruszająca się plazma będzie oddziaływać z polem magnetycznym Ziemi, zamykając ją we wnęce. To były narodziny fizyki magnetosferycznej. Kilka ekspedycji pod koniec XIX wieku z dużą dokładnością zlokalizowało strefę zorzową. Zorze były przedmiotem wielu obserwacji (form, widma itp.) i opracowań teoretycznych.

Główne właściwości

Nowoczesnymi sposobami obserwacji zórz polarnych są spektrometry analizujące ich widmo, fotometry badające zachowanie jednej lub kilku linii emisyjnych, kamery rejestrujące formy zorzy w funkcji czasu oraz radar. Instrumentów tych można używać na ziemi lub z platform orbitujących, gdzie umożliwiają globalne badanie zórz polarnych. Jednak przed instrumentalnym badaniem zórz polarnych przeprowadzono obserwacje wizualne. Aby umożliwić porównania obserwacji dokonanych przez różnych autorów, na arenie międzynarodowej przyjęto nomenklaturę opisującą cechy zorzy polarnej (intensywność, forma i kolor). Jest nadal w użyciu.

Intensywność

Linia o największym natężeniu wynika z emisji tlenu atomowego przy 557,7 nm, często nazywana w literaturze naukowej "zieloną linią". Jasność zorzy polarnej jest skalowana do intensywności zielonej linii za pomocą Międzynarodowego Współczynnika Jasności (IBC), jak pokazano w tabeli .



Dla porównania podano równoważne źródła jasności. We współczesnych pomiarach intensywność emisji zorzy polarnej podaje się w Rayleighu. Jednakże w przypadku wykorzystywania starych zapisów do badań długoterminowych odniesienie do równoważnego natężenia źródła jest przydatne pomimo jego względnej niedokładności.

Formy i kolory

Obserwacje wizualne i obrazy zarejestrowane przez kamery ujawniają kilka typowych form, jak pokazano na przykład na rysunku 1. Są one dokładnie opisane jako łuki, pasma, promieniste lub nie, powierzchnia rozproszona lub pulsująca, korona i płomienie. Opis form zorzowych opiera się na nomenklaturze międzynarodowej Kolory zorzy są zwykle zielone, czerwone lub niebieskie, w zależności od gatunków atmosferycznych biorących udział w procesach wzbudzenia. Zorze o intensywności IBC I lub II wydają się bezbarwne. Żółte zorze powstają w wyniku zmieszania się czerwieni i czerwieni , zielone zorze. Intensywność zorzy jest funkcją czasu. Zmiana może być powolny, jak w przypadku powierzchni pulsującej (0,1 Hz), lub osiągać 10 Hz w przypadku niektórych form jednorodnych. Zmiany w czasie mogą być spowodowane podróżującymi formami, jak w przypadku zorzy typu płonącego, które wydają się poruszać w górę. Pozorne ruchy poziome występują w zorzach łukowych lub pasmowych o prędkościach sięgających 100 km na s-1. To oczywista prędkość generalnie wzrasta wraz z amplitudą burzy magnetycznej. Podczas obserwacji wizualnych takich zdarzeń, szybkość zmian w czasie jest z pewnością najbardziej uderzającą i spektakularną cechą zjawiska zorzy. Zdarzenia zorzowe są spowodowane wytrącaniem się cząstek w górnych warstwach atmosfery ziemskiej. Ich wzory są złożone i dlatego należy dokładnie zdefiniować opis zorzy polarnej. Na tej podstawie możliwa była klasyfikacja zdarzeń zorzowych i uzyskanie informacji o procesach ich powstawania.

Lokalizacja

Kiedy prowadzi się obserwacje naziemne w funkcji szerokości geograficznej, można określić średnią częstotliwość występowania. Umożliwia zdefiniowanie obszaru maksymalnego występowania, zwanego obecnie "strefą zorzową". Strefa zorzowa i owal zorzowy to dwa różne pojęcia, które zostaną wyjaśnione później. Zdjęcia owalu zorzy polarnej uzyskano z orbity za pomocą sondy kosmicznej DYNAMICS EXPLORER 1 (rysunek 2). Owalny środek zorzy polarnej jest przesunięty o około 3? od bieguna geomagnetycznego w kierunku ciemnej półkuli. Jego grubość jest maksymalna o północy magnetycznej. Owal zorzowy leży na około 70? szerokości magnetycznej i ma średnią szerokość około 5? w spokojnych warunkach. Kiedy zorze są obserwowane w tym samym czasie z dwóch magnetycznie sprzężonych miejsc (jednego na północy, a drugiego na południowym owalu zorzowym), tworzą się podobne wzory. Występowanie zórz polarnych jest większe w owalu zorzowym niż w jego środkowej części. Ten ostatni obszar nazywany jest CZAPKĄ POLARNĄ, a zorze polarne mają słabszą intensywność i mniejsze tempo zmian w czasie niż w owalu zorzowym. Czasami wewnątrz można zobaczyć niezwykłe pokazy zorzy polarnej. Na przykład łuk obserwowany w pobliżu zenitu pozostaje zgodny z kierunkiem Słońca. Zostało to odkryte przez D. Mawsona w 1913 roku na stacji Dumont d′Urville (Antarktyda). Łuk ten może rozciągać się aż do obu wewnętrznych krawędzi owalu zorzowego. Został nazwany theta aurora, ponieważ wyglądem przypomina grecką literę. Powyższe zorze obserwowane są w nocy. Inny rodzaj zorzy można zaobserwować w ciągu dnia. Zwykle są słabe i rozproszone.

Wysokość i zasięg przestrzenny

Najpierw mierzono wysokości metodą paralaktyczną z ziemi. Obecnie powszechnie stosuje się pomiary z rakiet i statków kosmicznych. Większość zórz polarnych ma miejsce na wysokościach od 80 do 120 km. Jednak dolna granica bardzo intensywnych zorzy może spaść do 70 km. Ich pionowy zasięg zależy od procesów wytwarzania i w przypadku niektórych zorzy może osiągnąć wysokość 300 km. Rozkład intensywności nie jest jednorodny wzdłuż pionu; jego pionowa konstrukcja zbudowana jest z elementów o grubości od setek metrów do kilku kilometrów. Zorze polarne pozostają w pasie szerokości geograficznej, którego grubość jest funkcją czasu magnetycznego (definiowanego jako lokalny czas słoneczny, ale liczony od południka zawierającego bieguny magnetyczne i geograficzne), jak widać na ryc. 2. W owalu zorzowym znajduje się spokojna łuki są przeważnie zorientowane wzdłuż owalu i mogą mieć długość 500 km. Częstotliwość występowania Dla danej stacji naziemnej w strefie zorzy polarnej, średnie roczne występowanie jest zgodne z 11-letnim cyklem słonecznym, jednakże z opóźnieniem od roku do dwóch lat. Korzystając z danych z kilku lat, posortowanych według średniej miesięcznej, pokazana jest zmienność półroczna z maksymalnym występowaniem zorzy w pobliżu równonocy. Podobnie można wskazać 27-dniową rotację Słońca. Występowanie czapy polarnej i zorzy dziennej nie przestrzega ściśle tych zasad, szczególnie w przypadku najbardziej intensywnych wydarzeń.

Związek z aktywnością magnetyczną

Słońce jest gwiazdą zmienną. Doświadcza zmian mniej lub bardziej cyklicznie, inne mają charakter bardziej chaotyczny. Jego zmienna aktywność powoduje wahania charakterystyki WIATR SŁONECZNEGO (prędkość, gęstość, temperatura jonów i elektronów oraz pole magnetyczne) o większym lub mniejszym znaczeniu. Powoduje to niewielkie wahania pola magnetycznego Ziemi, które są wykrywane przez magnetometry na ziemi. Ich amplitudy służą do określenia wskaźników aktywności magnetycznej. Zdarzenia te nazywane są burzami magnetycznymi. Występowanie i intensywność zorzy polarnej zbadano jako funkcję zaburzeń magnetycznych i określono odpowiadający im owal zorzy. Z typowego kształtu (ryc. 2), wraz ze wzrostem aktywności magnetycznej, owal przesuwa się nieco w kierunku równika i rozciąga się w kierunku biegunowym i równikowym. To wyjaśnia, dlaczego niektóre zorze można zaobserwować na średnich szerokościach geograficznych. Aktywność magnetyczna przebiega zgodnie z 11-letnim cyklem słonecznym. Jednakże, biorąc pod uwagę chaotyczną naturę Słońca, silne zjawiska magnetyczne mogą wystąpić nawet podczas niskiej aktywności słonecznej. Zorze elektronowe i protonowe Zorze powstają głównie w wyniku zderzeń pomiędzy substancjami atmosferycznymi a cząstkami, elektronami lub protonami. Większość właściwości omówionych powyżej dotyczy zórz elektronowych. Różnice między zorami elektronowymi i protonowymi wynikają z ich odmiennego sposobu propagacji w górnych warstwach atmosfery. Ze względu na masę protonu jego promień wirowania jest znacznie większy (200 m) niż elektronu. Co więcej, protony poruszające się w polu magnetycznym mogą zderzać się z niektórymi cząsteczkami i wychwytywać elektron. W efekcie atom wodoru porusza się po linii prostej, wolny od wpływu ziemskiego pola magnetycznego. Kolejna kolizja może później przywrócić początkowy proton. W rezultacie zorze protonowe mają słabą intensywność (maksymalna IBC I) i są rozproszone. Wysokość występowania wynosi około 100 km. Owal zorzy protonowej jest nieco przesunięty w stronę równika w stosunku do owalu zorzy elektronowej.

Widmo zorzy polarnej i mechanizmy emisji

Większość zórz polarnych ma kolor zielony ze względu na linię emisyjną O(1S) przy 557,7 nm. Istnieje jednak wiele innych linii pochodzących z atomów, cząsteczek lub gatunków zjonizowanych. Jest to superpozycja wielu linii z: O i N; O2, N2, NO i OH; O+, N+; i O+2, Nsup>+2. Kolor niebieski pochodzi z pasma Nsup>+2 przy 391,4 nm. Widmo zorzy polarnej powstaje w wyniku zderzeń elektronów/protonów z substancjami występującymi w atmosferze ziemskiej oraz reakcji fotochemicznych:

(a) Zderzenia z elektronami. Pierwotne elektrony z magnetosfery zderzają się z atomami (A) i cząsteczkami (M) atmosfery ziemskiej i ustawiają te gatunki w stany metastabilne (?), takie jak

A+e ? A? + e
M+e ? M? + e

z podobnymi reakcjami prowadzącymi do jonów. Elektrony po lewej stronie to elektrony pierwotne, a te po prawej stronie to elektrony wtórne, które również mogą zderzać się z innymi gatunkami i generować wzbudzone stany molekularne i atomowe, aż do ich pełnej termalizacji. Stany wzbudzone (?) są dezaktywowane albo przez wypromieniowanie fotonów, albo przez zderzenia z innymi substancjami przed emisją światła (wygaszenie). Ponieważ zagęszczenie gatunków neutralnych rośnie w dół, wygaszanie wyjaśnia, dlaczego na małych wysokościach (zwykle poniżej 70 km) nie obserwuje się zórz polarnych. (b) Pośrednie mechanizmy wzbudzenia. Dwa najważniejsze mechanizmy to:

(1) Rekombinacja dysocjacyjna; typowym przykładem jest O+2 + e ? O(1D lub 1S)+O.
(2) Transfer i hartowanie energii; typowym przykładem jest

O(1D)+N2 ? O(3P)+N2†.

Symbol † oznacza stan wzbudzony lub stan podstawowy. W pierwszym przypadku mamy do czynienia z transferem energii, w drugim zaś z dezaktywacją kolizyjną. Skuteczność hartowania jest funkcją wysokości i czasu życia stanu wzbudzonego zderzających się gatunków. (c) Zderzenia z protonami. Reakcje obejmują rotony i obojętny wodór zderzający się z cząsteczkami. Podczas tych zderzeń obojętny wodór może rozbić swój elektron, zjonizować cząsteczkę lub przekazać jej energię. Jeśli chodzi o proton, może on również jonizować cząsteczkę, przekazywać jej energię lub wychwytywać elektron. Aby obliczyć różne intensywności linii emisyjnych, konieczne jest pozbycie się widma energii elektronów pierwotnych. Zwykle mierzy się to na dużych wysokościach (zwykle 300 km). Obliczenia widma zorzy polarnej opierają się na widmie energii elektronów pierwotnych, przekroju poprzecznym atomów i cząsteczek oraz procesach zachodzących, gdy elektrony przenikają do atmosfery w kaskadzie kolejnych zderzeń. Problem jest dość trudny i obarczony jest również niepewnością wpływającą na przekroje poprzeczne. Obserwacje wizualne, a także instrumenty pokładowe rakiet i statków kosmicznych wykazały zależność intensywności emisji liniowej od wysokości. Rozważmy przypadek emisji tlenu atomowego przy długości fali 630 nm. Mechanizm emisji (rekombinacja dysocjacyjna i wzbudzenie przez zderzenie), pionowy rozkład cząstek obojętnych i widmo energii wytrącających elektronów pozwalają nam obliczyć szybkość wytwarzania stanu wzbudzonego (1D) w funkcji wysokości. Uwzględnienie dezaktywacji wzbudzonych atomów tlenu w wyniku zderzeń zapewnia profil szybkości emisji wraz z wysokością. W przypadku tej emisji czas życia stanu wzbudzonego 1D wynoszący 110 sekund tłumi całą emisję na małych wysokościach. Dlatego właśnie zorzę polarną obserwowaną przy 630 mil morskich można znaleźć na wysokości 250 km. Ten sam proces pozwala nam obliczyć profil wysokości zielonej linii stanu wzbudzonego tlenu atomowego 1S. Jego czas życia wynoszący 0,7 s pozwala uniknąć dezaktywacji na małych wysokościach, a emisję tę będzie można zaobserwować już na 80 km, w zależności od intensywności wytrącania elektronów. Dla danej linii emisyjnej, im silniejsze jest wytrącanie elektronów, tym niższa będzie zorza polarna.

Zorza polarna i magnetosfera Ziemi oraz inne powiązane zjawiska

Sugeruje się, aby czytelnik zapoznał się z rozdziałami poświęconymi magnetosferze ziemskiej, aby mieć na uwadze jej reprezentację oraz terminologię . Ponieważ Słońce jest gwiazdą zmienną, wiatr słoneczny charakteryzuje się różnymi reżimami, które wpływają na stan magnetosfery Ziemi. Międzyplanetarne pole magnetyczne (IMF) ulega zmianom w czasie. W stanie cichym MFW ma składową północną (tj. równoległą do ziemskiego pola magnetycznego), która podczas burz magnetycznych skręca na południe. Aby zbadać mechanizm emisji zorzy polarnej, podczas prezentacji zorzy zmierzono widmo wytrącających się cząstek. W przypadku zorzy dziennej i zorzy polarnej stwierdzono, że jest ona rzędu energii wiatru słonecznego. W związku z tym uważa się, że zorze dzienne powstają w wyniku przedostawania się cząstek wiatru słonecznego górne warstwy atmosfery poprzez północne i południowe wierzchołki dzienne, gdzie w magnetycznie spokojnych warunkach istnieje punkt neutralny (północny IMF). Zorze polarne powstają w wyniku cząstek wiatru słonecznego z ogona magnetycznego. W owalu zorzowym energia cząstek jest 50-krotnie lub więcej większa niż w wietrze słonecznym. W związku z tym zasadniczym pytaniem jest mechanizm przyspieszania cząstek. Kwestia ta jest wciąż przedmiotem dyskusji i nie można jej jeszcze uznać za całkowicie zrozumianą. Jednak najbardziej prawdopodobnym mechanizmem jest ponowne połączenie pola magnetycznego Ziemi z MFW. Ponowne połączenie następuje, gdy MFW ma składową południową (przeciwrównoległą do ziemskiego pola magnetycznego). W tym przypadku generuje neutralną osłonę, do której strumienie plazmy są wtryskiwane w górę i w dół od tego obszaru. Powoduje to rozrzedzenie arkusza plazmy i ruch cząstek do wewnątrz. Kurczenie się arkusza plazmy prowadzi do wzrostu energii cząstek. Proponowanych jest kilka procesów. Najbardziej prawdopodobna metoda opiera się na adiabatycznej kompresji pewnej ilości plazmy zamkniętej w sprężonej rurze strumienia magnetycznego podczas jej konwekcji do przodu, aż w końcu wytrąci się w górnych warstwach atmosfery ziemskiej w chwili, gdy system staje się niestabilny. Owal zorzowy jest wówczas przecięciem warstwy plazmy z górną atmosferą na wysokości 100-200 km. Owal zorzowy jest ustalony względem Słońca, ale stacja naziemna na szerokościach zorzowych obraca się poniżej, wokół bieguna geograficznego. W zależności od czasu może znajdować się w czapie polarnej, wewnątrz lub na zewnątrz owalu, doświadczając różnych reżimów występowania zorzy. Ich średnia określa strefę zorzową widzianą z ziemi. Kiedy magnetosfera jest umiarkowanie zakłócona z powodu niewielkich zmian IMF, odpowiednie zdarzenia nazywane są podburzami magnetycznymi i składają się z czterech odrębnych faz (ciszy, wzrostu, ekspansji i regeneracji) mających specyficzne cechy, takie jak typowe zmiany w polu magnetycznym Ziemi. Duże zdarzenia słoneczne, takie jak rozbłyski, generują burze magnetyczne, które są analizowane jako seria następujących po sobie burz. Podczas burzy magnetycznej poruszające się cząstki wytwarzają pole magnetyczne, które łączy się z polem ziemskim. Zmienna charakterystyka wytrącających się cząstek (prędkość, kierunek i gęstość liczbowa) oraz zderzenia z ziemską atmosferą są przyczyną złożoności zaburzeń pola magnetycznego. W związku z tym zorze stanowią wizualną ilustrację zaburzeń pola magnetycznego Ziemi. W niektórych przypadkach układ pola jest prosty, jak na przykład promienie, które pojawiają się jako prawie pionowe kolumny światła, wskazujące na duże nachylenie linii pola na szerokości geograficznej strefy zorzowej. Z zorzami wiąże się wiele innych zjawisk, takich jak elektroodrzutowy zorzowy krążący w obszarze E (na wysokości około 100 km), który jest podgrzewany przez rozpraszanie Joule′a i prąd pierścieniowy na niskich szerokościach geograficznych. Generowane są również promienie rentgenowskie i fale radiowe w zakresie od 40 do 500 MHz. Podczas zorzy powstają pola elektryczne, które oddziałują na ruch elektronów, protonów i jonów. Co więcej, wszystkie te gatunki poruszają się w neutralnej atmosferze, której siłą napędową są zderzenia z jonami. W rezultacie dynamika jest silnie powiązana z wydarzeniami zorzowymi, co ilustruje rozwój pionowych neutralnych wiatrów podczas burz.

Wykorzystanie obserwacji zorzowych

Na podstawie obserwacji statystycznie ustalono związek między występowaniem zorzy polarnej a aktywnością Słońca. Dlatego też do rekonstrukcji aktywności Słońca przed pierwszymi obserwacjami instrumentalnymi wykorzystano występowanie zórz polarnych. Długie okresy aktywności słonecznej stwierdzone w zmianach 14C zostały potwierdzone przez występowanie zórz polarnych. Mówiąc bardziej bezpośrednio, występowanie zorzy polarnej reprezentuje ostateczny etap różnych zjawisk zachodzących od wiatru słonecznego po atmosferę ziemską. Zrozumienie szczegółowych cech zorzy polarnej (występowanie, formy, widmo) gwarantuje zrozumienie całego procesu fizycznego. To samo dotyczy zorzy obserwowanej w atmosferze Jowisza i Saturna. Dane zorzowe pokazują, jak ważne w nauce są długie serie starannie wykonanych obserwacji.

Aurorae: obserwacja przez amatorów

Naukowcy-amatorzy od dawna interesują się niebem, dlatego obserwacje zorzy polarnej były amatorskie już od dawna, odkąd istnieją zapisy. W epoce nowożytnej amatorom przypisuje się znaczący wkład w badania zorzy polarnej, ponieważ postęp w wielu naukach zaczął się nasilać w XVIII wieku. Ponieważ zorza polarna jest zjawiskiem na dużą skalę i ma charakter globalny, wcześnie dostrzeżono wartość międzynarodowej współpracy obejmującej zarówno profesjonalistów, jak i amatorów. Jeden z najbardziej udanych pokazów takiej współpracy miał miejsce podczas Międzynarodowego Roku Geofizycznego (1957/58). Wraz z nadejściem ery kosmicznej badacze zaczęli w większym stopniu polegać na satelitach i wyrafinowanym naziemnym sprzęcie obserwacyjnym do monitorowania zorzy polarnej, ale nadal przywiązuje się dużą wagę do raportów wizualnych jako ich uzupełnienia. Ważnym celem obserwacji wizualnych jest kontynuacja pisemnych zapisów aktywności zórz polarnych, które zachowały się od czasów greckich przez kilka cywilizacji. Do przeprowadzenia użytecznych obserwacji wizualnych zorzy polarnej wymagane jest minimum sprzętu, a jedynym potrzebnym instrumentem optycznym jest nieuzbrojone oko. Do pewnego stopnia możliwe jest prognozowanie wystąpienia zorzy polarnej na podstawie ostatnich wydarzeń na Słońcu, dzięki czemu wysiłki obserwacyjne można zaplanować tak, aby pokrywały się z nocami, w których prawdopodobieństwo wystąpienia zorzy jest największe. Magnetometry i krótkofalówki mogą być również pomocne w ostrzeganiu obserwatora o obecności zorzy polarnej (chociaż nie zawsze ma to wizualny odpowiednik). Najczęściej jednak zobaczysz zorze polarne, jeśli będziesz wytrwale dokonywał regularnych inspekcji wzrokowych nieba na biegunie w ciągu nocy, między zachodem a świtem, gdy tylko pozwoli na to pogoda i światło księżyca. Amatorzy obserwatorzy mieszkający w miastach lub tam, gdzie występują częste zachmurzenia, mogą nie być w stanie zbyt często obserwować zorzy wizualnie, mogą jednak przedstawić obserwację, że aktywność zorzy została wykryta za pomocą magnetometru lub radia krótkofalowego. W tym wypadku obserwacja nie ogranicza się do godzin nocnych, jak w przypadku obserwatora czysto wizualnego. Do podstawowych obserwacji słuchowych nie jest potrzebny żaden specjalny sprzęt. Jednakże przydatne może być posiadanie instrumentu, takiego jak prosty teodolit lub alidada, do dokładnego określenia położenia i wysokości obiektów w zorzy polarnej. Jako dodatek do zapisu wizualnego, obserwatorzy-amatorzy czasami wykrywają subwidzialne szczegóły na obrazach zorzy polarnej za pomocą fotografii lub obrazowania za pomocą URZĄDZENIA CHARGE-COUPLED DEVICE (CCD). Fotografia to popularny sposób rejestrowania zorzy polarnej i idealny sposób na podzielenie się spektaklem pokazowym po wydarzeniu . Wystarczy dowolny aparat, który może wykonywać czas ekspozycji od kilku sekund do kilku minut, z obiektywem otwartym na najszerszą przysłonę - wielu fotografów wybiera szybki film kolorowy (taki jak ISO 400) i szybki, szerokokątny obiektywu (np. ogniskowa f/3 i ogniskowa 28 mm). Fotografie stanowią także trwały zapis położenia i struktury wyświetlacza, co może być przydatne w pracach triangulacyjnych. Dla osób zainteresowanych zastosowaniem innych technik w celu poszerzenia swoich obserwacji można również zastosować wideografię, obrazowanie CCD i spektroskopię. Aby wykryć obecność lub prognozować prawdopodobieństwo aktywności zorzy, obserwatorzy zainteresowani elektroniką mogą używać magnetometrów lub krótkofalowych urządzeń radiowych do wykrywania zaburzeń w polu geomagnetycznym lub jonosferze. Zachęcamy autorów do przesyłania obserwacji zorzy polarnej w formacie zalecanym na mocy umowy międzynarodowej, co zwiększa wartość obserwacji i także ocena zjawiska przez obserwatora. Zapis zawiera lokalizację obserwatora i warunki obserwacji, datę i godzinę zaobserwowania wyświetlacza, a także szczegóły dotyczące jasności, koloru, formy, aktywności, kierunków i wysokości obiektów oraz zachodzących zmian. Informacje te można zapisać w formie notatek lub diagramów, przedstawionych z różnym stopniem szczegółowości, w zależności od preferencji lub doświadczenia indywidualnego obserwatora. Do wszelkich zdjęć lub innych rodzajów obserwacji zorzy polarnej należy również dołączyć zapis zawierający co najmniej lokalizację, datę i godzinę, a także odpowiednie informacje techniczne, aby nadać im wartość naukową. To także zwiększa zainteresowanie i użyteczność zapisu dla innych obserwatorów. Aby jak najlepiej wykorzystać obserwacje, wyniki można przekazać jednej z kilku organizacji o ugruntowanej pozycji, które gromadzą, analizują i archiwizują raporty do wykorzystania w przyszłości. Wstępna analiza raportów zwykle obejmuje porównanie z prognozami i korelację zdarzenia zorzy z aktywnością na Słońcu i w polu geomagnetycznym Ziemi. W dłuższej perspektywie interesujące jest określenie częstotliwości pokazów obserwowanych z poszczególnych lokalizacji oraz ich częstotliwości w określonych warunkach lub w określonych porach roku lub cyklu plam słonecznych. Zorza odnotowana przez wielu obserwatorów z różnych lokalizacji pozwala opisać kształt, rozmiar, położenie, rozwój i czas trwania zorzy polarnej. Wyniki udostępniane organizacjom regionalnym i międzynarodowym umożliwiają sporządzenie wykresu całego zdarzenia zorzowego, poza granicami światła dziennego i pomiędzy półkulami, co pozwala na zbadanie globalnego wzorca aktywności zorzy polarnej. Obserwacje wizualne można ostatecznie porównać ze zdjęciami i innymi danymi dotyczącymi owalu zorzowego uzyskanymi z satelitów i profesjonalnych obserwatoriów. Brytyjskie Stowarzyszenie Astronomiczne (BAA) gromadzi obserwacje zorzy polarnej za pośrednictwem swojej Sekcji Aurorów i posiada sieć obserwatorów, w skład której wchodzą członkowie BAA lub innych towarzystw astronomicznych, obserwatorzy indywidualni, zawodowi meteorolodzy i oficerowie statków na morzu. BAA gromadzi i publikuje obserwacje, głównie zorzy burzowej na średnich szerokościach geograficznych, z Wysp Brytyjskich, Europy, Islandii, Kanady i Stanów Zjednoczonych Ameryki; są one również publikowane przez Brytyjskie Biuro Meteorologiczne. Na półkuli południowej obserwacje koordynuje Królewskie Towarzystwo Astronomiczne Nowej Zelandii (RASNZ), które otrzymuje i publikuje obserwacje z Nowej Zelandii i Australii. Istnieje ścisła współpraca i wymiana pomiędzy BAA i RASNZ. Raporty koordynowane przez BAA i RASNZ są następnie archiwizowane na Uniwersytecie Aberdeen w Szkocji, gdzie są udostępniane badaczom. Podobne archiwa istnieją w takich krajach jak Chiny, Korea i Japonia. Obserwacje radiowe zorzy polarnej koordynują Towarzystwo Radiowe Wielkiej Brytanii i Amerykańska Liga Przekaźników Radiowych w USA. Profesjonaliści korzystają z danych dostarczonych przez amatorów; na przykład wyniki amatorów pomogły odkryć procesy zachodzące w termosferze. Obserwatorzy-amatorzy również wnoszą istotny wkład w trwające badania nad złożoną korelacją między zorzą polarną a nocnymi obłokami. Procesy zorzowe i złożone interakcje, które je powodują, nie są jeszcze w pełni poznane, dlatego zorza jest nadal przedmiotem intensywnych badań. Ponieważ naukowcy nie rejestrują już zorzy wizualnej, jedynym źródłem takich obserwacji jest amatorska społeczność astronomiczna. Zapisy dotyczące wizualnej zorzy polarnej są przechowywane od setek lat i w przeszłości dostarczyły cennych informacji na temat aktywności Słońca i górnych warstw atmosfery Ziemi - istnieją jeszcze obszerne archiwa, które nie zostały jeszcze wykorzystane, a które mogą mieć podobne znaczenie w nowych badaniach w Ziemi przyszły. Niektóre obszary, w których można wykorzystać zapisy zorzy wizualnej, obejmują geomagnetyzm, magnetyzm słoneczny i międzyplanetarny, pogodę ziemską, górne warstwy atmosfery i pogodę kosmiczną.

Zorzowe promieniowanie kilometrowe

Ziemia jest potężnym naturalnym źródłem radiowym, które emituje jasną emisję na falach kilometrowych: zorzowe promieniowanie kilometrowe (AKR). Jak sama nazwa wskazuje, regiony źródłowe AKR znajdują się na dużych szerokościach geograficznych, na wysokościach wahających się zazwyczaj od 0,5 do 2 promieni Ziemi. Jego maksymalna częstotliwość (rzędu 700 kHz) jest mniejsza od częstotliwości odcięcia jonosfery i dlatego promieniowania tego nie można obserwować z ziemi. W ten sposób odkryto go i zbadano już po rozpoczęciu ery kosmicznej . AKR organizuje się w burze radiowe trwające kilka 10 minut i posiadające moc kilku megawatów. Ta sporadyczna aktywność jest skorelowana z okresami intensywnych opadów cząstek zorzy polarnej, podczas których obserwuje się energetyczne elektrony o typowych energiach kilku keV spływające wzdłuż linii pola magnetycznego zorzy i tworzące zorzę polarną (patrz AURORA). Te wytrącające się populacje elektronów wynikają ze złożonego łańcucha procesów fizycznych powiązanych z głównymi zakłóceniami ogona magnetosferycznego, znanymi jako podburze magnetosferyczne (patrz MAGNETOSFERA ZIEMI: SUBSTORY). AKR jest zatem bezpośrednio powiązany z globalną aktywnością magnetosferyczną i może nawet być uważany za wskaźnik tej aktywności. Jeśli chodzi o jego wewnętrzne właściwości, AKR charakteryzuje się ekstremalną temperaturą jasności (do 1020 K), która jest całkowicie niewytłumaczalna za pomocą klasycznych mechanizmów promieniujących (takich jak promieniowanie żyrosynchrotronowe). Aby wyjaśnić ich powstawanie, należy zatem przywołać spójne procesy związane z rozwojem mikroniestabilności plazmy. Oprócz tej ekstremalnej jasności, dobra teoria AKR musi również opisywać polaryzację emisji oraz jej silną organizację czasową i widmową. AKR sama w sobie nie jest szczególnie potężnym zjawiskiem. Jest to nawet do pominięcia w globalnym budżecie energetycznym aktywności magnetosferycznej. Jednakże budzi pewne zainteresowanie astrofizyczne, gdyż należy do szerokiej klasy emisji radiowych bezpośrednio związanych z rozwojem mechanizmów przyspieszania w bezkolizyjnych plazmach otaczających większość obiektów astrofizycznych. Rzeczywiście zaobserwowano emisje radiowe o charakterystyce porównywalnej z AKR, pochodzące z obiektów astrofizycznych tak różnych, jak inne namagnesowane planety Układu Słonecznego, Słońce, niektóre gwiazdy i układy podwójne. Ponieważ jego źródła mogą być bezpośrednio badane przez statki kosmiczne, AKR stanowi zatem bardzo interesujący przypadek zjawiska astrofizycznego, dla którego modele teoretyczne można sprawdzić za pomocą pomiarów in situ. Większość wspomnianych emisji radiowych prawdopodobnie pochodzi z samego miejsca przyspieszania cząstek, a ich analiza może służyć jako narzędzie diagnostyczne do badania uwalniania energii w środowiskach plazmy. W tym kontekście kluczowe jest zrozumienie mechanizmu generowania AKR. Poniższe obserwacje dotyczą tego szczególnie ważnego aspektu problemu.

Warunki fizyczne w źródłach AKR

Przykład precyzyjnych obserwacji fal przeprowadzonych w pobliżu i wewnątrz źródła AKR przedstawiono na rysunku 1. Pomiary te zostały wykonane przez szwedzką sondę kosmiczną - Viking - specjalnie zaprojektowaną do analizy mechanizmów przyspieszania i promieniowania zachodzących w zorzy polarnej. strefy MAGNETOSFERY ZIEMI. Kiedy dokonał tej obserwacji, Viking znajdował się na wysokości około 10 000 km, na szerokości magnetycznej bliskiej 70° szerokości geograficznej północnej, około północy czasu lokalnego i przeleciał przez obszar magnetycznie połączony z dyskretnym łukiem zorzowym. Na rysunku przedstawiono wykres czasowo-częstotliwościowy składowej elektrycznej fal elektromagnetycznych. Intensywność jest podawana za pomocą kodu kolorowego (od niebieskiego do czerwonego i białego w miarę wzrostu intensywności od mniej niż 10-8 V m-1 Hz-1/2 do ponad 10-5 V m-1 Hz-1/2) . Zakres częstotliwości wynosi 10 kHz-500 kHz i wyświetlanych jest 20 minut danych. Biała linia wskazuje częstotliwość żyroskopową elektronów (fce) zmierzoną przez sondę. AKR obserwuje się powyżej tej charakterystycznej częstotliwości (tutaj około 150 kHz), tworząc emisje w kształcie litery V. Jego niższe częstotliwości, które odpowiadają wyraźnemu odcięciu, mają minimum około 22,39 UT. W tym czasie częstotliwości AKR sięgają fce. Ten obszar częstotliwości minimalnych jest jednocześnie obszarem maksymalnego poziomu fal (biały kod intensywności). To jest źródło AKR. Kształt V widm dynamicznych AKR jest łatwo zrozumiany, jeśli założy się, że fale powstają w fce (a więc przy rosnących częstotliwościach w miarę zmniejszania się wysokości) w źródle wydłużonym wzdłuż pola magnetycznego, pod kątem ukośnym do linii pola magnetycznego oraz w kierunek w górę. Daleko od źródła (na przykład o 22:35 lub 22:45) wykrywane są jedynie fale generowane znacznie poniżej statku kosmicznego (a więc przy wysokich częstotliwościach). Gdy statek kosmiczny zbliża się do źródła, wykrywane są fale generowane coraz bliżej statku kosmicznego, a tym samym o coraz niższych częstotliwościach, aż statek kosmiczny przetnie źródło, co odpowiada maksymalnemu natężeniu i minimalnym częstotliwościom. Na tym spektrogramie można również zaobserwować systematyczną modulację AKR w całym zakresie częstotliwości w okresie 20 s. Modulacja ta jest powiązana z wirowaniem statku kosmicznego (anteny elektryczne znajdują się wówczas na przemian równolegle i prostopadle do pola magnetycznego) i jest oznaką silnej polaryzacji fal. Można to wykorzystać do zidentyfikowania sposobu propagacji AKR. Okazuje się, że jest to tak zwany mod X, elektromagnetyczny mod nadświetlny, który ma prawoskrętną polaryzację kołową (składnik elektryczny fal obraca się w płaszczyźnie prostopadłej do pola magnetycznego w tym samym sensie, co elektrony). W najniższej części spektogramu obserwuje się emisję szerokopasmową (syk zorzy). Górna częstotliwość odcięcia tej emisji (przejście z żółtego na zielony na spektrogramie) to lokalna częstotliwość plazmy. Jest rzędu 30 kHz, co wskazuje, że gęstość plazmy wynosi zazwyczaj około 10 cm-3. Tuż około godziny 22.39, podczas przeprawy przez źródło AKR, odcięcie to zanika. W rzeczywistości jest to poniżej pasma częstotliwości analizatora (10 kHz). Źródłem AKR jest wówczas obszar znacznego ubytku plazmy, typowa gęstość waha się od typowo 10 cm-3 do mniej niż 2 cm-3 na krótkim dystansie (kilka km). Źródła można wówczas postrzegać jako "kurtyny" zubożonej plazmy, z dość dużymi odcinkami pionowymi i ze wschodu na zachód, ale bardzo cienkimi (mniej niż 50 km) w kierunku północ-południe. Pomiary cząstek są ważne dla zrozumienia mechanizmu wytwarzania. Ze względu na wirowanie statku kosmicznego strumienie cząstek mierzone są pod różnymi kątami w stosunku do pola magnetycznego (ząb piły poniżej strumieni protonów). 0? odpowiada kierunkowi równoległemu do pola magnetycznego, skierowanemu w stronę Ziemi (wytrącające się cząstki). Ten przedział czasu odpowiada detekcji wiązek jonów, które rozchodzą się w górę z typowymi energiami rzędu 4 keV. Jednocześnie maksymalna energia elektronów spada z 8-10 keV (przed pierwszą strzałką i za drugą) do typowo 4 keV (pomiędzy strzałkami). Najprostszym wyjaśnieniem tych obserwacji jest to, że wchodząc do źródła AKR, sonda wchodzi również w obszar przyspieszeń cząstek, który odpowiada istnieniu spadku potencjału wzdłuż pola magnetycznego. Tuż przed lub po przejściu źródła ten spadek potencjału znajduje się całkowicie nad statkiem kosmicznym, dzięki czemu wykrywane są wytrącające się elektrony o maksymalnej energii. Wewnątrz źródła część potencjalnego spadku znajduje się teraz poniżej statku kosmicznego; energia elektronów maleje, ale obserwuje się pobudzenie jonów pochodzących z dołu. Stanowi to jedną z podstawowych obserwacji dotyczących AKR: źródłami tego promieniowania są jednocześnie miejsca przyspieszania cząstek . Zostało to niedawno potwierdzone przez obserwacje statku kosmicznego FAST. Dokładniejsze badanie strumieni cząstek może pomóc nam zrozumieć rodzaj funkcji rozkładu odpowiedzialnych za generowanie fal. Rozkłady te charakteryzują się rozszerzonymi stożkami strat (duża przerwa w strumieniu elektronów skierowanych w górę) i akumulacją elektronów przy dość dużych prędkościach prostopadłych i małych równoległych. Powstawanie takich rozkładów można wytłumaczyć powstaniem równoległego pola elektrycznego odpowiedzialnego za przyspieszenie cząstek. Odpowiada to również ewakuacji plazmy niskoenergetycznej i utworzeniu obszaru wyczerpania gęstości. Te dwie cechy funkcji rozkładu, akumulacja elektronów przy dużych prędkościach prostopadłych i niskich gęstościach, mają fundamentalne znaczenie dla najbardziej prawdopodobnego mechanizmu generacji AKR: niestabilności masera cyklotronowego.

Teoria masera cyklotronowego

W przeszłości zaproponowano wiele teorii wyjaśniających powstawanie AKR (liniowa konwersja elektrostatycznych górnych fal hybrydowych, nieliniowe dudnienie fal elektrostatycznych, promieniowanie z zapadających się kawitonów). Obecnie powszechnie przyjmuje się, że szczególna niestabilność mikroskopowa - niestabilność masera cyklotronowego (CMI; po raz pierwszy zaproponowana przez Wu i Lee (1979)) - adekwatnie opisuje to zjawisko. Teoria ta opiera się na rezonansowym oddziaływaniu pomiędzy polem elektrycznym fal a wirującymi elektronami i opisuje przeniesienie momentu pędu z populacji elektronów do falowego pola elektromagnetycznego. Sukces tej teorii tłumaczy się faktem, że uwzględnia ona niektóre z najważniejszych wyników eksperymentalnych zaprezentowanych wcześniej. Przeniesienie pędu jest szczególnie ważne, jeśli pole elektryczne podąża za ruchem elektronów, tj. Jeśli fale mają prawoskrętną polaryzację kołową (co ma miejsce w przypadku fal w trybie X). Co więcej, to przeniesienie jest korzystne dla fal, jeśli plazma wykazuje nadmiar momentu pędu w stosunku do równowagi termicznej. Taki nadmiar może odpowiadać istnieniu dodatnich zboczy ?f/?P? w pewnym obszarze przestrzeni faz pędu (gdzie P? jest składową pędu cząstki prostopadłą do pola magnetycznego), co dokładnie obserwuje się wewnątrz regiony źródłowe AKR. Ten mechanizm generowania jest zatem tylko szczególnym przykładem wzbudzenia fali przez plazmę poza równowagą, charakteryzującą się inwersją populacji w energii "prostopadłej". Mechanizm ten można opisać w sposób bardziej matematyczny za pomocą układu równań Maxwella - Własowa. Jeśli zachowa się tylko najważniejsze interakcje między falami i elektronami (czysty ruch cyklotronowy i oddziaływanie z jednorodnym polem elektrycznym, które wiruje we właściwym sensie z częstotliwością bliską częstotliwości żyroskopowej elektronów), układ można zapisać jako



Tutaj f0 to funkcja rozkładu tła, E1, J1, f1 to odpowiednio zaburzone pole elektryczne, prąd i funkcja rozkładu, indeksy dolne +, ? i || odnoszą się do składowych lewoskrętnych, prawoskrętnych i równoległych, θ to kąt Larmora elektronów, ich współczynnik Lorentza ((1?v2/c2)-1/2) a ωc elektronową częstotliwość żyroskopową. Z czasową transformatą Fouriera równania (1) otrzymuje się uproszczone równanie dyspersji:



Następnie można łatwo obliczyć tempo wzrostu fal. Jest proporcjonalna do całki ∂f0/∂P wzdłuż krzywej rezonansowej określonej przez Γω = ωc. Oznacza to, że maksymalne przeniesienie pędu następuje wtedy, gdy częstotliwość fali dokładnie odpowiada częstotliwości żyroelektronowej elektronów. Nieco bardziej złożone obliczenia dają dokładny warunek rezonansowy: ω ? k|| v ? ωc/Γ = 0. Dla ∂f0/∂P > 0 wzdłuż krzywej rezonansowej współczynniki absorpcji mogą stać się ujemne, prowadząc w ten sposób do niestabilności : tak zwany CMI. Dokładne i pełne obliczenia powodują, że równanie dyspersji jest bardziej złożone, ale nie zmienia jego fizycznego znaczenia. Za powstawanie nietermicznych cech ∂f0/∂P w funkcji rozkładu mogą być odpowiedzialne dwa procesy fizyczne: (1) jonosferyczna absorpcja elektronów, która wytwarza funkcje rozkładu stożka strat oraz (2) adiabatyczna ewolucja populacji elektronów przyspieszane w dół wzdłuż linii pola magnetycznego. Ze względu na siłę lustra ich energia prostopadła rzeczywiście stopniowo wzrasta kosztem ich energii równoległej, tak że może powstać lokalny nadmiar pędu prostopadłego. Obecność przyspieszającego pola elektrycznego sprzyja występowaniu niestabilności masera także w inny sposób: usuwa zimne elektrony, składnik plazmy, który zawsze przyczynia się do stabilizacji CMI. Aby mody X były niestabilne, w przybliżeniu konieczne jest, aby (ωpcc)2 = W/2mc2, gdzie ωpc to częstotliwość zimnej plazmy, a W typowa energia elektronów - o masie spoczynkowej m - dla której ∂f0/∂P . Chociaż obserwacje in situ dostarczają mocnych dowodów na to, że AKR jest generowany przez CMI, stopy wzrostu określone bezpośrednio za pomocą zmierzonych funkcji rozkładu niekoniecznie są zbyt znaczące. Dzieje się tak ze względu na wrażliwość niestabilności na różne niejednorodności występujące w plazmie i/lub jej szybkie nasycanie procesami nieliniowymi. Spośród różnych gradientów występujących w ośrodku magnetosferycznym, dwa z nich prawdopodobnie wpływają na generację AKR: (1) niejednorodność pola magnetycznego, która powoduje niewielkie modyfikacje częstotliwości żyroskopowej wraz z wysokością, tak że warunek rezonansowy nie może być spełniony na bardzo dużej odległości oraz (2) niejednorodność prostopadłą powiązaną z występowaniem ostrych gradientów gęstości, które ograniczają źródła AKR . Efekty te mogą mieć pewne znaczenie przy określaniu makroskopowych właściwości promieniowania (w szczególności kształtu listków emitujących). Jeśli chodzi o efekty nieliniowe, wzrost fal może zostać nasycony albo poprzez relaksację quasiliniową, albo przez proces nasycania typu pułapkowego, co jest nadal przedmiotem dyskusji. Nieliniowe nasycenie i efekty niejednorodności mogą być ważne dla wyjaśnienia powstawania niektórych drobnych struktur obserwowanych w widmach dynamicznych AKR.

Wniosek

AKR można uznać za stosunkowo dobrze poznane zjawisko magnetosferyczne. Zbadano źródła tego promieniowania, a teoria - CMI - daje dobre jakościowe wyjaśnienie jego powstawania. Jednakże nie ma pełnej teorii, która mogłaby wyjaśnić niektóre ilościowe aspekty promieniowania. Na przykład, wychodząc z danej niestabilnej funkcji rozkładu, przewidywanie końcowego natężenia fal i ich charakterystyk widmowych pozostaje kwestią otwartą. Jest to istotna kwestia, gdyż tylko w przypadku rozwiązań tego typu problemów fale radiowe mogłyby zostać wykorzystane jako precyzyjne narzędzia diagnostyczne.

Australijska astronomia

Astronomia jest jedną z głównych nauk w Australii od czasu pierwszego osadnictwa europejskiego ponad 200 lat temu. W epoce nowożytnej dostęp do bogatego południowego nieba i tradycja innowacji w oprzyrządowaniu podtrzymują aktywny i zróżnicowany program badawczy.

Wczesna historia

Głównym celem podróży kapitana Jamesa Cooka w 1769 r., podczas której odkrył i sporządził mapę wschodniego wybrzeża Australii, była obserwacja tranzytu Wenus znad Morza Południowego. Dokładny czas, w którym Wenus przeszła przez dysk Słońca, zapewnił dokładniejszą wartość odległości od Ziemi do Słońca, a nawet wielkości całego Układu Słonecznego, jak po raz pierwszy zasugerował Kepler. Kiedy w 1788 r. w Sydney Cove założono pierwszą europejską osadę, znaczenie nawigacji, badań geodezyjnych i pomiaru czasu było powodem założenia obserwatorium. Później założono oficjalne obserwatoria państwowe, z których pierwszym było Obserwatorium w Sydney w 1855 r. Zapewniało ono usługę pomiaru czasu dla statków w porcie w Sydney i przyczyniło się do ówczesnych badań astronomicznych, zwłaszcza astronomii pozycyjnej gwiazd. Ostatecznie wydano 53 tomy projektu Cart du Ciel (Międzynarodowy katalog astrograficzny). Obserwatoria państwowe utworzono także w Perth i Melbourne - to ostatnie stało się dobrze znane dzięki przejęciu Wielkiego Teleskopu Melbourne. Był to teleskop o średnicy 1,2 m (48 cali), a w chwili jego montażu w 1869 roku był największym w pełni sterowalnym teleskopem na świecie. Niektóre z wczesnych zdjęć Księżyca okrzyknięto najlepszymi jak dotąd, a obserwacje wizualne południowych mgławic zostały znacznie ulepszone w stosunku do tych wykonanych przez Sir Johna Herschela w jego pionierskiej pracy z Przylądka Dobrej Nadziei (patrz RODZINA HERSCHELA). Niemniej jednak problemy ze zwierciadłem wziernika i drgania wiatru, wynikające między innymi z zastosowania podnoszonego budynku, doprowadziły do tego, że teleskop wyszedł z użycia pod koniec stulecia. Problemy z Wielkim Teleskopem Melbourne opóźniły budowę dużych teleskopów o wiele lat, a kolejnym był Mount Wilson 60 cali (1,5 m) zbudowany w Kalifornii w 1908 roku i prawdopodobnie pierwszy z nowoczesnych teleskopów. Wielki Teleskop Melbourne został sprzedany Obserwatorium Mount Stromlo i w ostatnich latach (wraz z nową optyką) był używany w poszukiwaniach MACHO w zakresie soczewkowania grawitacyjnego przez gwiazdy. Dziś z byłych obserwatoriów kolonialnych jedynie Obserwatorium w Perth pełni rolę badawczą.

Rozwój powojenny

Nowoczesna era astronomii w Australii rozpoczęła się zaraz po II wojnie światowej. Wpływ rozwoju technicznego w czasie wojny był najbardziej zauważalny w nowej dziedzinie radioastronomii, gdzie wiedza specjalistyczna w zakresie systemów radarowych i nadmiar dostępnego sprzętu stanowiły idealną bazę. W Australii prace prowadzono w Laboratorium Radiofizyki CSIR (Rada ds. Badań Naukowych i Przemysłowych, później CSIRO). W tym czasie niewiele wiedziano o emisji radiowej spoza Ziemi: Karl Jansky odkrył fale radiowe z Galaktyki Drogi Mlecznej w 1932 roku, pracując nad źródłami hałasu w transmisjach radiowych, a inny Amerykanin, Grote Reber, zbudował antenę o długości 31 stóp antenę na własnym podwórku i wykonał pierwsze mapy emisji galaktycznej na szeroką skalę. Wreszcie wojenne dochodzenie w sprawie podejrzenia zakłócania radaru wykazało niezwykle intensywną emisję radiową ze Słońca. W takim klimacie rozpoczęły pracę grupy radioastronomiczne w Wielkiej Brytanii, Holandii i Australii. Prace radiofizyczne przeprowadzono w wielu stacjach terenowych w rejonie Sydney i szybko przyszły odkrycia: na przykład korelacja emisji słonecznej z liczbą plam słonecznych i wykazanie efektywnej temperatury około miliona kelwinów, znacznie powyżej powierzchni optycznej temperatura około 6000 K. Być może najbardziej znane prace przeprowadzono przy użyciu INTERFEROMETRA na szczycie klifu, który wykorzystano do odkrycia szeregu izolowanych źródeł radiowych i wykazania, że mają one bardzo mały rozmiar kątowy. Identyfikacja kilku z tych źródeł ze znanymi obiektami optycznymi, w tym Mgławicą Krab i galaktykami zewnętrznymi w konstelacjach Panny i Centaura, pokazała, że radioastronomia może nas wiele nauczyć o odległych obiektach. Kontynuowano rozwój interferometrii, aby przezwyciężyć grubą rozdzielczość kątową wczesnych radioteleskopów. Wykazano, że wczesna teoria "gwiazd radiowych" dotycząca natury dyskretnych źródeł radiowych jest błędna, ponieważ większość źródeł radiowych oddalonych od płaszczyzny Galaktyki Drogi Mlecznej ma rozmiary kątowe większe niż 1 minuta łuku. Stały się znane jako RADIO GALAXIE, ze względu na moc wyjściową radiową tysiące, a nawet miliony razy większą niż normalna galaktyka. Badania takich źródeł wykazały nadmiar źródeł słabych, jednak mniej wyraźny niż we wczesnych badaniach przeprowadzonych w Cambridge, które, jak wykazano, miały wpływ na "pomieszanie" wielu źródeł w obrębie szerokości wiązki instrumentalnej. Późniejsze obliczenia tych odległych źródeł pozagalaktycznych, zarówno z Cambridge, jak i Sydney, były zgodne i odegrały kluczową rolę w kontrowersjach kosmologicznych, w szczególności w upadku TEORII STANU STAŁEGO. Wydarzenia wojenne miały także wpływ na astronomię optyczną, choć była to już jedna z najstarszych nauk uznanych za granicą. Obserwatorium Słoneczne Wspólnoty Narodów w Mount Stromlo niedaleko Canberry zostało założone w 1924 roku, a podczas wojny zostało rozbudowane w celu produkcji celowników i innej amunicji optycznej. Po wojnie kierunek badań zmieniono na astronomię gwiazdową, a nazwę zmieniono na Commonwealth Observatory, a później na Mount Stromlo Observatory. Modernizacja oprzyrządowania, m.in. wprowadzenie technik fotoelektrycznych, przebiegała równolegle z licznymi programami badawczymi. CHMURKI MAGELLANIC są od dawna intensywnie badane na Górze Stromlo: te bliskie sąsiadom galaktyki mają tę wielką zaletę, że znajdują się w znanej odległości, a jednocześnie są na tyle blisko, że gromady gwiazd i jaśniejsze gwiazdy mogą być rozróżnione pojedynczo. W 1955 roku na górze Stromlo oddano do użytku 74-calowy (1,88 m) teleskop, który wraz z podobnym teleskopem w Pretorii był przez około 20 lat największym instrumentem optycznym na półkuli południowej. Pod wpływem rozwoju pobliskiego miasta Canberra dla przyszłych teleskopów wybrano miejsce w Siding Spring Mountain w pobliżu miasta Coonabarabran w Nowej Południowej Walii, a nazwę zmieniono na MOUNTSTROMLO AND SIDING SPRING OBSERVATORIES (MSSSO). Obserwatorium od wielu lat jest częścią Australijskiego Uniwersytetu Narodowego, a obecnie mieści się w Szkole Badawczej Astronomii i Astrofizyki. Era radiofizycznych stacji terenowych CSIRO dobiegła końca na początku lat sześćdziesiątych XX wieku wraz z decyzją, że rosnące zaawansowanie radioastronomii wymaga skoncentrowania zasobów w znacznie mniejszej liczbie głównych instrumentów. Były to w pełni sterowalny paraboloid o długości 210 stóp (64 m) w Parkes i Culgoora Radioheliograph. Teleskop Parkesa został ukończony w 1961 roku, kiedy jedynym innym teleskopem z dużą czaszą był Jodrell Bank (Wielka Brytania) 250 stóp (76 m). Godnym uwagi wczesnym rezultatem uzyskanym za pomocą teleskopu Parkesa była obserwacja zakrycia Księżyca, która określiła położenie 3C 73, umożliwiając identyfikację z obiektem gwiazdopodobnym, który jako pierwszy ujawnił duże optyczne przesunięcia ku czerwieni kwazarów. Teleskop wkrótce stał się dobrze znany ze swoich badań radiowych o wysokiej częstotliwości, które zaowocowały odkryciem wielu kwazarów, a także ze wsparcia w latach 60. i 70. XX w. misji NASA Apollo na Księżyc. Teleskop przez lata zajmował się wieloma innymi projektami, obejmującymi zarówno linię widmową, jak i kontinuum, źródła galaktyczne (w tym pulsary) i pozagalaktyczne, badania polaryzacji itp. Radioheliograf Culgoora składał się z 96 prostych czasz o średnicy 13 m, ułożonych w okrąg o średnicy 3 km na terenie niedaleko Narrabri w Nowej Południowej Walii. Zakończono go w 1967 roku. W erze, zanim zaczęto używać komputerów do tworzenia obrazów z surowych danych, używano genialnego sprzętu, aby umożliwić syntezę dwuwymiarowego obrazu Sunto co sekundę. Oddzielne zdjęcia w obu polaryzacjach ujawniły dalsze informacje na temat procesów emisji plazmy na dysku słonecznym i nad nim. Oryginalna częstotliwość robocza 80 MHz została później rozszerzona o możliwości w zakresie 43, 160 i 327 MHz. Radioheliograf zamknięto w 1984 roku, a miejsce to wykorzystano dla Australia Telescope Compact Array. W latach sześćdziesiątych XX wieku zbudowano także radioteleskop Molonglo Mills Cross o długości 1 mili, instrument tranzytowy przeznaczony do szybkiego badania nieba na częstotliwości 408 MHz. Obsługiwany przez Uniwersytet w Sydney, już wkrótce po odkryciu obiektów tej klasy w Cambridge, odniósł sukces w znajdowaniu wielu pulsarów. Krzyż Molonglo dokonał następnie przeglądu południowego nieba, a także licznych badań poszczególnych klas obiektów. W 1978 roku wstrzymano pracę w układzie krzyżowym, a ramię wschód-zachód przekonwertowano na syntezę aperturową przy 843 MHz, jako OBSERWATORYJNY TELESKOP SYNTEZY MOLONGLO (MOST). W tej formie ma lepszą czułość i zdolność tworzenia obrazu. Od tego czasu pole widzenia zostało jeszcze bardziej powiększone do prawie 2?, a teleskop przeprowadza przegląd "SUMSS" całego południowego nieba z rozdzielczością i czułością podobną do przeglądu północnego (i równikowego) NVSS. Innym projektem radioteleskopu z lat sześćdziesiątych XX wieku był Teleskop Syntezowy Fleurs, przerobiony przez Uniwersytet w Sydney z wcześniejszego instrumentu krzyżowego siatkowego CSIRO na operację syntezy aperturowej. Przez wiele lat zapewniał obrazowanie radiowe o najwyższej rozdzielczości kątowej na południu, ale został zastąpiony przez Teleskop Australijski i od tego czasu został zamknięty. Nowatorskim instrumentem z lat sześćdziesiątych XX wieku był interferometr intensywności gwiazdowej Narrabri (NSII). Zasada interferometrii intensywności została opracowana i przetestowana w kontekście radioastronomii i miała tę zaletę, że obserwacja przez turbulentny ośrodek nie miała na nią wpływu. W zastosowaniu do obserwacji optycznych umożliwiło to NSII obserwację średnic kątowych gwiazd aż do 0,0004 sekundy łuku. Instrument był obsługiwany przez Uniwersytet w Sydney i składał się z dwóch dużych (6,5 m) REFLEKTORÓW umieszczonych na okrągłym torze kolejowym o średnicy 188 m. Udało mu się zaobserwować rozmiary 32 gwiazd w granicach swojej czułości, określając w ten sposób rzeczywistą skalę temperatur gorących gwiazd. Następnie instrument zamknięto i rozpoczęto prace nad interferometrem gwiazdowym Uniwersytetu w Sydney (SUSI), "nowoczesnym instrumentem Michelsona", wykorzystującym interferencję dwóch wiązek światła z szeroko oddalonych siderostatów zamiast korelować wahania częstotliwości radiowej, jak w NSII. SUSI znajduje się w tym samym miejscu, co Australia Telescope Compact Array, a po całkowitym uruchomieniu będzie miał linie bazowe do 640 m, co zapewni najwyższą rozdzielczość kątową spośród wszystkich obecnych projektów interferometru optycznego. Oprócz rozszerzenia średnicy gwiazd, a tym samym efektywnych pomiarów temperatury na znacznie większy zakres gwiazd, kluczowym programem będzie bezpośrednia obserwacja promieniowej pulsacji zmiennych cefeid, co poprawi wykorzystanie tych gwiazd jako wskaźników odległości.

Instrumenty Krajowego Instrumentu

W latach sześćdziesiątych XX wieku było jasne, że potrzebny jest większy teleskop optyczny ogólnego przeznaczenia, zarówno w celu rozszerzenia istniejących prac gwiazdowych i galaktycznych, jak i w celu optycznej identyfikacji źródeł radiowych. Astronomowie w Wielkiej Brytanii również poczuli potrzebę większego instrumentu i osiągnięto porozumienie między rządami Australii i Wielkiej Brytanii, w wyniku którego zbudowano 150-calowy (3,9 m) instrument Teleskop Anglo-Australijski (AAT) na istniejącym terenie Siding Springs. Ukończony w 1974 roku, AAT obejmował innowacje w systemach serwonapędów, obsłudze lusterek, a zwłaszcza w sterowaniu komputerowym. Uzyskana w ten sposób precyzja wskazywania wynosząca kilka sekund łukowych była wówczas niespotykana i umożliwiała każdemu obserwatorowi łatwe zlokalizowanie nawet słabych obiektów. AAT jest obsługiwany przez powołaną w tym celu organizację ANGLOAUSTRALIAN OBSERVATORY (AAO). Wczesnym sukcesem AAT było wykrycie impulsów optycznych z pulsara Vela, wówczas najsłabszego obiektu, jaki kiedykolwiek zarejestrowano (24 mag). Chociaż lokalizacja w Siding Spring nie jest tak dobra, jak najlepsza na Hawajach czy w Chile, AAT jest teleskopem wysoce produktywnym, głównie dzięki silnemu wsparciu technicznemu i ciągłym inwestycjom w nowe instrumentarium. W obecnej erze teleskopów klasy 8-10 m, AAT w dalszym ciągu oferuje obrazowanie i spektroskopię ogólnego przeznaczenia, ale został przesunięty w stronę badań szerokokątnych. Szczególnie godny uwagi jest główny instrument o polu dwustopniowym (2dF), który zapewnia jednoczesną spektroskopię światłowodową 400 obiektów w polu o wielkości 2?. Głównym programem dla tego instrumentu jest badanie przesunięcia ku czerwieni 250 000 galaktyk, mające na celu znaczne poszerzenie wiedzy na temat struktur wielkoskalowych. Pod koniec lat siedemdziesiątych XX wieku było jasne, że Australia potrzebuje zwiększonych możliwości w zakresie obrazowania radiowego i spektroskopii o wysokiej rozdzielczości kątowej i wysokiej czułości. Potrzeba ta została zaspokojona poprzez budowę teleskopu Australia Telescope (AT), otwartego w 1988 roku. Głównym komponentem jest teleskop AT Compact Array w Culgoora. Jest to teleskop z syntezą apertury, składający się z sześciu anten o średnicy 22 m, które można przenosić do różnych stacji wzdłuż linii bazowej o długości 6 km ze wschodu na zachód. Zestaw jest obecnie modernizowany do działania na falach tak krótkich jak 3 mm, poprzez dodanie nowych odbiorników, ulepszonych powierzchni anten i toru odgałęzienia północnego. AT jest obsługiwany jako obiekt krajowy przez AUSTRALIA TELESCOPE NATIONAL FACILITY (ATNF), oddział CSIRO, który w tym celu został wydzielony z macierzystego oddziału radiofizyki. Podobna antena 22mantenna znajduje się również w Mopra niedaleko Coonabarabran, używana do VLBI lub do samodzielnych programów. Australijski przemysł zyskał cenne korzyści dzięki projektowi AT: firma, która skonstruowała anteny, zdobyła kontrakty na anteny do satelitarnych stacji naziemnych w Australii i Azji Południowo-Wschodniej. Dobrze znanym wcześniej produktem ubocznym, także z radioastronomii, był mikrofalowy system lądowania samolotu Interscan. ATNF obsługuje także teleskop z talerzem Parkesa o średnicy 64 m, który na przestrzeni lat był unowocześniany, aby zachować konkurencyjność. Niedawno rozpoczął pracę system wielowiązkowy z 13 jednoczesnymi źródłami zasilania na odległość 21 cm i jest używany do przeglądu H I całego południowego nieba z prędkością radialną 12 700 km na s-1.

Astronomia w różnych instytucjach

Inne obiekty radioastronomiczne obejmują 26-metrowy paraboloid Uniwersytetu Tasmanii zlokalizowany w Mt Pleasant niedaleko Hobart oraz 30-metrową antenę dawnej firmy Telstra w Ceduna w Australii Południowej. Obie anteny są używane głównie w VLBI, w połączeniu z AT Compact Array i teleskopami w Parkes i Mopra. Uniwersytet ten obsługuje także kilka teleskopów optycznych i kosmicznych. Szereg innych grup uniwersyteckich zajmuje się astronomią, korzystając z obiektów krajowych (np. uniwersytety w Melbourne i Western Sydney oraz Macquarie University) lub za pomocą własnych instrumentów (np. Uniwersytet w Adelajdzie zajmuje się wysokoenergetycznymi promieniami kosmicznymi, Uniwersytet Zachodni rozwój australijskich detektorów fal grawitacyjnych i teleskopów balonowych Australijskiej Akademii Sił Obronnych). Australijscy astronomowie w dużym stopniu korzystają także z zagranicznych obiektów i obserwatoriów satelitarnych, w tym z HST, a dzięki ścisłej współpracy międzynarodowej około 350 astronomów z zagranicy odwiedza Australię każdego roku. Najważniejszym nowym teleskopem optycznym lat 80. XX wieku jest teleskop o średnicy 2,3 m zbudowany przez MSSSO w Siding Spring. Podobnie jak praktycznie wszystkie nowoczesne duże teleskopy, wykorzystuje montaż alt-az, aby zmniejszyć koszty budowy obudowy. Wczesnym godnym uwagi rezultatem uzyskanym za pomocą tego teleskopu była demonstracja, że Mały Obłok Magellana jest podzielony wzdłuż linii wzroku na dwie części, prawdopodobnie w wyniku zderzenia z Wielkim Obłokiem Magellana około 300 milionów lat temu. Innym ważnym obiektem w Siding Spring Mountain jest teleskop Schmidta o średnicy 1,2 m, pierwotnie działający wyłącznie w Wielkiej Brytanii, ale od 1988 roku połączony z AAO. Teleskop ten jest dobrze znany z wysokiej jakości fotograficznych przeglądów południowego nieba. Oprócz kontynuowania dużych przeglądów i mniejszych projektów fotograficznych, teleskop jest również używany do spektroskopii wielowłóknowej w polu 6°.

Przyszłe możliwości

Australijscy astronomowie uznali potrzebę dostępu do teleskopu optycznego na podczerwień klasy 8 m, aby zachować konkurencyjność w obecnych warunkach. W rezultacie Australia dołączyła do międzynarodowego projektu Gemini jako partner na poziomie 5%. Zapewni to australijskim obserwatorom dostęp zarówno do półkuli północnej, jak i południowej, z różnorodnymi wysokiej jakości instrumentami optycznymi i podczerwonymi. Jednakże przy alokacji odpowiadającej 10% pojedynczego teleskopu, w porównaniu z 50% AAT w epoce, w której wiodły teleskopy klasy 4 m, dostęp do czasu 8 m będzie poważnie ograniczony. Dlatego niezwykle ważne będzie utrzymanie AAT przy wysokim standardzie konkurencyjnego oprzyrządowania. Na uwagę zasługuje kilka innych inicjatyw rozwojowych. Australijscy astronomowie aktywnie uczestniczą w rozwoju Antarktydy jako miejsca obserwacyjnego. Niskie temperatury i minimalna ilość pary wodnej w atmosferze stwarzają wyjątkowo dobre warunki do obserwacji w podczerwieni, w tym w zakresie długości fal, które normalnie nie są obserwowalne z ziemi. Istnieje również możliwość, że wysoki płaskowyż Antarktyczny będzie miał najlepszą WIDOCZNOŚĆ ze wszystkich miejsc naziemnych. Wspólne Australijskie Centrum Badań Astrofizycznych na Antarktydzie (JACARA) z siedzibą na Uniwersytecie Nowej Południowej Walii obsługuje już 60-centymetrowy teleskop na podczerwień na biegunie południowym. Planowane jest przeniesienie teleskopu w późniejszym terminie do jednego z prawdopodobnie lepszych (ale mniej dostępnych) miejsc na płaskowyżu. Jeśli chodzi o radioastronomię, Australia aktywnie uczestniczy w planowaniu i rozwoju układu kilometrów kwadratowych, międzynarodowego projektu mającego na celu zbudowanie radioteleskopu o długości fali cm o czułości 1-2 rzędów wielkości większej niż jakikolwiek obecny instrument. Jednym z głównych celów astrofizycznych byłoby wykrycie i zbadanie emisji 21 cm z obojętnego wodoru przy dużych przesunięciach ku czerwieni, w protogalaktykach i obszarach powstawania gwiazd. Podsekcje sieci rozciągałyby się na setki km, a jedną z najlepszych perspektyw na utworzenie wolnego od zakłóceń miejsca o wymaganej wielkości znajdują się zachodnie obszary pustynne Australii.

Organizacja

W 1989 roku raport dotyczący astronomii w Australii odnotował słabość astrofizyki teoretycznej. Obszar ten został wzmocniony na początku lat 90. XX wieku poprzez utworzenie Centrum Badawczego Astrofizyki Teoretycznej (RCfTA) na Uniwersytecie w Sydney, a później Australijskiego Uniwersytetu Astrofizycznego Teorii Centrum w Canberze. Obie grupy potrafią czerpać obopólne korzyści wynikające z bliskiego kontaktu teoretyków z obserwatorami. RCfTA utworzono przy wsparciu finansowym Australijskiej Rady ds. Badań Naukowych (ARC), która wypłaca fundusze rządowe w wielu obszarach nauki i technologii. Poprzez swoje programy stypendialne ARC wspiera także większość prac badawczych prowadzonych na australijskich uniwersytetach. Społeczność zawodowa astronomów w Australii składa się z około 200 stanowisk, z czego około 30 to stanowiska na czas określony. Na różnych uniwersytetach w całym kraju studiuje około 75 doktorantów, a każdego roku około 15 kończy studia. Głównym stowarzyszeniem astronomów zawodowych i studentów jest ASTRONOMICAL SOCIETY OFAUSTRALIA (ASA), zrzeszające około 300 członków. Do głównych działań ASA należy organizacja corocznych spotkań naukowych, zarządzanie publikacjami ASA oraz reprezentowanie interesów astronomów wobec rządu i ogółu społeczeństwa. Oficjalną współpracę z rządem zapewnia Narodowy Komitet Astronomii (NCA), który działa pod auspicjami Australijskiej Akademii Nauk. NCA zarządza stosunkami Australii z MIĘDZYNARODOWĄ UNIĄ Astronomiczną (IAU), a Australia liczy obecnie 190 członków IAU. Astronomia babilońska

Cywilizacje Mezopotamii pielęgnowały bogatą tradycję astronomiczną przez około dwa tysiące lat, od początków drugiego tysiąclecia p.n.e. - jeśli nie wcześniej - aż do I wieku naszej ery. Zachęceni wiarą, że wydarzenia widziane na niebie są zwiastunami przyszłych, ziemskich warunków, Babilończycy i Asyryjczycy rozwinęli skomplikowaną praktykę obserwowania wróżb, dzięki której poznali różnorodne zjawiska niebieskie i opracowali zasady przewidywania ich wystąpienia. Od VII wieku p.n.e. w Babilonie prowadzono zapisy obserwacji Księżyca, pięciu widzialnych planet i Słońca. Babilończycy odkryli nie tylko okresowy charakter wielu obserwowanych przez siebie zjawisk, ale także to, że pewne zjawiska obejmowały kilka okresowych elementów, co im się udało, izolowanie, mierzenie i wreszcie naśladowanie za pomocą ciągów arytmetycznych. W ten sposób powstała astronomia matematyczna, która działała na zupełnie innych zasadach niż modele geometryczne ASTRONOMII greckiej i średniowiecznej. Pomimo tej rozbieżności w metodach wpływ astronomii babilońskiej na jej grecką odpowiedniczkę był głęboki, a niektóre elementy pochodzenia babilońskiego przetrwały w żywych tradycjach astronomicznych w całej Eurazji od średniowiecza do czasów współczesnych.

Źródła

Prawie wszystko, co wiemy o astronomii babilońskiej, pochodzi ze współczesnych dokumentów spisanych w języku akadyjskim pismem klinowym na glinianych tabliczkach. Tablice klinowe odnaleziono obficie podczas wykopalisk w połowie XIX wieku, a wkrótce potem rozszyfrowano pismo. Teksty związane z astronomią liczą się w tysiącach. Duża i wciąż rosnąca ich część dostępna jest w wydaniach i tłumaczeniach na języki nowożytne, jednakże nadal istnieje wiele niepublikowanych tabliczek, zwłaszcza wśród tekstów omenowych i zapisów obserwacyjnych. Tabliczki przechowywane we współczesnych muzeach i innych kolekcjach tylko częściowo uzyskano w wyniku wykopalisk naukowych, które dostarczyły informacji o ich pochodzeniu, a resztę zakupiono od handlarzy. niemniej jednak większość tablic astronomicznych można odnaleźć w trzech miejscach: w bibliotece królewskiej i archiwum stolicy Asyrii, Niniwie, najważniejszym źródle tekstów odnoszących się do niebiańskich wróżb, datowanych głównie na pierwszą połowę VII wieku p.n.e., tabliczkach z niepewne lokalizacje w Babilonie, prawie jedyne źródło zapisów obserwacyjnych, a także bogate w astronomię matematyczną, oraz archiwum świątynne z południowo-babilońskiego miasta Uruk, które jest źródłem pozostałej części tekstów matematycznych. Przed współczesnym rozszyfrowaniem pisma klinowego praktycznie jedyne dostępne informacje na temat astronomii w Mezopotamii składały się z rozproszonych wypowiedzi klasycznych autorów greckich i łacińskich. Obejmują one od ewidentnie absurdalnych twierdzeń pochodzących z tysięcy lat obserwacji po konkretne dane techniczne, które zostały triumfalnie potwierdzone na tablicach babilońskich. Rozprzestrzenianie się babilońskich metod i koncepcji można obecnie pełniej prześledzić w greckich i egipskich fragmentach papirusów astronomicznych z rzymskiego Egiptu oraz w niektórych indyjskich tekstach astronomicznych.

Astronomia w tradycji omenów Mezopotamii

Niebiańskie wróżby stanowiły dużą część szerokiego repertuaru wydarzeń uznawanych przez Mezopotamczyków za złowieszcze. Wiara w znaki była zasadniczo religijna: przypuszczano, że bogowie informują ludzi o ich nastroju i zamiarach za pomocą widocznych znaków, których interpretacja była zadaniem doświadczonych wróżbitów. teksty omenowe, zwykle wyrażane jako zdania warunkowe łączące zapowiedź z przewidywanym rezultatem (np. "Jeśli księżyc w chwili swego pojawienia się prześlizgnie się przez chmury: nadejdzie powódź"), zostały zebrane w kompendiach, takich jak seria niebiańskich wróżb En?uma Anu Enlil (" kiedy bogowie Anu i Enlil", od słów początkowych), która składała się z około 70 tablic. En?uma Anu Enlil przetrwał we fragmentarycznych kopiach z VII wieku p.n.e. i późniejszych, lecz niektóre niebiańskie wróżby, zarówno zawarte w tym zbiorze, jak i zachowane poza nim, pochodzą z pierwszej połowy drugiego tysiąclecia p.n.e., a niewielka liczba odnosi się do wydarzeń historycznych trzecie tysiąclecie. Wróżby Enumy Anu Enlila są w najszerszym znaczeniu "wróżbami nieba", obejmującymi zjawiska meteorologiczne, a także obserwacje Księżyca, Słońca, pięciu planet i gwiazd stałych. Nawet w przypadku obserwacji ciała niebieskiego kolor i jasność, aureole i towarzysząca im pogoda są traktowane na równi z czasami, datami i pozycjami. Nazywanie obserwacyjnego elementu tego wróżenia astronomią byłoby mylące, ale kryje się w nim wiele z astronomii. Zatem aspekty zaćmienia Księżyca, które pomogły określić jego złowieszcze znaczenie - zazwyczaj śmierć króla - obejmowały datę i przybliżoną porę dnia, kierunki, z których dysk Księżyca był zasłonięty na początku i na końcu zaćmienia, a czasami także konstelacja, w której miało miejsce zaćmienie. W archiwach królów asyryjskich w Niniwie, obecnie w British Museum, zachowały się liczne listy i raporty adresowane do królów Asarhaddona (680-669 p.n.e.) i Asurbanipala (668-627 p.n.e.) przez sieć obserwatorów wróżb z Niniwy i innych asyryjskich i miasta babilońskie. W tej fascynującej korespondencji widać, że czujne obserwowanie Księżyca, Słońca i planet było sprawą najwyższej wagi politycznej, wpływającej na decyzje dotyczące wszelkich poczynań króla. Uczeni, na których polegał król, mieli najlepsze motywy, aby z wyprzedzeniem dowiedzieć się, kiedy można spodziewać się lub wykluczyć złowieszcze zjawiska: koledzy byli zawsze gotowi wskazać królowi błędne lub spóźnione obserwacje. Prognozy, które często pojawiają się w korespondencji królewskiej, dotyczą głównie zaćmień Księżyca i Słońca oraz pierwszych widzialności planet. Typowe prognozy są albo z pewnością negatywne ("zaćmienie nie nastąpi w tym miesiącu" lub "pojawienie się określonej planety nie jest bliskie"), albo warunkowo potwierdzające ("jeśli zaćmienie nastąpi w tym miesiącu, powinniśmy go wypatrywać w określonym czasie dnia lub nocy"). Oprócz metod wróżbiarskich, na których trudno było polegać, obserwatorzy omenów najwyraźniej polegali na wiedzy o przybliżonych możliwych odstępach czasu pomiędzy zaćmieniami oraz pomiędzy kolejnymi pojawianiami się i znikaniem planet. Nie wiadomo, czy korzystali również z dłuższych okresów. MUL.APIN ("Gwiazda Pługowa") to najważniejszy z nielicznych tekstów z II i początków I tysiąclecia p.n.e., które dotyczą przede wszystkim autentycznych tematów astronomicznych. Najdłuższą część tego zestawienia stanowią wykazy konstelacji i gwiazd, noszące mniej lub bardziej obrazowe nazwy, takie jak "wóz", "liść Eru" i "najemnik". Gwiazdy wschodzące i zachodzące są pogrupowane w trzy "ścieżki", najwyraźniej według części wschodniego horyzontu, w których wschodzą, ale nie podejmuje się dalszych prób opisania ich układu ani położenia. Podano testy astronomiczne w celu ustalenia, kiedy należy wstawić miesiąc przestępny do kalendarza księżycowego, aby był on zgodny z porami roku. MUL.APIN zawiera niewiele astronomii księżycowej, a omówienie planet ogranicza się do przybliżonych szacunków odstępów czasu między pojawianiem się i znikaniem. Drugim tekstem cieszącym się dużym zainteresowaniem jest czternasta tablica Enuma Anu Enlil, która w odróżnieniu od reszty kompilacji nie jest zbiorem tekstów omenowych, lecz zbiorem tablic liczbowych. Jedna z tych tabel przedstawia zmienny czas trwania nocnej widoczności Księżyca w ciągu miesiąca synodycznego, przy założeniu, że długość nocy jest maksymalna, tj. blisko przesilenia zimowego, a druga tabela przedstawia miesiąc po miesiącu w sposób schematyczny rok słoneczny, dzienna zmiana czasu trwania nocnej widoczności Księżyca. Z wyjątkiem początku i końca pierwszej tabeli, gdzie zastosowano ciekawy wzór stałych drugich różnic, liczby rosną do maksimum, a następnie ponownie maleją w wyniku stałych różnic, co jest rodzajem sekwencji, którą współcześni autorzy nazywają (od jej wyglądu na wykresie) liniową funkcję zygzakowatą. Proste funkcje zygzakowate składające się z małych liczb całkowitych są oczywistym sposobem opisu okresowo zmieniającej się wielkości, a najstarszym znanym przykładem jest przybliżona tabela przedstawiająca zmieniającą się długość światła dziennego w ciągu roku na papirusie z drugiego tysiąclecia p.n.e. z Egiptu, kraju nienotowanego dla swojej astronomii matematycznej. Godne uwagi jest to, że około 1000 roku p.n.e. astronomowie mezopotamscy próbowali wyizolować i przedstawić modele matematyczne dwóch niezależnych pierwiastków okresowych w zjawisku, które oscyluje w złożony sposób.

Dzienniki i teksty dotyczące roku docelowego

Nie wiadomo, w jakim stopniu obserwatorzy omenów prowadzili zapisy tego, co widzieli na niebie. W co najmniej jednym mieście, Babilonie, grupa skrybów, którzy być może lub nie byli obserwatorami omenów, zaczęła już w połowie VII wieku zapisywać niezwykłą różnorodność datowanych zjawisk na tablicach, które obecnie nazywamy Dziennikami. Zachowało się wiele setek fragmentów tabliczek Dziennika z Babilonu, obejmujących lata od 652 do 61 p.n.e., przy czym większość z nich pochodzi z ostatnich trzech wieków p.n.e. Zazwyczaj tabliczka Dziennika obejmowała pół roku księżycowego, czyli sześć lub siedem miesięcy księżycowych. Dla każdego miesiąca, noc po nocy i dzień po dniu, Dziennik odnotowuje obserwacje ciał niebieskich i pogody, a każdy miesiąc kończy się zapisami cen towarów, poziomu rzeki Eufrat i bieżących wydarzeń. Najbardziej rzucającym się w oczy obiektem w Dziennikach jest Księżyc. Co miesiąc mierzono sześć przedziałów czasowych ("księżycowa szóstka") w jednostkach zwanych us lub "stopniami czasu", tak że 360 stopni czasu równa się jednemu (średniemu) dniu od zachodu do zachodu słońca:

1. od zachodu słońca do zachodu księżyca wieczorem pierwszej widoczności Księżyca;
2. od zachodu Księżyca do wschodu słońca rano przed pełnią Księżyca;
3. wschód i zachód Księżyca wieczorem przed pełnią Księżyca;
4. wschód słońca do zachodu księżyca rano po pełni księżyca;
5. zachód słońca do wschodu księżyca wieczorem po pełni księżyca;
6. wschód księżyca do wschodu słońca rankiem ostatniej widoczności Księżyca.

Jest to rozwinięcie zainteresowania księżycową widocznością w nocy, ujawnionego na tabliczce 14 Enuma Anu Enlil. W Dziennikach z dużą częstotliwością rejestrowane są również przejścia Księżyca przez około 30 jasnych gwiazd w pobliżu EKLIPTYKI, znanych jako gwiazdy normalne. Okoliczności zaćmień Księżyca i Słońca podano szczegółowo. W przypadku planet Pamiętniki rejestrują przejścia Gwiazd Normalnych i bliskie wzajemne zbliżenia, a także pewne wydarzenia w ich cyklach synodycznych. Opisywane zjawiska synodyczne Saturna, Jowisza i Marsa to ich pierwsze widzialności i zaginięcia, stacje i wschody akronychalne (zachody słońca). Pierwsze widzialności i zaginięcia gwiazd porannych i wieczornych odnotowano dla Wenus i Merkurego. Położenie planet w ich zjawiskach synodycznych jest określone, jeśli w ogóle, tylko w przybliżeniu w odniesieniu do konstelacji lub, w późniejszych Dziennikach, przez znak zodiaku zajmowany przez planetę. Wydaje się, że przejście od konstelacji do konwencjonalnych znaków zodiaku obejmujących równe dwunaste ekliptyki miało miejsce około połowy V wieku p.n.e. Wiele wpisów w Dziennikach nie ma charakteru obserwacji. Przewidywane lub skorygowane dane są rejestrowane w przypadku, gdy pogoda opóźnia lub utrudnia obserwację, czemu często towarzyszy uwaga "Nie oglądałem". Źródła wielu z tych przewidywań nie zostały ustalone poza dyskusją. Ważną metodą prognozowania zjawisk planetarnych i księżycowych było z pewnością zastosowanie "okresów Roku Docelowego". Były to okresy od zaledwie 8 lat dla Wenus do aż 83 lat dla Jowisza, po których następuje przybliżona powtarzalność zjawisk (zdarzenia synodyczne lub normalne przejścia gwiazd). Wszystkie okresy planetarne są liczbami całkowitymi lat słonecznych. Ważną okresowością dla Księżyca był tak zwany "SAROS", okres zaćmień obejmujący 223 miesiące synodyczne (około 18 lat), który obejmuje również prawie całą liczbę okresów anomalii księżycowych i szerokości geograficznej Księżyca. Na tabliczkach zwanych Tekstami Roku Celu gromadzone są raporty z obserwacji wydobyte z Dzienników jeden Rok Celu wstecz, aby zapewnić podstawę do przewidywań na nadchodzący rok. Aby dokonać rzeczywistych przewidywań, należałoby zastosować poprawki, aby uwzględnić niedokładność okresowości. Produktem tego procesu będą prawdopodobnie tabliczki znane jako Almanachy i Almanachy Normal Star, zawierające przewidywania pewnych kategorii zjawisk typu Pamiętnika na dany rok.

Astronomia matematyczna

Podstawowym celem babilońskiej astronomii matematycznej było obliczenie niektórych zjawisk odnotowanych w Dziennikach. Obejmowały one daty i długości geograficzne zjawisk synodycznych planet, przedziały czasowe "Księżycowej Szóstki" i zaćmienia. Przewidywania realizowano za pomocą ciągów liczb generowanych arytmetycznie według zasad, tak aby każdy ciąg powtarzał się z dokładnie taką częstotliwością, jaka jest wymagana dla danej składowej ruchu ciała niebieskiego. Modele predykcyjne można podzielić na dwie kategorie. Modele, w których wśród sekwencji dominują liniowe funkcje zygzakowate, nazywane są modelami systemu B. Te, w których liczby odpowiadają "funkcjom schodkowym" zależnym numerycznie od położenia ciała niebieskiego w przegrodach ekliptyki, nazywane są modelami systemu A. Modele systemu A i systemu B były używane jednocześnie w Babilonie i Uruk. Modele planetarne wykorzystują "łuki synodyczne", czyli liczbę stopni, o jakie planeta przechodzi przez ekliptykę od jednego wystąpienia zjawiska synodycznego do następnego wystąpienia tego samego zjawiska, oraz "czasy synodyczne", czyli liczbę miesięcy i dni od jednego wydarzenia do drugiego. Rzeczywiste długości geograficzne (stopnie w obrębie znaków zodiaku) i daty zjawisk są uzyskiwane jako suma bieżąca łuków synodycznych i czasów, które są generowane jako sekwencje okresowe. Okresowość można wyrazić równaniem występowanie = Z obrotów ekliptyki = Y yr gdzie , Z i Y są liczbami całkowitymi, a i Z są względnie pierwsze. Zatem w tabeli zjawisk planetarnych przewidywanych według modelu babilońskiego, po liniach długość geograficzna powróci dokładnie do swojej pierwotnej wartości. W modelach planet Układu A zasady równoważne następującym założeniom: (1) ekliptyka jest podzielona na dwie lub więcej stref o ustalonych granicach, (2) wystąpienia zjawiska w pełnym okresie Y roku są rozmieszczone wzdłuż ekliptyki w taki sposób że są one rozmieszczone w równych odstępach wewnątrz każdej ze stref oraz (3) postęp od jednego wystąpienia do następnego to odstępy Z. Babiloński zapis wartości miejsca o podstawie 60 dla liczb wprowadza pewne nieastronomiczne ograniczenia do modelu, ponieważ zawsze chce się, aby obliczenia prowadziły do liczb kończących się po małej liczbie miejsc ułamkowych, zwykle dwóch. Niemniej jednak sekwencję łuków synodycznych można kształtować poprzez odpowiedni dobór parametrów, tak aby z powodzeniem odtworzyć rzeczywiste zachowanie planety, co ilustruje rysunek 1, na którym przebieg łuków synodycznych pomiędzy pierwszymi stacjonarnymi punktami Marsa obliczony przez system Model porównuje się z tymi samymi przedziałami obliczonymi przez współczesną teorię. System B, według którego łuki synodyczne i czasy są funkcjami zygzakowatymi, jest modelem bardziej restrykcyjnym i mniej skutecznym w odtwarzaniu zjawisk. Pełna tabela obliczonych zjawisk planety może zawierać kolumny podające daty i długości geograficzne pełnego cyklu zjawisk synodycznych, na przykład pierwsza widoczność Marsa, wschody akronychalne pierwszej stacji, stacja druga i zniknięcie. Długości geograficzne w datach pośrednich można uzyskać poprzez ekstrapolację lub interpolację między tabelarycznymi parami data-długość geograficzna. Babilońskie modele księżycowe są bardziej niezwykłym osiągnięciem niż modele planetarne. Na zaćmienia i czas widoczności Księżyca wpływa kilka niezależnych składników okresowych, których wyizolowanie i zmierzenie nie było łatwe. W modelach systemu A i systemu B występują co najmniej cztery okresy: rok (najwyraźniej nie wprowadzono rozróżnienia na lata gwiezdne, tropikalne i anomalistyczne), miesiąc synodyczny oraz okresy anomalii i szerokości geograficznej Księżyca. Do zilustrowania podejścia może posłużyć obliczenie dokładnego czasu koniunkcji. Zakłada się, że odstęp między poprzednią a obecną koniunkcją wynosi 29 dni plus dwa zmienne składniki (wyrażone w stopniach czasu), zwane J i G. G zmienia się w zależności od anomalistycznego okresu Księżyca. W systemie B jest to funkcja liniowa zygzakowata, natomiast w systemie Ait jest to funkcja zygzakowata "wciągnięta" w sinusoidalny kształt w jej skrajnych ciągach arytmetycznych drugiego rzędu. J ma rok słoneczny za swój okres. Modeluje się ją w systemieA za pomocą funkcji krokowej zależnej od długości geograficznej Słońca, natomiast w systemBit jest to gładka sekwencja sinusoidalna otrzymana jako suma liniowa funkcji zygzakowatej. Rysunek 2 przedstawia serię wartości G, J i ich sumę z tabletu systemu B. Błędy w obliczonych czasach, które mogą sięgać nawet 2 godzin, wynikają częściowo z zastosowania dość prostych funkcji arytmetycznych, a częściowo z nieodłącznej niedokładności przedstawiania prawdziwego miesiąca synodycznego jako sumy dwóch niezależnych funkcji okresowych. Okresowości, szczególnie te z teorii księżycowej układu B, są bardzo dokładne. Ostatnimi tabliczkami astronomii Mezopotamii są almanachy z lat 70. XX w. n.e. Jednak do tego czasu metody babilońskiej astronomii matematycznej rozprzestrzeniły się na świat greckojęzyczny, gdzie zapewniły podstawę obliczeniową ASTROLOGII grecko-rzymskiej, dopóki w późnej starożytności nie zostały zastąpione tablicami Ptolemeusza. HIPPARCHUS i PTOLEMEUSZ korzystali z babilońskich raportów obserwacyjnych i okresowości teorii księżycowej układu B, a na ich prace mogły mieć mniej bezpośredni wpływ inne aspekty modeli matematycznych.

Bariogeneza (geneza barionu lub asymetria materii / antymaterii)

Z każdym typem cząstki związana jest cząstka ANTYMATERIA o przeciwnych liczbach kwantowych. Na przykład pozyton (ładunek +1) jest antycząstką elektronu (ładunek -1), a antyproton (ładunek -1, liczba barionowa -1) jest antycząstką protonu (ładunek +1, liczba barionowa +1 ). Cząstki mogą anihilować wraz ze swoimi antycząstkami w promieniowanie, a pary cząstka-antycząstka mogą powstawać w próżni. Obserwacje wydają się sugerować, że wszechświat składa się z materii, bez żadnych znaczących ilości antymaterii. Domeny galaktyk antymaterii i gromad galaktyk antymaterii, jeśli istnieją, muszą być znacznie od siebie oddzielone. Najprostszym wyjaśnieniem jest to, że we wszechświecie występuje asymetria antymaterii: obecnie wszechświat składa się wyłącznie z cząstek bez dużych układów antymaterii. Asymetrię materii i antymaterii zwykle wyraża się w postaci bezwymiarowej liczby znanej jako "liczba barionowa wszechświata". Jeśli barionom (neutronom, protonom i masywniejszym rezonansom barionowym) przypisuje się liczbę barionową +1, a antybarionom liczbę barionową -1, to z powodu braku dużych ilości antymaterii obecna gęstość liczby barionowej ( gęstość liczby barionowej minus gęstość liczby antybarionowej) można wyrazić w kategoriach całkowitej gęstości masy Wszechświata. Liczba barionowa to stosunek gęstości liczby barionowej do gęstości entropii Wszechświata. Przy niepewności wynoszącej od trzech do pięciu liczba barionowa Wszechświata wynosi około 10-10. Dopóki liczba barionowa jest zachowana w każdej indywidualnej reakcji, a ekspansja wszechświata jest izentropowa (zachowująca entropię), liczba barionowa wszechświata jest zachowana w historii wszechświata. Chociaż obecnie we wszechświecie nie ma antymaterii, gdyby temperatura wszechświata była kiedykolwiek wyższa niż około 1013 K, a tym samym jego energia cieplna przekraczałaby energię spoczynkową protonu, wówczas antymateria istniałaby w ogromnych ilościach. Wcześniej niż około milisekundę po WIELKIM WYBUCHU Wszechświat powinien być wystarczająco gorący, aby promieniowanie mogło utworzyć pary cząstka-antycząstka. Jeśli liczba barionowa jest zachowana, to w wystarczająco wysokiej temperaturze liczba barionowa wynosząca 10-10 oznacza, że we wszechświecie było mniej więcej tyle samo barionów i antybarionów, ale na każde 10 miliardów antybarionów przypadało 10 miliardów i jeden barion. Gdy Wszechświat ostygł poniżej temperatury wymaganej do wytworzenia par proton-antyproton z promieniowania, wszystkie antybariony uległy anihilacji, pozostawiając nadmiarową liczbę barionową wynoszącą 1 część na 10 miliardów. Chociaż tak niewielka asymetria pomiędzy liczbą barionów i antybarionów może wydawać się nieistotna, bez asymetrii wszystkie bariony i antybariony uległyby anihilacji, w wyniku czego powstałby wszechświat pozbawiony materii (lub antymaterii) niezbędnej do powstania galaktyk, gwiazd i planety. Chociaż obecna liczba barionowa Wszechświata może po prostu odzwierciedlać początkowy stan Wielkiego Wybuchu, bardziej naturalne wydaje się, że wszechświat o zerowej liczbie barionowej, co by nastąpiło, gdyby wszechświat przeszedł okres "INFLACJA", ewoluował we wszechświat z mała liczba barionowa. W 1967 roku rosyjski fizyk Andriej Sacharow nakreślił trzy "składniki" niezbędne do wygenerowania asymetrii barionowej z początkowo symetrycznych warunków. Pierwszym wymaganiem jest to, że niektóre reakcje cząstek muszą naruszać liczbę barionową. Drugim warunkiem jest naruszenie symetrii CP (parzystość razy koniugacja ładunku). Wreszcie bariogeneza wymaga odejścia od lokalnej równowagi termodynamicznej. Te trzy składniki Sacharowa mogły występować we wczesnym wszechświecie. Ekspansja wszechświata może prowadzić do warunków nierównowagowych. Naruszenie CP zostało odkryte w 1964 roku przez Jamesa Cronina i Val Fitcha w reakcjach z udziałem cząstek znanych jako kaony. Chociaż nigdy nie zaobserwowano naruszenia liczby barionowej, w kilku teoriach przewiduje się, że nastąpi to. Różne możliwości naruszenia liczby barionowej zaowocowały opracowaniem różnych scenariuszy bariogenezy. W teoriach unifikacji oddziaływania silnego, słabego i elektromagnetycznego w WIELKĄ ZJEDNOCZONĄ TEORIĘ (GUT) przewiduje się, że liczba barionowa zostanie naruszona w wyniku rozpadu supermasywnych cząstek o masie aż 1016 mas protonu. W najprostszych wersjach bariogenezy GUT supermasywne cząstki były obecne w promieniowaniu cieplnym, a gdy temperatura Wszechświata spadła poniżej równoważnej masy supermasywnej cząstki, preferencyjnie rozpadały się na bariony. W scenariuszu GUT bariogeneza nastąpiła 10-35 sekund po wybuchu. Ujednolicenie oddziaływań elektromagnetycznych i słabych polega na złamaniu symetrii elektrosłabej, w której pole Higgsa przyjmuje wartość oczekiwaną próżni. Choć dziś zepsuta, to przy odpowiednio wysokich temperaturach symetria powinna zostać przywrócona. Oczekuje się, że przemiana fazowa związana z naruszeniem symetrii elektrosłabej, gdy temperatura Wszechświata spadnie poniżej około 1015 K. Przewiduje się, że powyżej przejścia fazowego będą działać nieperturbacyjne procesy naruszające liczbę barionową. Opracowano scenariusz bariogenezy elektrosłabej, w którym asymetria barionowa jest generowana w czasie przejścia fazowego elektrosłabego, około 10-12 sekund po wybuchu. Teorie SUPERSYMETRY mają bozonowych partnerów dla kwarków i leptonów. Cząstki te, zwane skwarkami i spaniami, są bozonami i mogą osiągać wartości oczekiwane podciśnienia. Jakakolwiek zmiana wartości oczekiwanej próżni pola kwadratowego powoduje naruszenie liczby barionowej. W tym scenariuszu nie określono wieku Wszechświata w trakcie bariogenezy. Inne scenariusze bariogenezy obejmują odmiany lub kombinacje trzech powyższych scenariuszy. Chociaż dokładny mechanizm bariogenezy jest nadal przedmiotem intensywnych spekulacji, oczekuje się, że we wczesnym Wielkim Wybuchu obecne będą trzy składniki Sacharowa: w przyrodzie zaobserwowano naruszenie CP, ekspansja wszechświata w naturalny sposób prowadzi do odstępstw od równowagi, a barion Oczekuje się, że naruszenie liczby -number będzie miało miejsce na różne sposoby. Chociaż szczegóły bariogenezy nie są znane, eksperymenty laboratoryjne mogą pomóc w rozwikłaniu zagadki. Badanie naruszenia CP z udziałem kwarków dolnych może doprowadzić do głębszego zrozumienia tego składnika. Znajomość masy elektrosłabego Higgsa jest ważna dla bariogenezy elektrosłabej. Odkrycie supersymetrii niskoenergetycznej miałoby ważne implikacje dla bariogenezy elektrosłabej, a także scenariuszy obejmujących wartości oczekiwane kwadratu. Wreszcie obserwacja rozpadu protonów lub inny bezpośredni dowód wielkiej unifikacji byłaby ważna dla scenariuszy bariogenezy GUT.

Kalendarz

Kalendarz to system organizowania jednostek czasu w celu liczenia czasu w dłuższych okresach. DZIEŃ jest najmniejszą kalendarzową jednostką czasu; pomiar ułamków dnia to mierzenie czasu. Niektóre kalendarze odtwarzają cykle astronomiczne według ustalonych zasad, inne regulują obserwacje astronomiczne. Powszechnie kalendarze przyjmują formę liczenia czasu ze względu na początek, długość i podziały ROKU. Przedstawiono je w formie tabelarycznego zestawienia dni każdego MIESIĄCA i tygodnia w roku. Okresy ruchu Słońca i Księżyca oraz dzienne obroty Ziemi są naturalnymi podstawami do tworzenia kalendarzy. Jednak niektóre cywilizacje oparły kalendarze na innych ciałach Układu Słonecznego, na przykład na wykorzystaniu Wenus przez Majów. Niestety, żaden z powstałych w sposób naturalny okresów (rok, lunacja czy dzień) nie jest dokładną wielokrotnością drugiego. Zatem kalendarze oparte na miesiącach księżycowych wymagają korekt, aby pozostawały zbliżone do roku opartego na pozornym ruchu Słońca. Dokładny okres ruchu Ziemi wokół Słońca nie jest całkowitą liczbą dni, dlatego wymaga dostosowania, aby pory roku, a co ważniejsze, święta religijne, znajdowały się w kalendarzu o tej samej porze. Pory roku i niektóre święta religijne wywodzą się z naturalnych ruchów ciała. Niektóre z nich definiuje się w kategoriach równonocy wiosennej, która ściśle podąża za ruchem Ziemi. Istnieje kościelna równonoc zdefiniowana w celu umożliwienia określenia Wielkanocy bez różnic wynikających z prawdziwego ruchu. Rok tropikalny definiuje się jako średni odstęp pomiędzy równonocą wiosenną. Obecna średnia wartość roku tropikalnego wynosi 365,242 190 dni. Wartość maleje z powodu hamowania pływowego o sześć milionowych dnia na stulecie. Prawdziwy odstęp między konkretną równonocą wiosenną a następną może różnić się od tej średniej o kilka minut. Dokładna długość roku tropikalnego zależy od ogólnej teorii planet lub integracji numerycznej stosowanej do określenia elementów orbity. Obecnym kalendarzem używanym na całym świecie jest kalendarz gregoriański. W niektórych krajach zostało to wprowadzone przez papieża Grzegorza w 1582 r., a w innych dopiero w 1927 r. Kalendarz gregoriański ma 365 dni w roku z wyjątkiem dnia przestępnego 366 dni. Lata przestępne to lata, które dzielą się równomiernie przez 4, z wyjątkiem lat, które są dokładnie podzielne przez 100; te lata centralne są latami przestępnymi tylko wtedy, gdy można je dokładnie podzielić przez 400. Zatem lata 1800, 1900, 2100 i 2200 nie są latami przestępnymi, ale rok 2000 jest rokiem przestępnym. Rok kalendarzowy gregoriański ma 365,2425 dni w porównaniu z obecnym rokiem tropikalnym wynoszącym 365,242 190 dni, co stanowi różnicę 0,000 310 dni, czyli 1 dzień na 3000 lat. MIĘDZYNARODOWA UNIA Astronomiczna (IAU) przyjęła rok juliański wynoszący 365,25 dni jako jednostkę czasu w wielu obliczeniach, takich jak elementy precesji i orbity, aby uniknąć zmienności i niepewności wartości roku tropikalnego. Pojawiły się niepotwierdzone oświadczenia dotyczące modyfikacji kalendarza gregoriańskiego dokonanych przez niektóre kraje w celu skorygowania pozostałych rozbieżności. Jednakże nie są znane żadne korekty długoterminowych rozbieżności, a ulepszone efemerydy mogą zmienić wielkość rozbieżności. Często pojawiają się także radykalne propozycje uproszczenia, ujednolicenia lub ulepszenia kalendarza gregoriańskiego. Obecne całkowite międzynarodowe wykorzystanie kalendarza gregoriańskiego będzie wymagało, aby jakakolwiek zmiana zapewniała ogólnoświatową korzyść, która uzasadnia tę zmianę. W wielu przypadkach kalendarze opierały się na cyklu księżycowym. Miesiąc synodyczny, średni odstęp między koniunkcjami Księżyca i Słońca, odpowiada cyklowi faz Księżyca. Średnia wartość miesiąca synodycznego wynosi 29.530 589 dni i zwiększa się z powodu efektów pływowych o dwie milionowe dnia na stulecie. Każdy cykl fazy księżycowej może odbiegać od średniej nawet o 7 godzin. Niektóre kalendarze księżycowe (np. islamskie) rozpoczynają nowy miesiąc na podstawie obserwacji półksiężyca po nowiu. W takich przypadkach początek miesiąca zależy od warunków pogodowych, przejrzystości atmosfery, ostrości wzroku i lokalizacji na Ziemi, ponieważ Księżyc można zazwyczaj obserwować dopiero około 15 godzin po nowiu i około dwóch stopni nad horyzontem. Warunki te można ogólnie dokładnie przewidzieć z około 30-stopniową niepewnością długości geograficznej Ziemi, aby zapewnić rzeczywistą obserwowalność. W niektórych przypadkach przewidywania nie są akceptowane i do określenia początku miesiąca wymagane są obserwacje. Ponieważ w roku słonecznym nie ma całkowitej liczby miesięcy księżycowych, w niektórych kalendarzach (np. hebrajskim) wprowadzono miesiące interkalowane w celu dostosowania miesięcy w taki sposób, aby święta religijne wypadały każdego roku w tej samej porze roku .Kalendarze mają funkcje nieastronomiczne, takie jak siedmiodniowy tydzień. Pochodzenie siedmiodniowego tygodnia jest niepewne, a wyjaśnienia sięgają od cykli pogodowych po teksty biblijne i talmudyczne. Istnieje również niepotwierdzone założenie, że cykliczna ciągłość tygodnia została zachowana bez przerwy od jej powstania w czasach biblijnych.

Kalendarz na Bliskim Wschodzie i w Europie

Kalendarze są sposobem na zaznaczenie upływu czasu. Mogą mieć charakter cywilny, do porządkowania życia codziennego, religijny, do oznaczania dni świątecznych lub do odnotowywania rytmu pór roku w celach rolniczych. Duża część struktury kalendarza jest całkowicie dowolna, np. długość godzin, godzin w dniu, dni w tygodniu i rok w epoce. Jednak większość kalendarzy odzwierciedla naturalne cykle astronomiczne - pozorne ruchy Słońca i Księżyca oraz codzienny obrót Ziemi. Pierwotne kalendarze mogły być używane w czasach neolitu , ale tutaj rozważamy rozwój, w czasach historycznych, idei kalendarzy na Bliskim Wschodzie i w Europie, których kulminacją był system używany dzisiaj na całym świecie. Kalendarze w tradycji zachodniej zakorzenione są w cyklicznych ruchach Słońca, Księżyca lub obu. Rok gwiazdowy mierzy czas potrzebny Słońcu na powrót w to samo miejsce na niebie w stosunku do gwiazd stałych. Rok tropikalny to czas od jednej równonocy wiosennej do następnej. Ta ostatnia jest nieco krótsza, ponieważ PRECESJA co roku przesuwa punkty równonocy na zachód. Kluczowym cyklem księżycowym jest okres synodyczny, przejście Księżyca przez jego fazy. Kiedy połączy się je w kalendarz księżycowo-słoneczny, koordynacja jest bardziej złożona. Ponieważ ani okresy słoneczne, ani księżycowe nie są dokładnymi wielokrotnościami dni, pierwsi astronomowie byli zmuszeni wprowadzać dni interkalarne w pewnych odstępach czasu, aby wyrównać cykle. W przeciwnym razie miesiące (lub lata) powoli cofałyby się w zależności od pory roku. Ponieważ cykle księżycowy i słoneczny są niewspółmierne, żadna liczba miesięcy synodycznych nie będzie równa danej liczbie lat tropikalnych, nawet w bardzo długich okresach. Niemniej jednak można je porównać na tyle blisko, aby stworzyć wykonalny kalendarz.

Starożytne kalendarze

Aby uregulować praktyki religijne, pierwsi Egipcjanie opracowali kalendarz księżycowy, inaugurowany każdego roku heliakalnym wschodem Syriusza, tj. kiedy Syriusz po raz pierwszy pojawił się na krótko o porannym zmierzchu. Do celów administracyjnych wprowadzili kalendarz słoneczny na początku trzeciego tysiąclecia p.n.e. System ten stał się podstawą naszego nowoczesnego. Zakładając, że rok ma 365 dni, podzielili go na 12 równych miesięcy po 30 dni, po których na końcu nastąpiło 5 dni. Każdy miesiąc miał trzy 10-dniowe tygodnie. Ponieważ do roku tropikalnego brakowało około ćwierć dnia, początkowy dzień kalendarza powoli cofał się, a nowy rok za około 4 lata nadszedł dzień wcześniej, ale rozbieżność została zignorowana. Egipcjanie również wprowadzili 24-godzinny dzień, chociaż 12 godzin nocnych, 10 godzin dziennych i 2 godziny świtu i zmierzchu były nierównej długości. Nierówne godziny sezonowe były powszechne na całym Zachodzie, aż do czasu, gdy w XIV wieku astronomowie rozpowszechnili system równych godzin wraz z zegarami mechanicznymi. Cywilizacje Mezopotamii rozwinęły kalendarz księżycowo-słoneczny oparty na 7-dniowym tygodniu. Długość ta mogła symbolizować siedem "planet" (Słońce, Księżyc i pięć planet widocznych gołym okiem). Chociaż mezopotamscy astronomowie interkalowali dodatkowe miesiące księżycowe wcześniej, dopiero w IV wieku p.n.e. pojawiła się systematyczna interkalacja siedmiu miesięcy księżycowych w okresie 19 lat. Schemat ten, zaproponowany mniej więcej w tym samym czasie przez ateńskiego astronoma METOSA, był później znany jako cykl Metosa. Obserwacje wykazały, że w ciągu 19 lat tropikalnych nastąpiło prawie dokładnie 235 lunacji. Do obliczenia dat nowiu księżyca stosowano naprzemienne miesiące 30 i 29 dni. Po 12 lunacjach łącznie 354 dni było mniej niż rok słoneczny o około 11,25 dnia. Jednak po 3 latach skumulowały się one do ponad 33 dni i wprowadzono dodatkową lunację. Zatem 12 lat z 12 lunacjami w połączeniu z 7 latami z 13 lunacjami spowodowałoby powrót cyklu do początku. Imperium Perskie ujednoliciło system, dodając interkalację w trzecim, szóstym, ósmym, jedenastym, czternastym, siedemnastym i dziewiętnastym roku cyklu. Żydzi i inne narody Bliskiego Wschodu przyjęły ten schemat. Greckie miasta-państwa stosowały mniej dokładny schemat interkalacji, oktaeteris, opracowany być może w VIII wieku p.n.e. Założono, że osiem lat tropikalnych to 96 regularnych plus 3 interkalowane lunacje trwające średnio 29,5 dnia. Jednak nie mając jedności politycznej, greckie miasta utrzymywały indywidualne kalendarze księżycowo-słoneczne, z różnymi datami rozpoczęcia i godzinami miesięcy interkalacyjnych. Metos w V wieku zauważył, że rok tropikalny trwa około 365,25 dni. Jego 19-letni cykl rozprzestrzenił się dalej w okresie hellenistycznym. HIPPARCHUS w II wieku p.n.e. rozpoznał precesję i określił bardzo dokładne wartości zarówno dla roku tropikalnego, jak i okresu synodycznego. Kalendarz rzymsko-republikański był mniej wyrafinowany niż babiloński. Bazując na starszym kalendarzu księżycowym, miał on 12 miesięcy, niektóre nazwane (Ianuarius, Februarius, Martius, Aprilis, Maius, Iunius) i inne ponumerowane (Quintilis, Sextilis, wrzesień, październik, listopad, grudzień). Ponieważ rok zaczynał się w marcu, Ianuarius i Februarius mieli odpowiednio 11 i 12 miesięcy. Ten kalendarz cywilny był o dzień dłuższy niż rok tropikalny i cierpiał na niesystematyczne wstawki. W I wieku p.n.e. nowy rok przypadał prawie 2 miesiące po równonocy wiosennej. Rynek ustalił 8-dniowy tydzień , chociaż na terytoriach tematycznych coraz bardziej powszechny stał się 7-dniowy tydzień żydowski. W przeciwieństwie do innych ludów śródziemnomorskich, Rzymianie rozpoczynali dzień o północy.

Reforma juliańska i kalendarze średniowieczne

Juliusz Cezar podczas swego pobytu w Egipcie dostrzegł wartość przyjęcia egipskiego kalendarza słonecznego i za radą aleksandryjskiego astronoma Sosigenesa w roku 46 p.n.e. ogłosił tak zwany kalendarz juliański. W tym całkowicie słonecznym kalendarzu rok wynosił 365,25 dni. Zamiast uwzględniać pięć dodatkowych dni na koniec roku, kalendarz juliański rozłożył dodatkowe dni w ciągu roku, naprzemiennie 31 i 30-dniowymi miesiącami. Rok zaczynał się w styczniu, który miał 31 dni. Taki podział dałby rok składający się z 366 dni, więc z lutego usunięto jeden dzień, który teraz miał 29 dni. Aby uwzględnić kumulację dodatkowego dnia co 4 lata, luty otrzymał 30 dni w roku przestępnym, przy czym dzień interkalowany był zwykle wstawiany po 24 dniu miesiąca. Później wprowadzono tylko drobne zmiany: w 44 roku p.n.e. miesiąc Quintilis został przemianowany na Iulius, na cześć zamordowanego Cezara, a w 8 roku p.n.e. Augustus nazwał go swoim imieniem Sextilis, zapewniając mu 31 dni. Zmieniło to kolejność naprzemiennych długości miesięcy i pozbawiło lutego jego 29 dnia. Augustowskie dostosowania dotyczące długości miesięcy przetrwały we współczesnym użyciu. August, zdając sobie sprawę, że od czasów Cezara kapłani co roku czynili rok przestępny, usunął wszystkie lata przestępne aż do 8 roku naszej ery. Kalendarz juliański, podobnie jak jego egipski model, miał wartość prostoty. Różnica między rokiem juliańskim a tropikalnym była na tyle mała, że różnica narastała powoli. Jako oficjalny kalendarz Cesarstwa Rzymskiego, od Bliskiego Wschodu po Szkocję obowiązywał system juliański; kiedy Kościół chrześcijański stał się religią dominującą w imperium, kalendarz przetrwał. Przed wygnaniem żydowski kalendarz był księżycowy, choć niewiele o nim wiadomo. Po podboju Babilonu Izraelski kalendarz żydowski, podobnie jak inne kalendarze semickie, stał się księżycowo-słoneczny i każdego roku miał 12 naprzemiennych miesięcy po 29 i 30 dni. Po zmianach w II i III w. n.e. nastąpił cykl metoński, z interkalacjami dokonanymi według porządku babilońskiego. Rok zaczynał się od równonocy jesiennej - przed wygnaniem do Babilonu rozpoczynał się od równonocy wiosennej - i miał 7 dni tygodni, rozpoczynających się o zachodzie słońca w piątek. Miesiące rozpoczęły się wraz z pierwszą obserwacją nowego sierpa Księżyca; w praktyce czas obliczony astronomicznie był używany przez niektóre społeczności żydowskie od III wieku. Dni rozpoczynały się o zachodzie słońca, chociaż we współczesnej praktyce oficjalnie rozpoczynają się o godzinie 18:00, a tydzień rozpoczyna się w szabat (piątek wieczorem). Zgodnie z tradycją babilońską każdą dobę dzieli się na 1080 jednostek w oparciu o obliczenia sześćdziesiętne. Lata liczone są od początku świata (anno mundi, czyli 3761 p.n.e.). Kalendarz islamski miał wspólne pochodzenie z kalendarzami żydowskim i chrześcijańskim, z tą różnicą, że porzucił powiązanie z rokiem tropikalnym. Dwanaście miesięcy księżycowych po 29 i 30 dni na przemian. Ponieważ jest to ściśle księżycowy (a nie księżycowo-słoneczny), nie ma miesięcy interkalowanych - chociaż do danego roku można dodać dzień interkalowany - tak więc święta religijne, takie jak Ramadan, przypadają w różnych porach roku na przestrzeni lat, przechodząc przez wszystkie pory roku w około 33 lata. Podobnie jak żydowski, kalendarz islamski ma 7 dni, każdy rozpoczynający się o zachodzie słońca. Rzeczywista wizualna obserwacja nowego sierpu Księżyca była początkiem każdego miesiąca księżycowego. W późniejszym średniowieczu islamscy astronomowie opracowali metody i tabele umożliwiające określenie czasu nowiu księżyca w różnych miejscach oraz momentu, gdy Księżyc był zasłonięty chmurami . Dla celów cywilnych Imperium Osmańskie przyjęło kalendarz juliański w XVII wieku, a Turcja przeszła na system gregoriański w XX wieku. Większość krajów islamskich używa obecnie kalendarza gregoriańskiego do celów cywilnych, ale używa także epoki datowanej na ucieczkę Mahometa do Medyny (622 r.). Natomiast Rzymianie jeszcze przed reformą juliańską rozpoczęli rok 1 stycznia, w ich ślady poszła tylko zachodnia część imperium. Cesarstwo Bizantyjskie przeniosło się na 1 września. Wczesnośredniowieczni chrześcijanie Zachodu nie mogli zgodzić się na datę inauguracji. W Anglii i Francji Boże Narodzenie było nowym rokiem; w innych obszarach pierwszeństwo miał 25 marca, a nawet Wielkanoc (która była datą ruchomą). Pod koniec średniowiecza dzień 1 stycznia odzyskał swój status. Żydowski 7-dniowy tydzień, przyjęty przez pierwszych chrześcijan, stał się prawnie wiążący w Cesarstwie Rzymskim dopiero za czasów Konstantyna (321 r.). Chociaż Kościół próbował usunąć rzymskie nazwy miesięcy - na przykład zastępując dies Saturni przez sabbata, a dies soli przez domenicus - starsze nazwy przetrwały w północnej Europie. W liczeniu dni miesiąca też było zamieszanie. Rzymsko-republikańska metoda rozpoczynania miesiąca od kalend, po których kilka dni później następują nony i idy oraz numeracja dni wstecz w stosunku do tych trzech stałych dni, przetrwały na niektórych obszarach aż do XV wieku, kiedy to powszechna stała się kolejna numeracja dni. Ponieważ kalendarz juliański obejmował dłuższy rok tropikalny niż faktycznie występuje, data równonocy wiosennej powoli przesuwała się do tyłu. Dla Kościoła chrześcijańskiego spowodowało to problem w ustaleniu daty Wielkanocy. Wielkanoc, powiązana z żydowską Paschą, opartą na kalendarzu księżycowo-słonecznym, była trudna do ustalenia. Sobór Nicejski (325 r.) ustalił dzień 21 marca jako datę równonocy wiosennej i przyjął cykl metoniczny. Dionizy Exiguus w VI wieku podał zasadę ustalania Wielkanocy: przypadała ona w pierwszą niedzielę po pierwszej pełni księżyca po równonocy wiosennej. Jeżeli pełnia księżyca przypadała w niedzielę, Wielkanoc przesuwano na następny tydzień. Te komplikacje dały początek literaturze kalendarzowej, computus, której Beda na początku VIII wieku był znaczącym współautorem. Powszechnym schematem było wstawienie 30-dniowych miesięcy przestępnych w 19-letni cykl, stosując ten sam schemat, co w kalendarzu żydowskim. W ciągu 19 lat kalendarz juliański liczył 6939 dni i 18 godzin, podczas gdy cykl księżycowy 6940 dni i 18 godzin. Aby zapewnić im synchronizację, usuwano dzień (saltus lunae), zwykle w ostatnim miesiącu cyklu. Bardziej złożone było zapewnienie, że Wielkanoc przypada w niedzielę i wiedza, kiedy ona nastąpi. Bede i inni wprowadzili wieczny kalendarz oparty na cyklach złożonych, złotych liczbach i epaktach. Dzięki takiemu schematowi można było sporządzić tabele z dużym wyprzedzeniem w celu obliczenia dat Wielkanocy. Porozumienie co do ery randek było już kwestią czasu. Wiele starożytnych krajów opierało swoje epoki na latach panowania lub kadencji wysokich urzędników. Niektóre greckie miasta uczestniczyły w olimpiadach. W czasach cesarstwa Rzymianie wykorzystywali zarówno lata panowania, jak i rok od założenia Rzymu (ab urbe condita). Założenie ery chrześcijańskiej (anno Domini) zostało zasugerowane przez Dionizego Exiguusa w VI wieku. Próbując rozwiązać problem liczenia Wielkanocy, Dionizjusz przyjął okres wiktoriański (wymyślony przez Wiktoryna z Akwitanii w V wieku), który pomnożył 19-letni cykl Metona przez 28-letni cykl słoneczny, uzyskując cykl 532-letni. Poganie obliczyli rok narodzin Chrystusa, od którego rozpoczynał się pierwszy cykl 532 lat. Uważał, że jest to 753 AUC. Anglicy pod wpływem Bedy przyjęli epokę chrześcijańską do celów kościelnych w VII wieku, ale w Europie została ona powszechnie zaakceptowana dopiero w XI wieku.

Reforma kalendarza

Do czasów Rogera Bacona w XIII wieku było jasne, że paschalne pełnie księżyca nie przypadały w obliczonych datach. Kiedy precesja została powszechnie zrozumiana i dostępne stały się lepsze tablice, zwłaszcza tablice Alfonsine z końca XIII wieku, wzrosła presja na reformę kalendarza. Pomimo różnorodnych propozycji, dopiero za papieskiego panowania Grzegorza XIII w 1582 r. ogłoszono poprawiony system, opracowany przez Aloisio Lilio. Długość roku tropikalnego w Alfonsine jest nieco o ponad 10,5 minuty krótsza niż rok juliański oznaczało, że trzeba będzie upuszczać jeden dzień co 134 lata. Komisja papieska zaleciła przestrzeganie układu juliańskiego roku przestępnego, ale pomijanie lat przestępnych w latach stuleci (takich jak 1900), które nie są podzielne przez 400. Reforma gregoriańska dostosowała również system liczenia Wielkanocy. Ponieważ w ciągu następnych stuleci data równonocy wiosennej cofnęła się o około 10 dni od 21 marca, Grzegorz zadekretował, że po 5 października 1582 r. nastąpi 15 października. Kraje katolickie przyjęły system w ciągu pierwszych 5 lat; została zaakceptowana w większości krajów protestanckich w XVIII wieku, np. w Wielkiej Brytanii w 1752 r. Ponieważ Kościół prawosławny nigdy nie zaakceptował reformy, kraje Europy Wschodniej opóźniły jej przyjęcie do XX wieku, np. Rewolucyjna Rosja w 1918 r. i Grecja w 1923 r. Niektóre kraje azjatyckie i muzułmańskie również przyjęły ten system na przełomie XIX i XX wieku. Na krótki okres (1793-1805) rewolucyjna Francja wprowadziła kalendarz oparty na starożytnym egipskim kalendarzu słonecznym, aby usunąć wszelkie konotacje religijne. Po dwunastu 30-dniowych miesiącach następowało pięć dni wakacji, wprowadzanych na początek lipca; poprawiony schemat roku przestępnego został zmodyfikowany z gregoriańskiego. Podobnie jak w kalendarzu egipskim, każdy miesiąc składa się z trzech 10-dniowych tygodni. Zmieniono nazwy samych miesięcy, aby odzwierciedlić sezonową pogodę i zajęcia. Ponieważ daty początkowe miesięcy nie pokrywały się z resztą Europy, problemy narosły i Napoleon I przywrócił kraj do systemu gregoriańskiego. Od XIX wieku pojawiały się różne propozycje reform kalendarza, zwłaszcza mające na celu rozwiązanie problemu miesięcy z nierówną liczbą dni. Międzynarodowy stały kalendarz zapewniałby 13 miesięcy po 28 dni każdy plus jeden nienazwany dzień, co równałoby się 365; dzień roku przestępnego byłby dodawany co cztery lata. Zaletą tego schematu jest to, że wszystkie miesiące rozpoczynają się w niedzielę i kończą w sobotę. Alternatywą jest Kalendarz Światowy, który miałby cztery 91-dniowe kwartały, każdy rozpoczynający się w niedzielę, a miesiące miałyby 31, 30 i 30 dni. Dzień światowy zostanie dodany po 30 grudnia oraz dodatkowy dzień światowy w latach przestępnych. Obydwa mają zalety, ale ani one, ani inne nie wzbudziły większego oficjalnego entuzjazmu. Chociaż w ciągu ostatnich kilku tysięcy lat wiele kultur opracowało kalendarze oparte na zjawiskach astronomicznych, hybryda utworzona z tradycji babilońsko-żydowskiej i tradycji egipsko-rzymskiej stała się dominującym systemem kalendarzowym na całym świecie. Chociaż nie może być dokładnie dokładny, biorąc pod uwagę niewspółmierność okresów księżycowego i słonecznego, jest całkowicie wystarczający dla potrzeb politycznych i gospodarczych. Reforma kalendarza, jeśli do niej dojdzie, będzie najprawdopodobniej racjonalizacją istniejącego systemu, a nie całościową zmianą jego struktury.

Kalippus z Kyzikos (ok. 370 - ok. 310 p.n.e.)

Grecki filozof urodzony w Kyzikos w Azji Mniejszej (obecnie Turcja), młodszy współczesny EUDOKSUSOWI, który dodał więcej kul do gniazd sfer Eudoksosa, aby lepiej uwzględnić niejednorodności ruchu planet. Słońce, Księżyc, Merkury, Wenus i Mars miały po pięć kul, podczas gdy Jowisz i Saturn miały cztery, a gwiazdy jedną. Zwiększyło to dokładność teorii, zachowując jednocześnie przekonanie, że ciała niebieskie poruszają się po okręgach. Współpracował z Arystotelesem. Określono długość pór roku. Skonstruował 76-letni cykl (okres kallippijski) jako dokładniejszą wersję (cztery cykle) 19-letniego cyklu metonicznego, czyli czasu, w którym kalendarze księżycowy i słoneczny powracają do tej samej synchronizacji i podczas którego można zaobserwować zaćmienia Księżyca przewidywane.

Callisto

Kalisto, najbardziej oddalony z satelitów Galileusza , ma około 38% większą średnicę niż ziemski Księżyc (promień Kallisto wynosi 2410 km, a promień Księżyca 1738 km). Jednak niższa masa, grawitacja powierzchniowa i wyższe albedo Kallisto odzwierciedlają jej skład lodowo-skalny. Uważa się, że powierzchnia Callisto składa się z mieszaniny lodu i pyłu lub materiałów skalistych. Pokryty kraterami teren Callisto można podzielić na podjednostki o nieregularnych kształtach w oparciu o ALBEDO, które różnią się dwukrotnie między jednostkami. W rozdzielczości VOYAGER kilka podjednostek wydaje się stosunkowo gładkich i pozbawionych kraterów uderzeniowych; obszary te zinterpretowano jako obszary możliwego wynurzania się wulkanu. Jednakże dane z MISJI GALILEO, których celem były te regiony, pokazują, że gładkość wynika raczej z degradacji powierzchni, a nie z lodowatego wulkanizmu. Sugerowano, że wczesny globalny tektonizm wyjaśnia obecność równoległych i promienistych zestawów lineamentów. Na podstawie danych z Voyagera nie można określić, czy Kallisto jest zróżnicowane. Obrazy powierzchni Kallisto wykonane przez Galileo nie dostarczają wyraźnych dowodów na RÓŻNICOWANIE lub obecność podpowierzchniowego oceanu w postaci ciekłej wody. Brakuje wyraźnych dowodów geologicznych na jakąkolwiek endogeniczną modyfikację powierzchni Kallisto. Przed misją Galileo naukowcy wierzyli, że powierzchnia Kallisto będzie pokryta kraterami we wszystkich skalach. Jednakże powierzchnia Kallisto jest widoczna na zdjęciach Galileo o średniej i wysokiej rozdzielczości jako gładka i lekko pofałdowana, zawierająca niewielką gęstość przestrzenną małych (<10 km/piksel) KRATERÓW uderzeniowych . Szeroki rozkład przestrzenny tej gładkiej tekstury sugeruje, że proces(y) wygładzania mają zasięg globalny. Ciemny materiał niebędący lodem, który wydaje się pokrywać powierzchnię, może się skoncentrować w wyniku utraty materiałów lotnych podczas uderzeń, bombardowania magnetosferycznego i/lub sublimacji. Materiał ten może być również rozprzestrzeniany w wyniku uderzeń i bombardowań mikrometeorytami, w wyniku czego następuje wypełnienie nisko położonej topografii. Lewitacja elektrostatyczna lub inne mechanizmy mogą dodatkowo przyczynić się do mobilizacji ciemnej materii Kallisto. Kratery uderzeniowe na Callisto wykazują różne rozmiary i stany degradacji, od świeżych z wyraźnie określonymi kożuchami wyrzutowymi po kratery, które są ledwo rozróżnialne. Wydaje się, że głównym procesem tej degradacji jest masowe niszczenie ścian kraterów. Przeważają osady w kraterach, które wydają się być wynikiem osuwania się gruzu do wewnątrz. Kilka z tych strumieni gruzu ma swoje źródło w zachodnich ścianach geologicznie niedawnych kraterów. Może to wskazywać na stromienie ściany krateru, być może w wyniku sublimacji, co skutkuje zmniejszeniem jego stabilności. Późniejsze zawalenie się może zostać wywołane energią sejsmiczną powstałą w wyniku pobliskiego uderzenia lub ostatecznym przechyleniem Kallisto. ściana prowadząca do zapadnięcia się grawitacyjnego. Ta ciągła erozja sublimacyjna i marnowanie masy najlepiej wyjaśnia preferowane cofanie się krawędzi zwróconej w stronę słońca i erozję ścian kraterów widoczne na zdjęciach Galileo, przyczyniając się do stopniowego wypełniania kraterów na powierzchni Kallisto. Zdjęcia z Voyagera pokazują, że powierzchnia Kallisto nie ma znaczącej topografii i jest pokryta kraterami. Dane z sondy Voyager wykazały braki w dużych kraterach uderzeniowych (o średnicy większej niż 60 km) w porównaniu z Księżycem i planetami ziemskimi. Jednakże na zdjęciach Galileo zidentyfikowano dodatkowe struktury o dużych uderzeniach, które ulegają znacznej degradacji. Zdjęcia Galileo o umiarkowanej rozdzielczości (0,4-1,1 km/piksel) pokazują bardziej szczegółowe cechy strukturalne w trzech systemach wielopierścieniowych Kallisto (interpretowane jako obiekty o dużym uderzeniu) niż te widoczne na danych z sondy Voyager. Najmłodsza, Walhalla, charakteryzuje się jasnymi równinami centralnymi otoczonymi nieciągłymi, koncentrycznymi, łukowatymi strukturami (rynny i skarpy skierowane na zewnątrz). System wielopierścieniowy Asgardu składa się z jasnej centralnej jednostki równinnej otoczonej kilkoma nieciągłymi pierścieniami składającymi się z rynien, ale brakuje mu skarp skierowanych na zewnątrz. Jasność centralnych równin Asgardu zwiększa obecność nowszego krateru uderzeniowego Doh, z którego wydobyto lodowszy (jaśniejszy) materiał podpowierzchniowy. Zdjęcia Asgardu w wysokiej rozdzielczości ujawniają pęknięcia wewnątrz i w sąsiedztwie najbardziej wewnętrznego pierścienia. Pęknięcia te są prawdopodobnie wynikiem pękania kruchej warstwy zewnętrznej Kallisto w wyniku uderzenia. Bliskość tych pęknięć (widocznych tylko w najbardziej wewnętrznym pierścieniu) do krateru uderzeniowego Doh może wskazywać, że pęknięcia te zostały reaktywowane w wyniku niedawnego uderzenia. Dobrze zachowane zewnętrzne rynny związane z Asgardem mają niższe albedo niż otaczające je równiny pokryte kraterami. Adlinda, najstarsza z tych trzech wielopierścieniowych struktur, nie posiada jasnej jednostki centralnej równiny. Widoczne są jednak koncentryczne pierścienie o niskim albedo, które są bardziej odporne na degradację. Szczegółową morfologię Adlindy przesłaniają liczne uderzenia, a także wyrzuty z Lofn, pobliskiego krateru uderzeniowego. Spektrometr mapujący bliskiej podczerwieni (NIMS) znajdujący się na statku kosmicznym Galileo dostarczył do 408-kanałowych widm powierzchni Kallisto, od 0,7 do 5,2 μm przy rozdzielczości przestrzennej w zakresie od jednego do setek kilometrów na element obrazu. Obszary o silnych cechach absorpcji lodu wodnego w widmach NIMS zwykle odpowiadają jasnym cechom (np. osadom świeżych kraterów uderzeniowych) na obrazach Galileo z filtrem przezroczystym. Interpretuje się, że słabe cechy absorpcji w pobliżu 3,88, 4,05, 4,25 i 4,57 μm wynikają z obecności odpowiednio wiązania S-H, SO2, CO2 i związków organicznych (np. tolin). Ogólnie rzecz biorąc, korelacje między tymi związkami a geologią powierzchniową są złożone i obecnie słabo poznane. Globalnie absorpcja 4,25 μm jest silniejsza na półkuli końcowej Kallisto, podczas gdy absorpcja 4,05 i 4,57 μm jest silniejsza na półkuli wiodącej. Oprócz zapewnienia wglądu w skład materiałów powierzchniowych i ich rozkład, analiza danych NIMS ujawniła obecność rzadkiej (powierzchnia = 7,5 × 10-12 barów) atmosfery dwutlenku węgla rozciągającej się około 100 km nad powierzchnią. Na podstawie modeli szybkości usuwania CO2 szacowany czas życia atmosfery Kallisto wynosi około 4 lata. W rezultacie albo atmosfera ta jest zjawiskiem przejściowym, albo jakiś proces(y) obecnie dostarcza do atmosfery dwutlenek węgla. Podobnie jak GANYMEDE, Kallisto jest znane jako lodowy satelita ponieważ jego stosunkowo niska średnia gęstość (1836 kgˇm-3) wymaga, aby był wykonany z mniej więcej równych masowo ilości lodu i metalu skalnego. Kalisto jest tylko nieznacznie mniejsza od Ganimedesa, ale różni się od niego pod wieloma uderzającymi względami. Chociaż średnia gęstość Kallisto i Ganimedesa jest podobna, Kallisto ma większy znormalizowany osiowy moment bezwładności C/(MR2)(C/(MR2) = 0,359±0,005, C to osiowy moment bezwładności, M to masa satelity i R to promień Księżyca, znany z radiowych pomiarów dopplerowskich wykonanych przez sondę Galileo), co sugeruje zupełnie inną strukturę wnętrza Kallisto w porównaniu z wnętrzem Ganimedesa. W przeciwieństwie do Ganimedesa, Kalisto jest tylko częściowo zróżnicowane i składa się z ciekłej powłoki z lodu i lodu o grubości mniejszej niż 350 km, otaczającej zasadniczo niezróżnicowany rdzeń z lodu, skał i metalu. Skały i lód w Callisto nie są całkowicie oddzielone, a Callisto może nie mieć centralnego metalowego rdzenia. Dane grawitacyjne uzyskane przez sondę Galileo podczas przelotu obok Kallisto nie wykluczają istnienia małego metalicznego rdzenia w Callisto o promieniu mniejszym niż około 25% promienia satelity. Jednak argumenty geofizyczne i inne właściwości Kallisto sprawiają, że istnienie małego metalicznego rdzenia na Księżycu jest mało prawdopodobne. Biorąc pod uwagę brak metalicznego rdzenia, Callisto nie ma wewnętrznego pola magnetycznego. Brak dowodów na jakąkolwiek endogenną modyfikację powierzchni Kallisto jest zgodny z częściowym zróżnicowaniem jedynie kilkuset kilometrów zewnętrznych Kalisto. Chociaż Kalisto nie posiada własnego pola magnetycznego, sonda Galileo wykryła w Kallisto zaburzenia magnetyczne związane z indukcją elektromagnetyczną. Indukcja występuje, gdy satelita doświadcza okresowych zmian w otaczającym polu magnetycznym magnetosfery Jowisza w wyniku jego ruchu orbitalnego wokół Jowisza, obrotu Jowisza i nachylenia pola magnetycznego Jowisza. Wielkość sygnału indukcji elektromagnetycznej wymaga, aby w pobliżu powierzchni Kallisto znajdowała się globalna warstwa o wysokiej przewodności elektrycznej. Jedynym wyjaśnieniem istnienia takiej warstwy jest to, że jest to podpowierzchniowy ocean wody w stanie ciekłym o zasoleniu podobnym do ziemskiej wody morskiej. W przeciwieństwie do powierzchni Europy, powierzchnia Callisto nie wskazuje na to, że pod nią może kryć się ocean ciekłej wody. Sygnał indukcyjny jest jedynie pośrednim dowodem na to, że Callisto może mieć podpowierzchniowy ocean ciekłej wody. Istnienie takiego wewnętrznego oceanu na Kalisto jest trudne do pogodzenia z brakiem endogenicznych modyfikacji jego powierzchni. Kallisto nie wchodzi w skład orbitalnego rezonansu dynamicznego Laplace′a trzech wewnętrznych satelitów Galileusza (IO, Europa i Ganimedes), w związku z czym nie jest ogrzewana przez pływy. Bez takiego źródła ciepła trudno zrozumieć, w jaki sposób można zapobiec zamarzaniu podziemnego oceanu wody w stanie ciekłym na Kallisto w czasie geologicznym. Oczekuje się, że konwekcja Subsolidus kontrolowana przez lepkość lodu skutecznie ochłodzi wnętrze Callisto. Przynajmniej w przypadku Europy, dla której istnieją geologiczne dowody istnienia wewnętrznego oceanu wody ciekłej w przeszłości lub obecnie, rozpraszanie pływów jest możliwym źródłem ciepła umożliwiającym utrzymanie podpowierzchniowej warstwy wody w stanie ciekłym. Ogrzewanie pływowe w odległej przeszłości może również wyjaśniać, dlaczego Ganimedes jest całkowicie zróżnicowany wewnętrznie, podczas gdy Kallisto jest zróżnicowane tylko częściowo. W końcu oba te księżyce są porównywalne pod względem wielkości i masy, mają podobną ilość radiogenicznych źródeł ciepła i doświadczyły podobnej ilości nagrzewania akrecyjnego podczas formowania się.

Aktualizacja najświeższych wiadomości (30 kwietnia 2002)

Niedawne zdjęcie wykonane przez należącą do NASA sondę Galileo stanowi dowód na teorię, że na Kallisto może znajdować się podziemny ocean. Zdjęcie pokazuje część powierzchni Kallisto, dokładnie naprzeciwko basenu Walhalli, w którym Kalisto zostało uderzone w wyniku poważnej kolizji. Punkt oporu nie wykazuje żadnego efektu uderzenia. Punkty naprzeciw głównych obiektów uderzeniowych na niektórych światach o podobnej wielkości, takich jak Merkury i Księżyc Ziemi, pokazują nierówny teren przypisywany wstrząsom sejsmicznym powodowanym przez odległe uderzenia. Nowy obraz jest spójny z modelem z lat 90. XX w., który sugerował, że warstwa cieczy może działać jako amortyzator wewnątrz Callisto

Basen Kalorii

Duża wielopierścieniowa struktura uderzeniowa na Merkurym, ześrodkowana na 30,5 °N, 170,2 °E. Jej oficjalna nazwa to Caloris Planitia, co oznacza "równina ciepła" - to właśnie w tym regionie sonda Mariner 10 zarejestrowała najwyższe temperatury powierzchni, która sfotografowała około połowę konstrukcji, a druga połowa znajdowała się w cieniu. Na podstawie zaobserwowanej połowy średnicę basenu Caloris szacuje się na 1340 km. Zewnętrzny pierścień wyznaczają góry Caloris (Montes Caloris), formacja o szerokości około 100-150 km, składająca się z gładkich jednostek blokowych o wysokości 1 lub 2 km i długości do 50 km. Wewnątrz tego pierścienia dno basenu pokryte jest zmarszczkami i spękaniami, z których wiele układa się w przybliżeniu według linii koncentrycznych łuków. Inne cechy są związane z wpływem, który utworzył basen. Pierścień górski jest przerywany małymi równinami i kraterami wtórnymi utworzonymi w wyniku cofania się wyrzutów i stopionego materiału. Na północny wschód od basenu znajduje się formacja Van Eycka, zawierająca szereg obiektów promienistych rozciągających się na długości około 1000 km i uważa się, że powstały w wyniku wyrzutu. W antypodalnym punkcie uderzenia (punkt diametralnie po drugiej stronie Merkurego) znajduje się teren niespotykany nigdzie indziej w Układzie Słonecznym: pogmatwany, popękany krajobraz składający się ze wzgórz o wysokości do 2 km i szerokości do 10 km, i zagłębienia, które przecinają starsze cechy. Uderzenie spowodowało powstanie sejsmicznych fal powierzchniowych wokół planety i fal kompresyjnych w jej jądrze. Oblicza się, że tam, gdzie fale te skupiły się w punkcie antypodalnym, skała skorupy ziemskiej uległa pęknięciu wskutek uderzenia i wypchnięciu w górę o 1 km. Obecny krajobraz ukształtował się po ustąpieniu przewrotu. Szacuje się, że Basen Caloris powstał w wyniku uderzenia obiektu o długości 150 km około 3,85 miliarda lat temu, pod koniec okresu znanego jako późne ciężkie bombardowanie, które oznacza ostatni poważny epizod kraterów uderzeniowych we wczesnym Układzie Słonecznym. O tym, że było to ostatnie poważne uderzenie w Merkurego, świadczy niższa od średniej gęstość kraterów na dnie basenu.

Kamery

Czytelnicy tego artykułu używają naturalnego aparatu, ludzkiego oka. Ma prosty obiektyw, ale fenomenalne przetwarzanie sygnału, co jest opracowaniem samym w sobie i nie jest tematem tego artykułu. Bardziej odpowiednimi przykładami aparatów są te, które wykorzystują kliszę fotograficzną jako detektor. Innymi przykładami są kamery wideo wyposażone w detektor CCD. Teleskop to duży aparat, ale w większych teleskopach zamiast soczewki wypukłej jako pierwszy element optyczny zastosowano zwierciadło wklęsłe. Niezależnie od tego, czy jest to lustro, czy soczewka, ten element optyczny nazywany jest obiektywem. Jeśli jest to zwierciadło, nazywa się je również zwierciadłem głównym. System Atelescope to seria kamer, z których ostatnia ma w swoim ognisku detektor. Czasami aparatem nazywa się tylko ostatni aparat. Rysunek przedstawia podstawową konstrukcję optyczną wszystkich systemów teleskopowych, w najprostszej formie składającej się z trzech soczewek singletowych. Każda z tych soczewek stanowi główny element systemu teleskopu, który w nowoczesnym teleskopie byłby bardziej złożony niż pojedyncza soczewka sferyczna.



Aberracje optyczne i straty odbiciowe

Promienie pokazane na rysunku są dokładnie prześledzone, ale układ jest narysowany w większej skali w Y niż w X, aby wyraźniej pokazać separację promieni. Oczywiście promienie nie skupiają się ostro. ABERRACJA KULISTA SA na rysunku jest widoczna w ognisku osiowym. Promienie zewnętrzne skupiają się jako pierwsze i już się rozchodzą tam, gdzie skupiają się inne promienie. COMA jest również widoczna na rysunku w obrazie pozaosiowym. Promień przechodzący przez środek APERTURY wejściowej, zwany promieniem głównym, jest przesunięty w bok od ogniska promieni zewnętrznych. Obraz ma wygląd komety z głównym promieniem na czele. Jest również oczywiste, że oba ogniska nie znajdują się w tej samej płaszczyźnie, co jest ABERRACJĄ zwaną krzywizną Petzvala. Kolejną aberracją jest ASTIGMATYZM, w którym promienie zewnętrzne, prostopadłe do płaszczyzny rysunku, skupiają się dalej od obiektywu, ale nie są one widoczne. Poradnik na temat aberracji można znaleźć w katalogu Mellesa Griota: http://www.mellesgriot.com. Dla danej Ogniskowej aberracja sferyczna jest proporcjonalna do sześcianu średnicy apertury. Koma jest proporcjonalna do kwadratu apertury i wprost proporcjonalna do kąta pola. Astygmatyzm jest proporcjonalny do kwadratu kąta pola i jest wprost proporcjonalny do przysłony. Barwa osiowa jest wprost proporcjonalna do apertury, natomiast barwa boczna jest niezależna od apertury i jest wprost proporcjonalna do kąta pola. W przypadku soczewki singletowej aberracja sferyczna jest mniejsza, jeśli szkło ma wysoki współczynnik załamania światła, N, ponieważ dla danej ogniskowej potrzebna jest mniejsza krzywizna. Jednakże okulary o wyższym indeksie mają zwykle wyższą dyspersję, która zwiększa ABERRACJĘ CHROMATYCZNĄ. Jednowarstwowa powłoka przeciwodblaskowa na soczewce wykonanej ze szkła o wysokim współczynniku odbicia ma mniejszy współczynnik odbicia szczątkowego przy jednej długości fali, ale większe średnie straty niż w przypadku szkła o niskim współczynniku w szerokim paśmie długości fal. Zatem soczewka singletowa o wysokim współczynniku jest optymalna dla efektów monochromatycznych, ale szkło o niskim współczynniku i niskiej dyspersji jest lepsze dla szerokiego zakresu widma. Kolejnym czynnikiem branym pod uwagę przy wyborze szkła jest ciemnienie radiacyjne i fluorescencja

Układ optyczny

Pierwszy element na rysunku jest oznaczony jako cel. Przedstawiona jest jako soczewka singletowa, chociaż tak prostego obiektywu nie używano od 1733 roku. Obiektyw ukazany jest skupiając wiązki światła z dwóch gwiazd, przy czym każda wiązka składa się z promieni równoległych, na pierwszą powierzchnię ogniskową. Mówi się, że ma pozytywną moc, ponieważ zmienia cylindryczną wiązkę światła w zbiegający się stożek światła. Promienie krzyżują się w tym pierwszym ognisku, w ten sposób zbieżny stożek staje się rozbieżnym stożkiem, który jest przechwytywany przez soczewkę kolimatora, która zmienia rozbieżną wiązkę z powrotem w równoległą, skolimowaną wiązkę. Soczewka ta również ma dodatnią moc, ale jej funkcja jest odwrotnością SOCZEWKI OBIEKTYWNEJ. Soczewka kolimatora ma krótszą ogniskową niż obiektyw, dlatego skolimowana wiązka ma mniejszą średnicę niż wiązka padająca na soczewkę obiektywu. Soczewka ta wytwarza również obraz otworu wejściowego (który na rysunku znajduje się przy obiektywie). Ten obraz nazywa się źrenicą. Nazywa się to również przystankiem apertury lub przystankiem Lyota, jeśli znajduje się tam czarna płytka z otworem równym średnicy wiązki, która przepuszcza wiązkę, ale blokuje niepożądane, rozproszone światło. Obiektyw kamery na rysunku ponownie skupia wiązkę, aby skupić się na detektorze z taką samą szybkością zbieżności, jak przy pierwszym ogniskowaniu; zatem ma jednostkowe powiększenie. Gdyby ogniskowa obiektywu aparatu została potrojona, powiększenie M byłoby trzykrotne, a zatem M = 3. Część ogromnej równoległej wiązki gwiazdy, która może wejść do teleskopu, jest ograniczona średnicą ogranicznika apertury wejściowej , która na rysunku znajduje się na przedniej powierzchni soczewki obiektywu. Ten przystanek nie jest pokazany; jest to struktura mechaniczna wokół soczewki. Promień każdej gwiazdy lub punktu obiektu przechodzący przez środek przysłony nazywany jest głównym promieniem tego obiektu. Zatem główny promień przechodzi również przez dowolny obraz otworu wejściowego, taki jak źrenica między drugą a trzecią soczewką. Promienie przechodzące przez krawędzie soczewki nazywane są promieniami brzegowymi. Na rysunku promień krańcowy z krawędzi pola przecina soczewkę kolimatora daleko od jej środka, co powoduje tak duże rozmycie źrenicy i końcowego obrazu, że jest to zauważalne na rysunku. Gdyby w pierwszym ognisku znajdowała się soczewka dodatnia, przesunęłaby promienie bliżej środka soczewki kolimatora i źrenicę bliżej soczewki kolimatora, ale nie zmieniłoby położenia ogniska końcowego. Taka soczewka o ogniskowej pośredniej nazywana jest soczewką polową. To głównie to, co znajduje się pomiędzy drugim i trzecim elementem soczewki na rysunku , odróżnia jeden instrument od drugiego. Włożone urządzenie nazywa się procesorem. Czasami jest to zbieżne z źrenicą, ale nie jest to konieczne. Istnieje wiele opcji procesora optycznego, a każda z nich tworzy inny system teleskopu. Niektóre systemy mają dwa lub więcej instrumentów połączonych szeregowo, np. moduł OPTYKI ADAPTACYJNEJ, po którym następuje obrazowanie

SPEKTROGRAF

Niektóre opcje procesora


Jeśli procesorem jest ludzkie oko umieszczone w miejscu źrenicy, obiektyw aparatu nie jest potrzebny. Jeśli procesor jest wysokiej jakości, bardzo płaską, cienką parą okien, które powodują dodawanie lub odejmowanie fal świetlnych, instrumentem jest INTERFEROMETR. Jeśli procesorem jest polaryzator, taki jak pryzmat Wollastona w kształcie litery N, który powoduje oscylacje fal świetlnych w jednej płaszczyźnie, instrumentem jest polarymetr. Jeśli procesor składa się z dwóch pryzmatów w kształcie litery N, które można obracać w przeciwnych kierunkach, aby zwiększyć lub zmniejszyć ilość ROZPRASZAJĄC w celu dopasowania do tej w atmosferze, procesor jest kompensatorem dyspersji atmosferycznej, ADC. Często procesorem jest KRATA DYFRAKCYJNA, która zmienia kierunek światła o kąt odchylenia, a także rozprasza światło bardziej lub mniej niż średni kąt odchylenia w zależności od długości fali. Ze względu na odchylenie obiektyw kamery musi zostać przesunięty, aby przechwycić środek obracanej wiązki. Jeśli siatka znajduje się na zwierciadle, zwana siatką odbiciową, odbija światło z powrotem w kierunku kolimatora. Soczewka ta, odbita bezpośrednio z powrotem do kolimatora, służyłaby również jako soczewka aparatu w układzie zwanym spektrografem Littrowa. Zwykle nachylenie siatki dobiera się tak, aby odbita wiązka leżała obok kolimatora. W przypadku tego instrumentu obiektyw aparatu zostałby obrócony i umieszczony w tym miejscu. Ponadto przesłona pola byłaby umieszczona w pierwszym ognisku w postaci pojedynczej, długiej szczeliny w przypadku spektrografu z pojedynczą szczeliną lub w postaci szeregu krótkich szczelin, po jednej na każdym obrazie gwiazdy, w przypadku spektrografu z wieloma obiektami, MOS. Jeżeli zamiast siatki odbiciowej zastosowane zostanie zwierciadło odkształcalne DM, system będzie modułem optyki adaptacyjnej AOM. Niektóre systemy mają AOM i spektrograf połączone szeregowo, zatem na drodze światła znajduje się drugi kolimator i kamera, w którym to przypadku ostatecznym ogniskiem jest trzecie ognisko. Jeśli procesorem jest prosty pryzmat w kształcie odwróconego trójkąta, wiązka jest obracana o kąt odchylenia, ale dyspersja jest mniejsza niż w przypadku siatki transmisyjnej. Dlatego też, jeśli siatka transmisyjna jest połączona z pryzmatem w taki sposób, że kąty odchylenia znoszą się, wówczas wiązka nie ulega odchyleniu, ale nadal jest rozproszona. Dzięki temu nie trzeba przesuwać obiektywu aparatu. Taka kombinacja nazywana jest grizmem i zwykle znajduje się przed pierwszym ogniskiem; dlatego nie może być szczeliny, a system nazywa się spektroskopią bez szczeliny. Powierzchnia pryzmatu, która nie jest połączona z siatką, może być zakrzywiona i w ten sposób działać jak soczewka, która w przypadku Teleskopu Kanadyjsko-Francusko-Hawajskiego (CFHT) jest częścią soczewki korekcyjnej ogniskowej w pobliżu ogniska lustro główne. To urządzenie jest czasami nazywane grens. Jeśli zamiast umieszczać szczelinę w miejscu każdego obrazu gwiazdy, zostanie tam umieszczone włókno i zagięte tak, aby jego wyjście znajdowało się na długiej szczelinie w tym ognisku, w rezultacie otrzymamy spektrograf wieloobiektowy zasilany włóknem. Alternatywą jest umieszczenie w pierwszym ognisku układu małych mikrosoczewek lub lusterek, które dzielą część pola i ponownie ogniskują każdy segment wzdłuż długiej szczeliny; takie urządzenie nazywa się fragmentatorem obrazu.

Bardziej złożone cele

Soczewkę achromatyczną wynalazł w 1733 roku Chester Moor Hall, który zastosował ją w teleskopie o aperturze 3,5 cm. Achromat pozytywowy łączy w soczewce dwa rodzaje szkła: soczewkę wypukłą ze szkła koronowego połączoną z soczewką wklęsłą ze szkła flintowego. Szkło flintowe ma wyższą dyspersję niż szkło koronowe. Słaba soczewka krzemienna o wklęsłej powierzchni, a zatem o ujemnej mocy optycznej, w połączeniu z soczewką z wypukłą koroną o równej, ale przeciwnej wielkości aberracji chromatycznej, daje w rezultacie dodatnią moc netto, ale przy tej samej ogniskowej przy dwóch różnych długościach fal. Dwuwypukłe i meniskowe kształty soczewek służą do zmniejszenia aberracji sferycznej do poziomu mniejszego niż w przypadku soczewki singletowej. (Uwaga: aby uzyskać niską aberrację sferyczną, achromat musi być zamontowany we właściwej orientacji, przy odległościach obiektów i obrazu zbliżonych do tych, dla których obiektyw został zoptymalizowany.) Soczewki achromatyczne cierpią na wtórną aberrację chromatyczną, ponieważ ogniskowa przy pośrednich długościach fali różni się od tej w parach długości fali, gdzie jest taka sama. Apochromat to soczewka z trzema różnymi rodzajami szkła. Może mieć tę samą ogniskową przy trzech różnych długościach fal. Charakteryzuje się mniejszą wtórną (lub resztkową) aberracją chromatyczną niż achromat, ale nadal jest zauważalna w przypadku dużego obiektywu. Jeśli na rysunku 1 wklęsłą soczewkę negatywową dodamy przed pierwszym ogniskiem w odległości równej jej ogniskowej, powstanie skolimowana wiązka, w związku z czym soczewka ta będzie działać jak okular. Taki układ zastosowano w pierwszym teleskopie Galileusza w 1662 roku. Jakość obrazu była bardzo słaba. Jeżeli soczewkę negatywową przesunięto bliżej ogniska o połowę jej ogniskowej, wychodząca z niej wiązka nie byłaby już kolimowana, ale zbiegałaby się, aby skupić się poza pierwszym ogniskiem na odległość równą połowie ogniskowej obiektyw. Zatem liczba F zostanie podwojona, a zatem w tym przykładzie powiększenie będzie dwukrotnie większe. Jednakże odległość od obiektywu nie zostanie podwojona, ale efektywna ogniskowa EFL, która jest liczbą F w ognisku pomnożoną przez średnicę obiektywu, zostanie podwojona. Taki układ nazywa się teleobiektywem. Jego zaletą jest to, że jest bardziej kompaktowy, niż gdyby obiektyw był po prostu biorąc pod uwagę dłuższą ogniskową.

Cele odblaskowe i teleskopy kosmiczne

Główną zaletą stosowania LUSTER w teleskopie jest to, że są one wolne od aberracji chromatycznych i wymagają wypolerowania optycznego tylko z jednej strony półfabrykatu. Odpowiednikiem teleobiektywu w teleskopie zwierciadlanym jest umieszczenie wypukłego zwierciadła wtórnego przed głównym ogniskiem większego wklęsłego zwierciadła głównego. Taki układ dwóch zwierciadeł nazywa się klasycznym TELESKOPEM CASSEGRAINA, jeśli zwierciadło główne jest paraboliczne, lub Ritcheyem-Chretienem, jeśli zwierciadło główne jest hiperboliczne. Większość dużych teleskopów jest tego typu. Jednakże do planowanego Teleskopu Kosmicznego Nowej Generacji NGST zostanie dodane trzecie zwierciadło po pierwszym ognisku, które utworzy obraz źrenicy w zbieżnej wiązce, która następnie uzyska ostrość z wyjątkowo ostrymi obrazami w polu widzenia wynoszącym 6 minut łukowych. Aby wiązka od strony wtórnej do trzeciorzędowej miała prześwit po jednej stronie źrenicy, stosowane pole widzenia jest ograniczone do jednej strony osi, dlatego potrzebny jest większy maksymalny kąt pola. Zwiększa to aberracje, ale teleskop z trzema zwierciadłami nadal daje ostrzejsze obrazy niż teleskop z dwoma zwierciadłami (Ritchey-Chretien), a także mniejsze zniekształcenia pola i mniejszą krzywiznę powierzchni ogniskowej. Układ optyczny NGST pokazano na rysunku



W porównaniu z teleskopem z dwoma zwierciadłami, który ma odległą źrenicę wyjściową nad zwierciadłem wtórnym, NGST ma swoją końcową źrenicę znacznie bliżej ogniska i dlatego jest mniej telecentryczny niż większość teleskopów. Celem odkształcalnego zwierciadła DM na NGST jest kompensacja resztkowych niedoskonałości kształtu aktywnego zwierciadła głównego. Jeśli teleskop kosmiczny ma ograniczoną dyfrakcję, wówczas kamery w instrumentach mogą być mniejsze i mieć dłuższe ogniskowe niż odpowiedniki w dużym teleskopie naziemnym, którego rozdzielczość jest ograniczona przez turbulencje atmosferyczne, zwane WIDZENIEM. Spektrograf przeznaczony dla małego teleskopu naziemnego będzie dobrze współpracował z dużym teleskopem kosmicznym.

Lusterka tylne

Duże zwierciadła w teleskopach są zwierciadłami znajdującymi się na powierzchni przedniej, ale w przypadku mniejszych zwierciadeł istnieją zalety luster z powierzchnią tylną. Typowym przykładem jest pryzmat prostokątny. W takim przypadku nie jest wymagana żadna powłoka metaliczna, ponieważ odbicie po przekątnej jest całkowitym odbiciem wewnętrznym. Jeżeli kąt padania światła jest mniejszy od kąta krytycznego, konieczne jest zastosowanie powłoki odblaskowej na zewnętrznej stronie tylnej powierzchni, np. w lustrze w łazience. Ta odblaskowa powierzchnia może być dobrze zabezpieczona przed korozją i kurzem. Jeśli lustro jest zakrzywione z mniejszym promieniem z przodu niż z tyłu, nazywa się je lustrem Mangina. Aberracja sferyczna powstająca, gdy światło przechodzi przez przód, jest równoważona przez aberrację spowodowaną odbiciem od kulistej tyłu. Służy jako zwierciadło główne w niektórych małych teleskopach. Jeśli szkło jest grube i prawie płaskie, ale asferyzowany, wynik nazywa się solidną kamerą Schmidta. W czujniku położenia obrazu w systemie optyki adaptacyjnej teleskopu WIYN na Kitt Peak zastosowano szereg małych lusterek umieszczonych na tylnej powierzchni. Jest to opisane pod adresem http://claret.kpno.noao.edu/wiyn/wttm.html. Ponadto opcja projektowania fragmentatora obrazu dla NGST wykorzystuje tablice mikroluster na tylnej powierzchni. Zaletą jest to, że zmiana temperatury zmienia zarówno krzywiznę zwierciadeł, jak i ich odstępy, dzięki czemu pozostają one ostre.

Okulary

Okular jest odwróconym obiektywem aparatu, ale w szczegółach ma zupełnie inne zadanie niż obiektyw lub obiektyw aparatu komercyjnego ze względu na położenie źrenicy. W przypadku okularu źrenica musi znajdować się na zewnątrz soczewki, ponieważ musi znajdować się na oku patrzącego, które w przypadku rzęs znajduje się w odległości 10-15 mm od soczewki lub 18-20 mm, jeśli osoba nosi okulary. Odległość ta nazywana jest ODSTĘPEM OD OCZU. Ponadto średnica ŹRENICY WYJŚCIOWEJ powinna być na tyle mała, aby cała wiązka światła dostała się do ludzkiego oka, którego średnica tęczówki waha się od 2 do 5 lub 8 mm, w zależności od wieku. Kolejną komplikacją w konstrukcji optycznej okularu jest zwiększone POLE WIDZENIA, które jest odwrotnie proporcjonalne do średnicy źrenicy. Jeżeli średnica teleskopu wynosi 1 m i ma on pole widzenia 1/3 stopnia, to pole widzenia okularu o źrenicy 5 mm musi być 200 razy większe, czyli 67°, co wymaga skomplikowanej konstrukcji z kilkoma elementy. Wymagana ogniskowa okularu jest wprost proporcjonalna do liczby F obserwowanego ogniska, a zatem jest dwukrotnie dłuższa przy ogniskowaniu F-20 niż przy ognisku F-10. Nowoczesne okulary projektowane komputerowo posiadają aż osiem soczewek z kilku rodzajów szkła i pole widzenia aż do 82°, czyli więcej niż oko jest w stanie objąć na raz i sprawia wrażenie przebywania w przestrzeni.

Pasza włóknista

Włókna mają tę zaletę, że w spektroskopii wieloobiektowej wybierają obiekty z dowolnego miejsca w polu widzenia teleskopu i ustawiają je wzdłuż szczeliny spektrografu. Jednakże włókna ulegają degradacji współczynnika ogniskowego, FRD. Ta wada jest większa w przypadku teleskopów wytwarzających ostre obrazy, takich jak teleskopy kosmiczne. FRD jest mniejszą wadą w przypadku teleskopów naziemnych, gdzie jakość obrazu jest już obniżona z powodu turbulencji w atmosferze ziemskiej lub widzenia.

Lokalizacja teleskopu: Ziemia lub przestrzeń

Z powodu turbulencji atmosferycznych, zwanych widzeniem, obraz gwiazdy w ognisku systemu teleskopów naziemnych jest powiększony, dlatego wymagany jest krótszy EFL, aby dopasować ostrość obrazu do rozdzielczości detektora. Zatem potrzebna jest szybsza (mniejsza) liczba F, niż gdyby teleskop znajdował się w kosmosie. Dla dużej bazy naziemnej teleskopu elementy optyczne są nie tylko bardzo duże, ale także aparat jest bardziej skomplikowany i wymaga większej liczby elementów do korygowania aberracji optycznych. Rysunek przedstawia znakomity obiektyw aparatu spektrograficznego zaprojektowanego przez Harlanda Eppsa dla 10-metrowego teleskopu Keck.



Składa się z dziewięciu elementów: dubletu sprzężonego z cieczą, singletu, trójki sprzężonej z cieczą, dubletu i wreszcie soczewki spłaszczającej pole singletowe w pobliżu ogniska. Pokazano także filtr i okno Dewara. Największy element ma średnicę 36 cm i wykonany jest z fluorku wapnia. Dla porównania, jeśli teleskop znajduje się w kosmosie, minimalny rozmiar obrazu gwiazdy można ograniczyć jedynie poprzez dyfrakcję, a zatem w ognisku na detektorze jego rozmiar jest taki sam, niezależnie od średnicy teleskopu, dla danej liczby F. Zatem na przykład prosta kamera spektrografowa zaprojektowana dla teleskopu o średnicy 1 m będzie działać z pełną wydajnością, jeśli zostanie użyta w połączeniu z teleskopem kosmicznym o średnicy 8 m. Dzięki temu bardziej wykonalne staje się wykorzystanie wydajnych spektrografów w gigantycznych teleskopach kosmicznych przyszłości, takich jak być może 100-metrowy teleskop zwierciadła ciekłego na Księżycu.

Granica dyfrakcji

Granica dyfrakcji wyrażona jako pełna średnica AIRY DISK, która jest średnicą pierwszego ciemnego pierścienia dyfrakcyjnego, w sekundach łuku, wynosi

Φ=λ/2D

dla λ w mikronach i D w metrach. Dla 8 m NGST, przy λ = 2 μm (bliska podczerwień) Φ = 0,25 sekundy łukowej. Limit Rayleigha wynosi połowę tej wartości, 0,125 sekundy łukowej, co stanowi połowę szerokości dysku Airy′ego.

Optyka adaptacyjna i aktywna

Aktywna komórka optyczna może zginać podparte zwierciadło, aby skorygować niedoskonałości kształtu zwierciadła, np. zwierciadła głównego. Dla porównania optyka adaptacyjna to zwierciadło odkształcalne DM, umieszczone bliżej ogniska (ale nie w nim), gdzie wiązka jest znacznie mniejsza niż w zwierciadle głównym. DM ulega szybkiemu odkształceniu w celu skorygowania aberracji spowodowanych turbulencjami w atmosferze ziemskiej, a także koryguje błędy czoła fali spowodowane niedoskonałościami zwierciadła głównego. Pierwszy niemilitarny system optyki adaptacyjnej, nazwany Come-on, rozpoczął pracę w Europejskim Obserwatorium Południowym w 1989 roku na teleskopie o średnicy 3,6 m. Najnowszy, udoskonalony system nosi nazwę Adonis. W 1996 roku na Kanadyjsko-Francusko-Hawajskim Teleskopie CFHT oddano do użytku optykę adaptacyjną Bonnette (PUEO). System optyki adaptacyjnej, podobnie jak spektrograf, składa się z kolimatora, po którym następuje kamera, zwykle zwierciadła pozaosiowe, aby uniknąć przeszkód. Zamiast siatki lub pryzmatu, pomiędzy kolimatorem a kamerą znajduje się odkształcalne zwierciadło DM. W większości systemów lusterka kolimatora i kamery są paraboliczne, jedno dla kolimatora i jedno dla kamery. W przypadku tylko dwóch zasilanych lusterek powierzchnia ogniskowa jest zakrzywiona, ale nie na tyle, aby znacząco pogorszyć rozdzielczość pola o średnicy kilku minut kątowych. Ponieważ wiązka pomiędzy dwoma paraboloidami jest skolimowana, obraz w ognisku na osi w środku pola jest doskonały, niezależnie od ogniskowych dwóch paraboloid i niezależnie od odległości, w jakiej odcinają one oś zwierciadeł macierzystych . Powierzchnie ogniskowe są nachylone względem osi paraboloidów, ale nie są nachylone względem osi teleskopu. Dzięki temu nie ma konieczności pochylania czujki, gdy włożony jest układ optyki adaptacyjnej. Często wymagane jest, aby kamera miała dłuższą ogniskową niż kolimator, aby powiększyć wyostrzony obraz i dopasować go do rozdzielczości detektora. W takim przypadku aberracje pola (środka pola widzenia) są minimalizowane, jeśli odległość zwierciadła kamery od osi powierzchni zwierciadła macierzystego zwiększa się proporcjonalnie do kwadratu powiększenia. System optyki adaptacyjnej Gemini jest nietypowy pod tym względem, że moduł dostępny dla systemu optyki adaptacyjnej (na derotatorze potrzebnym, ponieważ teleskop ma montaż azymutalny) znajduje się dalej od ogniska niż liczba F pomnożona przez średnicę DM, a zatem aparat musi mieć formę odwróconego teleobiektywu - musi zwiększać średnicę wiązki z DM przed zbieżnością. I tak system Gemini, zwany Altair, oprócz lustra kolimatora posiada w aparacie dwa zwierciadła, wypukłe i wklęsłe, jest to więc rodzaj anastygmatu trójlustrowego, TMA. Zaletą posiadania trzech zwierciadeł zamiast dwóch jest to, że powierzchnia ogniskowa jest płaska, dzięki czemu obrazy są ostrzejsze na płaskim detektorze. Analizuje się czoło fali naturalnej gwiazdy przewodniej w celu wygenerowania sygnału deformującego DM. Przeanalizowane zostaną także gwiazdy lasera asodowego w atmosferze ziemskiej. Ponieważ w miejscu, gdzie naturalna gwiazda jest ostra w centrum cienia (zwierciadła wtórnego) wiązki lasera, jest nieostre, zwierciadło otworkowe pozwala na bardzo efektywną separację dwóch wiązek w projekcie Gemini. System w Mount Wilson jako pierwszy wykorzystuje ultrafioletową laserową gwiazdę prowadzącą, opisaną pod adresem http://www.astro.uiuc.edu/projects/unisis/. Najprostsze systemy optyki adaptacyjnej, takie jak teleskop WIYN na Kitt Peak, korygują jedynie drgania obrazu, zwane tip-tilt. Co zaskakujące, NGST będzie wyposażony w prosty system optyki adaptacyjnej, który będzie korygował drgania satelity, które mają wynosić nawet ±2,7 sekundy łuku.

Katalogi szklane

Kiedy promień światła pada w powietrzu na płaski kawałek szkła, kierunek promienia zmienia się wewnątrz szkła. Jeżeli kąt padania mierzony względem normalnej (prostopadle) do powierzchni szkła wynosi α, a kąt po załamaniu wynosi β, współczynnik załamania N jest zdefiniowany jako

N = sin α/ sin β

Współczynnik załamania światła N jest odwrotnie proporcjonalny do prędkości światła w szkle w porównaniu z prędkością w próżni. Jest on jednak mierzony w odniesieniu do prędkości w powietrzu, stąd konieczna jest niewielka korekta wskaźników podanych w katalogach szkła, jeśli materiał stosowany jest w próżni. Katalogi wymieniają około 250 różnych rodzajów szkła. Najstarszym producentem jest firma Schott w Niemczech. Nowszym dostawcą jest Ohara w Japonii . W teleskopach stosowane są okulary obu producentów. Hoya to kolejny ważny dostawca. Szkła można rozpoznać po współczynniku załamania światła Nd na linii widmowej żółtego helu o długości fali 587 nm oraz po różnicy w N między niebieską linią wodoru Nf przy 486 nm a czerwoną linią wodoru Nc przy 656 nm , wymienione w katalogach jako Nf - Nc. Trzecią, bardzo ważną identyfikacją jest wartość Abbego, która łączy w sobie zarówno współczynnik załamania światła, jak i dyspersję,

Vd = Nd - 1/Nf - Nc

Zatem szkło o niskiej dyspersji ma wysoką liczbę Vd. Każdy typ szkła ma sześciocyfrowy numer kodowy: pierwsze trzy cyfry Nd - 1, po których następują pierwsze trzy cyfry Vd. Każdemu rodzajowi szkła nadawana jest także nazwa, która różni się w zależności od producenta. Na przykład powszechnie stosowanym szkłem optycznym z koroną borokrzemową (o niskiej dyspersji) 517642 jest Schott BK7, Ohara S-BSL& i Hoya BSC7. Zwykłe szkło krzemienne 620364 to Schott F2, Ohara PBM2 i Hoya EF2. Diagram przedstawiający Nd w funkcji Vd, wymieniony jako diagram Nd/Vd, dla szkieł katalogowych jest dostępny w Internecie pod adresem http://www.schottglasstech.com/. Przeniesienie szkieł katalogowych zależy od typu. Jest on wymieniony dla zakresu długości fal od 0,28 do 2,4 μm, ale większość szkieł przepuszcza tylko ułamek tego obszaru. Specjalne materiały przepuszczające dalej ultrafiolet i podczerwień nie są ujęte w tych katalogach, ponieważ nie są to konwencjonalne szkła. Fluorek wapnia, który jest obecnie dostępny w dużych kawałkach, przepuszcza w znacznie szerszym zakresie długości fal, od 0,23 do 7,8 μm. Posiada bardzo niski współczynnik załamania światła i dyspersji: Nd = 1,4, Vd = 96. Selenek cynku ma bardzo wysoki współczynnik załamania światła: Nd = 2,6, Vd = 8.

Korektory do teleskopów z ciekłym zwierciadłem

. Obracając cienką warstwę rtęci, powstaje paraboliczna powierzchnia o jakości optycznej, służąca jako zwierciadło główne teleskopu z płynnym zwierciadłem LMT. Ze względu na naturalnie paraboliczny kształt obrazy w centrum pola widzenia są ostre. W Ameryce Północnej działa kilka LMT o średnicach od 2,4 do 3 m, a w Kanadzie budowany jest LMT o średnicy 6 m. Ermanno Borra z Laval, Paul Hickson z UBC i Mark Mulrooney z Obserwatorium Cloudcroft w Nowym Meksyku odegrali kluczową rolę w rozwoju LMT. 6-metrowy LMT budowany na Uniwersytecie Kolumbii Brytyjskiej będzie miał bardzo krótką ogniskową: 9 m, a więc f/1.5. Tę szybką ogniskową można uzyskać bez dodatkowych kosztów lustra, po prostu projektując jego mocowanie pod kątem większej prędkości obrotowej, co pozwala na zastosowanie mniejszej obudowy. Jednak krótka ostrość zwiększa trudność korekcji komy i astygmatyzmu. Dobrze znana soczewka korekcyjna typu zapoczątkowanego przez Raya Wilsona w Niemczech i nieżyjącego już Charlesa Wynne′a w Anglii składa się z trzech soczewek: dodatniej soczewki meniskowej, po której następuje soczewka ujemna i zakończona soczewką dodatnią w pobliżu ogniska. Nazywane soczewkami z korektorem ostrości stałoogniskowej, są używane w wielu teleskopach. Mają płaską powierzchnię ogniskową, ale charakteryzują się znaczną dystorsją poduszkową, która w czasach detektorów fotograficznych nie była uważana za niepożądaną. Po opracowaniu matrycy CCD umożliwiającej obrazowanie znacznie słabszych pól gwiazdowych, korzystne stało się zminimalizowanie zniekształceń pola w celu uproszczenia odejmowania światła tła od nieba. Takie korektory mają cztery elementy zamiast trzech. Przegląd LMT na całym świecie można znaleźć pod adresem http://www.astro.ubc.ca/lmt. Te niedrogie teleskopy służą do śledzenia śmieci kosmicznych, w lotnictwie i astronomii. W przypadku LMT istnieje dodatkowa potrzeba kontrolowania zniekształceń, ponieważ ekspozycję czasową ruchomych obrazów na detektorze CCD uzyskuje się poprzez integrację opóźnienia czasowego, TDI, zwaną także skanowaniem dryfu. W przypadku konwencjonalnych matryc CCD odczyt elektroniczny odbywa się ze stałą szybkością wzdłuż każdej kolumny pikseli, dlatego obrazy powinny poruszać się ze stałą prędkością i po liniach prostych, co wymaga zerowego zniekształcenia pola podczas obserwacji śmieci kosmicznych lub satelitów. Jednakże podczas obserwacji gwiazd za pomocą LMT, który nie jest położony na równiku Ziemi, obrót Ziemi powoduje, że obrazy poruszają się po zakrzywionej ścieżce i z szybkością zależną od deklinacji obiektu. Na szczęście tę zniekształcenie gwiazdowe można usunąć poprzez asymetryczną dystorsję korektora uzyskaną poprzez celowe decentrowanie i pochylanie elementów soczewki korektora. Układ takiej soczewki pokazano na rysunku , gdzie elementy są ustawione pod kątem deklinacji 49°.



W przypadku obserwacji satelitów przywracane jest zerowe zniekształcenie poprzez usunięcie decentracji i pochylenia elementów. Gdyby teleskop został przeniesiony do Obserwatorium Cloudcroft na 31° szerokości geograficznej, zmniejszenie zniekształceń gwiazdowych w tym miejscu można by osiągnąć poprzez odpowiednią zmianę położenia elementów. Zaletą skanowania dryftu jest to, że różnice w czułości detektora piksel po pikselu są zmniejszone, ponieważ odpowiedź jest uśredniana dla wszystkich pikseli CCD w kolumnie. Sterowane teleskopy są czasami używane do skanowania dryfu poprzez śledzenie po wielkim okręgu z szybkością inną niż gwiazdowa i obracanie detektora. W tym przypadku efekty nieliniowe są zminimalizowane bez konieczności stosowania korektora asymetrycznego. Jednakże, ze względu na fizyczny ruch wymagany od kamery, długość toru wielkiego koła jest ograniczona. Obserwacje musiałyby zostać przerwane, gdy pozycja kamery jest ustawiona tak, aby podążała za różnymi torami wielkiego okręgu. Dla porównania LMT, czyli dowolny teleskop zatrzymany w zenicie, może integrować się w sposób ciągły z detektorem stacjonarnym.

Kanadyjska astronomia

Kanada jest duża (pod względem wielkości ustępuje tylko Rosji) i słabo zaludniona (30 milionów). Te fakty, choć banalne, wyjaśniają wiele o kraju, nawet o jego przedsięwzięciach naukowych. Prawie cała astronomia prowadzona w Kanadzie w ciągu wieków eksploracji przed 1900 rokiem była związana z geodezją i pomiarem czasu. Nawet wysiłki Sandforda Fleminga mające na celu wprowadzenie ogólnoświatowych stref czasowych w latach osiemdziesiątych XIX wieku wydają się właściwe w kraju o długości prawie 90° długości geograficznej. Przykładami XX wieku są: identyfikacja przez CS Bealsa dziesiątek starożytnych kraterów meteorytowych w prekambryjskiej tarczy kanadyjskiej, wystrzelenie satelity komunikacyjnego Alouette I w 1962 r. (Kanada była trzecim krajem na świecie, który zbudował satelitę) oraz pionierskie prace w radioastronomia o długiej linii bazowej, dzięki której w 1967 r. połączono dwa kanadyjskie radioteleskopy oddalone od siebie o tysiące kilometrów. Kolejnym banałem dotyczącym życia w Kanadzie jest kulturowa i gospodarcza dominacja jej gigantycznego sąsiada, Stanów Zjednoczonych. Niektórzy z najbardziej znanych amerykańskich astronomów XIX wieku, w tym SIMON NEWCOMB, urodzili się w Kanadzie, ale udali się na południe, do krainy możliwości. "Drenaż mózgów" nadal stanowi problem. W rzeczywistości Rada ds. Nauk Przyrodniczych i Inżynierii (NSERC), wspierana przez rząd agencja przyznająca granty, prowadzi programy zachęcające młodych, zdolnych naukowców do studiowania i pracy w Kanadzie. Na koniec należy uznać, że Kanada jest oficjalnie dwujęzyczna. Oznacza to, że wszystkie usługi federalne są dostępne zarówno w języku francuskim, jak i angielskim. Wyjaśnia także, dlaczego niektóre akronimy, takie jak CASCA (Kanadyjskie Towarzystwo Astronomiczne/Soci'et'e canadienne d'astronomie) odzwierciedlają ten podwójny charakter. W praktyce wśród instytucji, w których wykłada się astronomię, uniwersytety de Montr'eal i Laval w Quebecu działają w języku francuskim, uniwersytety w Moncton w Nowym Brunszwiku i Laurentian w Ontario posługują się obydwoma językami urzędowymi, a pozostałe opierają się na języku angielskim.

Wczesna historia

Niewiele napisano na temat rdzennych tradycji astronomicznych w Kanadzie, z wyjątkiem książki Johna MacDonalda The Arctic Sky, która zgłębia wiedzę Eskimosów z dalekiej północy. To właśnie w Arktyce europejska astronomia po raz pierwszy dotknęła wybrzeży Kanady. Angielscy odkrywcy zamierzający udać się na północny zachód na wschód, spoglądali na Słońce, Księżyc i gwiazdy, aby ustalić swoją szerokość i długość geograficzną. Najlepsze wyniki przedteleskopowe osiągnął Thomas James, który w 1632 roku zimował w zatoce noszącej jego imię. Jednak to misjonarze jezuici z Francji, którzy często spędzili tu większą część swojego życia, tak naprawdę wprowadzili astronomię do Kanady. Oni także zajmowali się położeniem geograficznym i w tym celu obserwowali zaćmienia. Najdokładniejszą z nich była obserwacja zaćmienia Księżyca przeprowadzona 30 stycznia 1646 roku przez księdza Josepha Bressaniego przy użyciu małego teleskopu podczas odległej misji w pobliżu dzisiejszego Midland w Ontario. Misjonarze w Quebecu zanotowali pozycje jasnych komet z lat sześćdziesiątych XVII wieku i mniej więcej w tym samym czasie wraz z kilkoma świeckimi nauczycielami rozpoczęli nauczanie geodezji, nawigacji i hydrografii. Tradycja astronomii praktycznej jako podstawy kartografii była kontynuowana po zajęciu Quebecu przez Brytyjczyków w 1759 r., zarówno w regionie atlantyckim, jak i na rozległe zachodnie terytoria Kompanii Zatoki Hudsona. Naukowo znaczące były tranzyt Wenus w 1761 r., zaobserwowany w Nowej Fundlandii przez Johna Winthropa z Massachusetts oraz tranzyt Wenus w 1769 r. zaobserwowany przez geodetę Samuela Hollanda i jego asystenta w dwóch lokalizacjach w Quebecu oraz w imieniu Towarzystwa Królewskiego przez Williama Walesa w Fort Churchill brzegi Zatoki Hudsona. Za radą Walii firma wyznaczyła swojego pierwszego geodetę, Philipa Turnora, który sporządził mapę dużej części zachodniej Kanady wraz z dwoma młodszymi mężczyznami, Thompsonem i Fidlerem, których uczył procedur astronomii praktycznej, gdy stacjonowali w Cumberland House w Saskatchewan. Wschodnia Kanada stała się bardziej zadomowiona po przybyciu lojalistów z nowo niepodległych Stanów Zjednoczonych. W 1789 roku założyli pierwszą anglojęzyczną instytucję szkolnictwa wyższego w Windsorze w Nowej Szkocji, nadając jej nazwę King&porime;s College. Chociaż kilka innych uniwersytetów powstało na początku XIX wieku, pierwszy, który został wyposażony w obserwatorium i oferował wykłady z astronomii, znajdował się w Fredericton w stanie New Brunswick w latach pięćdziesiątych XIX wieku. Inne wczesne obserwatoria to Obserwatorium w Toronto (pierwotnie obserwatorium magnetyczne, otwarte w 1840 r.), prywatne obserwatorium Charlesa Smallwooda w pobliżu Montrealu, wyposażone w 18-centymetrowy refraktor Fraunhofera pod koniec lat czterdziestych XIX wieku oraz obserwatoria z 15-centymetrowymi refraktorami w Quebecu i Kingston założone w Lata 50. XIX wieku. Do roku 1867, kiedy cztery kolonie utworzyły nowe Dominium Kanady, zaczęło pojawiać się pewne zainteresowanie "czystą" astronomią, chociaż nadal zajmowano się bardzo realnymi potrzebami geodezji i pomiaru czasu. Wielebny Bolduc w seminarium w Quebecu wykładał astronomię i miał do dyspozycji 40-centymetrowy reflektor Foucaulta, a astronomia była częścią programu nauczania na Queen's University w Kingston i King's College w Windsorze w Nowej Szkocji. EH Ashe z Obserwatorium w Quebecu udał się do Iowa, aby zbadać i sfotografować zaćmienie słońca w sierpniu 1869 roku. Smallwood w Montrealu pisał o zjawiskach księżycowych i słonecznych. Wydarzeniem, które ostatecznie miało trwałe znaczenie, było utworzenie w 1868 roku Toronto Astronomical Club przez małą grupę amatorów. W latach osiemdziesiątych XIX wieku jeden z nich obserwował widma Słońca i gwiazd, niektórzy robili zdjęcia Słońca i Księżyca, a jeszcze inni nadal obserwowali i szkicowali cechy powierzchni planet. W 1890 roku przekształcili się w stowarzyszenie i zaczęli publikować transakcje, które były rozprowadzane wśród uniwersytetów i obserwatoriów na całym świecie. Grupa ta przekształciła się w ROYAL ASTRONOMICAL SOCIETY OF CANADA (RASC), którego czasopismo nadal pozostaje jedyną krajową publikacją zawierającą kanadyjskie badania i wiadomości astronomiczne. Jednym z członków tej grupy w latach 90. XIX wieku był młody profesor fizyki na Uniwersytecie w Toronto , C A Chanta, który przewidywał połączenie astronomii na uniwersytecie z fizyką. W.F/ King, który w latach siedemdziesiątych XIX wieku brał udział w badaniu granic równoległych, a w roku 1890 awansował na stanowisko pierwszego "głównego astronoma" Kanady, również przyznał, że badania wykraczają poza tradycyjne pola czasu i pozycji. Tak więc na początku XX wieku założono znaczące obserwatorium rządowe w stolicy kraju, Ottawie, a na Uniwersytecie Toronto. utworzono oddzielny Wydział Astronomii. Chociaż astronomia pozycyjna i geofizyka stanowiły podstawę programu na Uniwersytecie Dominion Observatory (DO), kiedy zostało otwarte w 1905 r., jego głównym instrumentem był 38-centymetrowy refraktor Brasheara, a jego personel przez wiele lat składał się głównie z absolwentów Uniwersytetu.

Rozwój zawodu 1905-1970

Badania astrofizyczne w obserwatorium narodowym były niezwykłe i mogłyby nie zostać przeprowadzone w Ottawie, gdyby w kraju istniały uniwersytety posiadające odpowiednią infrastrukturę. Tak jednak nie było i uznano, że Obserwatorium będzie stanowić bodziec dla nauki w całym Dominium. Jest to rola, jaką rząd nadal odgrywa w kanadyjskiej astronomii, ponieważ wiele mniejszych instytucji nie jest w stanie samodzielnie zapewnić obiektów niezbędnych do nowoczesnych badań. Badania słoneczne i spektroskopia gwiazd były głównymi obszarami badań astrofizyki w DO, ale wkrótce stało się jasne, że zakres 38-centymetrowego instrumentu w niezbyt pożądanym środowisku jest ograniczony. Główny impuls do ulepszenia obiektów wyszedł od J. S. PLASKETTA, który jako dojrzały student ukończył Toronto i dołączył do personelu DO jeszcze przed jego otwarciem. W 1910 roku zdał sobie sprawę, że "nasze wyniki w zakresie obserwacji prędkości radialnych spektroskopowych układów podwójnych prawdopodobnie znacznie się zmniejszą" …. Jedynym lekarstwem jest zwiększenie apertury teleskopu. Jest to hołd złożony jego geniuszowi organizacyjnemu i politycznemu, że pomimo I wojny światowej w kwietniu 1918 roku w pobliżu Victorii w Kolumbii Brytyjskiej otwarto DOMINION ASTROPHYSICAL OBSERVATORY (DAO) wyposażone w reflektor o średnicy 1,8 m. Było to wówczas największy działający Teleskop na świecie od czasu Mount Wilson 2,5 m wciąż przechodził modyfikacje. DAO wciąż się rozwija - w 1961 roku dodano drugi teleskop, 1,2 m ze spektrografem Coud′e, a sprzęt detekcyjny w obu instrumentach jest stale udoskonalany i aktualizowany. Spektroskopia zawsze była podstawą programów DAO, a do najważniejszych osiągnięć zaliczały się prace Plasketta nad rotacją Galaktyki przy użyciu prędkości radialnych gwiazd typu O i B, prace McKellara nad absorpcją międzygwiazdową, kalibracja Petriego wielkości bezwzględnych gwiazd B oraz katalogi Battena dotyczące spektroskopowych orbit podwójnych. Rozpoczęto budowę jeszcze większego teleskopu zwierciadlanego (1,9 m), operacji w 1935 r. dzięki uporowi doktora Chanta na Uniwersytecie Toronto i bardzo hojnej prywatnej darowiznie OBSERWATORIUM DAVID DUNLAP (DDO). Przez wiele lat była to jedyna duża placówka astronomiczna na kanadyjskim uniwersytecie, a Uniwersytet w Torontp był jedynym miejscem w kraju, gdzie aż do lat pięćdziesiątych XX wieku student mógł odbyć specjalistyczne szkolenie z astronomii. Spektroskopia i fotometria były podstawą większości prowadzonych tam badań, przy czym szczególnie zapadają w pamięć trwająca całe życie praca HELEN HOGG nad gwiazdami zmiennymi w gromadach kulistych oraz przekonujące badania Boltona z 1972 roku nad Cygnus X-1 jako czarną dziurą. Po drugiej wojnie światowej narodziła się radioastronomia. W Kanadzie był to odgałęzienie prac radarowych przeprowadzonych przez A.E. Covingtona w KRAJOWEJ RADZIE BADAWCZEJ (NRC). Dostrzegł potencjał niektórych urządzeń do badań Słońca i w 1945 roku rozpoczął program monitorowania Słońca przy długości fali 10,7 cm - program, który trwa do dziś. W latach sześćdziesiątych XX wieku zainaugurowano dwa duże, sterowalne radioteleskopy - jeden o średnicy 45 m w ALGONQUIN RADIO OBSERVATORY (obecnie używany do pomiarów geodezyjnych), a drugi o średnicy 26 m w DOMINION RADIO ASTROPHYSICAL OBSERVATORY (DRAO) w Penticton w Kolumbii Brytyjskiej. Instrumenty te okazały się bardzo wszechstronne w badaniu ośrodka międzygwiazdowego i identyfikowaniu niektórych największych cząsteczek w przestrzeni. Do 1966 roku DRAO zainstalowało także dwa duże układy interferometryczne wykorzystywane do obrazowania dyskretnych źródeł w wysokiej rozdzielczości i mapowania płaszczyzny galaktycznej. Z powodu powojennego wyżu demograficznego i zimnej wojny w przestrzeni kosmicznej, w latach sześćdziesiątych XX wieku nastąpił ogromny wzrost liczby zakładanych uniwersytetów, niektórych z wydziałami astronomii lub ich częściami. W rzeczywistości jedna trzecia wszystkich kanadyjskich uniwersytetów powstała w latach sześćdziesiątych XX wieku. Pierwszy doktorat z astronomii uzyskał w Kanadzie w 1953 roku na Uniwersytecie Torontp, 20 lat później na siedmiu różnych uniwersytetach nagrodzono ich 12. W tym okresie prace doktorskie dotyczyły szerokiego zakresu tematów, ale preferowano strukturę i ewolucję gwiazd, a także prędkości radialne stosowane w badaniach zmiennych wewnętrznych i ruchów kosmicznych gwiazd w Galaktyce.

Najnowsze wydarzenia, stan obecny i plany na przyszłość

W 1970 roku stare Obserwatorium Dominion przestało być przydatne, więc zostało zamknięte, a wszystkie rządowe programy badań astronomicznych przekazano pod egidę NRC. W tamtym czasie oznaczało to, że niektóre programy, takie jak badania meteorów, które były dziełem życia Petera Millmana, były kontynuowane w Ottawie, ale większość astronomii skupiała się w Kolumbii Brytyjskiej w DAO i DRAO. W 1971 roku jeden z wybitnych naukowców pracujących w NRC, GERHARD HERZBERG, zdobył Nagrodę Nobla w dziedzinie chemii za "wkład w wiedzę o strukturze elektronowej i geometrii cząsteczek, zwłaszcza wolnych rodników". W 1975 r. NRC utworzyło INSTYTUT ASTROFIZYKI HERZBERGA (HIA) na jego cześć. Reorganizacja nastąpiła nie tylko w rządzie. Mając do dyspozycji większą społeczność naukową, w 1971 r. utworzono stowarzyszenie zawodowe CASCA, które na swoim pierwszym dorocznym zgromadzeniu liczyło 145 członków. Obecnie liczy 381 członków, z czego 281 znajduje się w Kanadzie. Fakt, że ponad jedna czwarta członków mieszka za granicą, wynika głównie z emigracji. Multi-użytkownikowe zaplecze naukowe i współpraca międzynarodowa stały się jedynym sposobem, w jaki Kanada mogła sobie pozwolić na udział w dużych projektach będących w czołówce bieżących badań. MEGANTIC ASTRONOMICAL OBSERVATORY, otwarte w 1978 roku, jest prowadzone wspólnie przez Université de Montreal i Université Laval. HIA odpowiada za udział Kanady w trzech międzynarodowych przedsięwzięciach - 3,8 mCANADA-FRANCE-HAWAII TELESCOPE (CFHT), który został otwarty w 1979 r. i w którym Kanada ma 42,5% udziałów, a ostatnio także 15-metrowy JAMES CLERK MAXWELL TELESCOPE (25%) na Hawajach i 8-metrowe teleskopy GEMINI OBSERVATORY (14%) na Hawajach i Chile. We wszystkich trzech placówkach HIA zatrudnia na stałe personel, ale przydział czasu jest powszechnie dostępny. Ponadto HIA w dalszym ciągu ponosi odpowiedzialność za dwa kanadyjskie obserwatoria, o których już wspomniano - DRAO, obecnie główny współpracownik Canadian Galactic Plane Survey i DAO, w którym obecnie mieści się Canadian Astronomy Data Center, centrum dystrybucyjne dla danych z Kosmicznego Teleskopu Hubble′a i centrum archiwalnego danych z CFHT. Dwa inne niedawne kanadyjskie projekty angażujące wielu użytkowników to Kanadyjski Instytut Astrofizyki Teoretycznej (CITA) zlokalizowany na Uniwersytecie w Toronto oraz Obserwatorium Neutrino Sudbury (SNO), wspólny projekt kilku kanadyjskich i amerykańskich uniwersytetów. Od 1984 r. cięcia finansowe były na porządku dziennym. W szczególności budżety na naukę i astronomię spadły w tym samym czasie, gdy międzynarodowe przedsięwzięcia kooperacyjne wykorzystywały większą część dostępnych środków. W latach 90-tych granty badawcze zapewniane przez NSERC w dziedzinie kosmosu i astronomii wynosiły zaledwie około 4 milionów dolarów rocznie. Obecnie istnieje około 35 kanadyjskich instytucji szkolnictwa wyższego, w których naucza się astronomii; około połowa tych badań jest prowadzona i oferuje stopnie doktora w astronomii lub dziedzinach pokrewnych. Co roku przyznawanych jest około 20 doktoratów, a najczęstsze tematy to astrofizyka teoretyczna, struktura i ewolucja normalnych galaktyk, gromad galaktyk, kosmologia, materia międzygwiazdowa i środowisko gwiazdowe. Większy udział w pracach teoretycznych, od kosmologii po dynamikę układów planetarnych w ostatnich latach, jest częściowo odzwierciedleniem powołania CITA. Opierając się na wiedzy technicznej, którą Kanadyjczycy już posiadają w takich obszarach, jak projektowanie instrumentów i oprogramowania, w ramach partnerstwa pomiędzy NRC, NSERC i CASCA opracowywany jest dalekosiężny plan dla astronomii w Kanadzie do 2015 roku. W chwili obecnej panel ten rozważa szeroką gamę zagadnień, w tym utrzymanie obecnych programów i obiektów wraz z udziałem w Kosmicznym Teleskopie Nowej Generacji, Atacama Large Millimeter Array i Square Kilometre Array działających na falach cm i dm. Prace nad małym kanadyjskim satelitą do badania mikrozmienności i oscylacji gwiazd (MOST) są również w przygotowaniu, a jego wystrzelenie możliwe jest w 2001 r. Zrównoważenie różnych wymagań i aspiracji jest trudnym zadaniem w środowisku, w którym przyszłe finansowanie badań jest niepewne. Na szczęście obecnie warunki gospodarcze są dobre i wydaje się, że istnieje polityczna świadomość, że przyszłość Kanady w nauce i technologii wymaga większego wsparcia rządu.

Capella

Capella - "Gwiazda Koza" w konstelacji Woźnicy, "Woźnica" - to szósta pod względem jasności gwiazda na niebie i trzecia na półkuli północnej. Jest dobrze znanym spektroskopowym układem podwójnym żółtych olbrzymów, który wydaje się tworzyć układ fizyczny z Capellą HL, odległą parą CZERWONYCH KARŁÓW i jest członkiem rozszerzonej GRUPY RUCHU Hiadów (równej z obszarem jądrowym pobliskiej młodej gromady ). Olbrzymy Capelli są prawie bliźniacze, ale różnią się masą na tyle, aby przypadać na wyraźnie oddzielne fazy ewolucyjne: wtórna to bogata w lit, szybko rotująca gwiazda szczelinowa Hertzsprunga, podczas gdy bardziej zaawansowana pierwotna to zubożona w lit, wolno rotująca "kępka" gigant. Capella jest filarem skali mas gwiazd i od dawna jest stanowiskiem testowym dla technik interferometrycznych i modeli ewolucyjnych. Capella charakteryzuje się znaczną emisją promieniowania rentgenowskiego i dalekiego ultrafioletu - być może jest to przesadna forma aktywności magnetycznej Słońca - co czyni ją popularnym celem wielu obserwatoriów kosmicznych. Pochodzenie znaczących, wysokoenergetycznych zjawisk w tym układzie oraz ciekawe różnice pomiędzy dwoma bardzo dobrze scharakteryzowanymi gigantami typu G w dalszym ciągu wywołują ożywioną debatę w społeczności gwiazd.

Tło

Capella (α Aurigae; HD 34029; BS 1708; Gl 194) to pobliski (d = 12,9 szt.) jasny (V = 0,08) układ wielokrotny gwiazd składający się z pary prawie identycznych żółtych olbrzymów (G8 III (Aa) + G1 III (Ab)) na ciasnej orbicie o małym mimośrodzie 0,7 AU i trwającej 104 dni, okrążanej w dużej odległości (∿104 AU) przez luźniejszy układ podwójny czerwonych karłów 50 AU, około 300 lat (Capella HL; Gl 195; dM2 (H ), dM5 (L)). System podziela ruch kosmiczny gromady otwartej Hiades i O. J. Eggen uznał go za członka Ruchomej Grupy Hyades (lub "Supergromady"). Spektroskopowo określone masy (2,6M dla pierwiastka pierwotnego, 2,5M dla wtórnego) wskazują na wiek ewolucyjny 600 milionów lat, podobny do czasu wyłączenia klastra w jądrze Hiadesa. Główna para żółtych olbrzymów tworzy SPEKTROSKOPOWĄ GWIAZDĘ PODWÓJNĄ o amplitudach prędkości radialnych 26 km s-1 i 27 km s-1 (odpowiednio dla Aa i Ab) oraz prędkości recesyjnej 29 km s>sup>-1. Oddzielenie dwóch olbrzymów o wartości 0,056 zostało łatwo rozwiązane za pomocą różnych technik interferometrycznych, poczynając od pionierskiej pracy Andersona na Mt Wilson w 1919 r., a kończąc na pierwszych prawdziwych mapach przestrzennych w 1995 r. wykonanych przez Cambridge Optical Aperture Teleskop Syntezowy (COAST). Spektroskopowe monitorowanie wahań prędkości radialnej towarzyszy, dokładna fotometria UV-optyczna-IR, interferometryczne pomiary wymiarów orbit, wąskopasmowe rekonstrukcje plamkowe jasności względnych oraz wysoce precyzyjna PARALLAX z Hipparcosa pozwalają na udoskonalenie parametrów gwiazdowych do stopień rzadko spotykany w astronomii gwiazd podwójnych. Fizyczne wymiary gigantów z Capelli i ich orbity porównano na ryc. 2 ze Słońcem, Układem Słonecznym i pobliskim układem podwójnym składającym się z karłów ? Centauri (G2V+ K1 V). &aplha; Cen ma powierzchowne podobieństwa z Capellą, ponieważ jest to układ wielokrotny składający się ze stosunkowo ściśle związanego podwójnego (karły G i K) z odległym, jaśniejszym towarzyszem (w tym przypadku gwiazdą dM Proxima Centauri). Jednakże ? Cen stanowi tylko jedną trzecią całkowitej masy układu Capella.

Zagadkowe spektrum wizualne

Wizualne widmo Capelli zostało zarejestrowane przez licznych obserwatorów pod koniec XIX wieku. W.W. Campbell i niezależnie H. F. Newall odkryli okresowe przesunięcia Dopplera , które wskazywały na podwójną naturę gwiazdy. Ogólne widmo było jednak zagadkowe: linie absorpcji jednego składnika były ostre i wyraźne, podczas gdy linie absorpcji drugiego składnika były ledwo rozpoznawalne. Jednocześnie prace interferometryczne przeprowadzone w latach dwudziestych XX wieku wykazały, że obie gwiazdy miały porównywalną jasność. W latach pięćdziesiątych O Struve i S.M. Kung, a później K.O. Wright, odnieśli sukces w pomiarze widma wtórnego. Wright - który zastosował sprytnie zaprojektowaną technikę mechanicznego odejmowania w celu odizolowania widma wtórnego od kompozytu - opisał widmo wtórne jako "rozproszone", co prowadzi do "zasłonięcia" (lub rozcieńczenia) widma pierwotnego. Wyblakły wygląd widma wtórnego przypisywano wówczas zwiększonym turbulencjom atmosferycznym lub szybkiej rotacji. W latach sześćdziesiątych G. Wallerstein zwrócił uwagę na widmo absorpcji litu - oznakę ewolucyjnej "młodości", całkowicie zdominowanej przez gwiazdę wtórną - i wykazał, że hipoteza szybkiej rotacji jest słuszna. We wczesnych latach siedemdziesiątych A.M. Boesgaard wykrył słabą absorpcję Li I w uzwojeniu pierwotnym, co doprowadziło do scenariusza ewolucyjnego opracowanego przez Ibena . Obie gwiazdy Capelli rozpoczęły swoje życie w górnej ciągu głównym (MS) jako karły z późnego B. Nieco bardziej masywna część pierwotna wyewoluowała z MS jako źródło powłoki wodorowej, wspięła się na gałąź olbrzyma, zapaliła jej rdzeń helowy, a następnie powróciła do podstawy gałęzi czerwonego olbrzyma jako gwiazda spalająca hel z rdzeniem, tracąc lit w wyniku głębokiej konwekcji mieszając po drodze. Faza spalania helu trwa stosunkowo długo, około 20% czasu trwania stwardnienia rozsianego; w ten sposób wyewoluowane gwiazdy mają tendencję do gromadzenia się w tej części diagramów jasności barw, co prowadzi do "skupienia". Tymczasem nieco mniej masywna cząsteczka wtórna dopiero niedawno wyewoluowała z MS i obecnie znajduje się w powłoce wodorowej, spalając "pierwsze przejście". , a etap rozcieńczania litu należy do jego przyszłości. Ponieważ pozioma część trajektorii płonącej powłoki pokonuje bardzo szybko, być może w ciągu zaledwie 0,1% czasu życia MS, na diagramach jasności i koloru widać tam niewiele gwiazd, a obszar ten zaczęto nazywać "przerwą Hertzsprunga". Zatem chociaż olbrzymy z Capelli znajdują się blisko siebie na diagramie Hertzsprunga-Russella (tj. pod względem temperatury powierzchni i jasności), olbrzymy pierwotne pokonały znacznie większą "dystans" ewolucyjną niż olbrzymy wtórne, aby dotrzeć do swojej obecnej pozycji; właściwości pomocnicze, takie jak rotacja, zawartość litu i stosunki izotopowe CNO, mówią prawdę. W latach 80. XX w. F.C. Fekel i współpracownicy uzyskali bardzo precyzyjne prędkości obrotowe obu elementów: vAa sin i = 6 km s?1; vAb sin i = 36 km s?1. Od tego czasu do chwili obecnej wymiary orbity układu Capella są stale udoskonalane za pomocą interferometrii i dalszych udoskonaleń orbity spektroskopowej. Całkiem niedawno nowa paralaksa Hipparcosa dla Capelli daje odległość (12,9 pc.) o około 3% bliższą niż poprzednie szacunki trygonometryczne, co sugeruje jasność o około 6% mniejszą. Promień pierwotnego wynosi 13R; wartość wtórna wynosi 9R⊙. Efektywne temperatury wynoszą odpowiednio 4940 K i 5700 K. Φ = 0,25 (kwadratura, gdy Aa oddala się z maksymalną prędkością, a Ab zbliża się z maksymalną prędkością) i pół cyklu później przy Φ = 0,75 (Aa zbliża się do Ab cofa się).



Widmo widzialne każdego składnika (środkowa krzywa, górne panele) uzyskano poprzez obrotowe wygładzenie śladu słonecznego za pomocą odpowiedniego v sin i; cecha absorpcji w pobliżu 6339 Å jest nierozwiązanym bliskim połączeniem. Pionowa linia przerywana oznacza położenie spoczynkowe środkowej ostrej absorpcji. Dla przejrzystości przyjęto, że widmo pierwotne jest o 10% jaśniejsze niż widmo wtórne przy tej długości fali czerwonej (co odpowiada V ∿ 0,1 mag); widmo wtórne jest zacienione. Zwróć uwagę na wyblakły wygląd tego ostatniego. Kiedy oba widma zostaną połączone w celu uzyskania kompozytu na górze każdego panelu, ostre linie pierwotnego rozmywają się we względnym strumieniu około 2 razy i opadają na falujące tło zapewniane przez rozmazany obrotowo element wtórny. Nic dziwnego, że tak trudno było wyizolować wtórny udział w historycznych, zaszumionych widmach fotograficznych.

Pomiary wysokoenergetyczne

Capella była pierwszą "normalną" gwiazdą pozasłoneczną wykrytą w promieniach rentgenowskich (nieoczekiwanie podczas lotu rakiety sondującej) i jest jasnym źródłem linii emisyjnej w dalekim ultrafiolecie. Wysoka "aktywność" systemu sprawiła, że stał się on popularnym celem obserwatoriów statków kosmicznych, począwszy od programu Copernicus w połowie lat 70. obserwatorium BeppoSAX. We wczesnych pracach Kopernika A.K. Dupree odkrył silnie przesunięte w stronę błękitu wysokie wzbudzenie O VI λ1032 w Capelli w stosunku do oczekiwanej prędkości gwiazdy głównej w konkretnej obserwowanej fazie orbity. Zinterpretowała te przesunięcia jako dowód na masywny wiatr T ∿ 105 K emanujący z gwiazdy głównej. Później, podczas przeglądu całego nieba przeprowadzonego przez HEAO-1, odkryto, że Capella ma podobny wysoki poziom promieniowania rentgenowskiego z krótkotrwałymi (P ∿ kilka dni) zamkniętymi pływowo układami podwójnymi RS Canum Venaticorum i został wyznaczony na długookresowego członka tej klasy. Późniejsze badania T.R. Ayresa i J.L. Linsky′ego przy użyciu spektrometru echelle dalekiego ultrafioletu na pokładzie International Ultraviolet Explorer, rozpoczęte wkrótce po jego wystrzeleniu w 1978 r., nieoczekiwanie odkryły, że szybko rotująca gwiazda wtórna G1 III była odpowiedzialna za praktycznie wszystkie zjawiska o wysokim wzbudzeniu emisje układu (z gatunków takich jak Si IV λ1393 i C IV λ1548, tworzących się w T ∿ 6 × 104-105 K, warunki charakterystyczne dla Słońca podkoronowego REGIONU PRZEJŚCIOWEGO). Wykryto jedynie niewielki udział wolno obracającej się części pierwotnej G8 III. (Z perspektywy czasu wcześniejsze wyniki programu Copernicus dla O VI można zreinterpretować jako lekko przesuniętą ku czerwieni emisję gwiazdy wtórnej w określonej fazie orbitalnej.) Dolne panele rysunku ilustrują wpływ dubletu C IV na podstawie szerokości linii i względnych przesunięć oraz intensywności kontinuum zmierzone w widmach Kosmicznego Teleskopu Hubble′a (instrument GHRS) przez BE Wooda i współpracowników. Pionowa przerywana linia oznacza położenie spoczynkowe C IV λ1548. W przeciwieństwie do obszaru widzialnego, gwiazda wtórna G1 całkowicie dominuje w linii dalekiego ultrafioletu i (słabej) emisji kontinuum, podczas gdy gwiazda pierwotna G8 jest jedynie niewielkim zaburzeniem. Zwróć także uwagę na ogromne szerokości (∿150 kms-1 pełnej szerokości przy połowie intensywności) składników C IV w gwieździe wtórnej (biorąc pod uwagę, że skala prędkości na tym obrazie jest "skompresowana" czterokrotnie w dolnych panelach w porównaniu z widma widzialnego ze względu na krótszą długość fali, ale taki sam odstęp 10 Å). Trudniej dojrzeć na tym odwzorowaniu systematyczne przesunięcia ku czerwieni linii C IV (w obu gwiazdach) w stosunku do prędkości oczekiwanych w każdej fazie orbity. Takie przesunięcia są powszechnie rejestrowane w widmach ultrafioletowych Słońca, na liniach wychodzących ze strefy przejściowej 105 K, i uważa się, że są spowodowane ruchami masowymi materii w złożonym systemie cyrkulacji w koronalnych pętlach magnetycznych. We wczesnych latach 80. szybką rotację uważano za kluczowe ogniwo pomiędzy nadpobudliwością koronalną krótkookresowych RS CVns i długookresowych Capelli. (Synchronizacja pływów w półrozłączonych układach podwójnych RS CVn powoduje, że każda z gwiazd składowych obraca się w okresie orbitalnym, a zatem szybko, ponieważ Porb jest krótki.) W rzeczywistości Capella to "połowa RS CVn", ponieważ tylko jedna z gwiazd gwiazdy obracają się szybko. Związek między szybkim wirowaniem a wzmożoną aktywnością koronalną prawdopodobnie zachodzi poprzez silne powierzchniowe pola magnetyczne, wytwarzane w gwiezdnej powłoce konwekcyjnej w wyniku katalizowanego obrotowo działania "dynama". Dychotomię między szybkościami rotacji dwóch prawie identycznych współczesnych olbrzymów przypisano dużej separacji ewolucyjnej, która może powstać nawet na skutek niewielkiej różnicy mas (jak opisano wcześniej w scenariuszu Ibena). Rzeczywiście, istnieje wyraźny gwałtowny spadek spinów gwiazd tuż za G1 III. Przyczyna epizodu szybkiego hamowania jest obecnie przedmiotem debaty (głównymi pretendentami są ewolucyjna redystrybucja momentu pędu we wnętrzu gwiazdy i utrata pędu przez silny wiatr gwiazdowy), ale nie ma wątpliwości, że wiele ciekawych obiektów ultrafioletowych (i wizualne) właściwości Capelli można zrozumieć, jeśli gwiazda G8 przeszła już fazę gwałtownego hamowania, podczas gdy gwiazda G1 stoi na krawędzi.

Aktualne badania

Ostatnie badania skupiły się na pomiarach w ultrafiolecie Capelli w wysokiej rozdzielczości widmowej w krytycznych fazach orbity, w szczególności na procesach dynamicznych ujawnionych w postaci globalnych przesunięć ku czerwieni linii wysokiej temperatury oraz tajemniczych "szerokich składowych" (rozciągniętych skrzydeł o dużej prędkości na profilach linii emisyjnych ) zidentyfikowane przez B.E. Wooda, które mogą być sygnaturami gwiezdnych analogów słonecznych "zdarzeń wybuchowych w strefie przejściowej". Innym obszarem zainteresowań jest stwierdzenie, że pomimo silnej emisji dalekiego UV, gwiazda wtórna G1 (i inne szybko rotujące olbrzymy z przerwą Hertzsprunga) ma stosunkowo słabą jasność koronalnego promieniowania rentgenowskiego. W rzeczywistości gwiazda G1 ma prawdopodobnie mniej więcej taką samą jasność w promieniowaniu rentgenowskim jak główna gwiazda G8, pomimo 10-krotnej przewagi przy C IV λ1548. Paradoks jest wyraźnie widoczny w pomiarach UV za pomocą HST koronalnej linii zabronionej Fe XXI λ1354, która jest wykrywana w obu gigantach przy mniej więcej równym natężeniu. Sama gwiazda pierwotna należy do odrębnej klasy aktywnych olbrzymów zbitych, której prototypem jest β Ceti (K0 III), do której należą dwa z czterech czerwonych olbrzymów Hiades (ewolucyjni kuzyni gwiazd Capelli). Kolejną ciekawostką Capelli jest to, że pomimo znacznych emisji koronalnych (obu składników) i intensywnych badań prowadzonych przez historyczne i współczesne misje rentgenowskie i ultrafioletowe, istnieje zaskakująco niewiele raportów na temat zmienności i niezwykłego braku BŁYSKÓW. Natomiast dramatyczna zmienność promieniowania rentgenowskiego i aktywność rozbłysków (w tym emisja nietermiczna na częstotliwościach radiowych) są znakami towarowymi klasycznych układów podwójnych RS CVn

Streszczenie

Jako pobliski jasny spektroskopowy układ podwójny żółtych olbrzymów - jeden z nich to rzadka gwiazda szczeliny Hertzsprunga - i podążający za młodą gromadą otwartą Hiades, Capella przyciąga uwagę spektroskopistów od ponad stulecia. Astronomowie testowali techniki interferometryczne na "podwidzialnej" orbicie niemal tak długo. Około 30 lat temu natura nieco tajemniczej gwiazdy wtórnej została odkryta i wyjaśniona w kontekście przekonującego scenariusza ewolucyjnego. Wraz z rozwojem obserwatoriów kosmicznych w połowie lat 70. XX wieku Capella ponownie znalazła się w centrum uwagi astronomów, często zajmując ważne miejsce na liście celów nowej misji. Zainteresowanie układem i jego przesłaniem dotyczącym roli struktury gwiazd w ewolucji koronalnej aktywności magnetycznej nie słabnie do dziś.

Gwiazdy węglowe

Wewnętrzne właściwości gwiazd węglowych


W 1868 roku ANGELO SECCHI S.J. ogłosił, że odkrył czwarty typ widma gwiazd. Jego pierwsze trzy typy, oznaczone cyframi rzymskimi, to gwiazdy z liniami wodorowymi (obecnie gwiazdy A i B), gwiazdy z liniami metalicznymi (obecnie typy F, G i K) oraz gwiazdy z pasmami absorpcji, które zmniejszają się w kierunku dłuższych fal (obecnie typy M i S). Typ IV Secchiego pokazał pasma zmierzające w stronę krótszych fal. Umieszczając łuk węglowy w swoim spektroskopie wizualnym, natychmiast rozpoznał, że nowe pasma wynikają z obecności C2 i innych związków C, o których obecnie wiadomo, że składają się głównie z CN. Fujita uznał, że różnica między pasmami tlenkowymi typu III Secchiego i pasmami C typu IV jest kontrolowana przez chemię bardzo stabilnej cząsteczki CO. Jeśli liczebność O przekracza zawartość C, pozostały O po utworzeniu CO jest dostępny do tworzenia cząsteczek tlenku widocznych w widmach typów Mand i S. Jednakże w gwiazdach z C > O, O jest zużywane w CO, a pozostały C jest dostępny do tworzenia cząsteczek węgla, takich jak C2, CN i CH. Nowoczesny system klasyfikacji gwiazd węglowych został stworzony przez Keenana (1993), który podzielił je na trzy sekwencje C-R, C-N i C-H odpowiadające dawnym klasyfikacjom gwiazd RN i CH. Następnie znajdują się cyfry wskazujące kolejność temperatur, np. od C-N1 do CN9. Pełny opis widm Keenana obejmuje mocne strony pasm C2, CN i Merrill-Sanford, a także stosunek 12C/13C i siłę linii Li. Przydałby się wskaźnik wzmocnienia procesu s, ale trudno go zaobserwować z wyjątkiem wysokich rozdzielczości widmowych. Własną jasność gwiazd węglowych można wyznaczyć albo na podstawie PARALAKS HIPPARCOS, albo na podstawie powiązania gwiazdy węglowej z układem gwiazd, którego odległość została określona. Dodatkowo konieczna jest fotometria od pasma K (2,2 μm). Ograniczając próbkę do gwiazd z paralaksami co najmniej trzykrotnie przekraczającymi ich prawdopodobny błąd i błędami mniejszymi niż 1,5 marcsec, Wallerstein i Knapp (1998) sporządzili listę 33 obiektów. Większość gwiazd jest typu C-N, a reprezentowanych jest tylko kilka gwiazd C-H, C-R i Mira. Jeśli kryteria przyjęcia do próby zostaną obniżone, wpada się w statystyczne bagno, a widoczny rozrzut MV i MK gwałtownie wzrasta. Istnieje wiele gwiazd węglowych w innych galaktykach, takich jak Obłoki Magellana, gdzie przeprowadzono szeroko zakrojone badania. Ponieważ odległości do obłoków są obecnie dość dobrze znane, można obliczyć jasność gwiazd węglowych. Występują wartości MK tak jasne jak -9, podczas gdy wspomniana powyżej próbka gwiazd Hipparcosa zawierała tylko cztery gwiazdy jaśniejsze niż MK = -8 i żadną jaśniejszą niż MK = -8,8. Gwiazdy CR wykazują MK ≃ -5 i MV ≃ +1,0, znacznie słabsze niż gwiazdy C-N. Obliczenie efektywnej temperatury Teff zależy jedynie od pomiaru całkowitego strumienia promieniowania gwiazdy i średnicy kątowej. Tego ostatniego można dokonać albo poprzez zakrycie Księżyca, albo za pomocą interferometrii. Od 1998 r. w ten sposób oszacowano wartości Teff 26 gwiazd C-N. Zakres wartości mieści się w przedziale od 2000 do około 3300 K. Gwiazdy C-R i C-H są znacznie cieplejsze, a wartości Teff mieszczą się w zakresie 4000-5000 K, jak określono na podstawie analizy ich linii widmowych. Masy gwiazd węglowych są znane jedynie na podstawie pośredniego wnioskowania. Modele gwiazd, które prowadzą do karbonizacji atmosfery w wyniku błysków i mieszania powłoki helu, można śledzić w przypadku gwiazd o wielkości około 1-3M. Górna granica może wynosić nawet 5 lub 6 M, ale funkcja masy gwiazd ciągu głównego gwarantuje, że takie obiekty powinny być stosunkowo rzadkie. Spektroskopowe orbity gwiazd C-H wskazują masy bliskie 0,8 M, ale wydaje się, że atmosfery pierwotne C-H uzyskały bogatą w węgiel atmosferę w wyniku przeniesienia od swoich obecnych białych karłów, których pierwotne masy są nieznane, ale prawdopodobnie ograniczały się do liczb sugerowanych powyżej. Jednakże gwiazdy C-H w Wielkim Obłoku Magellana są bardzo jasne, a ich pochodzenie jest niepewne. Ewolucja gwiazd węglowych intryguje astronomów gwiazdowych od około 50 lat; tj. odkąd znaczenie reakcji 3 4He → 12C zostało niezależnie wskazane przez Öpika i Salpetera odpowiednio w latach 1951 i 1952. Do zajścia reakcji potrójnej alfa potrzebne są temperatury powyżej około 108 K, natomiast nadmiar węgla ostatecznie pojawia się w atmosferze gwiazdowej, gdzie temperatura waha się od 2-5 × 103 K. Ponadto należy wziąć pod uwagę szczegółowe wskaźniki liczebności, takie jak 12C/13Cratio i wzmocnienie wielu ciężkich pierwiastków. W gwiazdach o średnicy mniejszej niż około 2,0 M reakcja potrójnej alfa zapala się na końcu gałęzi czerwonego olbrzyma w postaci "błysku rdzenia" (ponieważ początkowo jej szybkość wzrasta wykładniczo), ale powstały hel wytwarzany przez błysk i następujące po nim spokojne spalanie wydaje się być ograniczony do jądra gwiazdowego. W bardziej masywnych gwiazdach pali się spokojnie, tworząc rdzeń C z pewnym rozszerzeniem do 16O, gdy 12C wychwytuje dodatkowe jądro 4He. Ostatecznie gwiazdy o małej masie z rdzeniami C i otoczką helową mogą zapalić swoje ogrzewanie granicy C-He w "błysku powłoki". W wyniku serii zdarzeń obejmujących nagłe mieszanie konwekcyjne 12C reaguje z protonami, tworząc 13C, który z kolei może reagować z jądrami helu, wytwarzając tlen i wolne neutrony. Wychwytywanie wolnych neutronów przez żelazo i inne ciężkie pierwiastki powoduje następnie powstanie wielu ciężkich pierwiastków, od rubidu po ołów ze szczególnie rzucającymi się w oczy pierwiastkami, takimi jak Sr, Y, Zr, Ba i lekkie pierwiastki ziem rzadkich. Nawet niestabilny pierwiastek Tc, którego okres półtrwania wynosi 2 × 105 lat, jest wytwarzany i konwekowany na powierzchnię gwiazdy, gdzie obserwuje się go w niektórych gwiazdach węglowych i wielu gwiazdach typu S. Ile z tego obserwuje się na powierzchniach gwiazd węglowych? Obserwacja gwiazd węglowych przy wysokiej rozdzielczości widmowej od 400 do 2400 nm nie jest trudna. Jednak analiza obserwowanych widm jest niezwykle skomplikowana i niepewna ze względu na ogromną liczbę linii atomowych i pasm molekularnych w widmach gwiazd węglowych. Chociaż pełne analizy są trudne, można z powodzeniem przeprowadzić analizy ograniczone. Na przykład stosunek 12C/13C można dokładnie określić i waha się od około 100 do prawie 4 w gwiazdach węglowych, pokazując w ten sposób niejednorodność historii ewolucji. Większość gwiazd C-N wykazuje stosunki ⊙ powyżej 30, podczas gdy tylko kilka wykazuje stosunki w pobliżu 4. Stosunki C/O wahają się od 1,01 do 1,76 ze średnią 1,15 ± 0,03. Azot prawie nigdy nie ulega wzmocnieniu, nawet w gwiazdach o niskiej temperaturze 12C/13C, co jest zaskakujące. W rzeczywistości suma C+N+O rzadko ulega zwiększeniu w gwiazdach C-N, pomimo konieczności wzmocnienia węgla, aby gwiazda była gwiazdą węglową. Gwiazdy CR są łatwiejsze do analizy ze względu na ich wyższe wartości Teff, od 4200 do 5000 K, ale są rzadkie i niewiele jest jasnych. Wszystkie wykazują zwiększoną zawartość 13C przy stosunku 12C/13C w zakresie od 4 do 9. Zwiększona jest także zawartość azotu, co wskazuje na systematyczne cykle CNO po wzmocnieniu 12C. Żaden z nich nie wykazuje wzmocnień w postaci ciężkich elementów. Przeanalizowano dwie cefeidy z wczesnymi widmami typu R, które wykazały podobne właściwości do niezmiennych gwiazd R. Gwiazdy C-H są najłatwiejsze do analizy, ponieważ są stosunkowo gorące i zasadniczo ubogie w metale, więc stopień wymieszania jest znacznie zmniejszony. Jak wspomniano powyżej, wydaje się, że odziedziczyli atmosferę po swoich nieistniejących już towarzyszach. Ich stosunki 12C/13C są mniejsze niż 8 lub większe niż 25. Niektóre z tej ostatniej grupy mogą wynosić 100 lub więcej. Wszystkie z nich są ubogie w metale od 3 do 50 razy. Węgiel i azot są zwiększone około 10-krotnie, tlen jest normalny, a zatem C+N+O okazuje się zwiększone 2-5-krotnie. Najwyraźniej ich niska początkowa obfitość wszystkiego, od C do Fe, uczyniła ich procesy nukleosyntezy bardziej widocznymi. Największe ulepszenia wykazują elementy procesu s, tj. Sr, Y, Zr, Ba i pierwiastki ziem rzadkich. Źródłem neutronów jest prawdopodobnie reakcja 13C(α n)16O.

Koperty okołogwiazdowe

Oprócz tego, że są same w sobie interesujące z punktu widzenia EWOLUCJI GWIAZD, gwiazdy węglowe są ważne dla ewolucji ośrodka międzygwiazdowego, a tym samym całej Galaktyki. Obserwacje CZERWONYCH GIGANTÓW w bliskiej podczerwieni do 2,2 μm przeprowadzono po raz pierwszy w latach 60. XX wieku i wkrótce ujawniły wiele gwiazd, których promieniowanie powyżej około 1,0 μm znacznie przekracza to, czego oczekiwano od atmosfer modelowych. Wkrótce odkryto, że nadmiar podczerwieni musi być spowodowany stosunkowo chłodnym gazem i pyłem, podczas gdy jego intensywność można zrozumieć tylko wtedy, gdy materia okołogwiazdowa wypełnia objętość znacznie większą niż objętość samej gwiazdy. Wcześniejsze obserwacje niektórych czerwonych olbrzymów i nadolbrzymów wykazały linie widmowe NaI i Ca II. Przesunięcia Dopplera odpowiadające materiom opuszczającym powierzchnię gwiazdy z prędkością do 20 kms-1. W ciągu kolejnych dziesięcioleci obserwacje otoczek okołogwiazdowych rozszerzono na średnią podczerwień (5-30 μm), daleką podczerwień (30-200 μm), submilimetrową (0,2-1,0 mm), milimetrową (1-10 mm) i radiową (10 mm) i dłuższe) obszary widmowe. Wiele instrumentów przyczyniło się do poszerzenia naszej wiedzy o obwiedniach okołogwiazdowych, ale badanie IRAS, a ostatnio satelita ISO, przyczyniły się do znaczących postępów. Pył okołogwiazdowy promieniuje w zakresie fal bliskiej i średniej podczerwieni. Pył pochłania światło gwiazd i w pobliżu gwiazdy nagrzewa się do temperatur w zakresie 1000-100 K, które maleją w większych odległościach. Widma w podczerwieni gwiazd M i C różnią się ze względu na różne właściwości pyłu krzemianowego i związków węgla. Pył węglowy jest nieprzezroczysty w zakresie widzialnym, co znacznie zmniejsza strumień widzialny, podczas gdy krzemiany są częściowo przezroczyste (sadza jest czarna, a szkło przezroczyste). Gaz osiąga równowagę termiczną z pyłem w wyniku zderzeń, podgrzewając gaz. Zapewnia to wystarczające wzbudzenie, aby wiele cząsteczek mogło promieniować na długościach fal odpowiadających przejściom rotacyjnym. Najpowszechniejszą cząsteczką promieniującą jest oczywiście CO, gdzie często wykrywane są przejścia (1-0), (2-1), (3-2) itp. Otoczki wokół gwiazd węglowych stanowią laboratorium chemii organicznej, a nawet nieorganicznej, której nie można zrealizować na Ziemi. W pobliżu gwiazdy wysoka gęstość w połączeniu z temperaturami sięgającymi 1500 K zapewnia równowagę chemiczną, ale w warstwach zewnętrznych należy dokładnie rozważyć szybkość reakcji. Gwiazda IRC+10216 wydaje się wykazywać najbogatszy skład chemiczny z ogromną liczbą związków organicznych, a nawet niektórymi chlorkami i fluorkami pojawiającymi się w wewnętrznej otoczce. Dalsze reakcje fotochemiczne stają się ważne, ponieważ pole promieniowania międzygwiazdowego o energiach fotonów do 10 eV przenika przez otoczkę; obecne są pewne jony, dlatego ważna staje się chemia jonowo-cząstkowa. Badania w podczerwieni, takie jak IRAS, ujawniły, że wszystkie gwiazdy C-N mają nadmiar podczerwieni wskazujący na utratę masy. Gwiazdy C-R i C-H nie wykazują oznak utraty masy. Wskaźniki utraty masy można obliczyć z równania ciągłości: ˙M = 4πr2ρ?(r)V, gdzie gęstość ρ w odległości r należy oszacować z modelu, a V, prędkość ruchomej obwiedni, może można oszacować na podstawie szerokości lub odstępu linii emisyjnych CO w obszarach mm i submm. Utratę masy można łatwo wykryć do 10-7M rok-1, a w kilku przypadkach do prawie 10-8. Na drugim końcu skali obliczono współczynniki utraty masy sięgające 10-5 lub nawet kilkukrotnie 10-5M rok-1-1 delikatnego wiatru pochodzącego od gwiazdy węglowej. Ten tak zwany "superwiatr" może osiągnąć prędkość 1-200 km s-1 i może porwać wcześniej wyrzucony materiał. Wstrząs powstanie w miejscu interakcji wiatrów, powodując znaczne podgrzanie szoku gazu. Ponadto ewoluująca gwiazda będzie się kurczyć, aż jej temperatura osiągnie 1-2 × 105 K. Promieniowanie takiej gwiazdy będzie jonizować otaczający gaz, a powstała konfiguracja utworzy Mgławicę PLANETARNĄ. Stąd końcowe etapy utraty masy gwiazdy węglowej można opisać jako "Śmierć i Przemienienie" - tego tytułu użył G.R. Knapp na konferencji zorganizowanej w 1989 r. z okazji 50-tej rocznicy otwarcia obserwatorium McDonalda.

Misja Cassini/Huygens

Misja Cassini/Huygens to misja planetarna, której celem jest szczegółowe zbadanie układu Saturna. Misja jest wspólnym przedsięwzięciem Narodowej Agencji Aeronautyki i Przestrzeni Kosmicznej Stanów Zjednoczonych (NASA) oraz EUROPEJSKIEJ AGENCJI KOSMICZNEJ (ESA). Został pomyślnie wystrzelony z Cape Canaveral na Florydzie 15 października 1997 r. w ramach trwającej 7 lat podróży międzyplanetarnej. Sonda Cassini/Huygens składa się z głównego statku, Saturn Orbiter i Titan Probe, Huygens. Celem misji jest przeprowadzenie szczegółowych badań planety SATURN, jej pierścieni, satelitów i magnetosfery. TITAN, największy księżyc Saturna, jest głównym celem misji. Nadrzędnym celem misji jest także zbadanie powiązań pomiędzy pierścieniami a satelitami, interakcji pomiędzy plazmą magnetosferyczną a satelitami, pierścieniami i atmosferą Tytana. Cassini będzie badać nie tylko każdą część układu Saturna, ale także system jako całość. Misja prowadzi 26 badań naukowych, w tym 18 badań instrumentalnych i osiem badań interdyscyplinarnych, które będą opierać się na danych uzyskanych za pomocą więcej niż jednego instrumentu. Saturn Orbiter ma na pokładzie 12 instrumentów naukowych, a sześć instrumentów umieszczono w sondzie Huygens. Cassini/Huygens to przedsięwzięcie międzynarodowe. Planowanie misji Cassini/Huygens rozpoczęto w 1984 r., kiedy zainicjowano wspólne badanie ESA-NASA. Aby obie agencje mogły rozpocząć działalność, wymagało to ponad 6 lat intensywnych badań i starannego planowania w 1990, która jest najbardziej ambitną misją na planetę zewnętrzną, jaką dotychczas podjęto. W fazie rozwoju sprzętu zaangażowanych było łącznie 18 krajów. WŁOSKA AGENCJA KOSMICZNA (ASI, Agencia Spatiale Italiana) dostarczyła główne elementy statku Orbiter w ramach programu współpracy dwustronnej nawiązanego z NASA w 1992 r. Antena o dużym wzmocnieniu 4 m jest jednym z elementów dostarczonych przez ASI. Podróż na Saturna trwa 7 lat. Chociaż Cassini/Huygens została wystrzelona przez najpotężniejszą rakietę (Titan IVB/Centaur), jaka istniała w tamtym czasie, statek kosmiczny o masie 5,6 t był zbyt ciężki, aby wynieść go na bezpośrednią trajektorię do Saturna. Ścieżka jego podróży obejmuje kilka spotkań planet, które są wykorzystywane do manewrów wspomaganych grawitacją w celu przyspieszenia statku kosmicznego w kierunku następnej planety. Pierwsze trzy spotkania planet miały miejsce na Wenus 27 kwietnia 1998 r. i 24 czerwca 1999 r. oraz na Ziemi 17 sierpnia 1999 r. Ostatnie spotkanie planet przed Saturnem nastąpi pod koniec grudnia 2000 r. na Jowiszu. Sonda Cassini/Huygens dotrze do Saturna w lipcu 2004 roku. Nominalna misja w układzie Saturna potrwa 4 lata. Sonda Cassini/Huygens zostanie umieszczona na orbicie wokół Saturna 1 lipca 2004 r., kiedy odbędzie się manewr wprowadzenia na orbitę Saturna (SOI). Pięć miesięcy po SOI sonda Huygens zostanie wycelowana i wypuszczona z Orbitera w celu spotkania z Tytanem 3 tygodnie później. Pod koniec listopada 2004 r. Huygens wejdzie w atmosferę Tytana i opadnie na spadochronie przez gęstą, mglistą atmosferę Tytana, aż dotrze na powierzchnię. Po misji Huygens, sonda Cassini Saturn Orbiter podejmie własną misję eksploracji układu Saturna podczas 75 orbit wokół planety. Czterdzieści cztery orbity obejmą bliski przelot Tytana na wysokościach zaledwie 850 km nad powierzchnią, zarówno w celu prowadzenia obserwacji, jak i manewrów wspomaganych grawitacją. Pod koniec misji Tytan będzie rekordzistą jako ciało planetarne najczęściej wykorzystywane do wspomagania manewrów grawitacją. Misja została nazwana na cześć francusko-włoskiego astronoma JEAN-DOMINIQUE CASSINI. W latach 1671-1685 odkrył cztery satelity Saturna oraz dużą szczelinę w pierścieniu (przedział Cassiniego), nazwaną jego imieniem. Sonda została nazwana na cześć holenderskiego astronoma CHRISTIAANA HUYGENSA, który odkrył Tytana w 1655 roku podczas obserwacji pierścieni Saturna. Huygens był także pierwszym, który wyjaśnił prawdziwą naturę pierścieni.

Cele naukowe i ładunek

Misja Cassini/Huygens będzie opierać się na odkryciach dokonanych przez niezwykle udane misje VOYAGER i umożliwi milowy krok w zrozumieniu układu Saturna, powstawania i ewolucji układu planetarnego oraz pochodzenia i ewolucji Układu Słonecznego jako cały. Tytan, największy księżyc Saturna i drugi co do wielkości księżyc w Układzie Słonecznym po Ganimedesie Jowisza, jest specjalnym celem misji. Tytan to unikalny typ obiektu w Układzie Słonecznym. Jest spowita gęstą, bogatą w metan, mglistą, azotową atmosferą. Ciśnienie i temperatura na powierzchni wynoszą 1,5 bara (1,5 razy więcej niż interakcje między pierścieniami a aagnetosferą, jonosferą, atmosferą i satelitami Saturna. W odniesieniu do satelitów lodowych: w celu zbadania składu i rozkładu powierzchni , materiały i zdefiniować mechanizmy modyfikacji skorupy ziemskiej i powierzchni; określić ogólną charakterystykę satelitów, w tym nałożyć ograniczenia na skład masowy i struktury wewnętrzne; badać interakcje z magnetosferą. W odniesieniu do magnetosfery Saturna: określenie konfiguracji pola magnetycznego; określać właściwości, w tym źródła i pochłaniacze cząstek naładowanych magnetosferycznie; zbadać interakcję magnetosfery z wiatrem słonecznym oraz atmosferą i jonosferą Tytana. Ładunki Orbitera i Sondy wymieniono odpowiednio w tabelach 1 i 2, w których podajemy również krótki opis pomiarów, które zostaną wykonane i co będzie badane. Interdyscyplinarne badania, które będą wymagały danych z więcej niż jednego instrumentu, wymieniono w tabeli 3. Poniżej opisano przegląd obserwacji planowanych w układzie Saturna.

Planowane obserwacje

Tytan


Księżyc Tytan jest głównym celem misji Cassini/Huygens. Ze średnicą 5150 km Tytan jest drugim co do wielkości satelitą Układu Słonecznego po Ganimedesie Jowisza (5262 km). Jest większa od planet Merkury (4878 km) i Pluton (2300 km), a Ziemia (3476 km). Tytan ma gęstą, mglistą atmosferę, która przesłania powierzchnię w zakresie widzialnym. Sonda Huygens zmierzy właściwości fizyczne i określi profil składu atmosfery Tytana. Huygens wykona także zdjęcia powierzchni i zmierzy jej skład wzdłuż toru opadania. Rozdzielczość obrazów będzie się poprawiać w miarę zbliżania się sondy do powierzchni. W pobliżu powierzchni powinny być widoczne szczegóły mniejsze niż 1 m, a może nawet mniejsze niż 10 cm. Wysokościomierz radarowy zmierzy powierzchnię topografi poniżej sondy. Zmierzony zostanie również profil wiatru. Orbiter Cassini Saturn i sonda Huygens będą badać Tytana w ramach podejścia uzupełniającego. Za każdym razem, gdy Orbiter przelatuje obok Tytana, wykona zestaw obserwacji teledetekcyjnych atmosfery i powierzchni. Powierzchnia Tytana będzie mapowana za pomocą radarowego urządzenia mapującego Titan znajdującego się na statku Orbiter oraz, być może, instrumentów optycznych, które będą w stanie widzieć powierzchnię przez "okna atmosferyczne" w zakresie 0,8-2 μm. Obserwacje za pomocą Orbitera zostaną zaprojektowane tak, aby zapewnić globalne pokrycie właściwości atmosfery Tytana i powierzchni; obejmą także ponowne obserwacje atmosfery i powierzchni wzdłuż toru lotu sondy.

Planeta Saturn

Cassini zmierzy właściwości fizyczne atmosfery Saturna i określi jej skład na całym świecie w funkcji wysokości. Zbadane zostaną właściwości ciągle zmieniających się chmur i globalna cyrkulacja atmosfery. Szybki obrót planety (10 godz. 12 min) pozwoli nam wielokrotnie badać dobowe zmiany właściwości atmosfery. Ze względu na wyrównanie dipolarnej osi planety z jej osią obrotu, pole magnetyczne Saturna różni się od pola magnetycznego Ziemi, Jowisza, Urana i Neptuna. Głównym tematem badań jest mechanizm generowania pola magnetycznego Saturna (zobacz także SATURN: MAGNETOSFERA). Szczegółowe badanie magnetyzmu Saturna pozwoli nam zbadać wnętrze planety i lepiej ją zrozumieć , jak działa efekt dynama wewnątrz planety Ziemia. Wnętrze planety będzie również badane za pomocą technik pomiaru grawitacji, opartych na precyzyjnym pomiarze trajektorii statku kosmicznego nad planetą. Pozwoli nam to nałożyć ograniczenia na wnętrze planety.

Pierścienie

Słynne pierścienie Saturna będą fotografowane pod wszystkimi kątami fazowymi Słońca i z różnych perspektyw geometrycznych. Obserwowana będzie konfiguracja pierścieni, a skład i procesy dynamiczne odpowiedzialne za strukturę pierścieni zostaną wywnioskowane z obrazów i zakryć w zakresie fal optycznych i radiowych. Uważa się, że pierścienie składają się głównie z cząstek lodu wodnego. Uważa się, że zróżnicowanie składu pierścieni wynika z różnych rodzajów zanieczyszczeń w lodzie. Otrzymany zostanie rozkład wielkości i skład chemiczny cząstek pierścienia. Bezpośrednie pomiary in situ cząstek pyłu i meteoroidów w pierścieniach zostaną wykonane za pomocą analizatora Cosmic Dust Analyzer. Celem Cassini jest także poszukiwanie nowych księżyców w pierścieniach oraz badanie wzajemnych powiązań między pierścieniami a satelitami, w tym satelitami osadzonymi.

Lodowe satelity

Lodowe satelity oferują wiele nowych światów do odkrycia. Saturn ma 18 znanych księżyców. Cassini będzie fotografować i mapować ich powierzchnie podczas podróży orbitalnej. Pozwoli nam to uzyskać skład i rozkład materiału powierzchniowego. Głównym celem misji jest zbadanie historii geologicznej satelitów oraz zbadanie mechanizmów odpowiedzialnych za modyfikację ich powierzchni. Wykrywanie wewnętrznych pól magnetycznych satelitów jest również ważnym celem Cassini, ponieważ Galileo na Jowiszu pokazał, że należy się spodziewać niespodzianek. Pomiary radiowe trajektorii statku kosmicznego podczas przelotu każdego satelity pozwolą nam wywnioskować ich skład masowy i nałożyć ograniczenia na ich wewnętrzne struktury. Cassini będzie szukać materii organicznej na powierzchniach satelitów. Jednym z głównych celów Cassini jest zbadanie związku między lodowymi satelitami a pierścieniami. Poszukiwane będą podobieństwa w składzie między satelitami i pierścieniami. Cassini będzie także poszukiwać i, jeśli zostanie odnaleziona, scharakteryzować słabe atmosfery wokół księżyców Saturna. Chociaż pełne możliwości operacyjne statku kosmicznego Cassini/Huygens i systemu naziemnego będą dostępne dopiero na 2 lata przed przybyciem na Saturna, przeprowadzono pewne badania naukowe i obserwacje podczas przelotu każdej planety (Wenus, Ziemia-Księżyc, Jowisz). W misji Cassini/Huygens uwzględniono konkretny cel naukowy, który będzie wykorzystywał możliwości włączenia w podsystemie telekomunikacyjnym łączy w górę i w dół zarówno w paśmie X, jak i w paśmie Ka. Pozwoli to na wsparcie poszukiwań fal grawitacyjnych. Eksperymenty z falą grawitacyjną będą prowadzone przez okres co najmniej 40 dni; zaplanowano je podczas trzech opozycji po przelocie Jowisza w grudniu 2001 r., grudniu 2002 r. i styczniu 2004 r.

Sonda Cassini/Huygens

Sonda Cassini/Huygens to największy i najbardziej złożony statek kosmiczny z planetą zewnętrzną, jaki kiedykolwiek zbudowano. Jest dwukrotnie większy od statku kosmicznego Galileo, który obecnie bada układ Jowisz; ma 6,8 m wysokości i 4 m szerokości. Jego masa startowa, łącznie z Huygensem, wynosiła 5650 kg. Ponad połowę masy startowej stanowił materiał pędny (3130 kg).

Orbiter Saturna

Orbiter to statek kosmiczny stabilizowany trójosiowo. Korpus główny składa się ze stosu składającego się z dolnego modułu wyposażenia, modułu napędowego, górnego modułu wyposażenia i anteny o dużym wzmocnieniu (HGA). Do tego stosu przymocowana jest paleta teledetekcyjna, na której znajdują się przyrządy do przenoszenia ładunku optycznego, paleta z polami i cząsteczkami, na której znajduje się większość cząstek plazmy i przyrządy pyłowe, oraz sonda Huygens, przymocowana z boku do modułu napędowego. Wyposażenie elektroniczne radaru mocowane jest do górnego modułu wyposażenia. Długa antena elektryczna (pokazana w rozłożonej konfiguracji) oraz anteny magnetyczne Podsystemu Fal Radiowych i Plazmowych (RPWS) są przymocowane do dolnej części górnego modułu sprzętowego. Kanister wysięgnika magnetometru jest przymocowany w górnej części górnego modułu wyposażenia, poniżej HGA. Energię elektryczną zapewniają trzy radioizotopowe generatory termoelektryczne (RTG), które dostarczają ponad 700 W mocy elektrycznej. Magistrala elektroniki statku kosmicznego i kilka podsystemów elektroniki przyrządów są umieszczone w górnym module wyposażenia, który jest regulowany termicznie, aby zapewnić łagodne środowisko (∿10-20 ° C). Będąc w wewnętrznym Układzie Słonecznym, statek kosmiczny leci z HGA skierowanym w stronę Słońca i wykorzystuje go jako osłonę przeciwsłoneczną. Na Saturnie, wykorzystując 20 W nadajnik w paśmie X i 4 m HGA, statek kosmiczny będzie w stanie komunikować się z siecią Deep Space Network NASA z szybkością transmisji danych do 166 kbit s-1. Dwie anteny o niskim wzmocnieniu (LGA) przesyłają dane z małą szybkością (co najmniej 40 bitów s-1) i odbierają polecenia telepolecenia, gdy HGA nie może być skierowany na Ziemię. Do napędu i manewrów w drodze na Saturna i podczas fazy orbitalnej Saturna Orbiter wykorzystuje jeden z dwóch redundantnych silników 445 N i 16 mniejszych silników odrzutowych 0,5 N, połączonych w grupy po cztery w redundantnych parach. Mechanizmy przegubowe głównych silników umożliwiają skierowanie ich ciągu przez środek ciężkości statku kosmicznego. W głównych silnikach wykorzystuje się hipergoliczną mieszaninę paliwa monometylohydrazyny (N2H3CH3) i utleniacza czterotlenku azotu (N2O4) pod ciśnieniem helu. W sterach strumieniowych wykorzystuje się hydrazynę (N2H4). Główne silniki są zakryte chowaną osłoną, gdy nie są używane. Podsystem dowodzenia i danych Orbitera (CDS) odbiera polecenia naziemne za pośrednictwem podsystemu częstotliwości radiowej (RFS). CDS rozdziela polecenia do innych podsystemów, do instrumentu ładunkowego Orbitera lub do sondy (jeśli jest podłączona do Orbitera). Z kolei CDS zbiera dane z innych podsystemów, ładunku Orbitera lub sprzętu pomocniczego sondy zamontowanego na orbicie i przesyła je do jednego z dwóch redundantnych rejestratorów półprzewodnikowych 1,8 Gbit (SSR). CDS następnie pobiera te dane z SSR, formatuje je i dostarcza do RFS w celu przesłania na Ziemię za pośrednictwem HGA lub jednego z dwóch LGA. Dynamiczną kontrolę orientacji Cassini zapewnia podsystem kontroli położenia i artykulacji (AACS). Gdy wymagana jest wysoka stabilność statku kosmicznego, obrót statku kosmicznego jest kontrolowany przez zespoły kół reakcyjnych (RWA). Pędniki stosuje się, gdy wymagane są duże prędkości obrotowe lub przyspieszenia. System AACS wykorzystuje dwie nadmiarowe inercyjne jednostki odniesienia (IRU), dwie nadmiarowe jednostki odniesienia gwiazd (SRU) i zespół czujnika słonecznego (SSA). AACS jest w stanie zapewnić dokładność wskazywania 1 mrad (3,4 minuty łuku) przy stabilności 8 μrad (0,2 sekundy łuku) i szybkościach obrotu 0,02-1° s-1. Kontrola termiczna Orbitera odbywa się na kilka sposobów, z których najbardziej widocznym jest czarno-złota izolacja wielowarstwowa (MLI). Ponadto sterowanie termiczne wykorzystuje żaluzje umieszczone na 12-polowej szynie elektronicznej, grzejniki elektryczne, jednostki grzewcze radioizotopowe (RHU) i grzejniki. Przyrządy na podczerwień (VIMS i CIRS) są izolowane termicznie od szyny statku kosmicznego i zapewniają własną kontrolę termiczną jako integralna część instrumentu.

Sonda Huygensa

Sonda Huygens to sonda wejściowa. Jego masa wynosi 330 kg. Składa się z dwóch głównych elementów: systemu zabezpieczenia wejścia i zawartego w nim modułu zniżania. Sonda jest przymocowana bokiem do orbitera Saturn. Sonda oddziela się od Orbitera z prędkością względną 0,3 m s-1 i szybkością wirowania 7 obr/min-1, co zapewnia stabilność podczas 22-dniowego dotarcia do Tytana oraz podczas wejścia w atmosferę. Podsystem wejściowy składa się z przedniej osłony termicznej o średnicy 2,75 m i tylnej pokrywy, obydwie pokryte materiałem termoizolacyjnym na bazie krzemianów, chroniącym moduł wejściowy przed promieniowaniem i konwekcyjnymi strumieniami ciepła (do 1 MW m-2) generowane w fazie wejścia w zakresie wysokości 350-220 km, gdzie sonda zwalnia od około 6000 m s-1 do 400 m s-1 (1,5 Macha) w czasie krótszym niż 2 minuty. Przy prędkości 1,5 Macha, na wysokości około 170 km, sekwencja otwierania spadochronu jest inicjowana przez urządzenie pirotechniczne, które wyciąga spadochron pilotujący o średnicy 2,59 m w celu odciągnięcia tylnej pokrywy od reszty zespołu. Po chwili tylna pokrywa wyciąga z pojemnika spadochron główny o średnicy 8,3 m. Osłona ta napełnia się w fazie naddźwiękowej, aby wyhamować i ustabilizować sondę w trybie transsonicznym. Przednia osłona zostaje zwolniona z prędkością około 0,6 Macha, 30 sekund po napełnieniu głównego spadochronu. W rzeczywistości wymiary głównego spadochronu zapewniają wystarczające opóźnienie, aby zagwarantować pozytywne oddzielenie przedniej osłony od modułu zniżania.

Przegląd misji Cassini/Huygens

Sonda Cassini/Huygens została wystrzelona 15 października 1997 r. o godzinie 08:43 czasu GMT przez rakietę Titan IVB/Centaur ze stacji sił powietrznych Cape Canaveral na Florydzie. Statek kosmiczny o masie 5,6 t był zbyt ciężki, aby można go było wystrzelić bezpośrednio na trajektorię zbliżania się do Saturna; aby dotrzeć do celu, wymaga kilku planetarnych wzmocnień. Trajektoria międzyplanetarna (rysunek 4) obejmuje asysty grawitacyjne Wenus (26 kwietnia 1998 i 24 czerwca 1999), Ziemi (18 sierpnia 1999) i Jowisza (30 grudnia 2000). Przylot statku kosmicznego Cassini/Huygens do Saturna planowany jest na 1 lipca 2004 r. W tym momencie zostanie wykonany główny manewr, podczas gdy statek kosmiczny przetnie płaszczyznę pierścieni. Główny silnik będzie pracował przez około 90 minut, aby spowolnić statek kosmiczny i umożliwić mu uchwycenie go na orbicie wokół Saturna. Sonda ma zostać wypuszczona z orbitera Saturn pod koniec początkowej orbity wokół Saturna, nominalnie 22 dni przed spotkaniem Tytana. Przed wypuszczeniem sondy Orbiter jest kierowany na trajektorię kolizji z Tytanem, ponieważ sonda nie ma możliwości manewrowania samodzielnie. Krótko po wypuszczeniu sondy Orbiter wykona manewr odchylenia, aby nie wejść w atmosferę Tytana. Manewr ten ustawi także geometrię komunikacji radiowej pomiędzy sondą a orbiterem do wykorzystania podczas opadania sondy. Ustali także wstępne warunki kolejnej podróży satelitarnej, która rozpocznie się po zakończeniu misji Sonda. Wejście Huygensa w atmosferę Tytana planowane jest na 27 listopada 2004 r. Zejście pod spadochronem zajmie maksymalnie 2,5 godziny. Po drodze na dół Huygens zmierzy właściwości fizyczne i chemiczne atmosfery oraz wykona zdjęcia powierzchni pod sondą. Podczas opadania i prawdopodobnie przez krótki czas na powierzchni sonda będzie przesyłać zebrane dane drogą radiową do sondy Cassini Saturn Orbiter, która odbierze je za pośrednictwem HGA skierowanego na Tytana. Orbiter z kolei wyśle dane na Ziemię po zakończeniu misji Huygens, również wykorzystując HGA, a następnie wyceluje w Ziemię. Scenariusz wejścia i zejścia Huygensa przedstawiono na rysunku 5. Po zakończeniu misji sondy Saturn Orbiter rozpocznie trwającą 4 lata podróż po systemie Saturna, tzw. podróż satelitarną. W obecnym scenariuszu misji składa się ona z ponad 70 orbit skupionych wokół Saturna, połączonych przelotami w pobliżu Tytana przy wsparciu grawitacyjnym lub manewrami napędowymi. Rozmiar tych orbit, ich orientacja w stosunku do linii Słońce - Saturn oraz ich nachylenie w stosunku do równika Saturna są podyktowane różnymi wymaganiami naukowymi, które obejmują pokrycie śladów naziemnych Tytana, przeloty lodowych satelitów, zakrycie Saturna, Tytana lub pierścieni, pokrycie magnetosfery , nachylenia orbit i przejścia przez płaszczyznę pierścienia.

Operacje lotnicze

Operacje lotnicze w ramach misji Cassini/Huygens są wykonywane w JET PROPULSION LABORATORY (JPL) w Pasadenie w Kalifornii. Operacje łącza w górę i w dół są realizowane z Centrum Kontroli Misji w JPL. Dane są gromadzone za pośrednictwem sieci kosmicznej NASA i przechowywane na komputerach w JPL, gdzie rutynowo ocenia się stan i status statku kosmicznego. Operacje Cassini/Huygens opierają się na koncepcji operacji rozproszonych. W tej koncepcji zespoły instrumentalne analizują dane ze swoich instrumentów i przygotowują sekwencje operacji na instrumentach ze swoich macierzystych instytutów, a następnie przesyłają je do JPL w celu przesłania. Podczas głównej misji, od początku spotkania z Saturnem do końca misji, zespoły instrumentów Orbiter będą codziennie kontaktować się z zespołem operacyjnym statku kosmicznego w JPL. Operacje lotnicze sondy Huygens Probe są wykonywane z Centrum Operacyjnego ESA w ESOC w Darmstadt w Niemczech, gdzie utworzono Centrum Operacyjne Huygens Probe (HPOC). Wszystkie działania związane z misjami związane z Huygensem (okresowe kontrole podczas lotu i faza misji sondy) są realizowane z HPOC. Dane telemetryczne z Huygens są kierowane do HPOC, gdzie są przetwarzane i przekazywane badaczom z Huygens.

Przelot obok Jowisza

Sonda Cassini pomyślnie przeleciała obok Jowisza podczas wspomaganego grawitacyjnie obrotu w stronę Saturna, a ponadto została wykorzystana do wypróbowania niektórych swoich przyrządów, dokonując ważnych naukowych obserwacji Jowisza i jego księżyców. Obserwacje Cassini przeprowadzono w połączeniu z obserwacjami prowadzonymi przez sondę kosmiczną Galileo, również krążącą wokół Jowisza. Obserwacje wykonane przez obie sondy zostały uzupełnione niemal jednoczesnymi zdjęciami z krążącego wokół Ziemi Kosmicznego Teleskopu Hubble′a i Obserwatorium Rentgenowskiego Chandra. Wykorzystano także naziemne teleskopy radiowe i optyczne. Sonda Galileo znajduje się na orbicie wokół Jowisza od grudnia 1995 r., podczas gdy Cassini obserwował Jowisza od 1 października 2000 r. do 31 marca 2001 r. Najbliższe podejście Cassini miało miejsce 30 grudnia 2000 r., w odległości około 9,7 miliona kilometrów. Dało to Cassini impuls grawitacyjny Jowisza, który przyspieszył statek kosmiczny o około 2 km na godzinę (około 4500 mil na godzinę) i umożliwił mu dotarcie do ostatecznego celu, Saturna, w lipcu 2004 r. w ramach planowanych czteroletnich badań. Większy niż normalnie opór wykryty na jednym z kół reakcyjnych sondy Cassini nie pojawił się ponownie. Koła reakcyjne służą do obracania statku kosmicznego w różnych kierunkach, a problem doprowadził do zawieszenia od 19 do 28 grudnia obserwacji naukowych, które wymagałyby skierowania statku kosmicznego, na przykład w celu robienia zdjęć. Tylko dwa eksperymenty, spektrometr mas jonowych i obojętnych oraz Radio Science, a także sonda Huygens do badania księżyca Saturna, Tytana, nie zebrały danych podczas badań Jowisza. Wyniki obserwacji obejmują ujawnienie nowych danych na temat dynamiki magnetosfery Jowisza, jego pasów radiacyjnych, zórz polarnych i jego interakcji z wiatrem słonecznym.

Kataklizmiczne układy podwójne: klasyczne i nawracające nowe

Łacińskie słowo nova, oznaczające "nowy", było historycznie stosowane do określenia nagłego pojawienia się jasnej gwiazdy, wcześniej nienotowanego. Takie novae stellae pojawiają się we wschodnich zapisach z około 1500 roku p.n.e. oraz w zapisach europejskich z ostatnich trzech stuleci (jednak wiele z nich to starożytne SUPERNOWE). Odkrycie w połowie XIX wieku innego rodzaju nowych, karłowatych, doprowadziło do wykorzystania klasycznej nowej jako pierwotnego typu. Do 1887 roku, kiedy za pomocą fotografii szerokokątnej zaczęto odkrywać słabsze nowe, w epoce postteleskopowej odkryto tylko sześć nowych. Najjaśniejsze z nich to Nova Vulpecula 1670 (maksymalna jasność 2,6), Nova Ophiuchi 1848 (4,2mag) i Nova Cygni 1876 (3,0mag). Obserwacje Nowej Oph po wybuchu wykazały, że po kilku latach jej jasność spadła do 13,5mag, co pokazało, że niezależnie od przyczyny dramatycznej eksplozji nowej, nie zniszczyła ona całkowicie gwiazdy. Uświadomienie sobie, że niektóre nowe erupcje powtarzają się (np. Nova Corona Borealis w 1866 i 1946 r.), podkreśliło fakt, że proces ten ma raczej charakter kataklizmiczny niż katastrofalny. Przy obecnym zrozumieniu przyczyn erupcji uważa się, że wszystkie nowe muszą się powtarzać i że wszystkie rodzaje zmiennych kataklizmicznych muszą regularnie przekształcać się w nowe, ale odstępy między erupcjami są na ogół znacznie dłuższe niż kilka wieków zarejestrowanych historia. W swoim najjaśniejszym miejscu nowe zwykle osiągają wielkość absolutną Mv ∿? -9, co uczyniłoby je łatwo wykrywalnymi w całej naszej Galaktyce, gdyby nowe nie skupiały się w kierunku Płaszczyzny Galaktycznej i Centrum Galaktyki, co powoduje silne międzygwiazdowe wymieranie światła z najbardziej odległych nowe. W rezultacie, chociaż w Galaktyce może wybuchać około 80 nowych gwiazd rocznie, wykrywane są średnio tylko około trzech rocznie. W Obłokach Magellana i Galaktyce Andromedy (M 31) nowe są łatwo odkrywane (maksymalnie przy jasnościach pozornych odpowiednio mv ∿ 10 i ∿?15), a za pomocą dużych teleskopów naziemnych i detektorów CCD nowe można badać nawet w gromadzie w Pannie galaktyk, przy najjaśniejszej jasności mv ∿ 23. Lista nowych, które osiągnęły pozorną jasność 3,0 lub jaśniejszą, podana jest w tabeli 1. W tabeli 1 zastosowano oznaczenia gwiazd zmiennych; na przykład Nova Herculis 1934 jest również znana jako DQ HERCULIS.

Krzywe blasku nowych

Najprostszym pomiarem do wykonania jest zmiana pozornej jasności wizualnej podczas erupcji nowej. Chociaż rzadko zdarza się odkryć nową na długo przed jej maksymalną jasnością, jej wzrost można czasami określić na podstawie przypadkowego pojawienia się nowej na fotograficznych płytach pomiarowych o szerokim polu widzenia. Istnieje szeroki zakres prędkości, z jakimi nowe przechodzą przez okres erupcji, ale wszystkie można w przybliżeniu opisać za pomocą schematycznych krzywych pokazanych na ryc. 1. Początkowy wzrost, zwykle o 6-13 magnitudo, następuje w ciągu jednego lub dwóch dni, często z tymczasowe zatrzymanie trwające od kilku godzin dla szybkich nowych do kilku dni dla wolnych nowych, przed mniej stromym końcowym wzrostem od około ∿ 2 mag do maksimum. Wczesny spadek jest gładki w przypadku wszystkich gwiazd nowych z wyjątkiem najwolniejszych, w których widoczne są nieregularne zmiany. Klasa prędkości nowej jest określona przez tempo, w jakim następuje wczesny spadek. Jest to mierzone jako czas t2 lub t3 potrzebny do spadku odpowiednio o 2 lub 3 wielkości; Począwszy od około 3 mag poniżej maksymalnej jasności wizualnej, aż do spadku o około 2,5 mag, znanego jako obszar przejściowy, nowe wykazują różnorodne zachowania. Niektóre, szczególnie szybsze nowe, nadal płynnie zanikają. Inne przechodzą przez głębokie minimum, sięgające 7-10 mag, trwające od 2 do 3 miesięcy, po czym następuje płynny spadek. Inne wykazują quasi-okresowe zmiany jasności z amplitudą 1-1,5 mag i quasi-okresy zazwyczaj w zakresie 5-25 dni. Końcowy spadek do postnowej jest zwykle gładki, ale w kilku przypadkach wybuchy nowej karłowatej mogą rozpocząć się w późnym okresie schyłku (np. Nova Per 1901, która rozpoczęła wybuchy o mocy 2-3 mag w 1950 r. w odstępach ∿2 lat). Bezwzględne wielkości gwiazdowe nowych przy maksymalnej jasności Mv(max) można znaleźć, jeśli można określić odległości i ekstynkcję międzygwiazdową. Paralaksa ekspansji dla niektórych pojedynczych nowych, uzupełnionych maksymalnymi jasnościami nowych w Obłokach Magellana i M31, pokazują, że istnieje silna korelacja pomiędzy t2 i Mv(max) lub Mpg(max) (dla jasności fotograficznych w niebieskim obszarze), znana jako " zależność bezwzględna wielkość od tempa spadku". Można to wyrazić równaniem Mpg(max) = 3,35 log t2?12,2. Zastosowanie tej zależności daje cenną metodę wyznaczania odległości do układów pozagalaktycznych, w których występują nowe. Inna technika wykorzystuje fakt, że wszystkie nowe, prawie niezależne od klasy prędkości, osiągają Mv ∿ -5,5 15 dni po maksymalnym świetle. Obserwacje satelitarne ultrafioletowych jasności nowych pokazują, że szczyty rozkładów strumieni przesuwają się stale w stronę krótszych fal po maksymalnym świetle. Wczesny spadek jasności wizualnej jest prawie całkowicie spowodowany redystrybucją strumienia w kierunku fal ultrafioletowych. Krzywe blasku gwiazd nowych zachowują się zupełnie inaczej niż krzywe blasku światła widzialnego. Strumień podczerwieni rośnie powoli podczas początkowego spadku i znacznie wzrasta, jeśli w obszarze przejściowym występuje głębokie minimum. Rozkład strumienia składnika IR jest typowy dla emisji ziaren pyłu o temperaturach ∿1000 K i jest interpretowany jako absorpcja promieniowania o krótkich falach, gdy ziarna pyłu rosną w rozszerzającym się i schładzającym gazie wyrzucanym przez eksplozję nowej. W skrajnych przypadkach pył staje się optycznie gruby w świetle widzialnym, powodując głębokie minimum wizualne. Dodanie strumieni światła widzialnego, ultrafioletowego i podczerwonego pokazuje, że wizualna krzywa blasku nowej jest bardzo myląca: całkowita jasność nowej w rzeczywistości pozostaje prawie stała przynajmniej aż do głębokiego obszaru przejściowego. Te "plateau" jasności nowych we wczesnych fazach mieszczą się w zakresie (2-4) × 104 L . Są to mniej więcej jasności Eddingtona dla gwiazd o masie około jednej masy Słońca. Krótkotrwała szczytowa jasność może być jeszcze kilka razy wyższa, szczególnie w przypadku szybkich nowych. Obserwacje te pokazują, że ciśnienie promieniowania jest prawdopodobnie siłą motywującą wyrzucenie gazu podczas wybuchu nowej.

Widma nowych

Po ostatecznym wzroście do maksymalnego światła widmo nowej przypomina widmo nadolbrzyma; klasa widmowa jest wczesnego typu B, przechodząca do późniejszego typu i osiągająca maksymalnie około A5. Linie są bardzo szerokie i występuje krótkie przesunięcie Dopplera długości fal; zarówno przesunięcia, jak i szerokości wynoszą (1-2) × 103 km s-1, co wskazuje na szybko rozszerzającą się optycznie grubą powłokę. Często widać profile linii P Cygni, ponownie wskazujące na rozszerzającą się muszlę. Po maksymalnym oświetleniu zmiany w widmie są dość złożone i wskazują na kilka rozszerzających się obwiedni z różnymi prędkościami. Podczas początkowego spadku rozwija się zestaw linii absorpcyjnych przypominających nadolbrzyma typu A lub F, z przesunięciem ku błękitu większym niż widmo przedmaksymalne. Nazywa się to widmem głównym; jej przemieszczenie prędkości jest silnie skorelowane z klasą prędkości, z prędkościami dochodzącymi do 4000 km s-1 dla bardzo szybkich nowych i zaledwie 100 km s-1 dla najwolniejszych. Linie absorpcyjne często wykazują zróżnicowaną strukturę, co wskazuje na obecność wielu podpowłok lub bąbli gazu w rozszerzającej się powłoce. Wkrótce po maksymalnym świetle najsilniejsze linie rozwijają profile P Cyg i pojawia się duża liczba linii emisyjnych, głównie H, Ca II, Na I i Fe II w świetle widzialnym. Później widmo główne (identyfikowane przez przesunięcie prędkości) słabnie i pojawiają się zabronione linie [O I], [O II] i [N II] - są one charakterystyczne dla gazu o małych gęstościach. Inny wyraźny zestaw linii absorpcyjnych - widmo wzmocnione rozproszone - pojawia się wkrótce po tym, jak widmo główne stało się jasne, ale przesunięte w kierunku błękitu około dwukrotnie większe niż to drugie. Jeszcze inny układ - widmo Oriona - pojawia się o jedną do dwóch magnitudo w dół od maksimum i charakteryzuje się pojedynczymi składnikami, przesuniętymi w kierunku niebieskim przynajmniej w takim samym stopniu jak rozproszony system wzmocniony. Na późnym etapie erupcji nowej rozwija się widmo mgławicowe, początkowo jedynie wzmacniając zabronione linie emisyjne widma głównego, ale ostatecznie pojawiając się [O III], [Ne III], nadając widmu nowej wygląd podobny do mgławicy planetarnej. W nowych najwyższych energiach obserwuje się sukcesywnie wyższe stopnie jonizacji, aż do jonów typowych dla warunków koronalnych: m.in. linie z [Fe X] i [Fe XIV]. Ewolucję widma nowej rozumie się ogólnie jako generowaną przez rozszerzającą się, niejednorodną powłokę, zjonizowaną przez intensywne źródło wysokoenergetycznego promieniowania (temperatura 105-106 K) w jej środku. Ta ostatnia musi być gwiazdą centralną, ogrzaną przez eksplozję. Widma nowych można wykorzystać do określenia warunków fizycznych i składu chemicznego rozszerzającej się powłoki. Nowe zazwyczaj wykazują obfitość C, N, O, Ne, Mg i niektórych cięższych pierwiastków, znacznie zwiększoną w porównaniu ze Słońcem i innymi normalnymi gwiazdami. Względne liczebności różnią się w zależności od nowych; typowe ulepszenia to współczynniki od 10 do 100. Stosunek helu do wodoru jest również często inny niż w Słońcu i jest wyższy aż o współczynnik 1,5 lub niższy aż o współczynnik 5. Większa obfitość węgiel prawdopodobnie pomaga w tworzeniu się zasłaniającego pyłu w niektórych powłokach nowych. Wiele nowych wykazuje znacznie zwiększoną liczebność neonów - wystarczającą do zdefiniowania klasy nowych neonowych. Większość nowych neonowych jest szybkich lub bardzo szybkich, ale przynajmniej jedna (Nova Ophiuichi 1988) była nową wolną.

Powłoki Nova

Dowody na wyrzucenie powłoki pochodzą nie tylko z wykrytej spektroskopowo ekspansji, ale także z bezpośredniego obrazowania. Kosmiczny Teleskop Hubble′a był w stanie rozróżnić powłokę Nova Cygni 1992 467 dni po erupcji, gdy promień kątowy powłoki wynosił zaledwie 0,13. Emisja radiowa z powłok nowych (w zakresie częstotliwości 2-100 GHz) umożliwia interferometrię o bardzo długiej linii bazowej (VLBI), również w celu obrazowania powłok z rozdzielczością kątową sięgającą 0,1. Ostatecznie, przynajmniej w przypadku stosunkowo pobliskich gwiazd nowych, powłoka może rozszerzyć się na tyle, że będzie można ją zobaczyć bezpośrednio na zdjęciach wykonanych z ziemi. Ryc. 2 przedstawia obecny wygląd Nova Persei 1901; niejednorodną strukturę potwierdzają takie obrazy. Wiele pocisków nowych (np. Nova Herculis 1934) ma bardziej regularne kontury, często eliptyczne, co pokazuje, że średnie prędkości wyrzutów zmieniają się systematycznie w zależności od kierunku. Jest to zgodne z niektórymi analizami spektroskopowymi, które wykrywają pasma "równikowe" i pióropusze "polarne" wyrzucane z różną szybkością. Szybkość kątową rozszerzania mierzoną bezpośrednio za pomocą VLBI lub na podstawie obserwowanego promienia powłoki zmierzonego na zdjęciach wykonanych w znanym czasie (dziesiątki lat) po erupcji nowej można połączyć z spektroskopową prędkością rozszerzania, aby określić odległość nowej. Z prostej geometrii, paralaksy rozszerzania lub jej odwrotności, odległość d w parsekach jest dana wzorem d = 0,20v/(dθ/dt) pc, gdzie v to prędkość rozszerzania w km s-1, a dθ/dt to prędkość szybkość wzrostu promienia kątowego, mierzona w sekundach łukowych na rok. Z tej zależności widzimy, że nowa w odległości 1 kpc i prędkości ekspansji 1000 km s-1 powinna ukazać powłokę o promieniu ∿ 20 lat po erupcji. Jednakże wraz z ochłodzeniem gwiazdy centralnej, ekspansją od tego centralnego ekscytującego źródła i spadkiem jasności powierzchni w miarę zwiększania się obszaru powłoki, większości powłok nowych w rzeczywistości nie można sfotografować na niebie. Analiza widm powłok nowych może dostarczyć szacunków gęstości elektronów i jonów w obszarach, w których powstają linie emisyjne. Jeśli znana jest całkowita objętość skorupy, może to dać całkowitą masę skorupy. Jednakże niejednorodność powłoki prowadzi do znacznej niepewności co do tego, jaka część pozornej objętości jest faktycznie wypełniona gorącym gazem. Masy otrzymane spektroskopowo mieszczą się w przedziale (1-30) × 10-5M⊙ . Prawdopodobnie bardziej wiarygodne określenie uzyskuje się na podstawie emisji radiowej w czasie, gdy powłoka stała się optycznie cienka na falach radiowych. Następnie cały materiał powłoki uczestniczy w emisji radiowej, która powstaje w wyniku emisji termicznej (wolnej) w zjonizowanej powłoce. Wyznaczone w ten sposób masy pocisków mieszczą się w przedziale (5-40) × 10-5M . Te wyrzucone masy są zgodne z wcześniejszym stwierdzeniem, że erupcje nowej mogą wystąpić wiele razy w życiu kataklizmicznej gwiazdy z miennej: jeśli eksplodująca gwiazda ma masę ∿1M, może przejść setki lub tysiące erupcji, zanim znacząco uszczupli swoją masę. Zanim opuścimy powłoki nowe, należy wspomnieć o jeszcze jednym efekcie, który można bezpośrednio sfotografować. Przez osiem miesięcy po erupcji Nowej Persei 1901 obserwowano mgliste plamy, najwyraźniej oddalające się od nowej z szybkością około 20 minut łuku rocznie. W odległości tej nowej prędkość kątowa odpowiada prędkości liniowej porównywalnej z prędkością światła. Stwierdzono zatem, że rozbłysk światła spowodowany eksplozją nowej oświetlał międzygwiazdową warstwę pyłu w pobliżu nowej. Takie zjawisko znane jest jako echo świetlne, ale zaobserwowano je tylko w przypadku dwóch gwiazd nowych.

Fizyka erupcji nowych

Podobnie jak w przypadku wszystkich zmiennych kataklizmicznych, nowe są ZBLIŻONYMI GWIAZDAMI PODWÓJNYMI, w których masa jest przenoszona z gwiazdy o normalnych wymiarach (tj. gwiazdy ciągu głównego lub rzadziej olbrzyma), zwanej gwiazdą wtórną, na gwiazdę pierwotną WHITEDWARF. W chwili powstania biały karzeł nie miał w swoim wnętrzu wodoru, który w zależności od masy zawierał hel lub węgiel, tlen lub neon i magnez. To ciągła akumulacja gazu bogatego w wodór na powierzchni białego karła prowadzi do eksplozji, którą rozpoznajemy jako erupcję nowej. Oprócz zewnętrznej warstwy o grubości około 10-4M⊙, wnętrze białego karła jest zdegenerowane. Zasadnicza fizyka wybuchu nowej zawarta jest w porównaniu równania stanu materii zdegenerowanej, P αρ?, z tym dla gazu doskonałego, P αρ?T, gdzie P, &rh i T to odpowiednio ciśnienie, gęstość i temperatura gazu, a γ jest stałą. Załóżmy, że obszar gazu zostaje lekko podgrzany, następnie ciśnienie w gazie doskonałym wzrasta i gaz może się rozszerzać, pochłaniając w ten sposób ciepło. Jednak ciśnienie w zdegenerowanym gazie jest niezależne od temperatury, więc nie zachodzą żadne zmiany mechaniczne. Jeśli jednak temperatura wystarczająco wzrośnie, zostanie osiągnięta temperatura Fermiego, powyżej której gaz przestaje ulegać degeneracji - staje się gazem doskonałym, a jego ciśnienie gwałtownie wzrasta, aby dopasować się do gęstości i temperatury wymaganej przez zmianę równania stanu. Nagromadzenie wodoru na powierzchni białego karła tworzy warstwę, której podstawa staje się gorętsza i gęstsza w miarę ściskania i wypychania głębiej w kierunku gorącego wnętrza. Rozpoczynają się reakcje jądrowe (najpierw łańcuch proton-proton, później cykl CNO), które podgrzewają gaz. Masa Menv warstwy wierzchniej, wystarczająca do wywołania reakcji jądrowych u jej podstawy, zależy dość wrażliwie od masy białego karła: maleje od -1 × 10-4M przy 0,6M do ∿8 × 10-7M przy 1,4M . Ta warstwa podstawna leży w obszarze częściowej degeneracji, więc ogrzewanie spowodowane reakcjami jądrowymi zwiększa temperaturę bez rozszerzania warstwy. Podwyższona temperatura zwiększa tempo wytwarzania energii i następuje ucieczka termojądrowa (jak w bombie wodorowej), aż do osiągnięcia temperatury Fermiego, a następnie cała zewnętrzna warstwa zostanie wyrzucona w przestrzeń kosmiczną. W Mwielu przypadkach niewielka część zewnętrznego obszaru zdegenerowanego rdzenia może zostać porwana podczas eksplozji, tworząc nadmiary C, O, Mg i Ne, które są widoczne w niektórych nowych. Inną przyczyną wyjątkowych obfitości C, N lub O jest to, że eksplozja jest tak szybka, że cykl CNO nie osiąga równowagi, która wytworzyła obfitość tych pierwiastków obecnych w normalnych gwiazdach. Jeśli prędkość przenoszenia masy z gwiazdy towarzyszącej na białego karła wynosi dM/dt, wówczas czas pomiędzy erupcjami będzie równy Menv podzielony przez dM/dt. Szacuje się, że średnie szybkości przenoszenia masy w zmiennych kataklizmicznych wynoszą ∿5 × 10-9M rok-1, zatem wartości Menv podane powyżej implikują przedziały ∿2x1046 K; biały karzeł o wielkości 1,25 M⊙ ostygnie następnie do 50 000 K w ciągu około 300 lat. Pochodzenie quasi-okresowych oscylacji występujących w niektórych nowych podczas obszaru przejściowego nie jest pewne; mogą to być promieniowe pulsacje otoczki otaczającej centralną gwiazdę podwójną.

Nowe nawracające

Obecnie wiadomo, że tylko osiem nowych jest rekurencyjnych (kilka innych gwiazd uważano kiedyś za należące do tej klasy, ale okazały się albo nowymi karłowatymi o dużej amplitudzie i długim odstępie czasu, albo nowymi, które później miały wybuchy nowych karłowatych). Jedna z nich znajduje się w Wielkim Obłoku Magellana. Istnieją trzy podklasy nowych nawracających. Pierwsza, obejmująca T CrB, RS Oph, V3890 Sgr i V745 Sco, wszystkie mają gigantyczne cząstki wtórne typu widmowego M, a zatem okresy orbitalne dłuższe niż 100 dni (gigant M nie zmieściłby się w układzie podwójnym o krótszym okresie). Biorąc pod uwagę krótkotrwałość erupcji, możliwe jest, że niektóre z ich erupcji w tym stuleciu zostały przeoczone. Gwiazdy T CrB podlegają zależności Mv(max)-t2. Ich krótkie czasy powtarzania są częściowo spowodowane dużą szybkością, z jaką olbrzymi towarzysze przekazują masę swoim towarzyszom - białym karłom, szybko gromadząc w ten sposób masę krytyczną Menv, która prowadzi do eksplozji. Druga klasa nowych powracających to ta typowana przez U Sco i obejmująca V394 CrA i LMC-RN. Należą do najszybszych znanych nowych; podlegają one także zależności Mv(max)-t2. Ponownie, niektóre z ich erupcji mogły zostać przeoczone ze względu na ich krótkotrwałość. Opadające części ich krzywych blasku różnią się w zależności od erupcji. Wszystkie mają okresy orbitalne około 1 dnia. W ich widmach dominują linie helu w fazie ponowej. Ostatnia gwiazda, T Pyx, jest wyjątkowa. Wzrasta powoli do maksimum, początkowy wzrost zajmuje około 7 dni i kolejne 20 do 30 dni do maksimum, po czym następuje powolny spadek. Jego odległość jest bardzo niepewna, dlatego nie wiadomo, czy spełnia zależność Mv(max)-t2. Zdjęcia przedstawiają podwójną powłokę, być może wyrzut z erupcji z 1944 i 1966 roku. Podejrzewa się, że w stanie spoczynku T Pyx może stale spalać część wodoru w wyniku reakcji jądrowych zachodzących w jego powłoce.

Symbiotyczne gwiazdy

Wśród GWIAZD SYMBIOTYCZNYCH jest kilkanaście takich, które są klasyfikowane jako nowe symbiotyczne. Są one powiązane z nowymi powracającymi typu T CrB: prawdopodobnie wszystkie mają długie okresy orbitalne (znane trwają od 200 do 1000 dni), a niektóre miały więcej niż jedną erupcję. Jednakże wzrost do maksimum jest bardzo powolny, w przedziale od 2 miesięcy do 16 lat, a czas trwania erupcji jest bardzo długi - od lat do ponad stu lat. Obecnie uważa się, że erupcje nowych symbiotycznych są wynikiem ucieczek termojądrowych na głównych białych karłach o mniejszej masie niż w typie T CrB.

Novae przy minimalnym oświetleniu

Podczas długich przerw między erupcjami oraz po całkowitym odzyskaniu sił po ostatnich erupcjach, nowe spędzają przynajmniej część swojego czasu jako niewybuchające, stosunkowo niepozorne obiekty gwiezdne. Dobrym przykładem jest DQ Herculis, który nie zwrócił na siebie uwagi przed erupcją w 1934 r. i który pozostawał stosunkowo niezbadany w swoim stanie po wybuchu nowej przez 20 lat, zanim M.F. Walker odkrył, że jest to układ podwójny zaćmieniowy z okresem orbitalnym wynoszącym 4 godziny 39 minut Była to pierwsza kataklizmiczna gwiazda zmienna, którą uznano za krótkookresowy układ podwójny, chociaż UX UMa i AE Aqr były wcześniej znane jako spektroskopowe układy podwójne, ale dopiero retrospektywnie sklasyfikowano je jako zmienne podobne do nowych. Większość nowych ostatecznie powraca do stanu sprzed nowych ,jasność (jak stwierdzono na archiwalnych kliszach fotograficznych) i stają się nie do odróżnienia od zmiennych podobnych do nowej. W przypadku najjaśniejszych nowych jasność w stanie spoczynku jest dość jasna. Oznacza to, że obecnie znane nowe podobne prawdopodobnie obejmują nowe, które wybuchły niezauważone w ubiegłych stuleciach - a także, że niektóre z nowych podobnych są "pre-nowymi" w tym sensie, że staną się nowymi w przyszłości. Jak wspomniano wcześniej, niektóre nowe przechodzą przez fazę nowych karłowatych podczas upadku po nowej. Kilka nowych (Nova Her 1960, Nova Sgr 1919 i powtarzająca się Nova Sgr 1962) wykazały wybuchy nowych karłowatych przed erupcją; pierwsze dwa z nich ponownie rozpoczęły wybuchy w fazach postnowych. Istnieją dowody na to, że przynajmniej niektóre nowe blakną do bardzo słabych jasności (co oznacza duże zmniejszenie przenoszenia masy z ich gwiazd wtórnych) setki lat po ich erupcji. Przykładem jest Nova Vul 1670 , ale bardziej znaczące jest to, że żadna z nowych zarejestrowanych gołym okiem w zapisach wschodnich (a które, jak się spodziewano, miałaby pozorną jasność po nowej w zakresie 10-14) nie została odkryta w nowoczesne ankiety dotyczące obiektów typu nova. Przyczyną niskiego stanu może być to, że nagrzewanie gwiazdy wtórnej przez promieniowanie gorącego białego karła po wybuchu nowej powoduje nadmierny transfer masy, a gwiazda wtórna później dostosowuje się do nieco mniejszego promienia, ograniczając przenoszenie masy przez wiele stuleci, co utrzymuje długoterminowa średnia szybkość transferu określona przez ewolucję orbity. Z istnienia opisanej powyżej zależności Mv(max)-t2 i gdyby wszystkie pozostałości nowych miały co najmniej tę samą jasność absolutną Mv(min), można by oczekiwać, że zakres Mv = Mv(min)-Mv(max ) byłoby dobrze skorelowane z tempem spadku, t2. (Zauważ, że zakres wielkości pozornej mv = mv(min) - mv(max) = Mv i jest niezależny od ekstynkcji międzygwiazdowej, ponieważ ekstynkcja ma zastosowanie zarówno do mv(min), jak i mv(max).) Rzeczywiście tak jest, ale istnieje duży rozrzut zależności, który wynika z dominacji dysku akrecyjnego przy minimalnym świetle. W momencie maksimum erupcji nowa miałaby mniej więcej taką samą jasność, niezależnie od kierunku, z którego jest obserwowana. Minimalna jasność zależy jednak bardzo silnie od nachylenia orbity podwójnej: jeśli system jest widziany przy niskim nachyleniu, tj. Dysk widziany jest prawie twarzą w twarz, jest stosunkowo jasny. Jednakże, widziany pod dużym nachyleniem, krążek jest skierowany krawędzią i dość słaby. Rezultatem jest niezwykle duża wartość mv jak na układy zaćmieniowe takie jak DQ Herculis. Średnia Mv(min) dla nowych w stanie spoczynku wynosi około +4, ale zakres wynosi 2 Mv(min) 9, co jest skorelowane z nachyleniem orbity. Rzadkie wyjątki od tego zakresu minimalnej wielkości mogą wystąpić, jeśli główny biały karzeł ma silne pole magnetyczne, zapobiegające tworzeniu się dysku akrecyjnego. Przykładem jest V1500 Cyg, która wybuchła od minimalnej wielkości słabszej niż 21 magnitudo.

Zmienne kataklizmiczne: układy magnetyczne

Zmienne kataklizmiczne (CV) to ZAMKNIĘTE GWIAZDY PODWÓJNE, których najbardziej masywnym składnikiem jest BIAŁY KARZEŁ (WD), a towarzyszem jest zwykle bardziej normalna gwiazda - zwykle gwiazda ciągu głównego, ale czasami olbrzym. Większość CV stale przenosi masę z towarzysza na WD poprzez DYSK AKRECJI otaczający WD, ale podobnie jak około 5% izolowanych WD ma wykrywalne polal magnetyczne, podobnie jak około 25% WD występujących w CV. Jeśli pole magnetyczne jest silne (większe niż około 10 MG = 10×106 G), zapobiega to tworzeniu się dysku akrecyjnego, w wyniku czego gaz opuszczający towarzysza jest kierowany magnetycznie bezpośrednio na powierzchnię WD. Sam WD obraca się wokół własnej osi z taką samą szybkością, jak obrót układu podwójnego - jest połączony z układem wtórnym poprzez interakcję ich pól magnetycznych. Prototypem tego rodzaju obiektu jest AM HERCULIS, co prowadzi do określenia tej klasy jako gwiazd AM Her, lub (ponieważ opadający gaz wypromieniowuje swoją energię w silnym polu magnetycznym WD i promieniowanie to jest zatem emisją cyklotronową, która jest silnie spolaryzowane), jako polarne. Najsilniejsze pole, jakie dotychczas zmierzono na biegunie polarnym, wynosi 230 MG w AR UMa; Sama AM Her ma jedno z najniższych pól polarnych, 14 MG. Jeśli WD ma słabsze pole magnetyczne (poniżej kilku milionów gausów), jego interakcja z (wewnętrznym lub indukowanym) polem towarzysza jest niewystarczająca, aby wymusić współrotację, w wyniku czego WD ma inny, zwykle znacznie krótszy , okres rotacji niż okres binarny. Co więcej, pole może jedynie zapobiegać tworzeniu się dysku całkiem blisko WD, w wyniku czego dysk akrecyjny rzeczywiście się tworzy, ale brakuje jego środkowej części - gdzie gęstość energii w polu jest większa niż gęstość energii kinetycznego napływu gazu i dlatego może określić przepływ akrecji. Prototypem tego typu obiektu jest DQ HERCULIS. Grupa jako całość jest zwykle nazywana biegunami pośrednimi (IP) (będącymi pośrednimi między silnie magnetycznymi i niemagnetycznymi), przy czym gwiazdy DQ Her najlepiej trzymać jako opis podzbioru najszybciej rotujących cząstek podstawowych WD (np. sama DQ Her z okres rotacji 71 s) - chociaż niektórzy autorzy używają gwiazd DQ Her jako ogólnego typu. Większość adresów IP ma prawybory zmieniające się z okresami kilkudziesięciu minut. Promieniowanie spolaryzowane, modulowane w okresie wirowania WD, wykryto tylko w trzech IP, prawdopodobnie tych o najsilniejszych polach. Ze względu na dużą ilość niespolaryzowanego promieniowania z (skróconego) dysku akrecyjnego, promieniowanie spolaryzowane w IP jest bardzo osłabione; co więcej, słabsze pola powodują, że emisja cyklotronu osiąga szczyt w podczerwieni, gdzie jest trudniejsza do wykrycia. Proces akrecji materii na WD przenosi również moment pędu. Wynik nie jest jednak jednoznaczny - na WD działa nie tylko moment materialny, powstały w wyniku bezpośredniego (ale nie promieniowego) oddziaływania gazu, ale istnieją również momenty wynikające z oddziaływania linii pola magnetycznego łączących WD z dysk akrecyjny, którego część obraca się szybciej niż WD, a część wolniej. Momenty te mogą się równoważyć, w wyniku czego okres obrotu WD osiąga stan równowagi. Jednak ogólnie rzecz biorąc, stwierdza się, że w niektórych przypadkach szybkości rotacji rosną, a w innych maleją - zazwyczaj tylko kilka sekund na stulecie - w miarę poszukiwania równowagi. Natężenie pola magnetycznego w izolowanych WD sięga do aktualnej granicy wykrywalności - około 50 000 G, więc można się spodziewać, że to samo będzie dotyczyć WD w CV. Takie pola są zbyt słabe, aby wykryć je bezpośrednio w CV (tj. za pomocą EFEKTU ZEEMANA lub poprzez obecność polaryzacji), ale istnieją pośrednie dowody na obecność takich słabych pól w niektórych CV poprzez pojawienie się oscylacji nowych karłowatych (DNO) podczas wybuch niektórych nowych karłowatych (znanych również jako U GEM STARS) i sporadycznie w niektórych zmiennych podobnych do nowych (które raczej przypominają nowe karłowate utknięte na stałe w wybuchu). DNO to okresowe zmiany jasności z okresami zwykle w zakresie 5-40 s i obecnie są interpretowane jako magnetyczne kanałowanie akrecyjnego gazu w samym wewnętrznym obszarze dysku akrecyjnego, tuż nad powierzchnią WD. Jedna różnica w stosunku do adresów IP polega na tym, że podczas gdy adresy IP mają bardzo stabilne modulacje jasności, okresy DNO zmieniają się szybko - czasami zmienia się 2-krotnie w ciągu jednego dnia. Wyjaśnieniem tego jest to, że wewnętrzne pola WD są zbyt małe, aby zapobiec ślizganiu się akreującego gazu wokół równika. Podczas gdy w biegunach i IP akreujący gaz jest sprzężony z całym korpusem WD, w DNO widzimy efekt wirowania pasa równikowego w odpowiedzi na narosły moment pędu, niosąc jego (prawdopodobnie samogenerujący się) wokół niego pole magnetyczne. Istnienie długowiecznych, szybko wirujących pasów równikowych po wybuchach nowych karłowatych zostało niedawno ustalone na podstawie widm uzyskanych za pomocą Kosmicznego Teleskopu Hubble′a. Nie wszystkie nowe karłowate lub zmienne podobne do nowych wykazują DNO, prawdopodobnie dlatego, że istnieją pewne CV, które mają pole magnetyczne zbyt małe, aby wpłynąć na jakiekolwiek kanałowanie magnetyczne w całym przepływie akrecyjnym - w takich przypadkach dysk akrecyjny sięgałby aż do powierzchni WD. Może się to zdarzyć również w tych nowych karłowatych, gdzie Obserwuje się, że DNO zanikają w pobliżu maksymalnego wybuchu; w takich momentach przepływ akrecyjny prawdopodobnie miażdży magnetosferę WD aż do powierzchni WD. We wszystkich klasach magnetycznego CV obserwuje się modulowaną emisję promieniowania rentgenowskiego i EUV - w okresie orbitalnym na biegunach, w okresie rotacji WD w IP i w okresie DNO w wybuchach nowych karłowatych. Takie energetyczne promieniowanie jest emitowane z obszaru silnie nagrzanego szokowo, gdy kanałowy przepływ akrecyjny uderza w powierzchnię WD, wytwarzając bardzo wysoką jasność promieniowania rentgenowskiego (w istocie wiele biegunów i IP odkryto po raz pierwszy podczas badań rentgenowskich niebo). Część promieniowania opuszczającego takie rozgrzane plamy na powierzchni WD może przechwycić powierzchnię ściętych dysków akrecyjnych w IP i słabo magnetycznych CV. W efekcie obracająca się wiązka omiata powierzchnię dysku - a także stronę gwiazdy towarzyszącej skierowaną w stronę WD. Promieniowanie to jest częściowo przetwarzane (degradowane) do obszaru optycznego widma, co umożliwia nam pośrednią detekcję obracającej się wiązki. Można wytworzyć dwie modulacje optyczne o różnych okresach - jedną poprzez ponowne przetwarzanie z dysku i jedną z ponownego przetwarzania na gwieździe towarzyszącej. Podczas kolejnych ominięć towarzysz poruszał się trochę po swojej orbicie, więc sygnał od towarzysza ma dłuższy okres (jest to jak różnica między OKRESEM SIDEREALNYM a OKRESEM SYNODYCZNYM dla planet) i czasami jest to jedyny wykrywalny okres optyczny. W obszarze rentgenowskim widzimy bezpośrednią wiązkę z WD. W rezultacie w niektórych IP okres (gwiazdowy) promieni rentgenowskich i okres (synodyczny) w świetle optycznym różnią się (ich różnica w częstotliwości jest dokładnie równa częstotliwości orbitalnej - tak powstał ten model dla IP w pierwsza instancja). W przypadku DQ Her i niektórych wybuchających nowych karłowatych i zmiennych podobnych do nowych, obserwacje zmian szybkich modulacji jasności podczas zaćmienia przez gwiazdę towarzyszącą pokazują zmiany fazowe, które ponownie wskazują na wiązke obrotową emitowaną z WD. Nagromadzenie materiału bogatego w wodór z towarzysza na powierzchnię WD prowadzi ostatecznie do eksplozji nowej (patrz NOVAE). Systemy magnetyczne nie są wyjątkiem: Nova Cygni 1975 (znana również jako V1500 Cyg), jedna z najszybszych i najjaśniejszych nowych XX wieku, została odkryta po tym, jak powróciła do stanu spoczynkowego i była prawie polarna. Jego okres orbitalny (wyznaczony spektroskopowo i fotometrycznie) wynosi 0,139 612 9 d, a okres rotacji WD (wyznaczony z okresu modulacji polaryzacji) wynosi 0,137 154 d. Niewielka różnica była spowodowana skutkami eksplozji nowej w 1975 roku, podczas której zewnętrzne warstwy wyrzucone z WD wymieniły z towarzyszem część masy i momentu pędu. Obserwuje się, że okres rotacji WD w V1500 Cyg zmienia się w takim tempie, że synchronizacja z okresem orbitalnym zostanie odzyskana po około 180 latach. Znane są trzy inne zdesynchronizowane bieguny, które musiały być niewykrytymi nowymi w ostatnich stuleciach. Wśród znanych nowych znajdują się dwa IP (Nova Persei 1901 i Nova Puppis 1963)

Niebiańskie współrzędne

Współrzędne nieba służą do określenia położenia obiektu niebieskiego w pewnym układzie odniesienia. W astronomii konieczne i wygodne jest przedstawienie położenia obiektu, takiego jak gwiazda czy planeta, w kilku różnych układach współrzędnych, w zależności od kontekstu, w którym pozycja ma zostać wykorzystana. Współrzędne obiektu odpowiadają szczególnemu sposobowi wyrażania położenia punktu względem układu współrzędnych, takiego jak zbiór osi prostokątnych. Ogólnie rzecz biorąc, każda pozycja jest reprezentowana przez zestaw trzech współrzędnych. W wielu przypadkach odległość obiektu nie jest znana, dlatego do przedstawienia kierunku do obiektu wystarczą dwie współrzędne, chociaż można zastosować trzy cosinusy kierunkowe. Wraz z dostępnością większej liczby szacunków odległości w astronomii, coraz powszechniejsze staje się stosowanie trzech współrzędnych przestrzennych. Do określenia pozycji ciał niebieskich wykorzystuje się wiele różnych układów współrzędnych. Każdy układ zależy od wyboru układu współrzędnych i sposobu podawania współrzędnych względem układu. Termin "niebiański układ współrzędnych" jest tutaj używany do określenia układu współrzędnych, który nie obraca się wraz z Ziemią (lub inną planetą), tak że na przykład współrzędne gwiazd zmieniają się powoli w czasie (patrz NIEBIESKIE UKŁADY WSPÓŁRZĘDNYCH). Ogólnie rzecz biorąc, obiekt porusza się względem układu współrzędnych, a układ współrzędnych porusza się i obraca w "przestrzeni". Konieczne jest zatem określenie czasu, do którego odnoszą się trzy współrzędne przestrzenne oraz czasu, dla którego definiowany jest układ współrzędnych. Te dwa czasy mogą być takie same, ale często są różne. Ponadto pozycje mogą być różnego rodzaju, w zależności od tego, czy uwzględniono aberrację, rotację dobową, załamanie i inne czynniki wpływające na kierunek obserwacji obiektu. Nazywa się je miejscami średnimi, prawdziwymi i pozornymi. EFEMERYDOM i katalogom przedstawiającym z dużą precyzją pozycje i właściwości obiektów astronomicznych w danym czasie musi zawsze towarzyszyć precyzyjne zestawienie, które określa wszystkie te różne czynniki, jeśli liczby mają być użyte właściwie i z pełną precyzją. Wektor r od początku do obiektu można przedstawić za pomocą współrzędnych prostokątnych (x, y, z); to jest, poprzez rzuty odległości r na trzy osie. Można go również przedstawić za pomocą współrzędnych sferycznych, których kierunek jest zwykle określany przez kąt podłużny (λ) w płaszczyźnie odniesienia x-y i kąt równoleżnikowy (β) od płaszczyzny odniesienia. Rzadziej stosuje się kąt biegunowy (90° - β) lub uzupełnienie kąta równoleżnikowego. Kąty podłużne i równoleżnikowe mają różne nazwy i symbole w różnych układach współrzędnych. Transformacje geometryczne położeń pomiędzy różnymi układami współrzędnych, z uwzględnieniem efektów fizycznych, można przeprowadzić stosując techniki trygonometrii sferycznej lub algebry wektorów i macierzy. Do wyjaśnienia można zastosować koncepcję sfery niebieskiej, przy czym łuki na kuli reprezentują kąty między kierunkami. Środek kuli może znajdować się w wielu różnych miejscach, ale w większości przypadków kula będzie używana do zilustrowania konkretnego układu odniesienia o określonym pochodzeniu. Należy pamiętać, że gdy obiekt przedstawiony na kuli zmienia odległości promieniowe od środka wraz z ruchem poprzecznym, zmiany te należy uwzględnić w matematyce obliczeń. Oznaczenia używane do wskazania głównych początków niebieskich układów współrzędnych są następujące

1) Topocentryczny: oglądany lub mierzony z miejsca obserwacji na powierzchni Ziemi.
(2) Geocentryczny: oglądany lub mierzony od środka Ziemi.
(3) Selenocentryczny: oglądany lub mierzony od środka Księżyca.
(4) Planetocentryczny: oglądany lub mierzony od środka planety (z odpowiednimi oznaczeniami dla poszczególnych planet).
(5) Heliocentryczny: oglądany lub mierzony od środka Słońca.
(6) Barycentryczny: oglądany lub mierzony od środka masy Układu Słonecznego.

Główne niebiańskie płaszczyzny odniesienia przechodzące przez odpowiednie początki są następujące.

(1) Horyzont: płaszczyzna prostopadła do lokalnego pionu (lub pozornego kierunku siły ciężkości) i przechodząca przez obserwatora.
(2) Południk lokalny: płaszczyzna zawierająca lokalny pion i kierunek osi obrotu Ziemi.
(3) Równik niebieski: płaszczyzna prostopadła do osi obrotu Ziemi i przechodząca przez środek Ziemi.
(4) Ekliptyka: średnia płaszczyzna (tj. pomijając okresowe perturbacje) orbity Ziemi wokół Słońca.
(5) Południk planety: płaszczyzna zawierająca oś obrotu planety i przechodząca przez element powierzchni.
(6) Równik planety: płaszczyzna prostopadła do osi obrotu planety i przechodząca przez jej środek.
(7) Płaszczyzna orbity: płaszczyzna orbity ciała wokół innego ciała (np. planety wokół Słońca lub środka ciężkości).
(8) Płaszczyzna niezmienna lub płaszczyzna Laplaciana: płaszczyzna prostopadła do osi momentu pędu układu i przechodząca przez jego środek.
(9) Równik galaktyczny: płaszczyzna przechodząca przez linię centralną lokalnej Galaktyki (Droga Mleczna).

Linia przecięcia średniej płaszczyzny równika niebieskiego i ekliptyki wyznacza kierunek równonocy (Υ). Wykorzystując rzut tego kierunku jako początek, rektascensja (α) jest mierzona w płaszczyźnie równika, a długość geograficzna niebieska (lub ekliptyka) (?) jest mierzona w płaszczyźnie ekliptyki. Rektascensję zwykle wyraża się w czasie od 0 do 24 godzin, a zarówno rektascensję, jak i długość geograficzną mierzy się w sensie dodatnim (lub prawoskrętnym). Dopełnienie rektascencji w odniesieniu do 24 godzin jest znane jako gwiazdowy kąt godzinny (SHA); w publikacjach nawigacyjnych jest ona zwykle wyrażana w stopniach. Deklinację mierzy się od płaszczyzny równikowej, dodatniej w kierunku północnym, od 0° do 90°. Szerokość geograficzną nieba mierzy się od płaszczyzny ekliptyki, dodatniej w kierunku północnym, od 0° do 90°. Równonoc występuje we wznoszącym się węźle ekliptyki na równiku; jest to kierunek, w którym Słońce w swojej rocznej pozornej drodze wokół Ziemi przecina równik z południa na północ. Nazywa się go także "pierwszym punktem Barana" i jest to równonoc wiosenna (wiosenna) na półkuli północnej. Nachylenie płaszczyzny ekliptyki do płaszczyzny równika znane jest jako NACHYLENIE EKLIPTYKI (ε). Równik i ekliptyka poruszają się z powodu działania sił zakłócających na obrót i ruch Ziemi. Stąd równonoc i nachylenie zmieniają się w funkcji czasu, więc te niebieskie układy współrzędnych muszą być dokładnie zdefiniowane w taki sposób, aby można je było powiązać ze standardowym układem, który można uznać za ustalony w przestrzeni. Linie przecięcia płaszczyzny południka z płaszczyznami horyzontu i równika wyznaczają kierunki, od których mierzony jest AZYMUT (A) i lokalny KĄT GODZINNY (h). Azymut mierzony jest w płaszczyźnie horyzontu od północy, zwiększając się w kierunku wschodnim o wartość dodatnią. Lokalny kąt godzinny mierzony jest w jednostkach czasu: 1 h na każde 15°, dodatnio na zachód w stosunku do lokalnego południka. Kąty równoleżnikowe względem horyzontu i równika są znane jako WYSOKOŚĆ (a) i DECLINACJA (σ). Wysokość mierzy się dodatnio w kierunku zenitu; w astronomii częściej stosuje się odległość zenitu, kąt od lokalnego pionu (z = 90°-a). Deklinacja (σ) jest mierzona od równika, dodatnia w kierunku północnego bieguna obrotu. ODLEGŁOŚĆ ZENITU bieguna północnego, która jest równa współdeklinacji lokalnego pionu (lub zenitu), jest równa współrzędności geograficznej punktu obserwacji. Istnieją dwa główne topocentryczne układy współrzędnych. Jeden opiera się na kierunku lokalnego pionu, który wyznacza płaszczyznę horyzontu; druga opiera się na kierunku osi obrotu Ziemi, która wyznacza płaszczyznę równika niebieskiego. Południk lokalny, który zawiera kierunek lokalnego pionu i kierunek osi obrotu, jest wspólny dla obu ram. Współrzędne kątowe w topocentrycznym układzie współrzędnych horyzontu i południka lokalnego nazywane są azymutem i wysokością. Azymut (A) mierzony jest od 0° do 360° od północy w kierunku wschodnim; to znaczy w sensie negatywnym w odniesieniu do kierunku zenitu. (W niektórych okolicznościach azymut można mierzyć od południa, dlatego należy określić zastosowaną konwencję, aby uniknąć dwuznaczności.) Wysokość (a) mierzy się dodatnio od horyzontu w kierunku zenitu. Zarówno wysokość, jak i azymut dowolnego ciała niebieskiego zmieniają się szybko wraz z obrotem Ziemi, dlatego do wielu celów wygodniej jest używać układu topocentrycznego równika niebieskiego i południka lokalnego. Kierunek północnego bieguna niebieskiego jest równoległy do osi obrotu Ziemi, a wysokość bieguna jest równa szerokości geograficznej punktu obserwacji. Wtopocentrycznym układzie równikowym współrzędne kątowe °nane są jako lokalny kąt godzinny (LHA lub h) i deklinacja (σ). LHA mierzy się od 0° do 360?, czyli od 0 do 24 godzin, od południa w kierunku zachodnim (tj. zwrot negatywny w odniesieniu do kierunku północnego bieguna niebieskiego), a LHA obiektu niebieskiego wzrasta o około 15°, czyli 1 godzinę, na każdą godzinę. Deklinację mierzy się od równika do bieguna niebieskiego, dodatnio w kierunku północy. Deklinacja ciała niebieskiego nie ulega zmianie w wyniku dobowego obrotu Ziemi.

Niebiańska mechanika

Mechanika nieba to nauka o obiektach we wszechświecie poruszających się pod wpływem różnych sił. Obecnie termin ten powszechnie przyjmuje się jako teorię ruchu obiektów w Układzie Słonecznym, chociaż nadal można go zastosować do dynamiki gwiazd wchodzących w skład wielu układów; dynamikę grawitacyjną gromad gwiazd i galaktyk zwykle traktuje się jako odrębne obszary badań, ponieważ wykorzystuje się w nich różne techniki. Mechanika nieba zajmuje się przede wszystkim dynamicznymi konsekwencjami siły grawitacji między obiektami, ale mogą działać dodatkowe siły. Obejmują one od interakcji pływowych planet i satelitów po wpływ promieniowania elektromagnetycznego na małe cząstki. Kiedyś uważana za nieco archaiczną dziedzinę astronomii, w ostatnich latach wzrosło zainteresowanie mechaniką nieba, gdy zdano sobie sprawę, że jej deterministyczne równania ruchu mogą prowadzić do chaotycznych rozwiązań. Doprowadziło to do licznych zastosowań w Układzie Słonecznym i lepszego zrozumienia długoterminowej ewolucji dynamicznej.

Teoria orbity

W XVII wieku KEPLER wyprowadził swoje trzy prawa ruchu planet empirycznie na podstawie obserwacji . Później, w tym samym stuleciu, NEWTON wykazał, że prawa Keplera są konsekwencją prostego prawa siły inverse kwadrat, zgodnie z którym wielkość siły przyciągania grawitacyjnego pomiędzy dwiema masami, m1 i m2, oddzielonymi odległością d, jest dana wzorem F = G⋅m1m2/ d2 gdzie G = 6,672 × 10-11 m3 kg-1 s-2 jest uniwersalną stałą grawitacyjną. Newton wykazał, że orbita jednej masy względem drugiej opisuje PRZEKRÓJ STOŻKOWY (tj. okrąg, elipsę, parabolę lub hiperbolę), w którym wartości wektorów położenia i prędkości (odpowiednio r i v) w określonej chwili określają typ podążanej ścieżki. Ponieważ moment pędu układu jest stały, względna orbita dwóch mas definiuje płaszczyznę - płaszczyznę orbity - i dlatego współrzędne biegunowe płaszczyzny w pełni opisują względny ruch. W przypadku orbit eliptycznych równanie biegunowe określające odległość promieniową r w funkcji prawdziwej długości geograficznej θ wynosi r = a(1 - e2) /1 + e cos(θ - ω) gdzie a jest półoś wielką elipsa, a e to jej mimośród .Kąt ω określa orientację elipsy względem ustalonej linii odniesienia przy θ = 0. W przypadku grawitacyjnego oddziaływania dwóch mas wielkości a, e i są stałe, podczas gdy θ rośnie nieliniowo w czasie. Orbity eliptyczne są ograniczone oscylacją pomiędzy skończonymi granicami; w związku z tym mają one charakter okresowy. Równanie biegunowe elipsy nie umożliwia obliczenia położenia obiektu w danym momencie. Można to jednak zrobić za pomocą równania Keplera, które wiąże anomalię mimośrodową E z anomalią średnią M. Składowe wektora położenia względem układu można zapisać jako r cos f = a(cos E - e) i r sin f = a(1 - e2)1/2 sin E. Równanie Keplera można zapisać jako M = E ? e sin E gdzie E i M mierzy się w radianach. Anomalia średnia ma tę przydatną właściwość, że rośnie w czasie ze stałą szybkością określoną przez średni ruch, n = [G(m1 + m2)/a3]1/2 z czasem potrzebnym na wykonanie jednego orbity (jeden okres orbitalny) dane przez T = 2π[a3/[G(m1 + m2)]1/2. Znając moment, w którym masa m2 znajduje się na określonej długości geograficznej (zwykle przyjmuje się, że jest to czas przejścia przez perycentrum, τ ), można obliczyć położenie masy m2 w dowolnym późniejszym momencie w kontekście problemu dwóch ciał. Ponieważ jednak równanie Keplera jest przestępne w E, zwykle konieczne jest podjęcie rozwiązania numerycznego. W przypadku ruchu w trzech wymiarach konieczne jest zdefiniowanie dwóch dodatkowych kątów: nachylenia orbity I oraz długości geograficznej węzła wstępującego. Co więcej, argument perycentrum, ω, jest używany do określenia kąta między węzłem wstępującym a perycentrum, a długość perycentrum wynosi teraz ω= ω + Ω, gdzie &oemga; i Ω znajdują się w różnych płaszczyznach. Należy zauważyć, że chociaż ruch ten jest rozpatrywany w układzie współrzędnych nachylonym względem płaszczyzny orbity, podstawowe właściwości orbity Keplera pozostają niezmienione. Ruch dwóch ciał pod wpływem ich wzajemnego przyciągania grawitacyjnego Newtona (problem dwóch ciał) jest jednym z niewielu problemów całkowalnych w mechanice niebieskiej. Ma tę właściwość, że masa na orbicie powraca do tej samej wartości r po tym, jak f wykonał cykl azymutalny wynoszący dokładnie 2π. Dodanie jeszcze tylko jednego ciała niszczy tę symetrię. Problem staje się niecałkowalny w tym sensie, że nie jest możliwe żadne praktyczne rozwiązanie matematyczne, chociaż nadal można uzyskać pewne wyniki analityczne. Teoria Księżyca jest gałęzią mechaniki niebieskiej poświęconą badaniu ruchu Księżyca. Problem ten jest stosunkowo prosty, jeśli ogranicza się do przewidywania drogi Księżyca wokół kulistej Ziemi. Jednak rzeczywistość jest taka, że zaburzenia słoneczne są również znaczące i należy wziąć pod uwagę bardziej subtelne, długoterminowe skutki, takie jak modyfikacje kulistego kształtu Ziemi spowodowane pływami i rotacją. Układ Słoneczny ma hierarchiczną strukturę składającą się z kilku podsystemów, z których każdy składa się z masy centralnej z jedną lub większą liczbą mniejszych mas krążących na każdym poziomie. Na przykład planety krążą wokół Słońca, ale większość z nich ma również własnemałe naturalne satelity. Dlatego też, rozważając ruch satelity krążącego blisko planety, zazwyczaj można zignorować zakłócenia pochodzące od Słońca. Nie oznacza to, że orbita jest prostą, stałą elipsą; niesferyczność planety powoduje krótko- i długoterminowe zmiany w niektórych elementach orbity. Same orbity planet nie są stałe, ponieważ wszystkie planety zakłócają się nawzajem. Dlatego chociaż w dowolnym momencie planeta porusza się po eliptycznej ścieżce określonej przez jej chwilowe położenie i prędkość (nazywa się to jej orbitą oscylacyjną), kształt i orientacja tej elipsy nieustannie się zmieniają z powodu zaburzeń ze strony innych planet. Zmiany takie są niewielkie, ale zauważalne z biegiem czasu. Ogólnie rzecz biorąc, najmniejsze obiekty, takie jak cząstki PIERŚCIENIA PLANETARNEGO i METEOROIDY, poddawane są najszerszej gamie dodatkowych zaburzeń w postaci sił niegrawitacyjnych. Ich rozmiar oznacza, że wpływ padającego promieniowania elektromagnetycznego może wpływać na ich orbity. Na przykład efekt POYNTING-ROBERTSONEFECT jest spowodowany nieizotropową reemisją promieniowania i jest ważny dla cząstek, których wielkość jest porównywalna z długością fali promieniowania. Powoduje to tłumienie mimośrodu i nachylenia oraz zmniejszenie półosi wielkiej niezależnie od tego, czy cząstka znajduje się na orbicie heliocentrycznej, czy planetocentrycznej. Uważa się, że efekt ten jest odpowiedzialny za transport pyłu kolizyjnego na dużą skalę z pasa asteroid do wnętrza Układu Słonecznego. W latach następujących po pionierskiej pracy Newtona znaczny wysiłek poświęcono ilościowemu określeniu, a następnie przewidywaniu ruchów obiektów tworzących Układ Słoneczny. Jednym z wybitnych sukcesów mechaniki niebieskiej były niezależne wyjaśnienia Johna Coucha ADAMSA i LEVERRIERA dotyczące zaobserwowanych anomalii w ruchu planet zewnętrznych. Doprowadziło to bezpośrednio do odkrycia planety Neptun przez GALLE w 1847 r. Poprawa precyzji, z jaką można było zrozumieć orbity planet, doprowadziła do jeszcze bardziej doniosłego odkrycia w XX wieku. EINSTEIN wykazał, że niewielka rozbieżność wynosząca 0,43 roku-1 w ruchu długości peryhelium Merkurego wynika z faktu , że teoria grawitacji Newtona była błędna i że jego własna ogólna teoria względności może wyjaśnić te obserwacje. Mechanika nieba zyskała na znaczeniu jako nauka praktyczna wraz z nadejściem ery kosmicznej w latach sześćdziesiątych XX wieku. Zwiększona liczba sztucznych satelitów na orbicie okołoziemskiej umożliwiła bardzo szczegółowe badanie pola grawitacyjnego Ziemi poprzez monitorowanie orbit satelitów i ich zmian w czasie. Konieczność wysyłania statków kosmicznych na inne planety doprowadziła do wykorzystania mechaniki niebieskiej w projektowaniu skomplikowanych podróży orbitalnych. Technika wspomagania grawitacyjnego, w ramach której statek kosmiczny zmienia swoją energię orbitalną w wyniku bliskiego przelotu planety lub satelity, stała się podstawą zautomatyzowanej eksploracji zewnętrznego Układu Słonecznego. Chociaż obserwacje naziemne można wykorzystać do oszacowania mas planet i satelitów, dokładne monitorowanie trajektorii statków kosmicznych pod kątem małych odchyleń zaowocowało bezpośrednimi pomiarami pola grawitacyjnego wielu obiektów Układu Słonecznego.

Zaburzenia grawitacyjne

Historycznie rzecz biorąc, teoria zaburzeń w mechanice nieba została podzielona na tak zwane perturbacje ogólne i specjalne. Ogólna teoria zaburzeń polega na badaniu ewolucji zaburzonej orbity poprzez rozważenie analitycznego rozwiązania równań różniczkowych opisujących zmienność elementów orbity obiektu lub jego współrzędnych. W przeciwieństwie do specjalnych zaburzeń , teoria polega na analizie orbity za pomocą numerycznego lub półnumerycznego rozwiązania równań. Chociaż rozwiązanie analityczne pozwala uzyskać lepszy wgląd, jest to często niemożliwe w mechanice niebieskiej dla wszystkich układów z wyjątkiem najprostszych. Rozwiązanie numeryczne może zapewnić wgląd w problem, a dostępność szybkich komputerów cyfrowych pozwala na rozważenie dużej liczby warunków początkowych, co umożliwi osiągnięcie zrozumienia. Rozważmy masę centralną mc i dwie orbitujące masy m i m′ z wektorami położenia r i r′ względem mc. Ruch m można opisać rozwiązaniem równania wektorowego r = ∇?(U + R) gdzie U = G⋅mc + m/r R = Gm′/ |r - r′| ? Gm r ⋅ r′/ r′ 3 . Tutaj U reprezentuje potencjał, który powoduje ruch keplerowski dwóch ciał m i mc, a R reprezentuje zakłócający potencjał lub zakłócającą funkcję doświadczaną przez m ze względu na m′ . Istnieją podobne wyrażenia określające wpływ m na m′. Należy zauważyć, że tradycyjnie w mechanice niebieskiej potencjał przyjmuje się jako wielkość dodatnią. Chociaż wyrażenie R w kategoriach współrzędnych kartezjańskich jest stosunkowo trywialne, trudniej jest wyrazić je w kategoriach elementów orbitalnych m i m′. Obecnie można to łatwo osiągnąć za pomocą algebry komputerowej w celu przeprowadzenia niezbędnej manipulacji szeregami. Rozwinięcie R ma ogólną postać



gdzie j jest liczbą całkowitą, a ? jest kombinacją długości geograficznych (tj. kątów odniesionych do ustalonego kierunku), którą można zapisać jako



gdzie ji są liczbami całkowitymi, a λ = M + ω= n(t - τ) + ω to średnia długość geograficzna. Każdy argument cosinus φ spełnia relację d′Alemberta, według której



Inną ważną właściwością jest to, że wartość bezwzględna współczynnika ω′, ω, Ω&primel i Ω,i (tj. |j3|, |j4| , |j5| i |j6|) jest równe najniższej potędze e′ , e, s′ = sin 1/2I′ s = sin 1/2I, które występuje w towarzyszącym terminie. Wszystkie argumenty można sklasyfikować według wartości bezwzględnej sumy współczynników średnich długości geograficznych λ′ i λ w argumencie cosinus. Dlatego rozwinięcie obejmujące argumenty rzędu N-tego będzie uwzględniać potęgi mimośrodów i nachyleń N-tego rzędu. Funkcja zakłócania jest używana w połączeniu z równaniema LAGRANGE′a dające równania zmian elementów orbity. W najniższym rzędzie w e i I można je zapisać jako



gdzie R zawiera wymagane terminy w rozwinięciu funkcji zakłócającej dla zewnętrznego zakłócenia. Używanie równań Lagrange′a w niektórych zastosowaniach w mechanice nieba wiąże się z identyfikacją tych wyrazów w rozwinięciu R, które prawdopodobnie będą ważne dla konkretnego problemu będącego przedmiotem zainteresowania, przy założeniu, że wszystkie nieistotne, krótkookresowe wyrazy będą miały zero efekt uśredniony w czasie. Kluczowymi elementami orbitalnymi w tym procesie są półosie wielkie a i a′ . W problemie niezakłóconym średnie długości geograficzne λ′ i λ rosną liniowo odpowiednio z szybkościami n′ i n, podczas gdy wszystkie pozostałe kąty w ogólnym argumencie φ są stałe. W układzie zaburzonym λ′ iλ nadal szybko się zmieniają, ale pozostałe kąty zmieniają się powoli. Dlatego wszelkie argumenty, które nie dotyczą średnich długości geograficznych, powoli się zmieniają. Dają one początek terminom długoterminowym lub świeckim. Przy pewnych założeniach możliwe jest wyprowadzenie świeckiej teorii orbit planet. Powstałe sprzężone równania ruchu można rozwiązać analitycznie, uzyskując przybliżone elementy orbity (z wyjątkiem średnich długości geograficznych) w funkcji czasu. Rozważmy ogólny argument, φ = j1λ + j2λ gdzie a i a′ są takie, że j1n′ + j2n ≈ 0 i φ zmienia się w okresie dłuższym niż którykolwiek z dwóch okresów orbitalnych. Dzieje się tak, gdy istnieje prosta zależność liczbowa pomiędzy dwoma średnimi ruchami lub okresami orbitalnymi. Argumenty te powodują powstanie terminów rezonansowych w rozwinięciu (patrz REZONANCJA). Jeśli chodzi o półosie główne, równoważnym warunkiem jest a ≈ (|j1|/|j2|)2/3a′ . Układ Słoneczny zawiera więcej par obiektów znajdujących się w rezonansie, niż można by się spodziewać przypadkowo. Dzieje się tak prawdopodobnie na skutek momentów pływowych, powodujących rozszerzanie się orbit satelitów w różnym tempie w miarę upływu lat Układu Słonecznego. Człony rezonansowe są zlokalizowane na półosiach wielkich. Podczas gdy szczególna kombinacja kątów może zmieniać się powoli na jednej półosi ciała zaburzonego, ta sama kombinacja może zmieniać się szybko na innej. Natomiast terminy świeckie można uznać za globalne. Uważa się, że każdy argument, który nie jest ani świecki, ani rezonujący, stanowi podstawę do krótkotrwałego stosowania. Naturalne satelity, takie jak Księżyc, podnoszą pływy na swoich planetach macierzystych; sama planeta może również być zniekształcona obrotowo. W każdym przypadku możliwe jest wyprowadzenie równoważnej funkcji zakłócającej reprezentującej potencjał doświadczany przez orbitującą masę i zastosowanie równań Lagrange′a. Można na przykład wykazać, że eliptyczna orbita półosi wielkiej a wokół spłaszczonej planety o promieniu Rp przebiegałaby z szybkością ˙ ω ≈ 3/2⋅nJ2(Rp/a)2, gdzie n jest ruchem średnim, a J2 jest współczynnikiem drugiej harmonicznej strefy planety. Jednym z głównych postępów teoretycznych w mechanice nieba w ostatnich latach było wyprowadzenie mapowań algebraicznych umożliwiających numeryczne śledzenie zaburzonych orbit przez dłuższe okresy. Te mapowania (lub mapy) można podzielić na trzy szerokie typy:

•  mapy rezonansowe, z których wyprowadzana jest funkcja zakłócająca w konkretnym miejscu rezonansowym - część świecka jest całkowalna, a część rezonansowa może być zastąpiona ciągiem funkcji σ Diraca zastosowanych w postaci impulsów;
•  mapy spotkań, gdzie orbitę uważa się za prosty ruch keplerowski, aż do momentu koniunkcji lub bliskiego zbliżenia się do ciała zakłócającego - zaburzenie jest stosowane jako impuls.
•  Mapy N-ciał, w których kartezjańskie równania ruchu są przeformułowane w specjalnym układzie współrzędnych, który izoluje część keplerowską składającą się z dwóch ciał od części interakcji - wykorzystuje się funkcje σ Diraca do traktowania części interakcji jako impulsów.
Obecnie powszechne stało się wykorzystywanie map N-ciał do przeprowadzania numerycznych badań długoterminowej stabilności Układu Słonecznego.

Chaotyczny ruch

Fakt, że ruch w Układzie Słonecznym wynika z prostego prawa matematycznego, doprowadził do przekonania, że odkrycie praw rządzących wszechświatem jest równoznaczne z możliwością przewidzenia jego stanu przeszłego i przyszłego. Przykładem tej opinii był pogląd LAPLACE′a na wszechświat jako na system całkowicie deterministyczny. Jednakże pod koniec XIX wieku badania POINCA′E nad problemem trzech ciał dostarczyły pierwszej wskazówki, że systemy deterministyczne mogą dopuszczać nieprzewidywalne rozwiązania. W Układzie Słonecznym przywoływano chaos, aby wyjaśnić tak różnorodne zjawiska, jak LUKI KIRKWOODA w pasie asteroid i niezwykły obrót satelity Saturna HYPERION. Obecnie uznaje się, że chaos odegrał ważną rolę w kształtowaniu dynamicznej struktury Układu Słonecznego. Jednym z kluczowych problemów mechaniki niebieskiej jest stabilność Układu Słonecznego. Współczesne symulacje numeryczne pokazują, że orbity planet, zwłaszcza planet wewnętrznych, są technicznie chaotyczne w tym sensie, że błąd tak mały jak 0,01 minuty dzisiejszej pozycji planety rozprzestrzenia się wykładniczo i niemożliwe staje się przewidzenie jej położenia za około 107-108 lat . Niemniej jednak orbity pozostają zbliżone do swoich obecnych konfiguracji w skalach czasowych porównywalnych z wiekiem Układu Słonecznego. Jedynym yjątkiem jest Merkury, gdzie niektóre badania wykazały prawdziwą niestabilność orbity (e →? 1) w ciągu ∿1010 lat. Dokładny mechanizm powodujący takie chaotyczne zachowanie jest nadal nieznany, chociaż uważa się, że odpowiedzialne są za to świeckie interakcje między planetami. Wraz z odkryciem innych układów planetarnych stało się jasne, że naszą wiedzę na temat tych procesów można sprawdzić w celu odkrycia, które rozkłady mas i orbit planet prowadzą do konfiguracji stabilnych przez cały czas życia gwiazdy.

Mechanika niebiańska w XVIII i XIX wieku

MECHANIKA NIEBIESKA (tak nazwana przez Laplace′a w 1798 r.) przed XX wiekiem polegała na zastosowaniu do Układu Słonecznego prawa powszechnego ciążenia Izaaka Newtona. Zgodnie z tym prawem pojedyncze ciało krążące wokół większego ciała porusza się po przekroju stożkowym; obecność trzeciego ciała zakłóca ruch. Mechanika nieba zajmuje się powstałymi w ten sposób zakłóceniami. Podejście Newtona do tego problemu miało zasadniczo charakter jakościowy. W przybliżonym sformułowaniu pokazał, że wszystkie znane nierówności Księżyca wynikają jakościowo z prawa grawitacji. W swojej Teorii ruchu Księżyca (1702) oraz w drugim wydaniu Principia (Scholium do Twierdzenia III.25) określił ilościowo swoją teorię, dopasowując ją do obserwacji i dodając kilka terminów ilościowych bez wyjaśniania ich pochodzenia. PROBLEM TRZECH CIAŁ został ponownie sformułowany w latach czterdziestych XVIII wieku jako zbiór równań różniczkowych. To sformułowanie mogłoby być rygorystyczne i zawierać w sposób dorozumiany wszystkie nierówności wynikające z powszechnej grawitacji. (Okazało się, że do rozwiązania można dojść jedynie poprzez kolejne przybliżenia.) To, że takiego sformułowania nie udało się uzyskać wcześniej, wynika z braku wśród matematyków w tradycji Leibniza opracowanego rachunku funkcji trygonometrycznych. To LEONARD EULER (1707-83) w 1739 r. jako pierwszy podał systematyczne reguły algorytmiczne różniczkowania i całkowania funkcji trygonometrycznych. Do 1744 roku Euler wyprowadził nierówności Księżyca, rozwiązując równania różniczkowe, ale opublikowano tylko jego wyniki. W 1746 roku Akademia Nauk w Paryżu ogłosiła, że głównym zadaniem na rok 1748 będzie sformułowanie "teorii Jowisza i Saturna wyjaśniającej nierówności, jakie te planety wydają się powodować we wzajemnych ruchach". Nagrodzony esej był autorstwa Eulera; opublikowana w 1749 r. dostarczyła pierwszego powszechnie dostępnego opisu analitycznego rozwiązania problemu trzech ciał. Tymczasem od 1746 r. dwóch członków komisji ds. nagród Akademii Paryskiej, ALEXIS-CLAUDE CLAIRAUT (1713-65) i JEAN LE ROND D′ALEMBERT (1717-83), osobno przystąpiło do rozwiązania problemu i wyprowadzenia w ten sposób nierówności Księżyc. Teoria księżyca Clairauta została opublikowana w 1752 r., d′Alemberta w 1754 r.

Euler i Clairaut o równaniach ruchu

Euler zapisał równania we współrzędnych biegunowych ruchu Saturna, przy czym płaszczyzną orbity Jowisza była płaszczyzna r, φ

Tutaj P, Q i R są siłami przyspieszającymi mającymi tendencję do zmniejszania r, φ i z; współczynnik 1/2 wynika z wyboru przez Eulera jednostki przyspieszenia. Clairaut napisał równania podobne dla r i Φ, zakładając początkowo, że ruch ciała zaburzonego jest ograniczony do płaszczyzny



Tutaj M jest sumą mas ciała centralnego i zaburzonego, P jest dodatkowym przyspieszeniem promieniowym wynikającym z zaburzeń, a Q jest przyspieszeniem poprzecznym. Aby rozwiązać równania, Euler zastąpił dt2/2 przez a′3(dM′)2, gdzie a&perime; jest średnią odległością Jowisza od Słońca, a M jego średnim ruchem i zastąpiło P i Q siłami przyspieszenia występującymi, gdy ruch Saturna odniesiono do nieruchomego Słońca. Następnie przyjął kolejno trzy różne przybliżone założenia, w których orbitę Jowisza i niezakłóconą orbitę Saturna przyjmowano albo jako okręgi, albo jedno jako okrąg, a drugie jako elipsę. W ramach każdej hipotezy dokonał transformacji w równania różniczkowe dla małych odchyleń r i Φ od ich wartości niezaburzonych. (Tutaj konieczne były szeregi trygonometryczne; patrz następny rozdział.) Równania rozwiązano metodą współczynników nieokreślonych. Clairaut otrzymał wyrażenie dt w kategoriach r i Φ poprzez dwukrotne całkowanie i w ten sposób wyeliminowanie. Całkowanie podwójne przekształconego równania dało mu wówczas



gdzie f , g, c są stałymi całkowania i



ρ będzie



Aby obliczyć całki , konieczne było zastąpienie r w przybliżoną funkcją Φ Clairaut użył

k/r = 1- e cos m Φ

równanie elipsy precesyjnej, w której k, e, m są nieokreślonymi stałymi.

Wprowadzenie szeregów trygonometrycznych

Księżycowa i planetarna wersja problemu trzech ciał różnią się, ponieważ v, odległość pomiędzy ciałami zakłócającymi i zaburzonymi, w przypadku księżycowym podlega jedynie niewielkim zmianom, które można wyrazić kilkoma wyrazami szeregu Taylora, podczas gdy w przypadku planetarnym jest bardzo zróżnicowane. W równaniach różniczkowych v występuje jako v-3, które waha się jeszcze bardziej gwałtownie. Potrzebne jest wyrażenie dla v-3 umożliwiające formalną integrację. Euler rozwiązał ten problem, wymyślając szeregi trygonometryczne. W pierwszym przybliżeniu pokazał v-3 = (a2 + a′2)-3/2(A + B cos θ + C cos 2θ + D cos 3θ + …ˇ ˇ ˇ) gdzie a, a&pime; są średnimi odległościami Słońca od Saturna i Jowisza, a θ jest kątem heliocentrycznym pomiędzy dwoma wektorami promieni; współczynniki C, D, E itd. są funkcjami A i B, podczas gdy A i B można obliczyć poprzez całkowanie numeryczne. Ulepszone przybliżenie wymagało uwzględnienia mimośrodów orbit i obliczenia współczynników w szeregu dla v-5, v-7 itd. Euler przeprowadził przybliżenie rzędu pierwszej potęgi mimośrodów. W 1767 roku JOSEPH LOUIS LAGRANGE (1736-1813) wprowadził nową, wydajną metodę wyznaczania współczynników szeregu na podstawie twierdzenia DeMoivre′a. Późniejsi teoretycy przenieśli przybliżenia do wyższych potęg mimośrodów. Metoda zmienności elementów orbity Eulera w traktowaniu ruchu planety zaburzonej w kierunku z zastąpiona dwoma równaniami pierwszego rzędu, jednym dla nachylenia orbity, a drugim dla długości geograficznej węzła wstępującego. W ruchu niezakłóconym wielkości te są stałe; zakłócenia czynią je zmiennymi. Przybliżone wyrażenia Eulera na ich zmiany pod wpływem zakłóceń wykazały, że nachylenie podlega jedynie niewielkim oscylacjom, podczas gdy węzeł cofał się w płaszczyźnie orbity zakłócającej planety. Było to pierwsze analityczne określenie zmienności ELEMENTU ORBITALNEGO. Euler wyprowadził zmiany innych parametrów orbitalnych w późniejszych wspomnieniach, ale to Lagrange opracował głównie tę metodę. W eseju z 1766 roku Lagrange wykazał, że zwykły sposób obliczania zaburzeń poprzez kolejne przybliżenia nieuchronnie daje wyrazy proporcjonalne do czasu, a także wyrazy n-tego rzędu w przybliżeniu (n+1)-tego rzędu. Metoda zmiany parametrów orbity pozwala uniknąć tej trudności. W swoich dalszych pracach nad perturbacjami planetarnymi Lagrange stosował wyłącznie tę metodę.

Ruch absydy Księżyca

Newton nie opublikował żadnego wyprowadzenia ruchu apsydalnego Księżyca. W pierwszym wydaniu Principiów przytoczył wyniki próby wyprowadzenia; jak wiemy, jego metoda była błędna. W późniejszych wydaniach usunął wszelkie odniesienia do niego. Pierwsze wyprowadzenia analityczne Eulera, Clairauta i d′Alembert w latach czterdziestych XVIII wieku przyniosły tylko około połowy obserwowanego ruchu apsydalnego. Clairaut w listopadzie 1747 zaproponował uzupełnienie prawa odwrotności kwadratów o człon odwrotnej czwartej potęgi, skąd można było uzyskać pozostały ruch apsydalny. Następnie w maju 1749 roku wycofał tę propozycję. Odkrył, że jeśli przejdzie do przybliżenia drugiego rzędu w odniesieniu do sił zakłócających (to znaczy zastępując wyrazy znalezione w pierwszym przybliżeniu nieokreślonymi współczynnikami z powrotem do równań różniczkowych i ponownie rozwiązując), otrzyma prawie cały obserwowany ruch apsydalny. Bez wątpienia spodziewał się, że przybliżenie drugiego rzędu przyniesie jedynie niewielką modyfikację wyniku pierwszego rzędu i był zaskoczony, że dwa małe składniki proporcjonalne do poprzecznej siły zakłócającej mogą dać tak dużą różnicę. Euler swoją zupełnie inną drogą potwierdził wynik Clairauta. "Dopiero od tego odkrycia" - pisał do Clairauta - "można uważać prawo przyciągania odwrotnych kwadratów za solidnie ugruntowane"….

Odmiany świeckie, rzeczywiste i domniemane, do roku 1785

Odmiany świeckie są zwykle rozumiane jako zmiany monotoniczne, które kończą się jednokierunkową zmianą elementu orbity. EDMOND HALLEY w latach dziewięćdziesiątych XVII wieku wykrył ciągłe przyspieszenie średniego ruchu Księżyca już od czasów starożytnych; później śledczy to potwierdzili. Halley przypisał także świeckie przyspieszenie Jowiszowi i świeckie spowolnienie Saturnowi, aby uwzględnić starożytne i współczesne obserwacje (Tabulae astronomicae, 1749). Takie świeckie zmiany, kontynuowane w nieskończoność, doprowadziłoby do rozpadu układów Ziemia-Księżyc i planetarnych. Pierwsze ważne wspomnienia PIERRE-SIMONA LAPLACEA (1749-1827), ukończone w 1773 r., wykazały, że średnie ruchy planet, zgodnie z porządkiem kwadratów mimośrodów, są odporne na świeckie zmiany spowodowane perturbacjami planetarnymi. W podanym porządku współczynnik członu proporcjonalny do t2 w wyrażeniu długości geograficznej wynosił identycznie zero. Pozorne świeckie zmiany w średnim tempie ruchu Jowisza i Saturna, przypuszczał Laplace, mogą wynikać z zaburzeń kometarnych. We wspomnieniach przesłanych do Akademii Paryskiej w październiku 1774 r. Lagrange wyprowadził równania różniczkowe dla zaburzeń w nachyleniu orbit i węzłach planet, które zależą od orientacji i rozmiarów orbit, ale nie od tego, gdzie na nich znajdują się planety. Aby to zrobić, zastąpił tangens nachylenia orbity (θ) i długości geograficznej węzła wstępującego (ω) nowymi zmiennymi, u = θ sin ω, s = θ cos ω. Powstałe równania różniczkowe były liniowe i pierwszego rzędu i miały rozwiązanie w postaci



Tutaj stałe a, b, c, . . . są pierwiastkami równania n-tego stopnia, a pozostałe stałe można wyznaczyć z empirycznych wartości s1, u1, s2 itd. w danej epoce. Lagrange nie rozwiązał całego układu dla wszystkich sześciu znanych planet - co było ogromnym zadaniem - ale traktując dwie duże, Jowisza i Saturna, jako odrębny system, otrzymaliśmy cztery prostsze równania. Ich rozwiązanie wykazało, że węzły i nachylenie orbit tych planet oscylowały w ustalonych granicach z okresem 51 150 lat. Lagrange nazwał te zmiany świeckimi: były one oczywiście okresowe, ale ich okresy były o rząd wielkości dłuższe niż okresy zwykłych zmian okresowych, które zależą od położenia planet na ich orbitach. Laplace przeczytał wspomnienia Lagrange′a z października 1774 r., kiedy dotarły one do Paryża, i od razu zauważył (podobnie jak Lagrange), że podobna procedura będzie miała zastosowanie do dziwactw i afelii. Zatem wprowadzając nowe zmienne h = e sin L, k = e cos L, gdzie e jest mimośrodem, a L długością aphelium, wyprowadził liniowe równania różniczkowe pierwszego rzędu dla dh/dt i dk/dt. . Analiza ta została opublikowana w 1775 roku. Laplace porzucił teraz na dekadę problem zaburzeń planetarnych. Masy Merkurego, Wenus i Marsa były nieznane i nie był pewien, jaki jest zakres wpływu komet na planety. Lagrange ruszył do przodu. W 1776 przedstawił nowy dowód odporności ruchów średnich na zmiany świeckie; zawierał klasyczne sformułowanie zmienności elementów orbity i wprowadził "funkcję zaburzającą", czyli funkcję potencjalną, z której poprzez częściowe różniczkowanie można wyprowadzić siły perturbacyjne w różnych kierunkach. W 1777 roku użył funkcji zaburzającej przy pierwszym systematycznym wyprowadzeniu wszystkich znanych całek ruchu dla n ciał przyciągających się zgodnie z prawem odwrotności kwadratów. W latach 1781 i 1782 ukończył dwie części dużego traktatu wyprowadzającego świeckie nierówności wszystkich planet metodą zmienności parametrów orbit. W 1783 r. zastosował tę samą metodę do wyprowadzenia nierówności okresowych zerowego rzędu (nierówności niezależne od mimośrodów i nachylenia). W tym momencie Lagrange zdał sobie sprawę, że jego wcześniejszy dowód odporności ruchów średnich na zmiany świeckie wymaga kwalifikacji: ruchy średnie mogą wydawać się zmieniać świeckie z powodu świeckiej zmienności innych elementów orbity. Niech część pozornej zmiany średniego ruchu, która jest skorelowana ze zmianą średniej odległości Słońca, a zatem jest odporna na zmiany świeckie, będzie wynosić dp; ta część jest okresowa i zależy od położenia planet. Druga część dΣ zależy od zmian w innych elementach orbity i jest "świecka" (niezależna od pozycji planet), gdy występują inne zmiany. Odmianę d), zaproponowaną przez Lagrange′a, należy uważać za odmianę szóstego elementu orbity, czyli epoki. dΣ okazało się, że zawiera terminy świeckie dopiero wtedy, gdy przeprowadzono przybliżenie do drugiej i wyższej potęgi mimośrodów i nachyleń. Aby złagodzić pracochłonność takich obliczeń, Lagrange zaproponował uwzględnienie tylko tych terminów, które zostałyby znacznie zwiększone przez integrację. Były to terminy zawierające cosinus lub sinus kąta π takiego, że dπ = λ dp, gdzie λ jest bardzo małe; gdyż w przypadku podwójnej integracji taki człon jest mnożony przez duży współczynnikλ-2. Ale π jest liniową kombinacją średnich ruchów kilku planet, a szczegółowe badanie tych liniowych kombinacji pokaże, które z nich prowadzą do małego &;lambda;. Lagrange nie znalazł żadnej świeckiej zmiany w dΣ, która wyjaśniałaby świeckie przyspieszenia Halleya. Laplace wkrótce zastosował propozycję obliczeniową Lagrange′a nie do dΣ, ale do dp.

Rozwiązanie Laplace′a w sprawie głównych anomalii, 1785-177

23 listopada 1785 Laplace ogłosił rozwiązanie anomalii w średnich ruchach Jowisza i Saturna. J.H. Lambert odkrył, że od połowy XVII wieku tempo przyspieszania Jowisza i tempo zwalniania Saturna maleje: nierówność może mieć charakter okresowy. Wychodząc od zasady zachowania sił żywych, Laplace odkrył teraz, że świeckie zmiany, które Halley zaproponował dla tych planet, mają taki stosunek, jaki sugerowałaby ich interakcja grawitacyjna. Jak powszechnie wiadomo, dwa okresy Saturna były prawie równe pięciu okresom Jowisza; zatem średnie ruchy nJ i nS dały kombinację liniową 2nJ - 5nS, która była bardzo mała. Wynika z tego, że okresowa nierówność proporcjonalna do sin[(2nJ ? 5nS)t ] może być spora. Z drugiej strony jego współczynnik (który składałby się z kilku członów) miałby trzeci wymiar w siłach i iloczynach mimośrodów i pochyleń, a zatem mógłby być zaniedbywalny. Tylko pełne obliczenia mogłyby rozstrzygnąć pytanie. To, co odkrył Laplace, było największym zaburzeniem w Układzie Słonecznym, ze współczynnikiem dla Saturna wynoszącym -49 i dla Jowisza wynoszącym 20'; okres ten wynosił około 900 lat. Jego nowe, rozszerzone teorie dotyczące obu planet były zgodne zarówno ze starożytnymi, jak i współczesnymi obserwacjami. Wspomnienia Laplace'a z listopada 1785 roku zawierały wyjaśnienie rezonansu, który Lagrange odkrył w ruchach pierwszych trzech galileuszowych satelitów Jowisza, a także próbę udowodnienia, że mimośrody orbit a nachylenie planet musi pozostać małe. Ten ostatni dowód, jak później zauważył Le Verrier, milcząco zakładał, że wszystkie masy planet były tego samego rzędu wielkości; było zatem niejednoznaczne. W grudniu 1787 Laplace miał wyjaśnienie pozornego świeckiego przyspieszenia Księżyca. Średni składnik promieniowy zakłócającej siły Słońca jest ujemny i odejmuje się od przyciągania Ziemi. Ekscentryczność orbity Ziemi, z powodu świeckich, ale cyklicznych zmian, obecnie maleje, powodując nieznaczny spadek średniej siły zakłócającej Słońca. Stąd Księżyc wpada na niższą orbitę i zwiększa swoją prędkość kątową. Wartość Laplace'a dla przyrostu, około 10 cali na stulecie, była zgodna z przyjętą wartością empiryczną. (Ta analiza była nieodpowiednia; patrz poniżej).

Méecanique Céeleste Laplace'a

Pierwsze cztery tomy Mécanique Céleste Laplace′a, które ukazały się w latach 1798-1805, zawierały nie tylko rozszerzony wykład teorii zaburzeń, ale także jej szczegółowe zastosowanie do planet i Księżyca. Przez dziesięciolecia tomy te służyły jako podręcznik par Excellence dla astronomów matematycznych. Dokładne wyjaśnienie wszystkich wykrywalnych nierówności w Układzie Słonecznym stało się w zasięgu ręki. Masy Merkurego, Wenus i Marsa można określić na podstawie zaburzeń. Najwyraźniej komety nie zakłócały planet w zauważalny sposób. Laplace osiągał swoje sukcesy, stosując mieszankę metod, wybierając jedną lub drugą, ponieważ zapewniała ona szybsze podejście do określonego celu. Jego procedura dotycząca nierówności planetarnych proporcjonalnych do zerowej i pierwszej potęgi mimośrodów i mas gwarantowała pełny przebieg. Aby otrzymać nierówności okresowe wyższego rzędu, postępował według swego rodzaju ostrego strzelania, co pozostawiało niepewność, czy wszystkie wyrazy danego rzędu małości zostało rozliczone. Do ruchów średnich dodał bardzo długoterminowe nierówności okresowe i wykorzystał w ten sposób zmodyfikowane ruchy średnie do wyznaczania nierówności krótkoterminowych. Świeckie różnice zostały określone przez jeszcze inną procedurę. Ta różnorodność metod zrodziła pytanie: czy nie można przyjąć jednej, wyraźnie spójnej procedury w celu ustalenia wszystkich nierówności? Tymczasem robotnicy tradycji laplacowskiej mieli dość jasne zadanie. Rozwój funkcji zaburzającej musi zostać przeniesiony na wyższe rzędy przybliżenia, a dedukcja nierówności wyższego rzędu powinna stać się bardziej systematyczna. Baron de Damoiseau i Giovanni Plana realizowali te imperatywy w swoich teoriach księżycowych. Teorie planetarne sformułowane przez URBAIN JJ LEVERRIERA (1811-77), a po nim SIMONA NEWCOMBA (1835-1909), wywodziły się z tej samej tradycji, a ich różnica polegała na szerszej podstawie obserwacyjnej i większej precyzji.

Odkrycie Neptuna

Siódma planeta, Uran, została odkryta przez Williama Herschela w 1781 r. W 1821 r. Alexis Bouvard, konstruując teorię Urana, stwierdził, że nie jest w stanie przedstawić obserwacji z oczekiwaną dokładnością kilku sekund łukowych. Po 1821 r. rozbieżności wzrosły, osiągając na początku lat czterdziestych XIX wieku prawie dwie minuty łukowe. Czy odpowiedzialna była za to nieznana, niepokojąca planeta? W połowie lat czterdziestych XIX wieku JOHN COUCH ADAMS (1819-92) w Anglii i Le Verrier we Francji niezależnie podjęli się odpowiedzi na to pytanie. Przyjęli, że orbita zakłócającej planety leży na ekliptyce, a szerokości geograficzne Urana są niewielkie. Zaakceptowali prawo Titiusa-Bodego, regułę liczbową podającą w przybliżeniu odległości znanych planet od Słońca i sugerującą, że następna planeta będzie miała średnią odległość od Słońca wynoszącą 38 jednostek astronomicznych. Następnie należało przypisać wartości ekscentryczności orbity i peryhelium, epoki i masy nieznanej planety, aby wytworzyć zaburzenia, które pogodzą przewidywane ruchy Urana z obserwacjami. Obaj badacze odnieśli sukces. Przedstawiając swoje wyniki GEORGE BIDDEL AIRY, astronomowi królewskiemu, pod koniec 1845 roku, Adams spotkał się z odmową: Airy nie ufał prawu Titiusa-Bodego. LeVerrier wysłał swoje przewidywania do Johana Gottfrieda Galle z Obserwatorium Berlińskiego i 23 września 1846 roku Galle skierował swój teleskop na wskazany obszar nieba, ale nie udało mu się znaleźć szukanego dysku planetarnego. Jego asystent, Heinrich Louis d′Arrest, zasugerował skonsultowanie się z nowym Atlasem Gwiazd Akademii Berlińskiej. Porównując niebo i mapę, Galle zlokalizował gwiazdę ósmej mag, której nie ma na mapie, 52 minuty od pozycji podanej przez LeVerriera. 24-go przeniosła się: była to poszukiwana planeta. To odkrycie Neptuna na drodze czystej kalkulacji okrzyknięto triumfem. Orbitę planety można teraz obliczyć na podstawie obserwacji. Średnia odległość Słońca wyniosła 30,1 jednostek astronomicznych: prawo Titiusa - Bodego było błędne. Ekscentryczność orbity była jedną dziesiątą wielkości, jak przypuszczali Adams i LeVerrier, a peryhelium było oddalone o ponad 100? od miejsca, w którym je umieścili. Wraz z odkryciem satelity Neptuna, Trytona, pod koniec 1846 roku, możliwe było dokładne określenie masy Neptuna; Wartości Adamsa i LeVerriera były za duże odpowiednio o współczynniki 2,65 i 1,88. Jednak w okresie od około 1800 do 1850 roku, obejmującym koniunkcję Urana i Neptuna w 1821 roku, kiedy perturbacje były największe, hipotetyczne orbity Adamsa i LeVerriera były bliskie orbitom rzeczywistym, dawały prawie prawidłowe zakłócenia w tym przedziale czasowym i pozwoliło na prawidłowe określenie położenia Neptuna.

Dziedzictwo Lagrange′a - Poissona: Hansen, Hamilton, Jacobi, Delaunay

W latach 1808 i 1809 Simeon-Denis Poisson (1781-1840) przedstawił Akademii Paryskiej dwa wspomnienia wykorzystujące i rozwijające metodę Lagrangianu wariancji dowolnych stałych. Pobudzili Lagrange′a do dalszych innowacji. Teoria Lagrange&prine;a-Poissona została objaśniona w Mécanique Analytique Lagrange′a, wydanie drugie (tom I, 1811; tom II, 1815). Poisson wprowadził koncepcję "pędu sprzężonego" pi dla każdej współrzędnej qi. Jeśli q′i = dqi/dt , a T jest energią kinetyczną, to pi = ∂T /∂?q′i . Pokazał, że jeśli a, b są dwiema całkami układu, to "nawias Poissona"



jest niezależna od czasu. Następnie pokazał, że jeśli ai są stałymi całkowania, które stają się zmienne pod wpływem zaburzeń, to



gdzie Ω jest funkcją zaburzającą. Poisson zaproponował, a Lagrange udowodnił, że



gdzie ai może być wartością qi, a bi wartością pi, w t = 0. Równania w postaci zostaną później nazwane "kanonicznymi". P. A Hansen (1795-1874), od 1825 r. aż do śmierci dyrektor Seeberg Observatory, był samoukiem w dziedzinie mechaniki niebieskiej. Ponieważ wzory Laplace′a na współrzędne zaburzone uwzględniały tylko pierwszą potęgę sił zakłócających, wkrótce zwrócił się ku metodzie zmiany parametrów orbitalnych. Miało to jednak swoje wady: aby znaleźć zaburzenia trzech współrzędnych, trzeba było określić zaburzenia sześciu elementów, a te ostatnie były często znacznie mniejsze niż pierwsze, w związku z czym bardzo małe ilości musiały być obliczane z różnic dużych wielkie ilości. Hansen starał się uzyskać bezpośrednie obliczenie współrzędnych poprzez rygorystyczne wyprowadzenie ze wzorów Lagrange′a - Poissona. Współrzędne były funkcjami elementów orbity i czasu; elementy orbitalne były funkcjami czasu. Korzystając z reguły łańcuchowej dla pochodnych cząstkowych, Hansen opracował dwuczęściową procedurę. Najpierw uzyskał zaburzone wartości wektora długości i promienia w płaszczyźnie chwilowej, zastępując "czas zaburzony" - czas zmieniony w celu uwzględnienia efektów perturbacyjnych - do standardowych wzorów eliptycznych. Następnie wyznaczył położenie płaszczyzny chwilowej względem płaszczyzny odniesienia za pomocą zmian dwóch zmiennych sprzężonych p i q. Hansen po raz pierwszy zastosował tę procedurę we wspomnieniach na temat wzajemnych zaburzeń Jowisza i Saturna; zdobył nagrodę Akademii Berlińskiej w 1831 r. (G.W. Hill w swoich dokładniejszych obliczeniach zaburzeń Jowisza i Saturna w latach osiemdziesiątych XIX wieku postępował zgodnie z procedurą Hansena). Następnie Hansen zajął się problemem Księżyca; jego tablice księżycowe, opublikowane w 1857 r., zostały przyjęte jako podstawa dla brytyjskich i francuskich efemeryd narodowych od 1862 do 1922 r. Matematyk Arthur Cayley w latach pięćdziesiątych XIX wieku wychwalał procedurę Hansena jako jedyną dostępną wówczas rygorystyczną metodę leczenia. Procesy Hansena były jednak skomplikowane; niewielu astronomów je rozumiało. W dwóch artykułach opublikowanych w latach 1834 i 1835 w Philosophical Transactions of the Royal Society of London irlandzki matematyk William Rowan Hamilton położył nowe podwaliny pod dynamikę. Wprowadził "funkcję główną" S, zdefiniowaną jako



gdzie L = T - V to "Lagrangian", V to energia potencjalna. S, oceniane wzdłuż krzywej rozwiązania różniczkowych równań ruchu, musi mieć wartość ekstremalną, tak że δS = 0. Wynika z tego, że cząstkowe równanie różniczkowe problemu miało postać



gdzie H jest "Hamiltonianem", czyli energią całkowitą T + V. Równaniom ruchu Hamilton nadał postać kanoniczną



Niemiecki matematyk C. G. Jacobi (1804-1851) uogólnił teorię Hamiltona, pokazując, że ma ona zastosowanie do układów niekonserwatywnych i że rozwiązanie dynamicznych równań ruchu można uzyskać z całkowitego rozwiązania. Sformułował także warunek przekształcenia jednego zbioru zmiennych kanonicznych w inny. Niezależnie od prac Hamiltona i Jacobiego, CHARLES DELAUNAY (1816-72) w 1846 r. zaproponował wyznaczenie perturbacji Księżyca na podstawie równań początkowych



Tutaj (L, l), (G, g), (H, h) to sześć specjalnie wybranych elementów orbitalnych, sprzężonych parami w sposób (LP.3), a R jest funkcją zaburzającą. Delaunay rozwinął R jako serię cosinusów wielokrotności odpowiednich kątów, do siódmego rzędu małych wielkości. Jego strategia rozwiązania polegała na podzieleniu R na dwie części, R1 i R?R1, gdzie R1 jest największym wyrazem w R. Następnie rozwiązał z R1 podstawionym za R, uzyskując nowe wartości L, l, G, g, H, h, które następnie podstawił do R - R1. Następnie należało rozdzielić R-R1 na dwie części i cały proces powtórzyć. Na każdym etapie wszystkie wykrywalne efekty wynikające z rozważanej części R zostały określone raz na zawsze, co stanowi główną przewagę nad innymi metodami, w których składniki perturbacyjne łączą się, tworząc nowe składniki perturbacyjne. Kompletna teoria Księżyca Delaunaya ukazała się w dwóch dużych tomach w latach 1860 i 1867. Podobnie jak wcześniejsze teorie Plany i PGD De Pontécoulant (1795-1874), była to teoria dosłowna, podająca współczynniki terminów perturbacyjnych w formie algebraicznej, a nie tylko liczebnie. Jego główną wadą była powolna zbieżność szeregów.

Ponowny przegląd świeckiego przyspieszenia Księżyca
W 1853 roku J.C. Adams wykazał, że Laplace w swoim wyprowadzeniu świeckiego przyspieszenia Księżyca nie uwzględnił odpowiednio składowej stycznej zakłócającej siły Słońca i że kiedy to zrobiono, ogólny efekt można wywnioskować ze zmniejszenia się zakłócającej siły Słońca było tylko 6 na stulecie. Wynik Adamsa został potwierdzony przez Delaunaya w 1859 r. Astronomowie broniący wartości Laplaciana nie byli w stanie wykazać błędu w analizie Adamsa-Delaunaya. W 1865 roku Delaunay wyjaśnił, w jaki sposób pływy oceaniczne wznoszone przez Księżyc mogą spowolnić dobową rotację Ziemi: wypukłości pływowe przenoszone na wschód od Księżyca w wyniku dobowej rotacji Ziemi, są przyciągane do tyłu przez Księżyc, a tarcie między wodą pływową a stała Ziemia ma wówczas tendencję do spowalniania obrotu Ziemi. Wynik: Księżyc wydaje się przyspieszać. Kwestię tę rozstrzygnięto w XX wieku na podstawie starożytnych zaćmień. Opóźnienie dobowego obrotu Ziemi powoduje pozorne przyspieszenie na Księżycu o 20 na stulecie; to dodane do wartości Adamsa-Delaunaya daje całkowite przyspieszenie 26 na wiek. Obserwowana wartość wynosi około 11; różnicę 15 można przypisać reakcji pływów na Księżycu, która unosi Księżyc na wyższą orbitę, gdzie jego ruch kątowy jest mniejszy. W ten sposób ewoluuje układ Ziemia-Księżyc.

Księżycowa teoria GW Hilla

Podstawy najbardziej innowacyjnej teorii księżycowej stulecia położył amerykański mechanik niebieski GEORGE WILLIAM HILL (1838-1914) w dwóch artykułach: "Researches in the Lunar Theory" (1878) i "On the Part of of the Lunar Theory" (1878) Ruch perygeum Księżyca będący funkcją średnich ruchów Słońca i Księżyca" (1877). Dokładność wcześniejszych teorii Księżyca była ograniczona głównie przez powolną zbieżność szeregów dających współczynniki składników perturbacyjnych; winowajcą był parametr m, stosunek miesiąca gwiazdowego do roku gwiazdowego. Pomysł Hilla polegał na wyodrębnieniu roli m i pełnym uwzględnieniu jej na początku, poprzez przyjęcie nowego pierwszego przybliżenia, a nie standardowego eliptycznego rozwiązania problemu dwóch ciał, ale specjalnego rozwiązania "ograniczonego" problemu trzech ciał , w którym Księżyc jest przyciągany, ale nie przyciąga. W ten sposób ustalił ekscentryczność i paralaksę Słońca, ekscentryczność i nachylenie Księżyca, wszystkie równe zeru i użył obrotowego układu współrzędnych, którego początek znajduje się w środku Ziemi, płaszczyzna x - y w ekliptyce, a oś x jest stale skierowana w stronę Słońca . Powstałe równania różniczkowe dopuszczone do konkretnego rozwiązania okresowego



gdzie τ = ?(t - t0), t0 to czas, w którym Księżyc przecina dodatnią oś x, a ? to częstotliwość jego okresowego ruchu wokół Ziemi; sumowania rozciągają się na wszystkie wartości całkowite i . Hill w drodze kolejnych przybliżeń określił wartości ai w szeregu szybko zbieżne w parametrzem = m/(1?m); błąd tych wartości, gdy podano m wartość, jaką ma dla ziemskiego Księżyca, nie przekroczył dwóch jednostek piętnastego miejsca po przecinku. Równanie podaje to, co Hill nazywa "orbitą wariacyjną", ponieważ zawiera główną część nierówności Księżyca, znanej jako wariacja. Aby uzyskać ekscentryczną orbitę, podobną do orbity prawdziwego Księżyca, Hill w drugiej wspomnianej powyżej pracy wprowadził swobodne oscylacje wokół wektora promienia orbity wariacyjnej i pod kątem prostym do niego. Oscylacja ?p wzdłuż wektora promienia jest dana wzorem



przykład tak zwanego równania Hilla. Aby otrzymać szczególne rozwiązanie, w którym ? nie występuje poza argumentami cosinusów, do pierwszego przybliżenia należy wstawić stałą c:



gdzie c jest rozwiązaniem nieskończonego, ale zbieżnego wyznacznika. Hill uzyskał wartość c dobrą z dokładnością do prawie piętnastej po przecinku; daje to ruch perygeum Księżyca jako 0,008 572 573 004 864×360°. Natomiast szereg Delaunaya dla tej stałej, choć doprowadzony do wyrazu w m9, daje wartość z dokładnością tylko do trzech cyfr znaczących. Widząc oczywistą wyższość metody Hilla, E.W. Brown rozpoczął w 1888 r. proces opracowywania za jej pomocą kompletnej teorii Księżyca . Powstałe w ten sposób tablice opublikowano w 1919 r., a w 1923 r. stały się podstawą brytyjskich i amerykańskich efemeryd.

Dzieło Poincarego

Kulminacyjnym osiągnięciem teoretycznym dziewiętnastowiecznej mechaniki nieba był Les Méthodes Nouvelles de la Mécanique Céleste autorstwa HENRI POINCAR′E (1854-1912), opublikowany w trzech tomach od 1892 do 1899. Używając teorii Hamiltona-Jacobi, Poincare badał topologicznie zakres rozwiązań problemu trzech ciał, zaczynając (podobnie jak Hill) od rozwiązań okresowych. Podejście topologiczne było nowe. Zagadnienia poruszone w tej pracy, w szczególności zbieżność szeregów stosowanych w mechanice nieba i dziwne zachowanie podwójnie asymptotycznych rozwiązań Poincarego, powróciły w drugiej połowie XX wieku w teorii Kołmogorowa-Arnolda-Mosera i teorii chaosu .

Związek okres cefeidy-jasność

Empiryczna korelacja między jasnością zmiennej cefeidy a jej okresem była znana astronomom i wykorzystywana przez nich jako skuteczna metoda określania odległości przez większą część XX wieku. Pojedynczo cefeidy mają charakterystyczne światło krzywe, szybko zwiększając jasność do maksimum, a następnie stopniowo spadając do minimalnego światła. Cykl ten stale się powtarza, a poszczególne okresy trwają od kilku do wielu setek dni, w zależności od wewnętrznej jasności gwiazdy. Łącznie skale czasowe, w których zachodzi ta okresowa cykliczność cefeid, wynoszą ściśle powiązane ze średnią jasnością gwiazd. Powód tej empirycznej korelacji jest niezwykle dobrze poznany, a zastosowania relacji okres-jasność są liczne. Konsekwencje, szczególnie dla skali odległości pozagalaktycznych, mają znaczenie w kosmologii. Zależność okres-jasność cefeid po raz pierwszy odkryła astronomka z Harvardu, Henrietta LEAVITT. Analizowała okresy i pozorne jasności wybranych cefeid, wszystkie w tej samej odległości w dwóch (obecnie znanych) pobliskich galaktykach satelitarnych Drogi Mlecznej, DUŻYCH i MAŁYCH CHMURACH MAGELLANIC. Odkryła, że pani Leavitt zapoczątkowała jedno z najważniejszych i najtrwalszych działań astronomicznych XX wieku - kalibrację skali rozmiarów Wszechświata. Tuż po tym nastąpiło odkrycie ekspansji Wszechświata przez astronoma z Carnegie Edwina HUBBLE′A , co w połączeniu dało podstawę do określenia skali czasu powstania wszechświata, opisanego przez "gorący duży bangowy model współczesnej KOSMOLOGII. Cefeidy to nadolbrzymy i jako takie należą do najjaśniejszych obiektów w galaktykach, które obecnie tworzą nowe populacje gwiazd. Według teorii ewolucji gwiazd, bezpośrednimi prekursorami cefeid są masywne, młode gwiazdy typu O i B. Te gorące (niebieskie) gwiazdy ciągu głównego powstały niedawno, ale ze względu na ich dużą masę i ogromną energię wyjściową wkrótce ewoluują od obszaru spalającego rdzeń wodorowy do niższych temperatur powierzchniowych i bardziej czerwonych kolorów. Robiąc to, te ogromne gwiazdy na krótko przechodzą przez strefę, w której ich atmosfery zewnętrzne są niestabilne na okresowe oscylacje promieniowe. Ten wąski zakres temperatur wywołujący niestabilność atmosfery definiuje tzw. "pasek niestabilności", w którym można zaobserwować pulsację cefeidy. Gwiazdy o dużej masie przechodzą przez pas przy wyższej jasności (i nieco niższych temperaturach) niż gwiazdy o mniejszej masie, które przechodzą przez pas nieco wcześniej w wyższych temperaturach i przy wyraźnie niższych jasnościach. Na wykresie barwa-jasność pasek niestabilności cefeidy jest pochylony w górę i w poprzek, w stronę czerwieni. Ujmując to inaczej, te proste rozważania z STELLAR EVOLUTION przewidują, że w przypadku cefeid istnieje zależność masa-jasność. Rzeczywiście, zapewnia to również istnienie zależności promienia od jasności tych gwiazd, ponieważ najbardziej podstawowe prawa fizyki wymagają, aby dwie gwiazdy o tej samej temperaturze (kolorze) miały różną jasność tylko w przypadku całkowitego pola powierzchni (sterowane bezpośrednio przez promienie) za różne. Ponieważ temperatura pośrednio kontroluje jasność powierzchni (poprzez funkcję Stefana prawo emisyjności, σT4), a promień wyraźnie kontroluje pole powierzchni (poprzez geometrię, 4?R2), kombinacja tych dwóch czynników daje całkowitą jasność. Wzajemną zależność pomiędzy jasnością L, efektywną temperaturą Teff i promieniem R można łatwo określić ilościowo za pomocą następującego równania opartego na argumentach fizycznych podanych powyżej:

L = 4πR2&sigmaT4eff .

Biorąc pod uwagę, że temperatura, w której gwiazdy te są niestabilne na oscylacje, obejmuje stosunkowo niewielki zakres (~300 K), jasność jest wówczas przede wszystkim funkcją średniego promienia gwiazdy w pasie niestabilności. Niestety, ani masa, ani promień żadnej gwiazdy nie są właściwościami łatwymi do zaobserwowania, zatem zależności zapisanej powyżej nie można zastosować w żadnym praktycznym zastosowaniu do wyznaczania odległości (tj. przewidywania wewnętrznej jasności). Gdyby jednak jakaś inna (bardziej bezpośrednio obserwowalna) wielkość była funkcją masy i/lub promienia, w zasadzie można by przewidzieć jasność, używając tej wielkości jako wskaźnika zastępczego promienia. Z empirycznej perspektywy wiemy już, że istnieje rozwiązanie - to, które znalazła pani Leavitt - relacja okres-jasność. Teoria łatwo wyjaśnia tę empiryczną zależność. Okresy oscylacji na powierzchni cefeidy są nieodłączną cechą gwiazdy i są oczywiście niezależne od odległości obserwatora, ale znajomość empirycznego związku okres-jasność natychmiast sugeruje, że obserwowany okres można wykorzystać do przewidywania jasności. Z powyższych argumentów fizycznych wynika, że okres drgań może zastępować masę, promień lub jakąś ich kombinację. Rzeczywiście tak jest. Jednak natura zapewnia nam jeszcze więcej; istnieje również nieodłączny związek okresu i koloru dla cefeid. Ponieważ zarówno okres (P), jak i kolor (C) są niezależne od odległości, relacja P - C (po skalibrowaniu) pozwala wykryć zaczerwienienie międzygwiazdowe w próbce cefeid w zewnętrznej galaktyce. Pojedynczo cefeidy mogą stać się bardziej czerwone i słabsze z powodu wewnętrznych różnic temperatur lub bardziej czerwone i słabsze z powodu wygaśnięcia linii wzroku. W przypadku kolekcji cefeid wewnętrzne różnice w kolorach będą się uśredniać. Ponieważ jednak wymieranie jest efektem systematycznym, będzie miało tendencję do przenoszenia całej populacji do bardziej czerwonych i słabszych poziomów. W porównaniu z wewnętrzną relacją P - C, średnie odchylenie zespołu można dość zinterpretować jako spowodowane ekstynkcją międzygwiazdową, a wywnioskowaną odległość skorygowaną o tę absorpcję. Wyraźną korekcję efektów systematycznych, takich jak pociemnienie przez pył międzygwiazdowy, najlepiej osiągnąć obserwując cefeidy na dwóch lub więcej długościach fal i wykorzystując relacje okres-kolor do przewidywania poprawek statystycznych dla średnich zespołowych. Alternatywnym podejściem jest obserwacja cefeid na długich falach, gdzie skutki wymierania międzygwiazdowego stopniowo zanikają. Na przykład obserwując cefeidę w odległości 2 ?m w bliskiej podczerwieni, w przeciwieństwie do obszaru widma 4500 A (niebieskiego), efekt ekstynkcji zmniejsza się prawie 10-krotnie. W przypadku wszystkich układów swobodnie oscylujących, czy to dzwonów, dzwonienie, wahania zegarów wahadłowych, krążące wokół planet, pulsowanie cefeid, obracanie się galaktyk, a nawet rozszerzanie się (lub kurczenie się) całego Wszechświata, głównym fizycznym wyznacznikiem skali czasu (lub okresu oscylacji, P) jest średnia gęstość układu . Gęstość jest z samej definicji wyłącznie funkcją masy i promienia. Matematyczny wyraz tego prawa natury jest zawarty w równaniu

1/2 = Q.

Na najbardziej podstawowym poziomie równanie to jest formalnie równoważne zasadzie zachowania energii. Trzecie prawo Keplera dotyczące ruchu planet, łączące okresy obrotu planet wokół Słońca z ich zmierzonymi półgłównymi osiami orbit, jest innym wyrażeniem tego samego wzoru (patrz SLAWS KEPLERA). Również scharakteryzowana zależność pomiędzy tempem ekspansji Wszechświata przez STAŁĄ HUBBLELA, a średnia gęstość Wszechświata w porównaniu z jego gęstością krytyczną to ten sam wzór w ujęciu kosmologicznym. Historię stojącą za ustaleniem wiarygodnego punktu zerowego relacji cefeidy P-L czyta się jak mikrokosmos równoległych poszukiwań ustalenia skali rozmiarów całego wszechświata. Rzeczywiście te dwa zadania, odmienne pod względem skali, są często jednym i tym samym problemem, wielokrotnie przeplatającym się. W wielu kontekstach skala odległości cefeidy jest skalą odległości pozagalaktycznej. Na przykład Kosmiczny Teleskop Hubble′a (HST) został w dużej mierze zaprojektowany w oparciu o oczekiwane wykorzystanie cefeid do docierania do galaktyk i pomiaru ich odległości aż do gromady w Pannie, około 10 lub 20 razy dalej niż najbardziej odległe galaktyki mierzone przez cefeidy z ziemi. Kiedyś oczekiwano, że pomiar odległości cefeidy od Panny będzie Świętym Graalem skali odległości, ale tak się nie stało. W latach, które upłynęły między zaprojektowaniem HST a jego ostatecznym uruchomieniem i późniejszą renowacją, nasz pogląd na Wszechświat zmienił się w zasadniczy sposób: obecnie wiadomo, że wielkoskalowe przepływy towarzyszą wielkoskalowym strukturom wypełniającym pobliski wszechświat. Innymi słowy, prędkości mierzone jako przesunięcia ku czerwieni dla galaktyk nie składają się po prostu z pojedynczego składnika ekspansji Hubble'a, ale nakładają się na siebie prędkości przepływu wynikające z zaburzeń grawitacyjnych pobliskiej materii w postaci pobliskich galaktyk, grup i gromad. Kluczowy projekt dotyczący pozagalaktycznej skali odległości opierał się na wykorzystaniu cefeid jako wskaźników odległości. Wykorzystując tradycyjne metody odkrywania pozagalaktycznych cefeid poprzez obrazowanie w świetle optycznym (gdzie amplitudy cefeid są duże w porównaniu z bardziej czerwonymi falami), Kosmiczny Teleskop Hubble'a był używany przez kilka grup, w tym Key Project, do określania odległości do ponad dwudziestu galaktyk na zewnątrz poza gromadami Panny i Pieca, prawie o rząd wielkości dalej, niż było to wcześniej możliwe przy użyciu teleskopów naziemnych. Odległości cefeid do galaktyk są następnie wykorzystywane do kalibracji szeregu wtórnych wskaźników odległości dla galaktyk rozciągających się znacznie dalej w przepływie Hubble'a. Dzięki obserwacjom w kolorze czerwonym (pasmo I) uzyskano również drugi kolor potrzebny do korekcji ekstynkcji i wyprowadzono rzeczywiste odległości. Przeprowadzono także dalsze badania wybranych obiektów przy 1,6 ?m za pomocą HST i kamery bliskiej podczerwieni (NICMOS), aby potwierdzić zaczerwienienia i wzmocnić ustalenia odległości w oparciu o długość fali, która jest niewrażliwa zarówno na ekstynkcję, jak i metaliczność. Skład chemiczny, czyli metaliczność, stwarza kolejną prawdopodobną komplikację, którą należy uwzględnić przy ocenie niepewności związanej z odległościami cefeid. Nie wykryto żadnych znaczących różnic między optycznie skorygowanymi modułami odległości rzeczywistej a modułami wzmocnionymi danymi z bliskiej podczerwieni. Na zakończenie projektu kluczowego skalibrowano wiele wtórnych wskaźników odległości przy użyciu zmiennych cefeid. Każda z tych metod dała zwrócone wartości tempa rozszerzania się Wszechświata, stałą Hubble'a, mieszczącą się w przedziale od 68 do 78 km s-1 Mpc-1. Jednakże określono również odległości (i prędkości) do galaktyk w głównych gromadach i wokół nich. Po skorygowaniu o zakłócający wpływ gromad, te galaktyki polowe wykazują również zależność prędkość-odległość, którą można utożsamić z ekspansją Wszechświata. Na podstawie samych odległości cefeid można wyprowadzić siłę związku między prędkością a odległością, więc lokalnie wynosi ona 73 km s-1 Mpc-1. Ta wartość H0, niezależnie od tego, czy pochodzi wyłącznie z cefeid w pobliskich galaktykach, czy z galaktyk powiązanych ze skalą odległości cefeid, ale uczestniczących w przepływie z prędkością 10 000 kmˇs-1, konsekwentnie sugeruje wiek 12 miliardów lat dla małej gęstości wszechświat

CH Cygni

CH Cygni (CH Cyg) to jedna z najbardziej zagadkowych GWIAZD SYMBIOTYCZNYCH. Znany niegdyś jako krótkookresowa zmienna półregularna i standard dla typu widmowego M6III, układ zapoczątkował niezwykłą serię erupcji w 1964 r. Pojawienie się niebieskiego kontinuum i skromnych linii emisyjnych H I doprowadziło do jego przeklasyfikowania na gwiazdę symbiotyczną, pomimo braku silne wyższe linie jonizacji charakterystyczne dla większości symbiotyków. Niektóre z tych linii odkryto później dzięki widmom wyższej jakości uzyskanym w latach 70. i 80. XX wieku. Mimo to nieregularne zachowanie układu podczas spoczynku i erupcji wyraźnie odróżnia CH Cyg od większości gwiazd symbiotycznych. CH Cyg ma wspólne właściwości z Ceti (MIRA) i symbiotyczną gwiazdą RAqr, dwoma gigantami typu M6-M7 z towarzyszem - białym karłem. Wszystkie znajdują się stosunkowo blisko, w odległości 100-300 pc w porównaniu z odległością 1 kpc w typowym symbiotycznym układzie podwójnym. Systemy zawierają pulsujące CZERWONE GIGANTY z okresami ∿100 dni w CH Cyg i ∿1 roku w Mira i R Aqr; wszystkie mają okresy orbitalne trwające od dziesięcioleci do stuleci. Połączenie olbrzyma późnego typu i długiego okresu orbitalnego w pobliskim układzie podwójnym powoduje interesujące zachowanie, którego nie obserwuje się w innych gwiazdach symbiotycznych, takich jak Z ANDROMEDAE. Badanie tej ewolucji jest bardzo popularne; zrozumienie tego okazało się nieuchwytne.

Podstawowe właściwości

CH Cyg wykazuje oszałamiającą gamę zmian fotometrycznych. Fluktuacje w krótkiej skali czasowej obserwuje się przy długościach fal optycznych i rentgenowskich. Zmiany optyczne są spójne, obejmują okres 2500-3000 s i amplitudę rosnącą od ∿0,02 mag przy 7000 Å do ∿0,3 mag przy 3600 Å. Obserwacje rentgenowskie wskazują na niezmienną, miękką składową o kT ∿ 0,4 keV i zmienną składową o kT ∿7 keV. Zmienność promieniowania rentgenowskiego występuje w skalach czasowych tak krótkich jak 300 s, ale nie jest spójna. Występują również dłuższe różnice w skali czasowej. Na krzywych blasku w świetle optycznym i bliskiej podczerwieni pojawiają się półkoherentne zmiany z okresami ∿100 dni, ∿770 dni, ∿1300 dni i ∿32 lata. Typowa amplituda tych zmian wynosi ∿0,5 mag w świetle optycznym i ∿0,25 mag w bliskiej podczerwieni. Amplitudy i fazy tych zmian zmieniają się z dekady na dekadę. W kilku badaniach zaproponowano dodatkowy okres 5700 dni, powstały w wyniku zaćmień źródła linii emisyjnej przez czerwonego olbrzyma. Kolory optyczne układu są zwykle bardziej czerwone podczas zaćmienia. Istnieją dobre dowody na zmiany PRĘDKOŚCI RADIALNEJ w kilku okresach fotometrycznych. Prędkości obliczone na podstawie cech absorpcji czerwonego olbrzyma wskazują okresy od ∿760 do ∿5500 dni. Krótszy okres jest podobny do okresów orbitalnych innych gwiazd symbiotycznych. Wyprowadzona funkcja masy jest również porównywalna z funkcją masy innych symbiotyków, jeśli zmiany prędkości wynikają z ruchu orbitalnego. Jednak w przeciwieństwie do większości symbiotyków, okres ten nie zawsze jest obecny na krzywej blasku. W pojedynczych olbrzymach późnego typu często obserwuje się nieregularne zmiany światła i prędkości, zatem okres ten może być okresem pulsacji lub (co jest znacznie mniej prawdopodobne) okresem rotacji. Dłuższy okres ma większe wsparcie jako prawdziwy okres orbitalny układu. Koniuncje orbitalne pokrywają się z minimami intensywności linii emisyjnych. Opisane poniżej zdarzenia związane z wyrzucaniem strumieni również wydają się przypadać na ten okres. Amplituda prędkości prowadzi do rozsądnych mas czerwonego olbrzyma 1-3 M i gorącego składnika 0,5-1,0 M . Spektroskopowe zmiany CH Cyg są na szczęście bardziej łagodne niż zmiany fotometryczne. Widmo zawsze wskazuje na istnienie giganta typu M, z silnym czerwonym kontinuum i głębokimi pasmami absorpcji TiO. Typ widmowy tego składnika waha się od M5 do M7. Składnik gorący ma trzy stany: (i) stan nieaktywny, w którym niebieskie kontinuum i linie emisyjne są nieobecne lub ledwo wykrywalne; (ii) stan niski, w którym niebieskie kontinuum i linie emisyjne HI są stosunkowo słabe; (iii) stan wysoki, w którym niebieskie kontinuum jest mocne i przypomina widmo nadolbrzyma typu F . Skromne linie emisyjne H I i Fe II towarzyszą kontinuum typu F w stanie wysokim. Niektóre linie wysokiej jonizacji, takie jak [O III] w świetle optycznym i C IV w ultrafiolecie, są obecne w stanach wysokich i niskich. Linie te są zwykle silniejsze w stanie niskim niż w stanie wysokim, jak w przypadku innych gwiazd symbiotycznych. Jednakże linie emisyjne zawsze wydają się słabsze w stosunku do kontinuum UV lub optycznego niż w przypadku innych gwiazd symbiotycznych. Pochodzenie tej różnicy jest nieznane. Profile linii emisyjnych CH Cyg są skomplikowane i bardzo zmienne. Większość linii oznacza ruchy mas z prędkościami 100-200 km/s. Linie te są zwykle symetryczne względem prędkości systemowej, ale czasami wykazują dodatkową emisję z prędkością dodatnią lub ujemną. Kiedy linie HI są mocne, często mają szerokie profile z głębokimi centralnymi odwróceniami absorpcji. Profile te przypominają linie emisyjne obserwowane w karłowatej NOVAE i innych zmiennych kataklizmicznych. Jednakże linie często stają się jednoszczytowe, co nie jest typowe dla nowych karłowatych. Zmienność linii HI może być powiązana ze złożonymi zmianami fotometrycznymi, ale dostępne dane nie są na tyle obszerne, aby można było jednoznacznie powiązać je z którymkolwiek okresem fotometrycznym. Co zaskakujące, niektóre z najciekawszych aktywności CH Cyg występują w stanach niskich. W 1984 r. gorący element zaczął wyrzucać materiał z dużą prędkością, wkrótce po spadku jasności optycznej o 2-3 mag. Gdy podczas tego spadku kontinuum typu F i kilka linii emisyjnych zanikło, gwiazda wytworzyła silne linie emisyjne [O III] wskazujące, że materia porusza się z prędkościami około 500 km na s-1. Intensywność emisji kontinuum radiowego o średnicy 1-10 cm wzrosła 3-krotnie w ciągu około 1 miesiąca. Prawie cała ta emisja radiowa ograniczała się do dwóch węzłów gazu oddalającego się od gwiazdy centralnej z przewidywaną prędkością ∿1000 (d/200 szt.) km s-1. Wyrzut ten jest podobny do bipolarnych dżetów obserwowanych w AKTYWNYCH JĄDRACH GALAKTYCZNYCH i GWIAZDACH PRZED GŁÓWNĄ SEKWENCJĄ. Przestrzennie rozdzielone widma optyczne wyraźnie powiązały emisję [O III] z węzłami radiowymi. Emisja radiowa malała, gdy węzły oddalały się od centralnego źródła, a następnie nieznacznie wzrosła, gdy źródło wyrzuciło drugi, mniejszy zestaw węzłów poruszających się z tą samą prędkością. Zdarzenie to rozpoczęło się około 200 dni po pierwszym wyrzucie i towarzyszyło mu dwukrotny spadek jasności optycznej. Trzeci mały wyrzut rozpoczął się około 200 dni później, ale nie był powiązany ze spadkiem jasności. Wszystkie te węzły zanikły w ciągu kilku lat, kiedy system wznowił swoje "normalne" widmo stanu niskiego. Tworzenie się dżetów związane ze znacznym spadkiem jasności optycznej rozpoczęło się ponownie w latach 1997-1998. Kilka optycznych linii emisyjnych jednocześnie rozwinęło szerokie cechy wskazujące na ruchy mas z prędkościami 500-1000 kmˇs-1. Układ szybko się zregenerował, wzrastając o 1,5 mag w ultrafiolecie w okresie od maja do lipca 1998 r. 14-letni odstęp między dwoma wybuchami radiowymi jest o 1-2 lata krótszy niż jeden z proponowanych okresów orbitalnych.

Interpretacja

Pochodzenie dziwnego zachowania CH Cyg jest niejasne. Trzy stany emisji - nieaktywny, niski i wysoki - są niezwykłe: większość symbiotyków ma stany niski i wysoki. Wiele silnych okresowości na krzywej blasku jest również rzadkie. Widmo słabej linii emisyjnej jest nietypowe, chociaż Mira i kilka innych symbiotyków ma podobne widma linii emisyjnych. Obecny obraz układu CH Cyg zaczyna się od oddziałującego układu podwójnego złożonego z olbrzyma typu M i gorącego BIAŁEGO KARŁA. Biały karzeł akreuje materię utraconą przez giganta. Energia wytwarzana przez ACCRETION napędza obserwowaną aktywność. Nieregularne pulsacje olbrzyma modulują tempo akrecji na białego karła, co zmienia poziom aktywności. Jest mało prawdopodobne, aby biały karzeł wytwarzał dużo energii w wyniku termojądrowego spalania nagromadzonej masy: maksymalna jasność, ∿100 l, jest mała jak na białego karła z powłoką spalającą jądro. Dodanie drobniejszych szczegółów do tego zdjęcia było trudne. Zaproponowano dwa warianty. Pierwsza zakłada szeroki układ podwójny z okresem orbitalnym około 5500 dni. Pulsujący czerwony olbrzym odpowiada za okresy ∿100 i ∿700 dni. Magnetyczny biały karzeł - podobny do białego karła w Z And - obraca się z okresem 2500-3000 s. Akrecja na biegunach magnetycznych tego białego karła powoduje zmiany w krótkiej skali czasowej. Stany nieaktywne występują w pobliżu apastronu, gdy biały karzeł jest daleko od redolbrzyma, a tempo akrecji jest niskie. Stany te są długowieczne, ponieważ binarny większość czasu spędza w apastron. Stany aktywne występują w pobliżu PERIASTRONU, gdy tempo akrecji jest wysokie. W tym modelu przełączanie pomiędzy stanami niskimi i wysokimi wynika z braku równowagi pomiędzy ciśnieniem magnetycznym obracającego się białego karła a ciśnieniem materii w wietrze czerwonego olbrzyma. Stany wysokie występują, gdy ciśnienie tłoka przekracza ciśnienie magnetyczne. Akrecja na białym karle tworzy następnie kontinuum typu F, chociaż mechanizm fizyczny tworzący to kontinuum jest niejasny. Stany niskie występują, gdy ciśnienie magnetyczne przekracza ciśnienie barana i zapobiega akrecji na białym karle. Ten mechanizm "śmigła" napędza również strumienie dwubiegunowe w procesie, który w najlepszym razie jest słabo poznany. Druga koncepcja uważa CHCyg za system potrójny. W tym modelu czerwony olbrzym i biały karzeł zamieszkują: zamknij plik binarny z okresem 760 dni. Zwykły karzeł G krąży wokół tego układu podwójnego w okresie 5500 dni. Warianty tego zdjęcia zastępują karła G innym olbrzymem M, ale spektroskopowe dowody na istnienie dwóch czerwonych olbrzymów w układzie nie są przekonujące. System potrójny zapewnia naturalne wyjaśnienie dwóch trwałych modulacji systemu, 760 dni i 5500 dni. Pulsacje czerwonego olbrzyma są nadal potrzebne przez inne długie okresy; Magnetyczny biały karzeł jest nadal odpowiedzialny za pulsację optyczną trwającą 2500-3000 s. Zaletą tego modelu jest to, że bliski wewnętrzny układ podwójny ma strukturę podobną do typowej gwiazdy symbiotycznej. Zwiększony transfer masy możliwy w bliższym układzie podwójnym może napędzać niezwykłą aktywność gorącego komponentu. Model śmigła może w dalszym ciągu powodować przełączanie między stanami wysokim i niskim, ale pochodzenie stanu nieaktywnego jest niejasne. Inne gwiazdy symbiotyczne z okresami orbitalnymi ~700 dni nigdy nie są nieaktywne. Krótkie okresy pozornej bezczynności w niektórych symbiotykach występują, gdy czerwony olbrzym zakrywa gorący składnik. Najpopularniejsza wersja modelu potrójnej gwiazdy zakłada, że oba czerwone olbrzymy przyćmiewają gorący składnik, tworząc okresy nieaktywne. Ta geometria jest a priori mało prawdopodobna i może nie dawać wystarczająco długich okresów nieaktywności. Wyjaśnienie aktywności odrzutowca w stanie niskim jest również wyzwaniem, ponieważ prawie wszystkie inne symbiotyki wyrzucają więcej materiału w stanach wysokich niż w stanach niskich. Większość analiz CH Cyg koncentrowała się na danych fotometrycznych. Aby zrozumieć energetykę gorącego składnika i dynamikę Mgławicy, potrzebne będą szczegółowe modele danych spektroskopowych. Żaden z proponowanych modeli CH Cyg nie pozwala na wiele przewidywań dotyczących przyszłego zachowania systemu; dalsze prace mogą zaowocować lepszymi testami modeli i pozwolić na dokonanie ostatecznego wyboru pomiędzy nimi.

Gwiazdy CH i gwiazdy barowe

Klasyczne gwiazdy barowe (lub "Ba II") to CZERWONE GWIAZDY OGROMNE, których widma wykazują silne linie absorpcyjne baru, strontu i niektórych innych ciężkich pierwiastków, a także silne cechy spowodowane cząsteczkami węgla. Wraz z pokrewną klasą gwiazd CH, gwiazdy Ba II odegrały kluczową rolę w ustaleniu istnienia reakcji wychwytu neutronów we wnętrzach gwiazd, które są odpowiedzialne za syntezę ciężkich pierwiastków. Niedawno gwiazdy Ba II i CH dostarczyły mocnych dowodów na transfer masy w układach podwójnych, który drastycznie zmienia skład powierzchni gwiazdy towarzyszącej.

Gwiazdy barowe

Gwiazdy Ba II zostały po raz pierwszy rozpoznane przez W.P. Bidelmana i P.C. Keenana w 1951 roku. Są to olbrzymy G-K, których widma wykazują niezwykle silną linię absorpcyjną Ba II przy 4554 Å, wraz z wzmocnionymi liniami Sr II i pasmami molekularnymi CH, C2 i CN cząsteczki. Prototypem jest gwiazda trzeciej wielkości ζ Capricorni. W ciągu następnej dekady badania widm przy wysokim rozproszeniu wykazały, że zwiększa się liczebność wielu ciężkich pierwiastków, zwłaszcza pierwiastków Sr, Y i Zr; pierwiastki ziem rzadkich, takie jak La, Ce, Nd i Sm; i oczywiście Ba. Wkrótce zdano sobie sprawę, że są to dokładnie te pierwiastki, które mają zostać zsyntetyzowane, gdy jądra "zarodkowe" grupy żelaza zostaną wystawione na strumień neutronów i w ten sposób zostaną zbudowane do wyższych atomów wagowych, w skali czasowej, która jest powolna w porównaniu ze skalą czasową rozpadu beta. Ten tak zwany "proces s" prowadzi do dużej liczebności pierwiastków chemicznych o małych przekrojach wychwytu neutronów (stanowiących "wąskie gardła" w łańcuchu wychwytu neutronów), które są dokładnie pierwiastkami w szczytach mas atomowych wokół Sr i Ba.

Gwiazdy CH

Gwiazdy CH są blisko spokrewnioną klasą, właściwie odkrytą po raz pierwszy jeszcze wcześniej niż gwiazdy Ba II przez P.C. Keenana w 1942 roku. Są to w zasadzie odpowiedniki gwiazd baru w Populacji II, posiadające podobne wzmocnienia pierwiastków procesu s i bardzo silne pasma gwiazd Cząsteczka CH . Jednakże gwiazdy CH mają słabe cechy zwykłych metali, takich jak żelazo, ponieważ gwiazdy te należą do starej, ubogiej w metale populacji naszej Galaktyki. Gwiazdy CH znajdują się zarówno w halo galaktycznym, jak i w kilku gromadach kulistych. Gromada ? Centauri zawiera najbogatszą populację gwiazd CH, około pół tuzina.

Problem jasności

Na początku lat siedemdziesiątych XX wieku nukleosyntetyczne pochodzenie wzmocnionych pierwiastków chemicznych w gwiazdach Ba II i CH było dość dobrze poznane: powstają one we wnętrzach gwiazd, gdy strumień neutronów napromieniowuje jądra zarodkowe grup żelaza. Może się to zdarzyć na przykład podczas mieszania związanego z impulsami termicznymi helu, które łączą jądra 13C i cząstki alfa; każda reakcja uwalnia 16O jądro i wolny neutron. Węgiel jest syntetyzowany podczas spalania helu w jądrach czerwonych olbrzymów. Następnie proces mieszania powoduje, że produkty tych reakcji zostają odsłonięte na powierzchni gwiazdy. Jednakże w połowie lat siedemdziesiątych szczegółowe obliczenia ewolucji gwiazd ujawniły poważny problem ewolucyjny: wymagany rodzaj mieszania (zwany "trzecim pogłębianiem") występuje tylko w wysoko rozwiniętych, jasnych gwiazdach z asymptotycznej gałęzi olbrzyma (AGB) . Jednak wiadomo było, że gwiazdy Ba II i CH mają jasność jedynie zwykłych czerwonych olbrzymów, o wiele za słabą, aby mogło nastąpić jakiekolwiek pogłębianie. Problem zaostrzył się po odkryciu w 1974 r. przez H.E. Bonda tak zwanego "podolbrzyma gwiazdy CH", które są gwiazdami typu F i G o jeszcze niższych jasnościach, rozciągającymi się w niektórych przypadkach aż do ciągu głównego i wykazującymi podobne wzorce. wzmocnionych pierwiastków ciężkich i węgla. Późniejsze prace sugerują, że "karłowate gwiazdy barowe" byłyby lepszą nazwą dla większości gwiazd tej klasy, ponieważ większość z nich nie cierpi na skrajny niedobór żelaza. Jeszcze dalej w ciągu głównym, w typie widmowym K, pod koniec lat siedemdziesiątych XX wieku odkryto klasę "karłowatych gwiazd węglowych". Wszystkie te obiekty są zdecydowanie zbyt słabe, aby we własnych wnętrzach zsyntetyzować pierwiastki procesu S i węgiel, nie mówiąc już o wymieszaniu ich z powierzchnią gwiazdy. Co więcej, żaden z tych obiektów nie wydaje się być szczególnie rzadkimi gwiazdami; na przykład badania spektroskopowe na dużą skalę pokazują, że około 1% czerwonych olbrzymów należy do klasy Ba II, a podobny ułamek karłów F-G to karły baru lub podolbrzymy CH.

Rozwiązanie

Rozwiązanie problemu jasności pojawiło się na początku lat 80. XX wieku, kiedy R.D. McClure i jego współpracownicy ustalili, że praktycznie wszystkie gwiazdy Ba II i CH to spektroskopowe układy podwójne, z dość długimi okresami i typowymi odległościami orbitalnymi rzędu 2 AU. Doprowadziło to do uświadomienia sobie, że układ podwójny zawierał kiedyś gwiazdę AGB, wymieszał węgiel i pierwiastki procesu s na swoją powierzchnię, a następnie przeniósł tę "zanieczyszczoną" materię do gwiazdy towarzyszącej. W wielu przypadkach towarzysz znajdowałby się na ciągu głównym lub w jego pobliżu, a obecnie jest postrzegany jako karłowata gwiazda barowa, karłowata gwiazda węglowa lub podolbrzym CH. Kiedy zanieczyszczona gwiazda ciągu głównego ewoluuje, stając się czerwonym olbrzymem (lub jeśli transfer masy nastąpi bezpośrednio z gwiazdy AGB do towarzysza czerwonego olbrzyma), będzie postrzegana jako klasyczny czerwony olbrzym Ba II (lub jako gwiazda gwiazda CH, jeśli układ podwójny jest ubogim w metal członkiem populacji II).

Rozwiązanie potwierdzone

Bezpośrednim testem scenariusza podwójnego byłoby znalezienie towarzysza gwiazdy barowej - białego karła. Powyższy scenariusz w rzeczywistości wymaga, aby wszyscy towarzysze byli białymi karłami, czyli pozostałością po byłej gwieździe AGB. W oszałamiającym potwierdzeniu scenariusza E Böhm-Vitense wykazał w 1980 roku, że ζ Cap ma towarzysza gorącego białego karła, odkrytego w ultrafiolecie przez satelitę INTERNATIONAL ULTRAVIOLET EXPLORER. Późniejsze obserwacje UV za pomocą IUE, a ostatnio przeprowadzone przez Böhm-Vitense i jej współpracowników za pomocą Kosmicznego Teleskopu Hubble′a, ujawniły kilka kolejnych przykładów gwiazd Ba II z towarzyszami - białymi karłami. Jednak w wielu przypadkach biały karzeł osłabł poniżej wykrywalności, a jego obecność ujawnia się jedynie w zmiennej prędkości radialnej tej osobliwej gwiazdy optycznej.

Mechanizm zanieczyszczeń
Niedawne prace nad Ba II i pokrewnymi gwiazdami skupiły się na precyzyjnym mechanizmie, dzięki któremu gwiazda AGB zanieczyszcza swojego niewinnego towarzysza. Dwie główne możliwości to: (a) gwiazda AGB ewoluuje, aby wypełnić swój płat Roch′a, a następnie rozlewa znaczne ilości materiału otoczki na towarzysza; oraz (b) że gwiazda AGB zanieczyszcza towarzysza jedynie poprzez wiatr gwiazdowy. W scenariuszu (a) wynikiem byłoby zwykle oddziaływanie wspólnej otoczki, ze spiralnym opadaniem orbity do znacznie mniejszej odległości, tak że układ podwójny wyłonił się jako zmienna kataklizmiczna, a nie gwiazda barowa. Jednak niektórzy autorzy argumentowali, że możliwy jest stabilny przelew płatka Roche′a, co pozwala uniknąć spiralnego opadania. Scenariusz (b) jest prawdopodobnie bardziej prawdopodobny przynajmniej w przypadku większości gwiazd barowych, zarówno ze względu na ich wciąż duże odległości między orbitami, jak i dlatego, że wiele z nich ma nieco ekscentryczne orbity, co nie miałoby miejsca w przypadku przepełnienia płata Roch′a.

Obserwatorium rentgenowskie Chandra

Wystrzelone 23 lipca 1999 roku na pokładzie wahadłowca kosmicznego Columbia z przylądka Canaveral Obserwatorium Rentgenowskie Chandra jest pierwszym teleskopem astronomicznym w promieniach rentgenowskich, który dorównuje mocy obrazowania wynoszącej 1/2 sekundy łukowej i zdolności rozdzielczej widma wynoszącej 0,1% teleskopów optycznych. Nazwa Chandra pochodzi od Subramaniana Chandrasekhara, znanego jako Chandra i autora granicy Chandrasekhara. Chandra odniosła jak dotąd ogromny sukces i produktywność. (Wiele przykładów można znaleźć na stronie http://chandra.harvard.edu.) Każdy eksperyment, który jest 10 lub 100 razy lepszy od swoich poprzedników, jest praktycznie pewny, że dokona rewolucyjnych odkryć, a CHANDRA w dramatyczny sposób demonstruje ten truizm. Przykładami mogą być rozstrzyganie trwających od dziesięciu lat debat za pomocą jednej obserwacji: tak, promienie rentgenowskie komet powstają w wyniku wymiany ładunków; nie, większość galaktyk eliptycznych nie ma zbyt wiele gorącego gazu w swoim ośrodku międzygwiazdowym, ale mają odpowiednią ilość zwartych układów podwójnych; nie, przepływy chłodzące w gromadach galaktyk jak dotąd tylko chłodzą (do 2×107 K); i tak, KOSMICZNE TŁO PROMIENIOWANIA X składa się ze światła wielu kwazarów - około 1000 w każdym obszarze nieba wielkości Księżyca. Inne przykłady to zupełnie nowe odkrycia, które wymagają dalszych badań: typ kwazara, który, przewrotnie, jest zasłonięty w promieniach rentgenowskich, ale wyraźnie świeci w świetle optycznym; widmowe linie absorpcyjne, które wydają się pochodzić z kąpieli gorącego gazu, w której znajduje się nasza galaktyka Drogi Mlecznej i cała nasza Lokalna Grupa galaktyk. (Wydaje się, że jest tam bardzo dużo tego "ciepłego, gorącego ośrodka międzygalaktycznego" lub " CHWILA", że może to być nawet "brakująca masa", która spaja galaktyki Grupy Lokalnej); relatywistycznie poruszające się dżety z kwazarów świecą jasno na obrazach Chandry, o ile gromady galaktyk znajdują się naprzeciwko, i jaśniej, gdy są dalej, dzięki wyższej temperaturze i intensywności kosmicznego mikrofalowego tła, więc jest więcej tych fotonów zostać rozproszone przez szybko poruszające się elektrony dżetu, uzyskując w ten sposób wystarczającą energię, aby stać się promieniami rentgenowskimi, które widzimy. Potem są gniazda super jasnych układów podwójnych rentgenowskich w galaktykach wybuchowych, które wydają się przekraczać LIMIT EDDINGTONA, jeśli zawierają normalną czarną dziurę o masie 10 mas Słońca. Czy mogą sugerować nową i nieistniejącą populację czarnych dziur o masach pośrednich (100-10(4) mas Słońca)? Widmo gwiazdy neutronowej (tj. nie będącej w układzie podwójnym lub pozostałości po supernowej) przedstawia widmo ciała doskonale czarnego o dobrze określonej temperaturze, wraz z odległością daje jasność i łącząc je w ten sposób obszar GWIAZDY NEUTRONOWEJ. Może to być pierwszy przykład nowego typu gwiazdy i nowego typu materii - GWIAZDY KWARKOWEJ. Rozdzielczość Chandry zapewnia 100 razy większą czułość w porównaniu z wcześniejszymi misjami rentgenowskimi, ponieważ światło tła jest odbijane, umożliwiając dostrzeżenie znacznie słabszych źródeł, a także zapewnia dobrą rozdzielczość widmową. Rozdzielczość Chandry wynika z jej niespotykanego lustra rentgenowskiego. Promieniowanie rentgenowskie rejestrowane przez Chandrę ma zakres 0,1-10 keV (12-0,12 nm). Optyka rentgenowska odbija promienie rentgenowskie tylko wtedy, gdy uderzają przelotnie, pod kątem około 1°. Zatem zwierciadła rentgenowskie tylko nieznacznie zaginają światło, dając teleskopom rentgenowskim duże współczynniki f, 8,3 dla Chandry. Zatem lustro Chandry o średnicy 1,2 m musi mieć ogniskową 10,070 m. Aby zwiększyć powierzchnię Chandry, cztery zestawy niemal cylindrycznych muszli lusterek są zagnieżdżone jedna w drugiej, co daje w sumie 800 cm2. Aby poprawić współczynnik odbicia, są one pokryte irydem, pierwiastkiem o wysokim Z i dużej gęstości. Ponieważ do utworzenia obrazu potrzebne są dwa odbicia, stosuje się parabole/hiperbole Woltera typu 1. Przy długości fali fotonów wynoszącej zaledwie kilka nm powierzchnie zwierciadeł muszą być gładsze (<0,04 nm dla Chandry), w przeciwnym razie fotony zostałyby rozproszone pod dużymi kątami, zamazując obraz. Aby rozproszyć widmo promieniowania rentgenowskiego, Chandra posiada trzy zestawy transmisyjnych siatek dyfrakcyjnych, zoptymalizowanych pod kątem niskich (LETG), średnich (MEG) i wysokich (HEG) energii. Wszystkie mają gęstość linii około 1000 mm-1 i są zbudowane przy użyciu technologii półprzewodnikowej. Siatki zachowują się jak obiektywne pryzmaty, tworząc obraz źródła dla każdej długości fali. Ponieważ gwiazda tworzy mały obraz w Chandrze, różne długości fal są dobrze oddzielone. Chandra oferuje dwa typy detektorów: "ACIS" składa się z urządzeń ze sprzężeniem ładunkowym (CCD), kuzynów CCD kamer wideo; "HRC" wykonany jest z płytek mikrokanałowych stosowanych w goglach noktowizyjnych. HRC może określić czas przybycia fotonów promieniowania rentgenowskiego do 16 ms, ma najmniejsze piksele (0,4 sekundy łuku) i duże pole widzenia (30 minut łuku × 30 minut łuku). HRC ma czułość na fotony o niskiej energii (do E ∿0,05 keV), dlatego jest używany do obrazowania widm z LETG. ACIS ma lepszą wydajność i rozdzielczość energetyczną. ACIS wykorzystuje dwa typy chipów CCD: "oświetlone z przodu" (FI), które wykrywają promienie rentgenowskie o wyższej energii (E >1 keV), promienie rentgenowskie mają niskie tło, natomiast "oświetlone z tyłu" (BI) działają dobrze (QE > 0,5) do 0,5 keV. Przetworniki CCD rentgenowskie określają energię każdego promieniowania rentgenowskiego na podstawie liczby wytwarzanych przez nie elektronów. Przypadkowe wystawienie głównego układu 16 arcmin × 16 arcmin, składającego się z czterech przetworników CCD FI, na energetyczne (100 keV) protony w wietrze słonecznym tuż po wystrzeleniu obniżyło ich rozdzielczość energetyczną. Duża część tej rozdzielczości została odzyskana poprzez chłodzenie chipów i specjalne oprogramowanie. Mniejszy układ BI 8 arcmin × 8 arcmin BI pozostał nienaruszony. Ponieważ każdy foton jest rejestrowany indywidualnie, zdjęcia rentgenowskie mają cztery wymiary: położenie (x, y), energię i czas. Zatem w przeciwieństwie do Kosmicznego Teleskopu Hubble'a Chandra nie musi być trzymana nieruchomo podczas naświetlania obrazu. Wszelkie rozmycia usuwa się poprzez zmianę położenia każdego fotonu w oprogramowaniu (wykorzystując pozycje gwiazd z teleskopu optycznego o średnicy 11,2 cm) w Centrum Rentgenowskim Chandra, które obsługuje Chandrę dla NASA z Cambridge, Massachusetts (USA). Możliwość dowolnego wycinania zdjęć rentgenowskich jest nieoceniona przy analizach m.in. wyodrębnić widmo tego, co wygląda interesująco, bez konieczności wcześniejszego podejmowania decyzji. Chandra znajduje się na wysokiej orbicie (10 000 km × 140 000 km). Dzięki temu dowolną część nieba można obserwować bez ciągłego blokowania przez Ziemię, co zwiększa dostępność czasu obserwacji i umożliwia długie, nieprzerwane obserwacje w celu badania zmiennych źródeł. Do Chandry nie można dotrzeć promem kosmicznym, więc jej przetrwanie zależy od tego, czy żaden krytyczny system nie ulegnie uszkodzeniu ani nie zabraknie zapasów. Wszystko na pokładzie ma wytrzymać 15 lat lub dłużej. Żadnych planów istnieje możliwość zbudowania kolejnego teleskopu rentgenowskiego o porównywalnej rozdzielczości. Na szczęście NASA planuje eksploatować Chandrę przez co najmniej 10 lat.

Urządzenie ze sprzężeniem ładunkowym

Urządzenia ze sprzężeniem ładunkowym (CCD) to krzemowe detektory optyczne stosowane w większości obrazowań bliskiego UV, widzialnego i bliskiej podczerwieni oraz w spektroskopowych instrumentach astronomicznych. Mają format od rozdzielczości telewizyjnej (340 × 512 pikseli) do 10 000 × 10 000 pikseli. Nowoczesne przetworniki CCD charakteryzują się szumem wewnętrznym wynoszącym zaledwie kilka elektronów, zakresem dynamicznym wynoszącym 100 000 i wydajnością kwantową przekraczającą 90% w większości użytecznych długości fal roboczych. Te cechy sprawiają, że detektory CCD są wybieranym detektorem w przypadku większości wymagań dotyczących detekcji astronomicznej w zakresie widzialnym.

Historia i podstawy

Boyle i Smith wynaleźli matrycę CCD w Bell Labs w 1969 r. Przetworniki CCD, choć pierwotnie miały służyć jako urządzenie pamięci, są najczęściej stosowane jako detektory obrazu. Po raz pierwszy zastosowano je w astronomii pod koniec lat 70. XX wieku i szybko zastąpiły kliszę fotograficzną, układy fotodiod i detektory oparte na fotokatodach. Przetwornik CCD zasadniczo składa się z jedno- lub dwuwymiarowego układu kondensatorów typu metal-tlenek-półprzewodnik (MOS), w którym bramka ("metal") każdego kondensatora jest połączona z szynami, do których zewnętrzne stosowane są napięcia. Bramki te są w rzeczywistości wykonane z polikrzemu, a nie z metalu, aby umożliwić lepszą transmisję światła przez przednią konstrukcję. Minima studni potencjału powstają w krzemie pod bramkami CCD przy przyłożonym napięciu najbardziej dodatnim. Elektrony powstają z padających fotonów w wyniku efektu fotoelektrycznego, a te fotogenerowane elektrony są gromadzone w najbliższej studni potencjału. CCD są wrażliwe na wszystkie długości fal krótsze niż długość fali odcięcia ?cutoff, przy której energia E padającego fotonu jest taka sama jak energia pasma wzbronionego materiału detekcyjnego. Wszystkie fotony o krótszej długości fali mogą wzbudzić elektron z pasma walencyjnego detektora do pasma przewodnictwa. W przypadku krzemu, najczęściej używanego materiału do produkcji CCD, Ebandgap = 1,12 eV, więc λcutoff = 1,1 μm. Wszystkie bramki połączone ze sobą elektrycznie nazywane są fazą. Większość przetworników CCD stosowanych w astronomii to urządzenia trójfazowe, co oznacza, że do przesunięcia ładunku przez przetwornik CCD należy zastosować trzy napięcia elektryczne. Odległość od jednej fazy do następnej na tej samej szynie określa rozdzielczość detektora i nazywa się ją pikselem. Typowe rozmiary pikseli CCD to 5-30 μm. Najczęściej używany w astronomii przetwornik CCD składa się z dwuwymiarowego układu pikseli. Sekcję obrazu takiego urządzenia można postrzegać jako tablicę kolumn i rzędów pikseli z pojedynczym szeregowym rejestrem przesuwnym na końcu kolumn. Ładunek jest przesuwany (lub łączony z ładunkiem) o jeden wiersz na raz we wszystkich kolumnach jednocześnie, przesuwając ostatni wiersz do rejestru szeregowego. Kolumny są wyznaczone przez ograniczniki kanałów z silnie domieszkowanego materiału, które zapobiegają rozprzestrzenianiu się ładunku pomiędzy sąsiednimi kolumnami. W ten sposób nie są wymagane żadne bramki definiujące piksele w kierunku poziomym w obszarze obrazowania. Rejestr szeregowy sam jest taktowany tak, aby sekwencyjnie przenosić ładunek do wzmacniacza wyjściowego znajdującego się na jego końcu. Zewnętrzna elektronika i komputer służą do przekształcania tej analogowej sekwencji wyjściowej napięć na obraz.

Architektura i działanie

Działanie przetwornika CCD można podzielić na trzy tryby: zerowanie, całkowanie i odczyt. Wyczyszczenie jest wymagane, aby usunąć niechciany ładunek pobrany przez urządzenie przed dokonaniem integracji. Jedną z metod czyszczenia urządzenia jest przeniesienie ładunku z każdego piksela na urządzenie bez rejestrowania wynikowych danych. Podczas integracji na niektórych fazach ustawiane są napięcia dodatnie, aby określić potencjalne minima, w których gromadzą się fotoelektrony. Napięcie dodatnie jest przykładane do jednej lub dwóch z trzech faz. Co najmniej jedna faza każdego piksela musi być bardziej ujemna, aby stworzyć barierę dla rozprzestrzeniania się ładunku, bez której obraz byłby rozmazany. Możliwe jest, że bariera ta zostanie utworzona przez stały implant, a nie przyłożone napięcie. Podczas integracji fotoelektrony są zbierane, ale nie następuje żadne przesunięcie. ACCD musi zostać schłodzony, jeśli czas integracji jest dłuższy niż kilka sekund, aby zapobiec wypełnianiu studni potencjału przez samogenerujący się ciemny sygnał krzemu. Większość astronomicznych przetworników CCD schładza się do około -100°C w dewarze z ciekłym azotem. Wiele mniejszych przetworników CCD używanych do prowadzenia teleskopów (gdzie czas naświetlania wynosi zaledwie kilka sekund) opiera się na termoelektrycznych chłodnicach działających w temperaturze około -40°C w celu redukcji ciemnego sygnału. Po upływie czasu całkowania CCD wchodzi w fazę odczytu. Położenie każdego pakietu ładunku utworzonego podczas integracji jest przesuwane w kierunku wyjścia po przyłożeniu do szyn określonej sekwencji napięcia. W zależności od architektury można zastosować rozdzielone zegary równoległe, aby przesunąć połowę pikseli w kierunku jednego rejestru szeregowego a druga połowa w kierunku innego rejestru szeregowego, umożliwiając odczyt w o połowę krótszym czasie. Rejestr szeregowy można również podzielić, aby ładunek mógł zostać przesunięty w stronę wzmacniaczy na każdym końcu, co również skraca czas odczytu. Istnieje kilka typowych architektur naukowych dysków CCD. Do zbierania obrazów wykorzystywana jest cała powierzchnia urządzenia pełnoklatkowego i jest ona najpowszechniej wykorzystywana w astronomii. Pełnoklatkowa matryca CCD wymaga otwarcia migawki podczas integracji (lub naświetlania) i zamknięcia podczas odczytu, aby uniknąć smug ze źródła światła podczas przenoszenia ładunku. W matrycy CCD z transferem klatek połowa obszaru obrazowania jest pokryta nieprzezroczystą maską przechowującą ramki. Odsłonięta sekcja zbiera ładunek podczas integracji. Po zakończeniu ekspozycji ładunek jest bardzo szybko (10-6 do 10-4 s) przenoszony do obszaru magazynu klatek, gdzie może mieć miejsce wolniejszy odczyt, podczas gdy następna integracja zachodzi w części obrazu. Eliminuje to potrzebę stosowania mechanicznej przesłony kosztem utraty połowy obszaru detektora na potrzeby obrazowania. CCD z transferem międzyliniowym jest podobny do urządzenia do przesyłania ramek, ponieważ ma nieprzezroczystą szynę wzdłuż każdej kolumny, do której ładunek może być szybko przenoszony po każdym całkowaniu. Urządzenia transferu międzyliniowego są najczęściej używanymi przetwornikami CCD w zastosowaniach o dużym oświetleniu (takich jak wideo telewizyjne), ale rzadko są używane w zastosowaniach astronomicznych.

Wzmacniacze

Kiedy elektrony zostaną przesunięte na koniec rejestru szeregowego, są następnie wykrywane przez wzmacniacz wyjściowy. Bramka tranzystora (zwykle tranzystora polowego, w skrócie FET) jest połączona z węzłem sensorowym, na który przenoszony jest ładunek z ostatniego piksela szeregowego. Ładunek pojawia się jako napięcie na bramce tranzystora FET ze względu na pojemność węzła. Współczynnik konwersji wynosi zazwyczaj od 1 do 10 μV na elektron w przypadku nowoczesnych wzmacniaczy. Napięcie wyjściowe jest buforowane przez tranzystor FET w celu wytworzenia mierzalnego napięcia na rezystorze obciążenia umieszczonym poza chipem. To napięcie wyjściowe można łatwo wzmocnić w elektronice sterownika i przekształcić na sygnał cyfrowy za pomocą przetwornika analogowo-cyfrowego. Węzeł musi zostać zresetowany przed wykryciem każdego piksela, aby ładunek nie kumulował się od piksela do piksela. Szum odczytu jest miarą niepewności sygnału wyjściowego przetwornika CCD i często stanowi dominujące źródło szumu w zastosowaniach do obrazowania przy słabym oświetleniu. Podwójne lub powiązane próbkowanie (DCS) zmniejsza niepewność co do bezwzględnego poziomu naładowania węzła przy każdym resetowaniu. Przed przesunięciem każdego piksela węzeł jest resetowany za pomocą wbudowanego w układ resetowania FET. Napięcie wyjściowe jest próbkowane i rejestrowane, następnie mierzony piksel jest przesuwany do węzła, węzeł jest próbkowany ponownie, a różnica między dwiema próbkami jest obliczana i rejestrowana jako rzeczywista wartość piksela. Stosując DCS i niskoszumowe tranzystory wyjściowe FET, można uzyskać szum odczytu mniejszy niż dwa elektrony.

Sprawność kwantowa

Sprawność kwantowa (QEλ) matrycy CCD jest wyrażona wzorem QEλ = (1 - Rλ) exp(-αλ/t) gdzie Rλ to współczynnik odbicia padającej powierzchni detektora, αλ to długość absorpcji fotonów przy określonej długości fali oraz t jest efektywną grubością urządzenia. Przednie podświetlane matryce CCD mają fotony padające na strukturę bramki, która pochłania prawie całe światło niebieskie i UV. Urządzenia te nie są zatem przydatne dla λ < 400 nm. W podświetlanych (lub rozcieńczonych) matrycach CCD fotony padają na tylną stronę urządzenia, naprzeciwko konstrukcji bramki. Urządzenia te muszą być bardzo cienkie (<20 μm), aby fotoelektrony mogły zostać zebrane poniżej minimów potencjału w pobliżu bramek frontowych. Proces rozcieńczania jest trudny i kosztowny, ale QE jest ograniczony jedynie przez odbicie od tylnej powierzchni i zdolność krzemu do pochłaniania fotonów. Urządzenia podświetlane od tyłu mogą być pokryte powłoką przeciwodblaskową, aby uzyskać szczytową wartość QE większą niż 95% przy określonych długościach fal. QE matryc CCD znacznie spada w kierunku bliskiej podczerwieni, ponieważ długość absorpcji krzemu dramatycznie wzrasta od 100 Å w promieniu UV do 100 μm w bliskiej podczerwieni.

Skład chemiczny gwiazd

W 1835 roku w słynnej niedokładnej prognozie francuski filozof Auguste Comte napisał o gwiazdach, że: "Rozumiemy możliwość określenia ich kształtów, odległości, rozmiarów i ruchów; mając na uwadze, że nigdy nie dowiemy się, jak w jakikolwiek sposób zbadać ich skład chemiczny…" . Pod koniec XX wieku dokładny pomiar obfitości pierwiastków chemicznych w widzialnych warstwach powierzchniowych gwiazd wszystkich klas stał się stosunkowo prostą procedurą astrofizyczną. Jest to wynik kilku ważnych osiągnięć: (1) fizycznie realistycznej teorii budowy atmosfer gwiazdowych; (2) stacje komputerowe o dużej mocy, które mogą skutecznie integrować równania przenoszenia promieniowania przez modelową atmosferę gwiazdową; (3) zaawansowane kody teoretyczne dotyczące sytuacji złożonych fizycznie, takich jak odstępstwa od lokalnej równowagi termodynamicznej (LTE); (4) ulepszenia podstawowych danych atomowych potrzebnych do obliczenia nieprzezroczystości, które tworzą spektralne linie absorpcji; (5) spektrografy wysokiej rozdzielczości wyposażone w czułe i liniowe detektory elektroniczne; (6) dostęp do pełnego zakresu długości fal, w jakich gwiazdy emitują swoje światło, w tym ultrafioletu obserwowanego znad atmosfery ziemskiej. Obfitość pierwiastków chemicznych to nić łącząca większość naszej wiedzy o ewolucji gwiazd, galaktyk i wszechświata jako całości. Wszechświat powstał podczas Wielkiego Wybuchu, w wyniku którego powstało najwięcej pierwiastków, wodór (1H) i hel (4He), a także niewielkie ilości izotopów 2H (deuter), 3He i 7Li. Wszystkie pozostałe pierwiastki i izotopy występujące w przyrodzie powstały w wyniku reakcji jądrowych zasilających gwiazdy podczas normalnego przebiegu ich ewolucji lub w wyniku szybkiej NUKLEOSYNTEZY podczas końcowych kataklizmicznych eksplozji niektórych gwiazd jako SUPERNOWE lub, w przypadku kilku pierwiastków, w wyniku spalenia cięższych jąder przez cząstki PROMIENIA KOSMICZNEGO w ośrodku międzygwiazdowym. Niektóre produkty reakcji jądrowych zachodzących w gwieździe są wstrzykiwane z powrotem do ośrodka międzygwiazdowego, gdy gwiazda traci większość swojej masy podczas krótkich, końcowych etapów swojej ewolucji. Tam dostarczają surowca do powstania późniejszych pokoleń gwiazd, planet i ostatecznie samego życia. Ten scenariusz pochodzenia pierwiastków prowadzi do głębokich konsekwencji. Względna liczebność pierwiastków niekoniecznie jest stała w czasie i przestrzeni. Początkowy skład chemiczny gwiazdy to międzygwiazdowy obłok gazu i pyłu, z którego gwiazda powstała. Jest to funkcja miejsca narodzin gwiazdy w galaktyce oraz wieku i stanu ewolucji galaktyki w momencie powstania gwiazdy. Skład obserwowalnych warstw powierzchniowych gwiazdy może z biegiem czasu ulegać modyfikacjom w wyniku procesów zachodzących we WNĘTRZU GWIAZDY. Na przykład nuklidy powstałe w wyniku reakcji w centralnym jądrze gwiazdy lub w powłokach otaczających jądro mogą zostać wydobyte i zmieszane z nieprzetworzonym materiałem na powierzchni gwiazdy w trakcie jej ewolucji. Alternatywnie, zewnętrzne warstwy ewoluującej gwiazdy mogą zostać usunięte w wyniku utraty masy, pozostawiając odsłonięte wnętrze poddane obróbce jądrowej. Nawet w młodej, nierozwiniętej gwieździe atomy lub jony poszczególnych pierwiastków mogą osiadać pod obserwowalną powierzchnią pod wpływem grawitacji lub mogą być wypychane w górę pod wpływem ciśnienia promieniowania i osiągać wysokie stężenia w warstwach powierzchniowych, jeśli atmosfera i otoczka gwiazdy są silnie stabilny. Wreszcie gwiazda może akreować przetworzony materiał z podwójnego towarzysza podlegającego utracie masy. Ogólnie rzecz biorąc, jest to wspaniała złożoność. Pozwala nam wykorzystać zaobserwowany skład chemiczny gwiazd jako ślady ewolucji naszej własnej i być może innych galaktyk. Pozwala nam obserwować przebieg procesów zachodzących we wnętrzach gwiazd, które na co dzień są przed nami ukryte. Co więcej, aby wywnioskować nieprzezroczystość i średnią masę cząsteczkową, potrzebna jest przynajmniej przybliżona znajomość składu chemicznego gwiazdy ,jego materiału, które są istotnymi parametrami wejściowymi do obliczeń teoretycznych modeli jego atmosfery i struktury wewnętrznej. Takie modele są z kolei wykorzystywane do przeprowadzania szczegółowych analiz składu i przewidywania innych obserwowanych właściwości gwiazd. Spójność tych modeli teoretycznych z obiektami obserwacyjnymi, do przewidywania których służą - jasnością i barwą gwiazd, szczegółowym rozkładem strumienia gwiazdowego w zależności od długości fali, siłą i kształtem linii widmowych - daje pewność lub czasami rodzi pytania dotyczące naszego zrozumienia fizyki.

Jak mierzy się skład chemiczny gwiazdy

Za pomocą spektrografu astronomicznego zamontowanego na teleskopie można bezpośrednio obserwować tylko warstwy powierzchniowe gwiazdy. Dlatego obfitość pierwiastków chemicznych pochodzących ze spektroskopowo rozproszonego światła gwiazd ujawnia jedynie skład atmosfery gwiazdy. Naszą zdolność pomiaru składu powierzchni gwiazdy umożliwia kwantowa struktura atomów i jonów. Przejścia elektronów związanych elektrostatycznie między stanami energii kwantowej i związana z tym absorpcja lub emisja fotonów odciskają się na widmie gwiazdowym wzór dyskretnych linii o długościach fal i względnych siłach, które są unikalne dla każdego stanu jonizacji każdego pierwiastka układu okresowego. Dokładne pomiary długości fal i względnego natężenia linii widmowych pozwalają na identyfikację występujących w nich związków chemicznych. Zmierzone siły bezwzględne linii - ilość strumienia, który usunęły lub dodały do kontinuum światła emitowanego przez gwiazdę - wskazują na liczebność tych gatunków. Atmosfery chłodnych gwiazd również zawierają cząsteczki. Struktura kwantowa ich stanów energii elektronicznej i wibracyjnej wytwarza pasma blisko rozmieszczonych, dyskretnych linii absorpcji lub emisji, na podstawie których można zmierzyć obfitość. Chociaż możliwe jest zmierzenie obfitości na podstawie linii emisyjnych (linii jaśniejszych od kontinuum) wytworzonych w gorącej, cienkiej chromosferze lub koronie chłodnej gwiazdy, takiej jak Słońce, najprostsze i najdokładniejsze oznaczenia uzyskuje się na podstawie linii absorpcyjnych powstających w gęstsza fotosfera gwiazdowa (widmo Fraunhofera). Powodem jest zestaw upraszczających założeń, które dość dobrze charakteryzują warunki fizyczne panujące w fotosferach wielu gwiazd, umożliwiając dokładne obliczenia ich struktur i emitowanych widm. Należą do nich: (1) LTE (lokalne pole promieniowania jest sprzężone z lokalną temperaturą kinetyczną gazu), (2) płaska geometria równoległa (fotosfera jest bardzo cienka w porównaniu z promieniem gwiazdy), (3) równowaga radiacyjna (energia jest transportowany głównie przez promieniowanie) i (4) równowaga hydrostatyczna (fotosfera jest w zasadzie nieruchoma). W zasadzie naruszenia któregokolwiek z tych założeń można leczyć za pomocą fizycznie bardziej złożonych obliczeń teoretycznych. Jednak niekoniecznie będą one miały większą niezawodność, jeśli wejściowe parametry fizyczne będą niedokładne. Obserwowana głębokość linii absorpcyjnej wyśrodkowanej na długości fali λ w miejscu w profilu linii λ + Δλ , jest bezpośrednią miarą nieprzezroczystości atmosfery gwiazdowej wytwarzanej przez dyskretne przejścia elektronowe w atomach lub jonach danego pierwiastka, ponieważ absorbują fotony o długości fali λ + Δλ . Chemiczną liczebność pierwiastka wyznacza się poprzez porównanie zaobserwowanych mocy i kształtów jego linii widmowych z teoretycznym modelem strumienia wyłaniającego się z gwiazdy, obliczonym poprzez rozwiązanie równania PRZENOSZENIA PROMIENIOWANIA przez modelową atmosferę gwiazdową w obecności tej linii nieprzezroczystość. Teoretyczny model atmosfery gwiazdowej odpowiedni dla konkretnej gwiazdy umożliwia zestawienie temperatury kinetycznej gazu, ciśnienia i gęstości elektronów na dowolnej głębokości x poniżej nominalnej "powierzchni" gwiazdy. Oblicza się go przy założeniu zawartości wodoru i helu oraz co najmniej przybliżonej szacunkowej zawartości cięższych pierwiastków. Z tych informacji można wyprowadzić całkowitą ciągłą nieprzezroczystość κλ przy dowolnej długości fali, wytworzoną na głębokości x w wyniku jonizacji atomów lub jonów (przejścia elektronowe bez wiązań), dysocjacji molekularnej i rozpraszania elektronów. Promieniowanie wychodzące z gwiazdy na wszystkich długościach fal jest tłumione przez te ciągłe źródła nieprzezroczystości, dlatego przy obliczaniu strumienia wyłaniającego się należy uwzględnić zarówno liniowe, jak i ciągłe nieprzezroczystość na dowolnej długości fali. W przypadku braku linii widmowych strumień ten jest ustalany całkowicie przez ciągłe nieprzezroczystość, dlatego spektroskopiści czasami nazywają "kontinuum wolne od linii" jako referencyjny poziom strumienia, względem którego mierzy się siłę linii widmowej. Nieprzezroczystość linii wyraża się jako współczynnik pochłaniania linii (jednostki cm2 g-1)

lλ(x, Δ&lambdal) = const × [nel,r,s(x)/Nel](Nel/NH)NHλ(x, Δ&lamdba;) × (1 - e-hc/?kT )

Współczynnik Nel/NH, stosunek całkowitej liczby atomów i jonów pierwiastka na gram materiału gwiazdowego do liczby atomów i jonów wodoru na gram, jest kluczowym parametrem liczebności, który staramy się mierzyć. Dozwolone są dowolne zmiany w obliczeniach, dopóki nie uzyskają dobrego dopasowania do obserwacji. Wszystkie pozostałe czynniki w równaniu (1) należy oceniać ostrożnie, aby nie zakłóciły dokładności pomiaru liczebności. Współczynnik nel,r,s(x)/Ne jest ułamkiem populacji pierwiastka znajdującego się w stanie wzbudzenia s stanu jonizacji r, z którego wychodzi linia. W LTE ułamek ten jest określony przez połączone równania Boltzmanna i Saha. Założeniem LTE jest rozsądne przybliżenie warunków fizycznych panujących w głębszych, gęstszych warstwach atmosfery gwiazdowej, gdzie powstaje wiele słabych i średnio silnych linii widmowych. Czasami jednak wymagane jest bardziej rygorystyczne traktowanie odchyleń poziomu energii populacji i równowagi jonizacji od ich wartości LTE. Liczba atomów wodoru i jonów na gram materiału gwiazdowego, NH w równaniu (1), wynika bezpośrednio z mieszaniny obfitości wodoru, helu i metali przyjętej w pierwotnych obliczeniach atmosfery modelowej. Współczynnik f to prawdopodobieństwo przejścia, czyli prawdopodobieństwo, że atom zaabsorbuje lub wyemituje foton pomiędzy dwoma określonymi stanami energetycznymi. Można to wyznaczyć w laboratorium, na przykład mierząc czas życia górnego poziomu przejścia, selektywnie wypełnionego wzbudzeniem indukowanym laserem. Wartość tę łączy się następnie ze zmierzonym ułamkiem przejść w dół z górnego poziomu, które kończą się w dolnym stanie wzbudzenia danej linii (ułamek rozgałęzienia), aby otrzymać prawdopodobieństwo przejścia. Wartość f można również obliczyć za pomocą kodów półempirycznych, które wykorzystują zmierzone poziomy energii atomu lub na podstawie teoretycznych obliczeń struktury atomu od początku, przy użyciu złożonych programów mechaniki kwantowej. Błędy systematyczne w wartościach f są powszechnie znane jako główna przyczyna błędów w pomiarach liczebności. Co więcej, brak kompleksowej i dokładnej bazy danych wartości f może udaremnić nawet najbardziej wyrafinowane obliczenia populacji poziomów bez LTE. Współczynnik 1 - ehc/λkT w równaniu (1) koryguje stymulowaną radiacyjnie emisję fotonów w linii. Tutaj h to stała Plancka, k to stała Boltzmanna, c to prędkość światła, a T to lokalna temperatura kinetyczna gazu. Funkcja Φλ(x, Δλ) w równaniu (1) opisuje mechanizmy mikroskopowe, które nadają linii widmowej skończoną szerokość i kształt w warunkach temperatury i gęstości na głębokości x. Mogą one wpływać na obserwowaną siłę linii (ze względu na nasycenie promieniowania dostępnego do zaabsorbowania przy długości fali λ + Δλ). Poszerzenie linii wynika z szeregu procesów: (1) przesunięć Dopplera wynikających z ruchu termicznego i turbulencji gazu na małą skalę; (2) skończony rozkład energii górnego i dolnego stanu przejścia (wynik zasady nieoznaczoności Heisenberga); (3) zaburzenia stanów energetycznych pod wpływem pól elektrostatycznych cząstek w otaczającym gazie (rozszerzenie Starka i van der Waalsa); (4) przesuwanie lub dzielenie poziomów energii przez pola magnetyczne (efekt Zeemana) lub efekty jądrowe (rozszczepianie nadsubtelne i przesunięcia izotopowe). Mechanizmy makroskopowe, które również zmieniają szerokość i kształt linii, ale bez zmiany jej całkowitej siły, obejmują ruchy mas na dużą skalę (turbulencje, konwekcja i utrata masy) oraz rotację gwiazd. Kiedy linie widmowe stają się bardzo mocne (silnie nasycone lub czarne w środkach), stają się mniej wrażliwe na zmiany liczebności (efekt krzywej wzrostu), a bardziej wrażliwe pod względem siły na funkcję Φ(x,Δλ). Zatem mocne linie stanowią poważne wyzwanie dla określenia dokładnych liczebności. Światło emitowane na głębokości x pod kątem θ do normalnej powierzchni atmosfery gwiazdowej jest tłumione na swojej drodze do powierzchni przez współczynnik exp(-τλ/ cos θ), gdzie bezwymiarowa głębokość optyczna τλ jest dana wzorem



oraz ρ(x) to gęstość materiału gwiazdowego na głębokości x. Promieniowanie wychodzi z jednostkowego obszaru powierzchni gwiazdy z dużą intensywnością



Funkcja Sλ nazywana jest "funkcją źródła" i jest definiowana jako stosunek energii emitowanej na jednostkę masy, czasu, długości fali i kąta bryłowego (współczynnik emisji) na głębokości optycznej τλ do całkowitego współczynnika absorpcji lλ + κλ. Jakościowo równanie (3) stwierdza po prostu, że promieniowanie emitowane z większych głębokości w atmosferze ulega większemu osłabieniu, zanim pojawi się na powierzchni gwiazdy. W LTE funkcją źródła jest po prostu funkcja Plancka opisująca emisję ciała doskonale czarnego w temperaturze T ,



Słońce jest jedyną gwiazdą, której powierzchnię postrzega się jako wydłużony dysk, który można obserwować spektroskopowo w zakresie kątów θ od jego środka (θ = 0°) do ramienia (θ = 90°). Zatem równanie (3) ma bezpośrednie zastosowanie w modelowaniu obserwowanego natężenia światła słonecznego w określonym punkcie dysku słonecznego. W przypadku wszystkich innych gwiazd odpowiednią wielkością jest zintegrowane natężenie na półkuli gwiazdy zwróconej w stronę Ziemi. To, co obserwuje się przy długości fali λ, w widmie gwiazdy o promieniu R w odległości d od Ziemi, to strumień



Wielkość 2πR2/d2 można traktować jako współczynnik skalowania, będący produktem ubocznym dopasowania obserwowanego strumienia do zintegrowanej emitowanej intensywności obliczonej z modelowej atmosfery gwiazdowej. Rysunek przedstawia przykład procesu opisanego powyżej.



Tutaj dopasowaliśmy obserwowane widmo linii absorpcyjnej chemicznie osobliwej gwiazdy ciągu głównego typu B do teoretycznie modelowanego widma syntetycznego, aby wyznaczyć liczebność bardzo ciężkiego pierwiastka, talu (liczba atomowa 81). W tym przypadku najlepsze dopasowanie widma uzyskuje się przy założeniu, że tal występuje w postaci izotopowo czystego 205Tl, z obfitością 4,66. Zgodnie z konwencją liczebność substancji chemicznych wyrażana jest w odniesieniu do wodoru w skali logarytmicznej, log(Nel/NH) + 12. W atmosferze tej gwiazdy liczebność talu przewyższa tę w Słońcu o 3,76 w tych jednostkach logarytmicznych, tj. o współczynnik 103,76 ≈ 5700.

Słońce jako wzorzec odniesienia dla obfitości substancji chemicznych

Obfitość pierwiastków w Słońcu i otaczającym Układzie Słonecznym jest znana szerzej i bardziej wiarygodnie niż w przypadku jakiejkolwiek innej gwiazdy. Widma FOTOSFERY SŁONECZNEJ obserwuje się z bardzo wysoką rozdzielczością widmową i stosunkiem sygnału do szumu ze względu na dużą jasność źródła, co pozwala na dokładny pomiar profili wielu słabych lub mieszanych linii absorpcyjnych. Co więcej, strukturę i procesy fizyczne fotosfery słonecznej dobrze poznano nie tylko na podstawie modeli teoretycznych, ale także obserwacji empirycznych (np. zaobserwowanych zmian w natężeniu światła słonecznego od środka do krawędzi dysku słonecznego). OBECNOŚĆ fotosferycznego SŁONECZNEGO została zmierzona dla około 60 pierwiastków chemicznych, a z nich 43 z dokładnością do 25% lub lepszą - mały słupek błędu, biorąc pod uwagę, że zakres obfitości obejmuje 12 rzędów wielkości. Aby Słońce mogło służyć jako użyteczny punkt odniesienia, z którym można porównać obfitość fotosfery innych gwiazd, ważne jest ustalenie (1), że skład powierzchni Słońca jest zasadniczo taki sam jak skład gazu i pyłu międzygwiazdowego, z których się ono składa uformowało się (tj. nie zostało zmienione przez procesy endemiczne dla samego Słońca) oraz (2) że obfitość fotosfery Słońca jest, przynajmniej średnio, reprezentatywna dla innych gwiazd powstałych mniej więcej w tym samym czasie w tym samym regionie Galaktyki . Skład fotosfery słonecznej jest ściśle zgodny ze składem rzadkiej klasy meteorytów, węglowych CHONDRYTÓW typu CI, w przypadku tych pierwiastków, których w obu przypadkach zmierzono dokładne ilości. Głównymi wyjątkami są Li, Be i B, które są transportowane przez konwekcję do wnętrza Słońca i wyczerpywane w wyniku spalania jądrowego w stosunkowo niskich temperaturach. Obfitość meteorytów można dokładnie zmierzyć w laboratorium, co stanowi ważną kalibrację dokładności pomiarów liczebności astrofizycznej. W przypadku niewielkiej liczby ciężkich pierwiastków, w przypadku których istnieją znaczne rozbieżności między pomiarami meteorytowymi i fotosferycznymi, wysoce niepewne są obfitości fotosfery. Datowanie radiometryczne meteorytów chondrytycznych wskazuje, że są one tak stare jak sam Układ Słoneczny (4,55 Gyr). Chondryty węglowe zawierają stosunkowo dużą ilość pierwiastków lotnych i uważa się, że powstały w dużej odległości od Słońca. Ścisła zgodność między składem meteorytów CI a fotosferą słoneczną jest mocnym dowodem na to, że skład chemiczny Słońca jest (z kilkoma wyjątkami) taki sam jak skład mgławicy przedsłonecznej. Dokładne pomiary składu chemicznego gwiazd ciągu głównego obejmujących Słońce w typie widmowym (Słońce jest typu G2 V) wskazują, że skład Słońca jest typowy dla gwiazd podobnych wiekiem do Słońca, "metalicznością" (na co wskazują ich obfitość żelaza) i odległość powstania od centrum Galaktyki. Dotyczy to przynajmniej kilkunastu pierwiastków, których liczebność została zmierzona na podstawie widm optycznych w dużych badaniach statystycznych. Obfitość pierwiastków w Układzie Słonecznym często określa się jako "obfitość kosmiczną" lub "obfitość normalną". Terminy te są nadmiernie uproszczone. Jednakże Układ Słoneczny zapewnia reprezentatywną próbkę liczebności w określonym czasie i miejscu w historii Galaktyki, która z nielicznymi wyjątkami pozostaje niezmieniona przez procesy zachodzące w samym Słońcu.

Zmiany obfitości w czasie i przestrzeni

Galaktyka jest gęsto zaludniona gwiazdami o małej masie, takimi jak Słońce. Teoretyczne czasy życia takich gwiazd, od ciągu głównego wieku zerowego do wierzchołka gałęzi czerwonego olbrzyma, wahają się od około 4,5 Gyr dla karła F5 o składzie słonecznym (1,3 masy Słońca) do około 29 Gyr dla karła K0 ( 0,8 masy Słońca). Życie Słońca wynosi około 12 Gyr. W rezultacie wiek gwiazd w tej dużej i szeroko rozpowszechnionej populacji obejmuje całą historię Galaktyki. Łącznie skład chemiczny ich powierzchni stanowi encyklopedię ewolucji Galaktyki. W przeciwieństwie do masywniejszych gwiazd typu O, B i A ( ≥ 3 masy Słońca), które są gorętsze i świecą jaśniej, mają krótki czas życia w ciągu głównym &asd;106-108 lat. Te młode gwiazdy przedstawiają dzisiejszy skład i stan ewolucji materii galaktycznej. Skład pojedynczej gwiazdy jest podyktowany przez środowisko, w którym powstała gwiazda. To z kolei wynika z dotychczasowej historii nukleosyntezy gwiazd, procesów prowadzących do wyrzucenia nuklidów do ośrodka międzygwiazdowego, względnej ilości czasu potrzebnego do zajścia tych procesów oraz dynamiki Galaktyki , który miesza i homogenizuje materię międzygwiazdową. Chociaż we wnętrzach gwiazd występuje wiele różnych łańcuchów reakcji jądrowych, tylko kilka z nich ostatecznie prowadzi do znacznego wzbogacenia chemicznego ośrodka międzygwiazdowego. Istnieją obecnie wiarygodne scenariusze wyjaśniające astrofizyczne wytwarzanie zasadniczo wszystkich pierwiastków chemicznych, dzięki dużym postępom w teorii ewolucji gwiazd w połączeniu z szeroką gamą współczesnej obserwacyjnej spektroskopii gwiazd. Zostały one opisane w poniższym podsumowaniu. Jest to jednak duży krok od wiarygodnego scenariusza do rozstrzygającego dowodu obserwacyjnego, a w niektórych przypadkach pozostaje jeszcze wiele do zrobienia. Uważa się, że najliczniejsze IZOTOPY pierwiastków cięższych od boru powstają głównie w jednym lub większej liczbie z następujących miejsc: (1) supernowe typu II (SNII), (2) supernowe typu Ia (SNIa) oraz (3) wysoko rozwinięte niziny i gwiazdy o masach pośrednich (1-7 mas Słońca). Supernowe typu II to masywne gwiazdy (>7-8 mas Słońca), które kończą swoje życie w gigantycznych eksplozjach. Supernowe typu Ia to białe karły węgiel-tlen (CO) znajdujące się w bliskich układach podwójnych, które eksplodują w wyniku deflagracji jądrowej węgla w wyniku przeniesienia masy z towarzysza podwójnego lub połączenia z nim. Otoczki gwiazd o małych i średnich masach są chemicznie wzbogacane w wyniku uporządkowanej sekwencji wewnętrznych procesów jądrowych podczas ich życia. Otoczki te są rozrzucane w postaci wiatrów gwiazdowych i mgławic planetarnych, gdy gwiazdy ewoluują z asymptotycznej gałęzi olbrzyma (AGB). Uważa się, że masywniejsze gwiazdy AGB wytwarzają większość węgla i azotu w Galaktyce. Tlen i "pierwiastki ?", których najliczniejsze izotopy są całkowitymi wielokrotnościami jądra helu (Mg, Si, S, Ar, Ca i Ti), są produkowane głównie przez SNII. Lekkie pierwiastki "dziwne Z", Na i Al, najwyraźniej pochodzą z bardziej masywnego i bogatego w metale SNII. Elementy "żelaznego piku" (V, Cr, Mn, Fe, Co, Ni) pochodzą z obu typów supernowych, ale SNIa daje znacznie wyższy uzysk tych pierwiastków. Pierwiastki cięższe od piku żelaza powstają w wyniku kolejnego wychwytu neutronów. W PROCESIE JĄDROWYM podczas impulsów termicznych powłoki helu we wnętrzach gwiazd AGB o małej masie (1-3 masy Słońca) wychwytywanie neutronów następuje stale, ale rzadko, co pozwala na wystąpienie rozpadu beta neutronu przed kolejnymi wychwytami neutronów. Jest to proces "s- (powolny)". Elementy procesu S, których najliczniejsze izotopy tworzone są przez proces ten obejmuje Sr, Y, Zr, Nb, Ba, La, Ce i Nd. Zdarzenia wybuchowe, takie jak supernowe, charakteryzują się dużymi strumieniami neutronów. Elementy "procesu R (szybkiego)" powstają w takich środowiskach, gdy wychwyt neutronów następuje tak szybko, że rozpad beta nie może nastąpić przed kolejnymi wychwytami neutronów. Nagłe zakończenie wychwytu neutronów po zakończeniu zdarzenia wybuchowego daje w wyniku wzór obfitości wyrzuconego materiału bogatego w niestabilne beta izotopy o dużej liczbie neutronów, które następnie rozpadają się na bardziej stabilne nuklidy. Jak zmierzono w Układzie Słonecznym, około 2/3 z 49 stabilnych pierwiastków cięższych od Ge składa się wyłącznie lub głównie z izotopów procesu r. Są to jednak bardzo niskie obfitości, śladowe składniki materiału słonecznego. Wzorzec względnej liczebności elementów słonecznego procesu r wydaje się prawie identyczny z obserwowanym w bardzo starych, ubogich w metale gwiazdach w halo Galaktyki. Sugeruje to, że wszystkie nuklidy procesu r pochodzą z jednego miejsca, najprawdopodobniej z SNII. Rysunek przedstawia przykład wykorzystania obfitości substancji chemicznych w gwiazdach do badania ewolucji Galaktyki.



Zgodnie z konwencją, współczynnik liczebności podany w nawiasach kwadratowych to logarytmiczna wartość liczebności w stosunku do liczebności w Układzie Słonecznym, [A/B] = log (NA/NB)STAR - log (NA/NB)SUN. Pomiędzy metalicznością [Fe/H] = -1 a -4, co odpowiada starym gwiazdom w halo galaktycznym, zmierzona liczebność pierwiastków α w stosunku do żelaza przekracza wartość słoneczną średnio o około +0,4 dex. Występuje duży rozrzut między gwiazdami, który jest częściowo rzeczywistym, a częściowo błędem pomiaru. Jednakże w przypadku ogólnie młodszych gwiazd z populacji dysków o metaliczności [Fe/H] = -1 do 0 lub wyższej, wartość [α/Fe] stale spada w kierunku wartości słonecznej wraz ze wzrostem metaliczności. Ten wzór interpretuje się jako wynikający z opóźnienia czasowego między szybką ewolucją (<0,02 Gyr) masywnych gwiazd w SNII a znacznie wolniejszą ewolucją (0,1-10 Gyr) przodków białych karłów CO w SNIa. SNII wytwarzają wysoką wydajność pierwiastków ? i małe ilości żelaza. Wybuch powstawania masywnych gwiazd na początku życia Galaktyki wkrótce potem spowodowałby wyrzucenie przez SNII materiału stosunkowo bogatego w pierwiastki ? do ośrodka międzygwiazdowego, dostarczając surowca do formowania gwiazd o wzmocnionej alfa o niskiej metaliczności. Za około kilkaset milionów lat pierwsza SNIa wyewoluowałaby ze swoich przodków o masie 7-8 mas Słońca, dając materiał protogwiazdowy znacznie wzbogacony w pierwiastki szczytowe żelaza, ale z niewielką dodatkową produkcją pierwiastków ?. W tym momencie stosunek [?/Fe] zacząłby się zmniejszać i tendencja ta będzie się utrzymywać, w miarę jak progenitory SNIa o coraz mniejszej masie osiągały punkt końcowy swojej ewolucji. Scenariusz ten potwierdzają pomiary liczebności gwiazd, takie jak te przedstawione na ryc. 2. Elementy procesu r wykazują trend, w którym [Fe/H] jest nieco podobny do pierwiastków α. To właśnie ten dowód sugeruje, że SNII może być również odpowiedzialny za ich produkcję. W najbardziej wewnętrznych 7 kpc dysku galaktycznego najstarsze gwiazdy ubogie w metale ([Fe/H] = od -1 do -0,5) mają większe wzmocnienia [α/H] niż ich odpowiedniki w większych odległościach od centrum Galaktyki . Ponadto zwiększenie liczebności pierwiastków α utrzymuje się przy wyższych wartościach metaliczności w gwiazdach położonych bliżej centrum Galaktyki. Sugeruje to, że FORMOWANIE GWIAZD, szczególnie masywnych gwiazd, które stały się SNII, prawdopodobnie rozpoczęło się wcześniej i przebiegało w większym tempie w wewnętrznej części dysku galaktycznego. Istnieją poważne dowody na to, że skład chemiczny dysku galaktycznego nie ewoluował jednorodnie. Na przykład bardzo trudno jest dostrzec wyraźny związek pomiędzy [Fe/H] a wiekiem gwiazdy w sąsiedztwie Słońca, chociaż takiego związku można by się spodziewać na podstawie prostych modeli ewolucji Galaktyki. Najmłodsze gwiazdy mają [Fe/H] ∿0, a najstarsze [Fe/H] ∿ -1. Jednakże istnieje duży i rzeczywisty rozrzut metaliczności we wszystkich przedziałach wiekowych pomiędzy. Szacuje się, że naturalne zróżnicowanie w zawartości żelaza wśród gwiazd w tym samym wieku wynosi około ± 25-50% (1?). Przyczyny tego rozproszenia nie są w pełni poznane. Jest oczywiste, że wzbogacenie w metal ośrodka międzygwiazdowego, z którego powstają gwiazdy, jest funkcją nie tylko czasu, ale także lokalizacji. Do ważnych czynników mogą należeć (1) lokalne zmiany w początkowej funkcji masy i szybkości powstawania gwiazd, (2) epizodyczny opad materiału o niskiej metaliczności (który może rozrzedzić gaz międzygwiazdowy) na zlokalizowane obszary dysku oraz (3) szybkość, z jaką Galaktyka dysk zostaje dobrze wymieszany z gazem zawracanym do obiegu w wyniku nukleosyntezy gwiazdowej. Gwiazdy halo galaktycznego charakteryzują się niedoborem metali, średnio około -1,6 in [Fe/H]. Aktualny rekord obserwowanej gwiazdy ubogiej w metal należy do giganta z halo CD -38 245 z [Fe/H] = -4,01. Intensywne poszukiwania gwiazd o zerowej metaliczności w Galaktyce zakończyły się niepowodzeniem. Sugeruje to, że najwcześniejsza epoka nukleosyntezy mogła mieć miejsce przed powstaniem samej Galaktyki, w podstrukturach protogalaktycznych. Gwiazdy w halo zawierają znacznie większą proporcję pierwiastków procesu r niż Słońce. W przypadku bardzo starych gwiazd o niskiej metaliczności, [Fe/H] < -2,5, rozproszenie między gwiazdami w obfitości pierwiastków procesu r jest znacznie większe niż w przypadku przypuszczalnie młodszych gwiazd o wyższej metaliczności. Jest prawdopodobne, że wczesna ewolucja chemiczna halo była zdominowana przez stosunkowo niewielką liczbę SNII o szerokim zakresie wydajności ciężkich pierwiastków. Skład materiału międzygwiazdowego halo był bardzo niejednorodny na początku życia Galaktyki, ale w miarę upływu czasu stawał się mniej jednorodny, a wyrzucane dyskretne zdarzenia SNII stawały się coraz dokładniej wymieszane.

Obfitość powierzchni jako okno do wnętrza gwiazd

Gwiazdy spędzają większość swojego życia na ciągu głównym spalającym wodór. W tej fazie skład chemiczny ich powierzchni, z nielicznymi wyjątkami, nie daje żadnych wskazówek na temat transmutacji jądrowych zachodzących głęboko w ich wnętrzach. Kiedy jednak gwiazda wyczerpie zapasy wodoru w swoim centralnym jądrze, ulega stosunkowo szybkim i dynamicznym zmianom w swojej strukturze, związanym z różnymi fazami ewolucji po ciągu głównym. Produkty spalania nuklearnego można następnie wydobyć do powierzchni w wyniku konwekcji (prawdopodobnie wspomaganej przez cyrkulację indukowaną obrotowo) lub wystawionej na widok w wyniku dużej utraty masy, lub obu. Zatem zaobserwowany skład powierzchni wyewoluowanych gwiazd dostarcza ważnych podstaw empirycznych dla teorii EWOLUCJI GWIAZD. Modyfikacje składu powierzchni w ten sposób mogą przybierać kilka form: (1) zmiany względnej obfitości węgla, azotu i tlenu oraz izotopów węgla, które charakteryzują spalanie H do He w cyklu CNO; (2) zwiększenie bezwzględnej obfitości węgla wytwarzanego jako produkt reakcji "triplealfa", która przekształca He w C; (3) ulepszenia elementów procesu s powstałych w wyniku wychwytu neutronów uwolnionych np. podczas konwersji w "procesie alfa" 14N na 25Mg i 13C na 16O; (4) wyczerpywanie się wodoru i wzbogacanie w węgiel, azot, tlen i pierwiastki procesu s w miarę utraty masy zdzierania bogatej w wodór otoczki gwiazdowej. W układzie podwójnym transfer masy z wysoko rozwiniętej gwiazdy do towarzysza o mniejszej masie może skutkować podobnymi modyfikacjami obfitości atmosfery tego ostatniego, która następnie wykazuje anomalie obfitości najwyraźniej sprzeczne ze stanem mniej rozwiniętym. Terminologia klasyfikacji widmowej gwiazd ewolucyjnych o "anomalnej" obfitości powierzchni (np. gwiazdy typu C, R, S, N, Ba, CH, HdC, RCrB, OBN, OBC, WN, WC, WO) ma swoje korzenie w ponad stuletniej historii obserwacyjnej spektroskopii gwiazd. Nie przekazuje żadnych informacji na temat postępu ewolucji gwiazd w dzisiejszym rozumieniu, którego logicznym produktem ubocznym jest rozwój "anomalii" obfitości. Te nowoczesne ramy dobrze ilustruje przewidywany przyszły przebieg ewolucji Słońca. W ogólnym zarysie scenariusz ewolucji Słońca jest podobny do scenariusza wszystkich gwiazd o masach do około 7-8 mas Słońca. Główna różnica między gwiazdami w tym zakresie mas wiąże się ze sposobem, w jaki zaczynają one spalać hel w węgiel w swoich centralnych jądrach na późnym etapie życia - wybuchowo w przypadku gwiazd o masach mniejszych niż około 2,5 masy Słońca, spokojnie w przypadku gwiazd bardziej masywnych. Po wyczerpaniu się centralnego źródła paliwa wodorowego Słońca, jego rdzeń helowy skurczy się, rozpocznie się spalanie powłoki wodorowej, nastąpi rozszerzenie otoczki, a Słońce ewoluuje od ciągu głównego w górę gałęzi czerwonego olbrzyma (RGB). Na początkowych etapach ewolucji w górę RGB otoczka konwekcyjna Słońca będzie sięgać głęboko do wnętrza i w tej "pierwszej fazie pogłębiania" wydobędzie na powierzchnię produkty obróbki jądrowej CN, które miały miejsce, gdy Słońce znajdowało się na ciąg główny. Fotosfera słoneczna zostanie wzbogacona w azot i zmniejszona w węgiel, wraz ze spadkiem stosunku 12C/13C. Takie zmiany obserwuje się na powierzchniach gwiazd pola bogatych w metale, takich jak Słońce, gdy rozpoczynają one wspinanie się w górę RGB, co jest zgodne z przewidywaniami standardowej teorii ewolucji gwiazd. Jednakże wyżej w RGB Słońce może wykazywać dodatkowe modyfikacje liczebności tego samego typu, wskazujące na wydobywanie materiału przetworzonego za pomocą CN z głębokich warstw w pobliżu powłoki spalającej wodór. Jasne, ubogie w metale gwiazdy RGB w Gromadach Kulistych mogą również wykazywać produkty przetwarzania ON i reakcji wychwytywania protonów na powierzchni gwiazdy. Obserwuje się zwiększoną zawartość azotu, zubożoną ilość tlenu, bardzo niskie wartości 12C/13C (3-4) i nienormalną obfitość sodu, glinu i magnezu. Zarówno w przypadku gwiazd RGB pola bogatego w metal, jak i gwiazd RGB z gromady kulistej ubogich w metale, tego dodatkowego mieszania się z głębokimi obszarami wewnętrznymi nie przewiduje się w podstawowych modelach teoretycznych wnętrza gwiazd. Standardowe modele tych bardziej rozwiniętych gwiazd RGB zawierają rozszerzony obszar promieniowania pomiędzy powłoką spalającą wodór a otoczką konwekcyjną, która zapobiega ich kontaktowi. Uważa się, że rozwiązanie tego dylematu leży w wpływie rotacji gwiazd, która wytwarza prądy cyrkulacyjne zdolne do transportu materiału przetworzonego przez CN i ON w górę do podstawy strefy konwekcji (patrz także OBRÓT GWIAZDY NA SEKWENCJI GŁÓWNEJ). Jest to dobry przykład tego, jak obfitość powierzchni może zapewnić wgląd w niewykrywalne w inny sposób procesy ukryte we wnętrzu gwiazdy. Ogólnie rzecz biorąc, obserwowana liczebność gwiazd RGB na powierzchni wydaje się zależeć w złożony (i często zagadkowy) sposób od tego, czy gwiazdy są bogate w metal, czy ubogie w metal oraz od tego, czy znajdują się w gromadach kulistych, czy w polu widzenia. "Zanieczyszczenie środowiska" przez wyrzuty wysoko rozwiniętych gwiazd w bliskim sąsiedztwie, szczególnie w zatłoczonym sąsiedztwie gwiazd w gromadach kulistych, to kolejny proces, który czasami przywołuje się w celu wyjaśnienia takich złożoności. Na końcu RGB Słońce osiągnie wysoką temperaturę w swoim zdegenerowanym jądrze centralnym, wywołując zapłon "błysku helowego" reakcji potrójnej alfa, która przekształca hel w węgiel. Rdzeń spalający hel dołączy do poruszającej się na zewnątrz powłoki spalającej wodór jako źródła jasności Słońca na poziomej gałęzi "wieku zerowego". Następnie, gdy wyczerpią się zapasy paliwa w rdzeniu helowym, Słońce wejdzie w fazę charakteryzującą się spalaniem jądrowym na przemian w powłoce helowej i wodorowej. W tym okresie "dwupowłokowym" jego koperta ponownie się powiększy w miarę ewolucji w górę AGB. Okresowe błyski termiczne związane z zapłonem powłoki helowej spowodują obfite dostawy węgla, a także pierwiastków procesu S, które zostaną przesunięte w górę przez powłokę konwekcyjną na powierzchnię. Słońce może najpierw stać się gwiazdą S, a zmiany atmosferyczne wynikają głównie z procesu elementów. Na tym etapie jego widmo może nawet ujawnić technet (99Tc), radioaktywny pierwiastek procesu S o tak krótkim okresie półtrwania (2 × 105 lat), że jego obecność zasadniczo dowodzi, że materiał poddany obróbce jądrowej został wydobyty z głębokiego wnętrza bardzo niedawno. Z biegiem czasu, wyżej w AGB, Słońce stanie się klasyczną gwiazdą węglową lub typu N, której widmo charakteryzuje się silnymi pasmami CH, CN, C2 i C3. Ostatecznie znaczna część bogatej w wodór otoczki Słońca zostanie wyrzucona jako Mgławica Planetarna, pozostawiając po sobie rdzeń BIAŁEGO KARŁA, składający się z węgla i tlenu, prawdopodobnie pokryty cienkimi warstwami powierzchniowymi wodoru na wierzchu helu, segregowanego przez osadzanie grawitacyjne. Gdyby Słońce miało mniej masywnego towarzysza w układzie podwójnym, jego atmosfera mogłaby zostać zanieczyszczona przez wyrzuconą przez Słońce otoczkę i nabrać anomalnych ilości związanych na przykład z gwiazdami baru (Ba). W przypadku gwiazd o masie większej niż około 7-8 mas Słońca ewolucja powoduje zmiany w liczebności powierzchni, głównie w wyniku utraty masy na dużą skalę w wyniku silnych wiatrów gwiazdowych. Dobrym przykładem są gwiazdy WOLFA-RAYETA (WR). Klasyfikuje się je jako sekwencję spektroskopową: gwiazdy WN ze wzmocnionym azotem i helem, gwiazdy WC wzmocnione w węglu i gwiazdy WO wzbogacone w tlen. Ta kolejność odzwierciedla coraz głębsze odsłonięcie jądra gwiazdowego w wyniku utraty masy, odsłaniając produkty najpierw spalania wodoru, potem helu, a na koniec spalania węgla.

Anomalie obfitości atmosfery w gwiazdach ciągu głównego

Od stulecia spektroskopiści gwiazd są zaintrygowani i zdumieni gwiazdami ciągu głównego klasyfikowanymi jako Ap ("p" oznacza "osobliwy"), Bp, Am ("m" oznacza "linię metaliczną"), Si, SrEuCr, HgMn lub bardziej ogólnie CP (od "charakterystycznego chemicznie"). Atmosfery tych gwiazd wykazują zdumiewające odchylenia od obfitości Słońca w wielu pierwiastkach, w tym wzmocnienie ciężkich pierwiastków, takich jak Hg, o współczynniki sięgające 105-106. Sporadycznie obserwuje się także duże anomalie w mieszaninie izotopowej niektórych pierwiastków . Nie są znane żadne procesy jądrowe, które mogłyby wyjaśnić te anomalie. Najważniejszą wskazówką do ich interpretacji jest położenie tych gwiazd na diagramie HERTZSPRUNG-RUSSELLIAGRAM. Łącznie stanowią one 10-20% wszystkich gwiazd ciągu głównego o efektywnych temperaturach od około 9000 K do 16 000 K. Gwiazdy w tym zakresie temperatur są zbyt gorące, aby posiadać rozległe otoczki konwekcyjne (cienka strefa konwekcji wodoru zanika całkowicie około 10 000 K) i zbyt chłodno, aby występowały znaczące wiatry gwiazdowe. Wiele z nich posiada silne dipolarne lub kwadrupolarne pola magnetyczne. Zarówno magnetyczne, jak i niemagnetyczne gwiazdy CP są zwykle z natury powolnymi rotatorami. Ta kombinacja czynników oznacza, że gwiazdy CP muszą posiadać bardzo stabilne hydrodynamicznie atmosfery i otoczki. W takim spokojnym środowisku atomy i jony są podatne na osadzanie grawitacyjne i dyfuzję napędzaną promieniowaniem. Konkurencja między grawitacją a promieniowaniem powoduje, że niektóre jony dryfują w dół poza zasięgiem fotosfery, podczas gdy inne są wypychane w górę do fotosfery pod wpływem ciśnienia promieniowania transmitowanego przez silne linie widmowe lub kontinua na długości fal, przy których gwiazda silnie emituje strumień. Obserwacje potwierdzają jakościowo ten scenariusz. Na przykład największe zwiększenie liczebności często występuje w pierwiastkach, których pierwotnie było bardzo mało w materiale, z którego uformowała się gwiazda (tj. praktycznie we wszystkich pierwiastkach cięższych od szczytu żelaza), podczas gdy pierwiastki początkowo występujące w dużych ilościach (np. He, C, N ) wydają się być nieco wyczerpane. Obfite pierwiastki nasycają pole promieniowania w ich najsilniejszych liniach widmowych, tak że pochłaniają stosunkowo małe ciśnienie promieniowania i (w przypadku braku jakiejkolwiek innej cyrkulacji lub mieszania materiału) mają tendencję do opadania. Odwrotnie jest w przypadku początkowo pierwiastków śladowych. Niektóre jony (np. B II, Zn II) mogą absorbować tak duże ciśnienie promieniowania, że zostają całkowicie wywiewane z gwiazdy, co zapowiada pojawienie się silniejszych wiatrów gwiazdowych w wyższych efektywnych temperaturach. Linie pola magnetycznego służą również do kierowania migracją jonów pod wpływem grawitacji i ciśnienia promieniowania, powodując niejednorodności obfitości powierzchni lub "plamy gwiazdowe" na magnetycznych gwiazdach CP. Dyfuzja napędzana radiacyjnie oraz grawitacyjne osiadanie atomów i jonów mają znaczenie wykraczające poza dziwaczne wzorce liczebności gwiazd CP. Teoretyczne modele dyfuzji sugerują, że hel, pod względem liczebności ustępujący jedynie wodorowi, został zredukowany w fotosferze Słońca o około 10% w wyniku osiadania grawitacyjnego. Procesy te mogą zachodzić głębiej we wnętrzach gwiazd, w obszarach równowagi radiacyjnej, modyfikując nieprzezroczystość i średnią masę cząsteczkową materiału gwiazdowego. Jedynym innym przykładem gwiazd ciągu głównego, które wykazują anomalie obfitości w swoich atmosferach (z wyjątkiem układów podwójnych, w których akreowała materia z wyewoluowanego towarzysza) to bardzo masywne gwiazdy sklasyfikowane jako OBN. Istnieją dowody na przetwarzanie przez CNO materiału widocznego na powierzchni tych gwiazd, tj. zwiększoną zawartość azotu i zmniejszoną zawartość węgla. Ponieważ gwiazdy te posiadają otoczki radiacyjne, najbardziej prawdopodobnym mechanizmem transportu materiału przetworzonego przez CNO z głębokiego wnętrza jest cyrkulacja południkowa, będąca naturalną konsekwencją ich normalnej, szybkiej rotacji.

Chińska astronomia

Astronomia jest przedmiotem zainteresowania Chińczyków od czasów starożytnych. Już w XVI wieku p.n.e. na kości zwierzęcej używanej do wróżenia zarejestrowano supernową. W starożytnych Chinach główną misją astronomów było wyznaczanie pór roku w rolnictwie i przewidywanie ważnych wydarzeń na przyszłość na podstawie zjawisk pojawiających się na niebie. W świadomości władców starożytności astronomia miała szczególny status wśród dyscyplin nauk przyrodniczych ze względu na przekonanie, że pomaga przewidywać przyszłość i losy. W rezultacie astronomowie byli mianowani urzędnikami królewskimi od dwudziestego czwartego wieku p.n.e. Obserwatorium Aroyal powstało w czasach zachodniej dynastii Zhou (XI w. p.n.e. - 771 p.n.e.) i istniało do początków XX wieku. Ponieważ w starożytności astronomia służyła potrzebom władców, traktowano ją w pewnym stopniu jako ASTROLOGIĘ. do celów wróżbiarskich szczególną uwagę zwracano na obserwację i przewidywanie zaćmień słońca i księżyca. Uważano, że koniunkcje jasnych planet, a także pojawienie się komet, meteorów i nowych gwiazd mają wartość wróżbową. Dlatego też uważnie i systematycznie obserwowano ruchy Słońca, Księżyca i planet oraz rzadkie zjawiska astronomiczne. W ten sposób zarejestrowano ogromną liczbę zjawisk astronomicznych. Wyjątkowy status astronomii w starożytnych Chinach gwarantował jej odrębność i astronomiczny rozdział w kronice historycznej oraz ponad 10 000 indywidualnych zapisów zaćmień Słońca i Księżyca, plam słonecznych, zórz polarnych, meteorów i meteorytów, komet, nowych i supernowych, zakryć planet przez Księżyc i innych zjawisk. Doniesienia o kometach z XI w. p.n.e. i zapisy plam słonecznych z 28 r. p.n.e. uważane są za najwcześniejsze odnotowane obserwacje tych zjawisk w historii astronomii. Chińskie zapisy dotyczące historycznych supernowych są najpełniejsze na świecie. Wśród nich zapis supernowej 1054 został wykorzystany do określenia wieku pulsara Kraba. Zapisy zaćmień zostały wykorzystane do obliczenia świeckiego przyspieszenia obrotu Ziemi. Astronomia cieszyła się dużym rozwojem jako bardzo ważne narzędzie do tworzenia kalendarzy i odmierzania czasu. Od dwudziestego czwartego wieku p.n.e. ustanowiono system kalendarza księżycowo-słonecznego, łączący kalendarz księżycowy i słoneczny, i system ten istnieje do dziś w Chinach. Długość roku zależy od okresu pozornego ruchu Słońca. Długość miesiąca zależy od okresu synodycznego Księżyca. Obydwa systemy kalendarzowe są koordynowane przez siedem miesięcy przestępnych w ciągu 19 lat. Od VII wieku p.n.e. zaczęto używać gnomonów do określania czasu przesilenia letniego i przesilenia zimowego, a co za tym idzie - długości roku. W kalendarzu używanym w V wieku p.n.e. za długość roku przyjęto 365,25 dni. W 1277 roku Guo Shoujing, dobrze znany astronom z dynastii Yuan, użył poziomego pręta, aby zastąpić tabliczkę w gnomonie i dodał urządzenie do obrazowania otworkowego, aby zwiększyć ostrość cienia. Precyzja uzyskana dzięki zastosowaniu ulepszonego urządzenia spowodowała błąd wynoszący zaledwie kilka sekund łukowych szerokości geograficznej Słońca. Dokładne obliczenie długości roku zostało zapisane w księdze kalendarza w 1199 roku. Według tego kalendarza rok ma dokładnie 365,2425 dni. Obliczenia te potwierdziły obserwacje Guo Shoujinga z 1281 roku. Jest to wartość bardzo zbliżona do dzisiejszej wartości roku tropikalnego. Aby odmierzać czas, od VIII wieku p.n.e. powszechnie używano klepsydry (zegara wodnego). Globus napędzany wodą został zbudowany w III wieku, aby pokazać obrót sfery niebieskiej przez ZHANG HENGA, słynnego astronoma z dynastii Han. Wodną kulę ulepszyli Yi Xing i Liang Lingzhan w roku 723, kiedy to wynaleziono koło ratunkowe. Yi Xing wywnioskował również ze swoich obserwacji, że różnica wysokości gwiazdy polarnej jest stała w stałej odległości wzdłuż południka ziemskiego. Wiedzę tę wykorzystał do zmierzenia wielkości terytorium kraju. Od II wieku p.n.e. do XIII wieku n.e. instrumenty obserwacyjne i obserwacje uległy radykalnej poprawie. Aby określić położenie gwiazd i planet, w I wieku p.n.e. zbudowano KULIĘ ARMILLARNĄ (instrument montowany na równiku). Ten instrument składał się z osi biegunowej, tubusu celowniczego oraz okręgów równikowych i poziomych o skali 365,25 stopnia. W IV wieku p.n.e. w katalogu gwiazd Shi Shena umieszczono współrzędne 121 gwiazd. Bardziej szczegółowy katalog, obejmujący 283 konstelacje i 1464 gwiazdy, został opracowany w III wieku naszej ery przez Chen Zuo, stosując własne specjalne konstelacje i system nazewnictwa w Chinach. Jednak jeszcze bardziej niezwykły był atlas gwiazd przechowywany w grotach Dunhuang, w którym na początku VIII wieku odnotowano 1350 gwiazd i 283 konstelacje. Poza tym w wyniku szczegółowych obserwacji odkryto pewne prawa. Jednym z nich było odkrycie precesji przez Yu Xi w roku 330. Dokładne obserwacje w IV wieku doprowadziły także do odkrycia, że ogony komet zawsze są skierowane w stronę przeciwną do Słońca i że komety zawsze odbijają jego promienie. Od VIII wieku p.n.e. do III wieku naszej ery aktywnie dyskutowano i rejestrowano różne hipotezy dotyczące definicji i koncepcji wszechświata. Jedna z nich sugerowała, że Ziemia i gwiazdy unoszą się w nieograniczonej przestrzeni. Myśl teoretyczna - na przykład dyskusje na temat struktury wszechświata - była uważana za bezużyteczną dla życia i zaniedbywana w czasach dynastii Tang (618-906). Co więcej, począwszy od dynastii Tang, osobom spoza obserwatorium królewskiego zakazano studiowania astronomii. Niestety zatem cesarskie kierownictwo astronomii utrudniało swobodny rozwój studiów astronomicznych w starożytnych Chinach. Nie kładziono wystarczającego nacisku na precyzyjne pomiary położenia i ruchów planet, z wyjątkiem ich okresów synodycznych, a ten brak precyzji i dominacja astrologii w starożytnych Chinach spowodowały znacznie wolniejszy rozwój teorii ruchu planet niż w Europie. Pomimo obfitości wielu wielkich odkryć astronomicznych, badania tych obserwacji nie były systematyczne i nie doprowadziły do wielu przełomów w teoriach astronomicznych. Od XIV do XV wieku rozwój astronomii w Chinach uległ spowolnieniu. Na początku XVII wieku Mathoeus Ricci wraz z innymi misjonarzami przybył do Chin z Europy i współpracował z chińskimi astronomami. Wprowadzili do Chin współczesną astronomię zachodnią, w tym teorię Kopernika, teleskopy i astronomię sferyczną.

Współczesna astronomia w Chinach

W 1911 r., wraz z końcem ostatniej dynastii Chin, dynastii Qing, królewskie obserwatorium zostało zamknięte. Republika Chińska utworzyła później Centralne Obserwatorium w Pekinie. W 1958 roku odbudowano OBSERWATORIUM Astronomiczne w Pekinie. Obserwatorium Zo-Se zbudowano w pobliżu Szanghaju w 1900 roku, gdzie zainstalowano 40 cm refraktor, pierwszy duży teleskop używany w badaniach astronomicznych w Chinach. Obserwatorium Zi-Ka-Wei, zbudowane w 1872 r., zaczęło nadawać sygnał czasu w 1914 r. Te dwa obserwatoria połączono, tworząc obecne OBSERWATORIUM Astronomiczne w Szanghaju. W 1935 roku jako instytut Akademii powołano PURPLE MOUNTAIN OBSERVATORY (PMO). Teleskopy instalowano jeden po drugim. W 1975 roku Obserwatorium Astronomiczne Yunnan zostało oddzielone od PMO i stało się niezależnym obserwatorium. Shaanxi Obserwatorium zostało zbudowane jako centrum usług czasu w Chinach w 1966 roku. Większość astronomów i instrumentów pracuje w pięciu obserwatoriach zarządzanych przez Chińską Akademię Nauk. Pekińskie Obserwatorium Astronomiczne (BAO) zajmuje się badaniami astrofizycznymi, w tym obfitością pierwiastków, krótkookresowymi ceifidami, badaniami supernowych i AGN, galaktykami wybuchowymi, optyczną identyfikacją źródeł promieniowania rentgenowskiego, wielkoskalową strukturą galaktyk, badaniami wąskopasmowymi, badaniami radiowymi astronomia i fizyka słońca. Miejsca obserwacji optycznych, radiowych i słonecznych znajdują się oddzielnie w Xinglong, Miyun i Huairou, wzdłuż Wielkiego Muru. BAO zarządza Pekińskim Regionalnym Centrum Ostrzegania Międzynarodowej Służby Środowiska Kosmicznego. Monitorowane jest słoneczne pole magnetyczne aktywnych regionów i słoneczne erupcje radiowe. Przedstawione są prognozy zdarzeń związanych z aktywnością słoneczną. W BAO zainstalowano teleskop o średnicy 2,16 m, teleskop słonecznego pola magnetycznego, teleskop na podczerwień o promieniu 1,26 min i teleskop do syntezy fal metrowych. Światowe Centrum Danych-D dla Astronomii również znajduje się w BAO. Obserwatorium Astronomiczne w Szanghaju (SAO) koncentruje się bardziej na badaniach astrogeodynamiki i astrometrii. Do określenia parametrów rotacji Ziemi wykorzystuje się pomiary VLBI, satelitarny i księżycowy pomiar odległości laserem. Zmienność linii podstawowej jest mierzona interferometrycznie we współpracy z obserwatoriami japońskimi, niemieckimi i amerykańskimi. Zaczynają także rozwijać pewne badania astrofizyczne w SAO. Zmienne klastrów otwartych w gromadach kulistych i symulacje ciał N to główne obszary zainteresowań badań astrofizycznych. Dwie anteny radiowe o średnicy 25 m zostały zainstalowane na stacjach w Szanghaju i Urumqi i pracują jako jednostki VLBI EVN. W SAO pracuje reflektor o długości 1,56 m. Sieć Geodynamiki Kosmicznej Azji Wschodniej i Pacyfiku powstała w SAO w 1994 roku, w której uczestniczy ponad 20 stacji VLBI, GPS i SLR z około 10 krajów. Naukowcy z Obserwatorium Purple Mountain (PMO) prowadzą badania z zakresu Układu Słonecznego, astronomii molekularnej i dynamiki satelitów. Mniejsze planety, fizyka planet, dynamika sztucznych satelitów i almanachy astronomiczne to tradycyjne dziedziny badań. Badania i techniki w astronomii fal milimetrowych poczyniły w ostatnich latach ogromny postęp. Na płaskowyżu Qinghai zainstalowano teleskop wykorzystujący fale mm o średnicy 13,6 m. Drobna struktura Słońca, rotacja gwiazd, bliskie układy podwójne, struktura gwiazd i obiekty BL Lac to główne obszary badań Obserwatorium Astronomicznego w Yunnan. Naukowcy prowadzą tu badania nad dynamiką sztucznych satelitów, astrometrią i erupcjami radiowymi na Słońcu. W Kunming, stolicy prowincji Yunnan, używany jest teleskop o średnicy 1 m i kilka małych teleskopów. Instytucje prowadzące edukację astronomiczną podlegają Ministerstwu Edukacji. Instytucje te obejmują: Wydział Astronomii Uniwersytetu w Nanjing, Wydział Astronomii Uniwersytetu Normalnego w Pekinie i Wydział Astrofizyki Uniwersytetu w Pekinie. Chociaż na tych uniwersytetach nie są dostępne żadne urządzenia obserwacyjne, naukowcy i wydziały z tych uniwersytetów mogą korzystać z teleskopów i obserwacji z różnych obserwatoriów w zależności od jakości zastosowań. Centrum Astrofizyki Wysokich Energii Instytutu Fizyki Wysokich Energii, Centrum Astrofizyki Chińskiego Uniwersytetu Naukowo-Technologicznego, grupy astrofizyczne na Uniwersytecie Normalnym w Nanjing, Uniwersytecie Jiaotong i Uniwersytecie Normalnym w Huazhong prowadzą badania nad astrofizyką wysokich energii i astrofizyką plazmy. W Teipei w 1990 roku zbudowano Instytut Astrofizyki Academia Sinica. Instytut ten dodaje dwie anteny do tablicy Sub-Milimeter Array (SMA) oraz wspiera i udostępnia 10% BIMA w celu współpracy z astronomami w USA. Instytut Astronomii powstał na Uniwersytecie Centralnym w Zhongli, mieście na południe od Teipei; jego 70-centymetrowy teleskop został zainstalowany na górze Yu. Od 1991 roku na Uniwersytecie Tsinghua działa sieć oscylacji Słońca z pięcioma detektorami zainstalowanymi w BigBear, Wyspach Kanaryjskich, Taszkencie, Pekinie i Teipei. W Hongkongu grupy badawcze zajmujące się astrofizyką aktywnie działają na Uniwersytecie w Hongkongu, Uniwersytecie Chińskim w Hongkongu oraz Uniwersytecie Nauki i Technologii w Hongkongu. Planetarium w Pekinie powstało jako centrum popularnej astronomii w 1957 roku. Muzeum Astronomiczne w Tajpej zostało zbudowane w 1996 roku, a jego powierzchnia wystawiennicza zajmowała 50 000m2. Planetarium w Hongkongu zostało zbudowane w 1980 roku. W całym kraju znajduje się ponad 50 małych planetariów. CHINESE ASTRONOMICAL SOCIETY (CAS) jest organizacją pozarządową zrzeszającą astronomów i naukowców. CAS jest filią MIĘDZYNARODOWEJ UNII Astronomicznej (IAU). Stowarzyszenie Astronomiczne z siedzibą w Teipei jest filią IAU. Towarzystwo Astrofizyczne w Hongkongu powstało w 1997 roku. Większość teleskopów używanych w obserwatoriach na kontynencie jest produkowana przez Centrum Badań i Produkcji Instrumentów Astronomicznych w Nanjing we współpracy z obserwatoriami. Zaplanowano nowe inicjatywy dotyczące przyszłych instrumentów astronomicznych w Chinach. Duży wieloobiektowy teleskop spektroskopowy (LAMOST) został zatwierdzony jako projekt krajowy w latach 90. XX wieku. LAMOST to teleskop zwierciadlany Schmidta montowany azymutalnie. Układ optyczny składa się z zwierciadła sferycznego o wymiarach 6×6,7 m, zamocowanego na fundamencie i zwróconego w kierunku północnym. Asferyczne lustro odbijające znajduje się w środku kuli w odległości 40 m. Aberrację sferyczną eliminujemy w czasie rzeczywistym za pomocą aktywnej optyki. Efektywna apertura wynosi 4 m. Ogniskowa wynosi 20 m. Pole widzenia wynosi około 5°, co daje średnicę liniową 1,75 m. Dzięki dużemu polu widzenia do powierzchni ogniskowej można przyczepić około 4000 włókien, dzięki czemu można jednocześnie obserwować widma 4000 obiektów. Projekt LAMOST zostanie ukończony w 2004 roku. Wsparcie finansowe dla astronomii w Chinach pochodzi głównie od CAS, Ministerstwa Edukacji, Ministerstwa Nauki i Technologii, Narodowej Fundacji Nauk Przyrodniczych (NNSF) i Krajowego Komitetu Planowania. CAS i Ministerstwo Edukacji pokrywają koszty operacyjne swoich stowarzyszonych obserwatoriów i departamentów, które wynoszą około 10 milionów dolarów rocznie. NNSF wspiera osoby i grupy, a także umiarkowane i małe programy o wartości około 1 miliona dolarów rocznie. Krajowa Komisja Planowania wspiera duże projekty polegające na budowie dużych instrumentów naukowych. Budżet LAMOST wynosi 30 mln dolarów. Ministerstwo Nauki i Technologii finansuje większe projekty badawcze, których budżet wynosi około 1 miliona dolarów rocznie.

Chińska astronomia w historii

W artykule przedstawiono wiedzę o niebie i ruchach niebieskich, która ma swoje korzenie w kulturze chińskiej od najdawniejszych czasów aż do roku 1912, kiedy to wraz z imperium chińskim skończyło się stosowanie tradycyjnych technik. Chińskie doświadczenie astronomii ostatnich dwóch tysięcy lat procentuje studiowaniem, ponieważ w odróżnieniu od Europy poziom wiedzy i praktyki utrzymywał się na wysokim poziomie nieprzerwanie przez ponad dwa tysiące lat oraz ponieważ opierał się na stylach pracy zupełnie odmiennych od tych panujących w Zachód.

Ustawienie

Od czasów nowej epoki kamienia wszystkie wielkie cywilizacje historyczne wymieniały się pomysłami i artefaktami. Chiny były tak odizolowane od Europy, Bliskiego Wschodu i Indii, że zewnętrzne wpływy naukowe można było kontrolować aż do połowy XIX wieku. Przez ponad 2000 lat pozostawało centralnie rządzonym imperium, większym niż cała Europa. Nawet w krótkich okresach podziałów ciągłość kultury wysokiej, w odróżnieniu od tej w Europie przez większą część średniowiecza, nigdy nie została przerwana. Pomimo ogromnego zasięgu i lokalnego zróżnicowania Chin, ich wykształcona elita, ze względu na klasyczne wykształcenie, łączyła nie tylko wspólny język, ale także wartości i wzorce myślenia. Wśród tych wartości był ogromny prestiż dla służby cywilnej. Jedno pokolenie utalentowanych astronomów poszukiwało jedynego pracodawcy gotowego zapewnić duże, długoterminowe inwestycje w badania naukowe i rozwój. Rząd wspierał projekty astronomiczne na dużą skalę od II wieku p.n.e. ze względu na ideologię uzasadniającą jego władzę. Twierdziła, że dom cesarski został wybrany przez Niebo (czyli boski porządek natury), aby kształtować społeczeństwo na jego obraz. Osobiste cnoty i charyzma monarchy, a nie jego zdolności menadżerskie, utrzymywały go w kontakcie z kosmicznym porządkiem i umożliwiały utrzymanie państwa w harmonii z nim. Doktryna ta obejmowała pojęcie Mandatu Niebios. Niebo wybrało do rządzenia wyjątkowo cnotliwą rodzinę. Kiedy w końcu jego potomkowie nie utrzymywali już tej cnoty, Niebo przekazało to zadanie godniejszej rodzinie. Podbój kończący dynastię i rozpoczynający nową nie był zatem zbrodnią - jeśli się powiódł. Istniał system wczesnego ostrzegania. Pewne anomalne zjawiska na niebie (lub rzadziej na Ziemi) sygnalizowały, że władca musi się zreformować, bo inaczej zostanie zdetronizowany. Pomyślne znaki potwierdzały panowanie mędrca lub, w innych okolicznościach, zachęcały mędrca do buntu. Niezbędne było szybkie powiadomienie. W rezultacie na dworze cesarskim znajdowało się obficie obsadzone Biuro Astronomiczne. Jej obowiązki w zakresie ASTROLOGII i astronomii matematycznej były ze sobą ściśle powiązane. Jego urzędnicy badali niebo pod kątem znaków, rejestrowali je, ustalali ich znaczenie na podstawie archiwów Biura i zgłaszali je, aby cesarz i jego urzędnicy mogli ustalić, jak zareagować. Relacje z tego procesu sugerują, że astrologia była ważna nie jako źródło obiektywnych przepowiedni, dobrych czy złych, ale jako rytualna forma otwartej dyskusji na temat polityki. Równie ważne było przeniesienie jak największej liczby zjawisk ze sfery złowieszczej do przewidywalnej, co poprawiło obliczenia. Na przykład pod koniec III wieku n.e. nów księżyca w ostatnim dniu miesiąca przestał być wróżbą. Ponieważ nie można było konsekwentnie prognozować zaćmień słońca widocznych z danego obserwatorium, głównym zmartwieniem władców pozostawały nieprzewidziane zaćmienia. Cesarz symbolicznie wyraził swoją kontrolę nad czasem i przestrzenią, wydając coroczny KALENDARZ (właściwie efemerydy lub almanach obejmujący zaćmienia i zjawiska planetarne). Oczekiwał, że Biuro uwzględni w nim możliwie najdokładniejsze przewidywania, zwłaszcza dotyczące zaćmień. W wyniku stałego sponsorowania przez państwo opublikowane zapisy historyczne zawierają nieprzerwane, datowane zapisy najważniejszych zjawisk niebieskich oraz szczegółowe opisy ewolucji metod stosowanych do tworzenia EFEMERYDÓW przez ponad dwa tysiąclecia.

Początki

Zapisy spisane na kościach w XV wieku p.n.e. obejmują obserwacje zjawisk na niebie. Ponieważ dokumenty te pochodzą z archiwów królewskich, obserwacje zaćmień są widoczne i stanowią zwiastun. Datowane są przy użyciu cyklu 60-dniowego, nieprzerwanego aż do czasów współczesnych. W IV i III wieku walczące państwa posługiwały się różnymi, rozbieżnymi kalendarzami. Wszystkie opierały się na roku tropikalnym i lunacji. Zostały one wygenerowane poprzez odliczenie od epoki wybranej jako początek roku, miesiąca, 60-dniowego cyklu i dnia. Rok astronomiczny rozpoczynał się w momencie przesilenia zimowego, miesiąc w czasie nowiu Księżyca - wydarzenie, którego nie można zaobserwować - i dzień o północy. Zatem epoka systemu Potrójnej Zgodności z roku 7 p.n.e. została dokładnie wyznaczona na północ pierwszego sześcioletniego dnia 143 127 lat przed przesileniem zimowym 24 grudnia 105 r. p.n.e. Ponieważ rok cywilny wymagał całkowitej liczby dni w miesiącu i miesięcy w roku, miesiące 29 lub 30 dni z grubsza naprzemiennie, tak że rok cywilny składający się z 12 miesięcy miałby 354 lub 355 dni. Chińczycy przyjęli interkalację, początkowo stosując tak zwane na Zachodzie CYKL METONICZNY. Dodawali 7 dodatkowych miesięcy co 19 lat. W schemacie tym lata przestępne obejmowały jednakowo 383 lub 384 dni, co dało długoterminową średnią wynoszącą 365 14 dni w roku. Na przestrzeni wieków bardziej wyszukane schematy interkalacji, a następnie obliczania prawdziwych lunacji, dały średni rok tropikalny, który w XIII wieku naszej ery wynosił 365,2425 dni.

Obserwacje

Pierwsze wyraźnie instrumentalne obserwacje dotyczyły pomiaru cienia rzucanego przez stojący gnomon wyższy od człowieka. Z pewnością nie można ich datować wcześniej niż na IV wiek p.n.e. Najdłuższy cień dnia wyznaczał moment południa i kierunek północ-południe. Kiedy astronomowie zauważyli, że cień południa zmieniał się z dnia na dzień, możliwe stało się określenie początku roku jako dzień najdłuższego cienia południa, przesilenia zimowego. W nocy obserwacja gwiazd przechodzących przez gnomon na linii północ-południe umożliwiła uzyskanie tranzytów południków, które były ważne przed wynalezieniem instrumentów stopniowanych. Rozwój wyskalowanych instrumentów armilarnych z tubusem to drażliwy temat. Najwcześniejszym znanym dokumentem wymagającym użycia prostej dioptry jest Gan Shi xing jing (kanony gwiezdne Gan De i Shi Shen), którego dane datowano na podstawie analizy błędów na około 70 rok p.n.e. Geng Shouchang używał prostej armilary równikowej w 52 r. p.n.e.; pierścień ekliptyki został dodany w roku 84 n.e., a pierścienie horyzontu i południka w roku 125. Chińskie pomiary stopni nie wywodziły się z babilońskiego systemu sześćdziesiątkowego. Opierało się ono na du, pierwotnie mierzeniu odstępów czasu między tranzytami południków, ale po około 180 r. n.e. na nowo zdefiniowano je jako odległość średniej jednodniowej podróży Słońca. Początkowo w okręgu było 365 1/4 du, a liczba ta zmieniała się wraz ze wzrostem długości roku. Dokładność pierwszego katalogu gwiazd wynosiła 1/8 du; liczba ta wzrosła do 0,05 du w przypadku AD 1279. Współrzędne obserwacji, podobnie jak we współczesnej astronomii, ale w przeciwieństwie do tych w Europie przed renesansem, były równikowe i mierzone od punktu przesilenia zimowego, a nie od pozycji Słońca podczas równonocy wiosennej. Nie ma wielkiego wyboru między tymi dwoma układami, ponieważ Słońce, Księżyc i planety krążą blisko ekliptyki, a gwiazdy obracają się równolegle do równika. W obu przypadkach konieczne było przekształcenie pozycji wzdłuż jednej pozycji na pozycje wzdłuż drugiej. Wcześni Chińczy