61 Cygni

Gwiazda 61 Cygni jest ważna ze względu na jej duży ruch własny, po raz pierwszy zmierzony w Obserwatorium w Palermo przez Giuseppe Piazziego (1746-1826). Gwiazda stała się popularnie nazywana "latającą gwiazdą Piazziego". Jej zmierzony roczny ruch własny wynosi 5,23″ jest nadal siódmą co do wielkości znaną gwiazdą i największą gwiazdą widzianą gołym okiem (pozorna jasność 4,8 mag). Ta gwiazda była również pierwszą, której roczna paralaksa została wiarygodnie określona przez Friedricha Bessela (1784-1846). Pomiar Bessela wynoszący 0,314″, wykonany w Königsberg za pomocą 6,25-calowego heliometru Fraunhofera w 1838 r., całkiem dobrze wypada w porównaniu ze współczesną wartością 0,286″. Oznaczenia paralaksy gwiazd wykonane w tym samym roku przez innych obserwatorów były znacznie mniej dokładne. Jest to jedenasta najbliższa gwiazda, znajdująca się w odległości 11,4 lat świetlnych. 61 Cygni jest również dobrze znanym systemem podwójnym, którego okres wynosi 653,3 lat. Jego składniki są obecnie oddzielone o 30,3″ przy kącie położenia 150°. Główna gwiazda 61 Cyg A to pomarańczowy karzeł typu widmowego K5V o pozornej wielkości 5,20 i bezwzględnej 7,5. Jego towarzysz 61 Cyg B jest również pomarańczowym karłem typu widmowego K7V, o jasności pozornej 6,05 i jasności bezwzględnej 8,3. Układ ten jest uważany za najszerzej obserwowaną gwiazdę podwójną, uzupełnioną o kilka tysięcy obserwacji wizualnych ponad 34 000 klisz fotograficznych. Precyzyjne pomiary astrometryczne tych płyt wykazały, że układ ma co najmniej jeden niewidoczny składnik, uważany za planetę o masie podobnej do Jowisza i być może aż trzy, z okresami orbitalnymi od 5 do 12 lat.



Gromady Abella

Gromady Abella to najbardziej rzucające się w oczy skupiska galaktyk zidentyfikowane przez George′a Abella na płytach z pierwszego przeglądu fotograficznego wykonanego za pomocą TELESKOPU SCHMIDT na Mount Palomar w latach pięćdziesiątych XX wieku. Czasami termin gromady Abella jest używany jako synonim pobliskich, optycznie wybranych gromad galaktyk. George Abell stworzył katalog zawierający 2712 najbogatszych takich zgrupowań na niebie północnym, który później rozszerzono na niebo południowe. Nie będzie przesadą stwierdzenie, że całkowita próbka 4076 kandydatów na gromady na całym niebie zrewolucjonizowała badania wielkoskalowej struktury we Wszechświecie. Katalog Abella stworzył podstawę do pierwszych badań ilościowych najgęstszego składnika wielkoskalowej struktury we wszechświecie lokalnym. W ostatnich latach definicja próbek klastrów kandydujących z płyt do badań szerokiego pola została powtórzona za pomocą automatycznych maszyn do skanowania płyt. Pokazało to obiektywnie, że subiektywny czynnik wizualnej selekcji Abella jest dość mały, przynajmniej dla bogatszych i bliższych gromad. Rzeczywistość kandydatów na gromady w katalogu Abella była przedmiotem pewnej debaty, dopóki obserwacje spektroskopowe dużej liczby galaktyk w kierunkach gromad Abella nie wykazały przekonująco, że tylko niewielka część bogatych gromad jest wynikiem przypadkowych superpozycji. Oznacza to, że bardzo duża część kandydatów na bogate gromady w katalogu sporządzonym przez Abella (lub, włączając gromady południowe, przez Abella, Corwina i Olowina) reprezentuje zwarte, zlokalizowane piki w przestrzennym rozmieszczeniu galaktyk, głównie z przesunięciami ku czerwieni mniejszym niż 0,2 i utrzymywane razem grawitacyjnie. Już w latach trzydziestych XX wieku Fritz ZWICKY doszedł do wniosku, że świetlista materia (tj. galaktyki) w gromadach stanowi tylko około 10% całkowitej masy gromady, z czego większość można zatem wykryć jedynie za pomocą jej grawitacji. Doprowadziło to do oszacowania całkowitej masy (zarówno widocznej, jak i ciemnej materii) na różne sposoby. Najczęstsze z nich to prędkości galaktyk w gromadzie, ilość i temperatura gorącego (emitującego promieniowanie rentgenowskie) gazu oraz zniekształcenie obrazów galaktyk w odległości znacznie większej niż gromada przez soczewkowanie grawitacyjne. Przez długi czas kilka lepiej znanych gromad Abell, takich jak te w konstelacjach COMA BERENICES i PERSEUS, kształtowało naszą wizję klas bogatych, zaludnionych gromad. W tym schematycznym widoku bogate gromady są gładkimi, okrągłymi i zwirializowanymi strukturami. Ten wyidealizowany obraz współistniał ze świadomością, że istnieją znaczne różnice w różnych właściwościach gromad Abella. Doprowadziło to do wielu badań tych właściwości i korelacji między nimi, a także do kilku prób opisania powstawania i ewolucji bogatych klastrów. Obecnie zdano sobie sprawę, że klastry nadal tworzą się i ewoluują w obecnej epoce. Wśród właściwości gromad, które można badać i dla których dokonano teoretycznych przewidywań, są kształt 3D (a raczej osiowe proporcje rozkładu galaktyk), skład populacji galaktyk (tj. frakcje galaktyk o różnych typach morfologicznych ), rozkłady jasności galaktyk, szczegółową dynamikę różnych klas galaktyk, dynamiczną podstrukturę i segregację oraz ułamek masy całkowitej składający się z materii barionowej (tj. "zwykłej" materii nukleonowej). Ważnym niedawnym osiągnięciem jest poszukiwanie i badanie gromad galaktyk w bardzo dużych odległościach (tj. przy dużych przesunięciach ku czerwieni), które są "przodkami" lokalnych bogatych gromad w katalogu Abella. W przypadku tych młodszych gromad z dużymi przesunięciami ku czerwieni gromady Abella służą jako lokalna, współczesna populacja referencyjna. Gromady Abella jako podzbiór całej populacji gromad Podczas poszukiwania kandydatów na gromady na płytach Palomar Sky Survey, Abell nie miał informacji o odległościach (lub przesunięciach ku czerwieni) galaktyk. Dlatego wykorzystał rozkład galaktyk w pozornej wielkości, aby wybrać te piki w rzutowanym rozkładzie galaktyk, które naj prawdopodobniej odpowiadają przestrzennie zwartej strukturze. Przyjmując wielkość 10. najjaśniejszej galaktyki jako przybliżoną "świecę standardową", oszacowano przesunięcie ku czerwieni; daje to kąt określony przez ustalony rozmiar liniowy 1,5h-1 Mpc w odległości gromady (gdzie h jest wartością obecnego parametru Hubble′a, wyrażoną w jednostkach 100 km s-1 Mpc-1). W okrągłej aperturze o promieniu równym temu kątowi zliczono liczbę galaktyk o wielkości nie większej niż dwie magnitudo słabszej niż trzecia pod względem jasności galaktyka. Ostatecznie liczbę niepowiązanych galaktyk w aperturze (i do tej samej granicy jasności) oszacowano na podstawie gęstości galaktyk w polach tła bez oczywistych kandydatów na gromady. Skorygowana liczba galaktyk (liczba bogactw, tj. szacowana liczba członków w aperturze powyżej granicy jasności) ma niepewność około 17. Dlatego Abell uznał, że tylko gromady ze skorygowaną liczbą galaktyk wynoszącą co najmniej 50 zostały pobrane w obiektywny sposób z przesunięciami ku czerwieni wynoszącymi 0,1-0,2. W oryginalnym ("północnym") katalogu Abella 1682 z 2712 kandydatów na klastry ma liczbę co najmniej 50. Dolna granica bogactwa musi być stosowana, jeśli korzysta się z katalogu Abella do celów statystycznych. Oczywiście istnieje wiele mniej bogatych klastrów, ale przy większych odległościach przesunięcia ku czerwieni ich kontrast w stosunku do pola jest zbyt niski, aby umożliwić solidne zdefiniowanie statystycznie wiarygodnej próbki. W ostatnich latach obszerne badanie przesunięcia ku czerwieni (ESO Nearby Abell Cluster Survey) zostało przeprowadzone na blisko 6000 galaktyk w około 100 kandydatach na gromady (głównie z południowej części katalogu Abell, Corwin i Olowin) o bogactwie wynoszącym co najmniej 50 i szacowane przesunięcia ku czerwieni mniejsze niż 0,1. Zanieczyszczenie w tych przeglądach przesunięcia ku czerwieni przez galaktyki, które nie należą do głównej gromady, jest dalekie od pomijalnego, tj. około 25%. Jednak większość przeglądów przesunięć ku czerwieni zawiera przestrzennie zwartą gromadę, do której należy co najmniej 50% galaktyk ze zmierzonymi przesunięciami ku czerwieni. Tylko około 10% kandydujących gromad wydaje się być superpozycją dwóch prawie równie bogatych (ale stosunkowo ubogich) systemów przy różnych przesunięciach ku czerwieni wzdłuż tej samej linii widzenia. W przypadku systemów zwartych przestrzennie dyspersja prędkości wykazuje globalną korelację z liczbą bogactw (klastry o większej liczbie bogactw mają średnio większe dyspersje prędkości), ale korelacja jest bardzo szeroka (co najmniej współczynnik 2 w obu wielkościach). Można by sądzić, że niepewność oszacowanych wizualnie zliczeń bogactwa jest za to odpowiedzialna, ale szerokość relacji nie zmniejsza się, jeśli użyje się zliczeń bogactwa opartych na skanowaniu maszynowym zamiast oryginalnych. Dla próbki około 150 gromad Abella z przesunięciami ku czerwieni mniejszymi niż 0,15, masy klastrów obliczono na podstawie względnych prędkości i pozycji galaktyk, zakładając, że twierdzenie wirialne zachodzi w centralnych obszarach gromad. Masy klastrów dość dobrze korelują z dyspersją prędkości, ale rozkłady mas w różnych przedziałach zliczeń bogactwa wydają się w znacznym stopniu pokrywać. Dlatego zastosowanie limitu zliczania bogactwa do próbki gromad Abella (co jest konieczne ze względów praktycznych) indukuje dość rozproszony limit masy. Gromady, a raczej kandydaci na klastry, w katalogu Abella o bogactwie co najmniej 50, są zatem podzbiorem wszystkich klastrów w zakresie mas od około 4×1013 do 2×1015MM⊙. Jednak dla klastrów o rozkładzie prędkości co najmniej 800 km s-1 zasadniczo wszystkie zliczenia bogactwa są większe niż 50. Innymi słowy, wszystkie klastry o rozkładzie prędkości co najmniej 800 km s-1 są zawarte w próbce z graniczna liczba 50, a oszacowanie ich gęstości przestrzennej jest bezstronne. Gromady z pozornymi dyspersjami prędkości większymi niż około 1200 km s-1 okazują się albo superpozycjami, albo mają dużo dynamicznej podstruktury. Wraz z pojawieniem się przeglądów rentgenowskich całego nieba, takich jak te z misji EINSTEIN (HEAO-2) i ROSAT, stało się możliwe konstruowanie kompletnych próbek gromad, dla których strumień promieniowania rentgenowskiego z gorącego gazu w studni potencjału klaster jest większy niż wartość progowa. W ten sposób powstają katalogi klastrów, które zasadniczo różnią się od katalogu Abell, a tym samym są do niego komplementarne, chociaż w pewnym stopniu się pokrywają. Masa gazu rentgenowskiego jest na ogół co najmniej tak duża, jak masa gromad galaktyk, ale łączna masa tych dwóch składników barionowych wynosi zazwyczaj tylko 10-15% masy całkowitej. Kiedy całkowitą masę gromady można oszacować zarówno na podstawie kinematyki galaktyk, jak i temperatury i jasności w promieniach rentgenowskich, te dwa oszacowania ogólnie dość dobrze się zgadzają.

Właściwości populacji galaktyk w gromadach Abella

W przeszłości zaproponowano kilka schematów klasyfikacji klastrów Abella. Wszystkie z nich podsumowują w taki czy inny sposób rozmieszczenie galaktyk w gromadzie pod względem pozycji, wielkości lub typu morfologicznego lub dowolnej ich kombinacji. Przewidywany rozkład galaktyk ma wiele form i waha się między następującymi skrajnościami. Może występować centralna koncentracja jasnych galaktyk, na ogół wczesnego typu, tj. eliptycznych, a często jedną z nich jest galaktyka cD, tj. gigantyczna eliptyczna otoczona rozciągniętą otoczką. Na drugim biegunie znajdują się klastry, które nie mają wyraźnej koncentracji centralnej. W niektórych gromadach rozkład galaktyk jest dość gładki i generalnie gromady te zawierają stosunkowo niewiele galaktyk spiralnych. Kiedy frakcja galaktyk spiralnych jest duża, rozkład galaktyk jest generalnie mniej regularny. Względne frakcje galaktyk wczesnego i późnego typu są skorelowane z liczbą bogactw, co jest przejawem relacji morfologia-gęstość. Ta ostatnia pokazuje wyraźną korelację między względnymi frakcjami galaktyk eliptycznych, soczewkowatych (S0s) i spiralnych, a (lokalną) rzutowaną gęstością galaktyk (a zatem odległością promieniową). S0 mogą stanowić do 50% w centrum, z galaktykami eliptycznymi tuż za nimi i galaktykami spiralnymi około 10%. W zewnętrznych częściach galaktyki eliptyczne są prawie nieobecne, podczas gdy galaktyki spiralne mogą stanowić do 60%. Należy zauważyć, że są to wartości globalne: poszczególne klastry wykazują znaczny rozrzut wokół nich. Chociaż w znacznej części gromad Abell rozkład galaktyk nie jest bardzo regularny lub kołowo-symetryczny, zawsze można wyprowadzić uśredniony azymutalnie rzutowany profil gęstości liczbowej Σ(R), w którym R jest rzutowaną odległością od centrum gromady, tj. najkrótsza odległość między linią widzenia przez galaktykę a centrum gromady. Zaproponowano kilka wyrażeń do matematycznego opisu Σ(R), z których wszystkie mają trzy parametry. Są to centralna wartość Σ(R), tj. ΣR = 0), charakterystyczna długość Rc (odległość, przy której Σ(R) zmniejszyła się o zadany współczynnik, powiedzmy 2) i miarę spadku Σ(R) w częściach zewnętrznych (ogólnie nachylenie logarytmiczne ? Σ(R)). Ostatnio Σ(R) została wyprowadzona dla galaktyk o różnych typach morfologicznych w około 70 bogatych gromadach Abella. W poszczególnych gromadach liczba galaktyk określonego typu jest generalnie niewystarczająca, aby umożliwić dokładne oszacowanie trzech parametrów Σ(R). Odpowiednio łącząc dane dla wielu gromad można porównać reprezentacje Σ(R) dla galaktyk eliptycznych, S0, spiralnych i galaktyk z liniami emisyjnymi (głównie bardzo 'późne' spirale, takie jak Sc i S d, ze zjonizowanym gazem w ośrodku międzygwiazdowym). Innymi słowy, poświęcając szczegółowe właściwości poszczególnych klastrów, uzyskuje się obraz średnio bogatej gromady Abella. Wydaje się, że istnieje wyraźna korelacja między typem galaktyki a Σ(R): charakterystyczna długość Rc znacznie wzrasta od wczesnego do późnego typu galaktyki (od około 0,1 do 0,5 Mpc). Pokazuje to, że galaktyki eliptyczne są rzeczywiście znacznie bardziej skoncentrowane centralnie niż galaktyki spiralne, podczas gdy galaktyki linii emisyjnych tworzą najbardziej rozległą populację. Tym różnicom muszą towarzyszyć różnice w kinematyce galaktyk różnych typów, ponieważ wszystkie klasy galaktyk poruszają się w tym samym potencjale gromady, który w większości determinowany jest przez ciemną materię. Takie różnice kinematyczne są rzeczywiście obserwowane: eliptyczne i S0 wykazują najmniejsze rozproszenie składowej ich prędkości w linii wzroku, a rozproszenie to zmienia się nieznacznie wraz z rzutowaną odległością od środka. Spirale, a w szczególności galaktyki z liniami emisyjnymi, mają większą dyspersję prędkości (nawet o 20-30%), która wyraźnie maleje wraz z większymi rzutowanymi odległościami. Właściwie kinematyka linii emisji galaktyk wskazuje, że nie przeszły one jeszcze przez gęste jądra centralne, co jest prawdopodobnie powodem, dla którego nie straciły one jeszcze gazu emitującego linie w spotkaniach z innymi galaktykami. Łącząc przewidywane rozkłady galaktyk z kinematyką, można oszacować rozkład masy całkowitej (widocznej i ciemnej) za pomocą równania dynamiki gwiazd Jeansa. Porównując rozkład ciemnej materii z jasnością galaktyk, można w zasadzie badać zmiany tak zwanego stosunku masy do światła wraz z odległością od centrum gromady. Może to dać wskazówki dotyczące szczegółów procesu powstawania, takich jak skutki zderzeń galaktyk, rola halo ciemnej materii w galaktykach itp.

Gromady Abella jako sondy kosmologiczne

Kilka właściwości obserwacyjnych gromad Abell zostało wykorzystanych do ograniczenia teorii powstawania wielkoskalowych struktur we Wszechświecie i parametrów w tych teoriach. Właściwości te obejmują rozkład przestrzenny klastrów Abella, ich kształty i masy. Wszystkie one na różne sposoby niosą ze sobą informacje o tym, w jaki sposób największe, dobrze rozwinięte struktury we wszechświecie powstały poprzez wzrost początkowych fluktuacji gęstości materii. Przestrzenny rozkład klastrów Abella przeanalizowano za pomocą dwupunktowej funkcji korelacji ξ(r), tj. ułamka par klastrów z pewną separacją, przekraczającą oczekiwaną liczbę par dla rozkładu losowego, którą wyprowadzono dla skupiska o różnym bogactwie. Ogólnie rzecz biorąc, funkcja korelacji ma postać potęgową: ξ(r) = (r/r0) ; wykładnik γ (około 2) nie wydaje się zależeć od granicznej liczby bogactw, ale wartość długości korelacji r0 tak, i jest większa dla bogatszych klastrów (z charakterystyczną wartością około 20 Mpc). W zasadzie dane te pozwalają wyprowadzić wartość gęstości kosmologicznej, jak również amplitudę widma fluktuacji. Innym aspektem rozmieszczenia bogatych gromad Abella jest to, że generalnie znajdują się one w wierzchołkach, w których spotykają się arkusze i włókna w ogólnym rozmieszczeniu galaktyk. Dlatego rozkład bogatych klastrów był czasami porównywany z rozkładem wierzchołków w tak zwanych teselacjach Woronoja, które są geometrycznymi podziałami przestrzeni. Kształty gromad Abella zostały wyprowadzone z przewidywanych rozkładów galaktyk. Korzystając z pozycji galaktyk niezależnie od typu galaktyk, można obliczyć pozorną eliptyczność gromady. Ogólnie rzecz biorąc, bogatsze klastry są mniej wydłużone niż mniej bogate. Pozorne eliptyczności dla próbki gromady około 100 północnych gromad Abella sugerują, że wydłużone gromady są raczej wydłużone (podobne do cygar) niż spłaszczone. Porównanie tych danych z wynikami numerycznych obliczeń N-ciałowych może zawęzić teorie powstawania struktur. Pełny rozkład mas ograniczonej objętościowo próbki klastrów Abella (tj. jej kształtu i normalizacji) może również dostarczyć informacji dla teorii tworzenia struktur kosmologicznych. Ponieważ próbka gromad Abella o granicznej liczbie bogactw wynoszącej 50 ma raczej źle zdefiniowaną kompletność przy mniejszych masach, należy ograniczyć porównanie między obserwacjami i przewidywaniami do najbardziej masywnych gromad, dla których katalog Abella jest kompletny. Uzyskanie niezależnych informacji dla kilku parametrów w teoriach formacji, które wpływają na właściwości najbardziej masywnych struktur, nie jest wcale trywialne. Wydaje się jednak, że istnieje ogólna zgoda co do tego, że te ostatnie są bardziej zrozumiałe we wszechświecie, w którym gęstość materii jest znacznie mniejsza niż gęstość krytyczna.

Widmo absorpcyjne

Wzór ciemnych linii lub pasm nałożonych na widmo ciągłe. Kiedy ciągłe widmo promieniowania (szeroki zakres długości fal) przechodzi przez ośrodek materialny (na przykład chłodny gaz o niskim ciśnieniu), przy pewnych określonych długościach fal zachodzi selektywna absorpcja. Prowadzi to do serii spadków intensywności (linii absorpcyjnych), które w widocznym obszarze widma wyglądają jak ciemne linie na jasnym tle "tęczowego" pasma kolorów, które obejmuje widmo ciągłe. Fotony promieniowania elektromagnetycznego mogą być pochłaniane przez wzbudzenie radiacyjne, proces, który zachodzi, gdy elektron na jednym z niższych poziomów energetycznych atomu lub jonu absorbuje foton o energii dokładnie równej różnicy energii między tym poziomem a jednym z wyższych poziomów dozwolonych poziomów i w rezultacie przeskakuje (dokonuje "przejścia w górę") z poziomu niższego na wyższy. Ponieważ energia fotonu jest odwrotnie proporcjonalna do długości fali, im większa przerwa energetyczna, tym krótsza długość fali promieniowania, które jest absorbowane, gdy elektron dokonuje określonego przejścia. Elektron zwykle nie pozostaje długo na poziomie wzbudzonym (zwykle 10-8 s). Kiedy spada ponownie, emituje foton lub fotony, które mogą mieć taką samą długość fali jak ta, która została pierwotnie wchłonięta, ale nie muszą (w zależności od tego, czy spada bezpośrednio do swojego pierwotnego poziomu, czy też opada w serii mniejszych kroków). Jeśli spada w serii kroków, z których każdy odpowiada emisji fotonu o niższej energii (i większej długości fali) niż ten, który został pierwotnie zaabsorbowany, całkowita liczba fotonów pierwotnej energii zostanie zmniejszona, a widmo zostanie wyczerpany przy długości fali wejściowej. Co więcej, chociaż wszystkie fotony wejściowe poruszały się zasadniczo w tym samym kierunku (od źródła do obserwatora), ponownie wyemitowane fotony oddalają się w przypadkowych kierunkach. W konsekwencji do obserwatora dociera znacznie mniej fotonów o długości fali absorpcji niż fotonów o innych długościach fal. Powstała linia absorpcyjna jest ciemniejsza niż sąsiednia część widma ciągłego, ale ponieważ niektóre fotony o tej długości fali docierają do obserwatora, nie jest całkowicie czarna. Ponieważ każde dozwolone przejście odpowiada pochłanianiu światła o określonej długości fali, atomy lub jony określonego pierwiastka wytwarzają linie absorpcyjne przy wielu różnych długościach fal, przy czym każdy pierwiastek chemiczny ma swój własny charakterystyczny wzór linii absorpcyjnych "odcisków palców". Linie o najkrótszej długości fali odpowiadają największym przerwom energetycznym (tj. przejściom z najniższego, "podstawowego" poziomu atomu lub jonu). Jeśli elektron pochłonie foton o energii przekraczającej energię jonizacji (lub "potencjał jonizacji"), zostanie usunięty z atomu. Widmo absorpcyjne określonego rodzaju atomu składa się z kilku serii linii odpowiadających różnym dozwolonym przemianom, przy czym granica krótkofalowa szeregu odpowiada energiom fotonów, powyżej których zachodzi jonizacja. Ponieważ fotony jonizujące mogą w zasadzie mieć dowolną wartość energii powyżej energii jonizacji, absorpcja może zachodzić w ciągłym zakresie długości fal, krótszym niż granica serii. Absorpcja tego rodzaju nazywana jest kontinuum absorpcji. Wyraźność ("siła") danej linii zależy od liczby atomów odpowiedniego pierwiastka chemicznego, które mają elektrony rezydujące na poziomie energii, od którego następuje odpowiednie przejście w górę (stopień wzbudzenia). To z kolei zależy od obfitości danego pierwiastka chemicznego (względny udział tego pierwiastka w substancji pochłaniającej) oraz od szeregu innych czynników, w szczególności od temperatury (im wyższa temperatura, tym większy udział elektronów w stanach wzbudzonych). Oprócz wytwarzania absorpcji poprzez przemiany elektronowe (takie jak atomy i jony), cząsteczki mogą również absorbować (lub emitować) promieniowanie, zmieniając swoje stany wibracyjne (ich składowe atomy wibrują względem siebie) lub obracając się (cząsteczka mająca kształt fizyczny , może obracać się wokół określonej osi). Widma absorpcji molekularnej są złożone, a ich różne linie często łączą się w szersze pasma.



Akrecja

Proces, w którym ciało niebieskie zwiększa swoją masę poprzez agregację mniejszych obiektów, które się z nim zderzają. Kilka typów obiektów rośnie przez akrecję. W gwiazdach podwójnych, w których zachodzi wymiana masy, jeden członek rośnie kosztem drugiego; czarne dziury, w tym supermasywne czarne dziury, o których uważa się, że są obecne w aktywnych jądrach galaktyk, również zwiększają swoją masę poprzez akrecję. W obu przypadkach materia gromadzi się poprzez dysk akrecyjny krążący wokół obiektu akrecyjnego. Proces ten jest szczególnie ważny w procesie formowania się planet. Ziarna pyłu w dysku protoplanetarnym (lub proplydzie) wokół młodej gwiazdy zderzają się i łączą, stopniowo budując większe obiekty, które z kolei zderzają się i łączą. Obiekty akreowane w tej początkowej fazie formowania się planet, a ich rozmiary mieszczą się w przedziale od milimetrów do dziesiątek kilometrów, nazywane są planetozymalami. Gdy rozmiar obiektu można zmierzyć w kilometrach, jego własna grawitacja staje się czynnikiem akrecji. Kolizyjne łączenie się planetozymali umożliwia budowanie większych ciał, które nazywane są protoplanetami, obiektami o długości co najmniej tysiąca kilometrów. Późniejsza ewolucja protoplanet przebiega przez wzajemne zderzenia o wzrastającej sile i narastanie fragmentów powstałych w tych zderzeniach. Ciała pozostawione na orbicie gwiazdy po zakończeniu tej ostatniej fazy bombardowania nazywane są planetami.

Dyski akrecyjne

Przez akrecję rozumie się w astrofizyce akumulację materii na ciężki obiekt pod wpływem jego grawitacji. Obiektem może być na przykład gwiazda, czarna dziura lub gwiazda neutronowa. Większość obiektów tego typu jest dość odizolowana, bez dużej ilości gazu wokół, który mógłby zostać wciągnięty przez ich grawitację. W związku z tym zdecydowana większość gwiazd nie wykazuje żadnych oznak akrecji, podczas gdy większość gwiazd neutronowych i czarnych dziur w naszej galaktyce jest z tego powodu nieobserwowalna. Dyski akrecyjne, choć nieco egzotyczne w porównaniu ze zwykłymi gwiazdami lub galaktykami, przyciągają uwagę, ponieważ biorą udział w wielu bardzo widocznych zjawiskach. Obejmują one formowanie się naszego układu planetarnego i pierścieni Saturna, rentgenowskie układy podwójne w naszej galaktyce i skolimowane dżety z protogwiazd i akreujących czarnych dziur. Obserwowalne efekty akrecji mogą wahać się od skromnych do dość dramatycznych. Zależy to od ilości masy narastającej w jednostce czasu, ale jeszcze bardziej od głębokości studni potencjału pola grawitacyjnego akretora. Najprostszym modelem akrecji byłaby swobodna cząstka spadająca promieniowo do akretera z dużej odległości. Jeśli zaczyna się od spoczynku w nieskończoności, dociera do powierzchni R akretera o masie M z prędkością ucieczki ve = (GM/R)1/2. Możemy to również zapisać jako ve/c = (rg/2R)1/2, gdzie rg = 2GM/c2 = 2,8M/M km to promień Schwarzschilda o masie M. Dla gwiazdy neutronowej o M = 1,4M i R = 10 km, na przykład cząstka dotarłaby do powierzchni z prędkością około 30% prędkości światła. Akrecji na obiekty zwarte, w których M/R jest duże, towarzyszy zatem uwolnienie dużych ilości energii. Cząstka swobodna przyciągana do zwartego obiektu z dużej odległości ma tylko niewielką szansę na trafienie. Jeśli jego początkowy ruch nie jest skierowany bardzo dokładnie na obiekt, po prostu zatoczy orbitę i powróci na tę samą dużą odległość. Innymi słowy, przekrój poprzeczny dla akrecji przez wolne cząstki jest mały. Ten sam efekt odgrywa rolę, gdy rozważamy bardziej realistyczny przypadek akrecji gazu i nazywa się go "problemem momentu pędu", omówionym poniżej. Gaz akrecyjny może być na przykład dostarczany przez obłok protogwiazdy w przypadku rosnącej protogwiazdy lub przez gwiazdę towarzyszącą w układzie podwójnym. Jeśli gwiazda akreująca jest gwiazdą neutronową lub czarną dziurą, taki układ podwójny nazywa się UKŁADEM DWUKŁADOWYM PROMIENIOWANIEM RENTGENOWSKIM; jeśli jest to biały karzeł, układ podwójny nazywa się KATAKLIZMOWYM BINARNYM. Wreszcie akrecja jakiejś formy materii międzygwiezdnej na masywną czarną dziurę w jądrze galaktyki tworzy AKTYWNE JĄDRO GALAKTYCZNE (AGN). Prawie wszystkie dyski są tak małe, jak widać z Ziemi, że ich geometrię można wywnioskować jedynie pośrednio. Dyskami, które można obserwować bezpośrednio, są nasz układ planetarny, pierścienie Saturna i galaktyki spiralne. Żaden z nich nie jest jednak typowy dla gazowych dysków akrecyjnych. Nasz Układ Słoneczny jest tylko stałą pozostałością dysku akrecyjnego, który istniał podczas jego formowania. W przypadku pierścieni Saturna cząsteczki tworzące pierścienie również zachowują się bardziej jak cząstki swobodne niż jak gaz. Dyski w galaktykach spiralnych są znacznie bardziej skomplikowane niż dyski gazowe. Ponadto dyski galaktyczne nie są wystarczająco stare, aby od czasu ich powstania nagromadziły się w galaktycznym jądrze. Najlepszą perspektywą na bezpośrednie obserwowanie dysków akrecyjnych są protogwiazdy. Są to największe dyski pod względem średnicy kątowej widziane z Ziemi, a dzięki obecnie rozwijającym się obrazom w podczerwieni i falach milimetrowych o wysokiej rozdzielczości możliwe będą szczegółowe obserwacje ich struktury. Duże "proplydy" (dyski protoplanetarne) zostały sfotografowane w zakresie optycznym przez Kosmiczny Teleskop Hubble′a;. W przypadku układów podwójnych, informacji o rozmiarze, grubości i temperaturze dysku dostarczają zaćmienia. Jeśli układ podwójny jest zorientowany w taki sposób, że Ziemia znajduje się blisko swojej płaszczyzny orbity, dysk i dostarczająca masy gwiazda wtórna zaćmiewają się regularnie, gdy składniki krążą wokół siebie. Kształt krzywej blasku przy różnych długościach fal można następnie wykorzystać do określenia właściwości dysku, takich jak jego rozmiar i temperatura

Temperatury akrecji

Charakterystyczną temperaturą w problemach akrecyjnych jest temperatura wirialna,

Tv = |Φ |/R (1)

gdzie R = 8,314 × 107 erg g-1 K-1 mol-1 jest molową stałą gazową Φ głębokością studni potencjału. W odległości r od masy punktowej w grawitacji newtonowskiej Φ = ?GM/r. Gdyby cała energia kinetyczna uzyskana podczas wpadania do studni potencjału została rozproszona w energię wewnętrzną (ciepło), gaz osiągnąłby temperaturę rzędu Tv. Dla gwiazdy neutronowej Tv ∼2×1012 K, co odpowiada średniej energii cieplnej protonu rzędu 1GeV. Promieniowanie faktycznie obserwowane z systemów akrecyjnych wskazuje na znacznie niższe temperatury. Dzieje się tak dlatego, że plazma termiczna w tej temperaturze emituje energię z ogromną szybkością, znacznie większą niż może być dostarczona przez opadający gaz. Zamiast Tv gaz osiada w niższej temperaturze, tak że rozproszona energia jest z grubsza równoważona przez energię traconą przez promieniowanie. Drugą charakterystyczną temperaturę uzyskuje się przy założeniu, że promieniowanie emitowane jest jakby przez ciało doskonale czarne z powierzchni akreującego obiektu. Przyrównując jasność L = 4πr2σT4 ciała doskonale czarnego o promieniu R i temperaturze TB do energii generowanej przez akrecję z szybkością ˙M (masa na jednostkę czasu) otrzymujemy



gdzie σ = 5,6692 × 10?5 erg cm?2 K?4 s?1 jest stałą w prawie Stefana-Boltzmanna. Rzeczywiste temperatury różnią się od tego, ponieważ emitowane widmo różni się od widma ciała doskonale czarnego, powierzchnia emitująca nie jest równa powierzchni obiektu akrecyjnego lub, w przypadku czarnych dziur, większość energii akrecyjnej jest pochłaniana przez dziurę, a nie niż być napromieniowanym. Mimo to T>B często zapewnia dobrą kolejność i wielkość dla obserwowanych temperatur. Powodem jest to, że w takich przypadkach gaz akrecyjny jest optycznie gęsty, więc w wyniku powtarzających się procesów emisji i absorpcji fotonów energia akrecji jest ponownie przetwarzana na coś w rodzaju widma ciała doskonale czarnego. Dla zmiennych kataklizmicznych, protogwiazd i AGN, T>B ∼ 104-105 K, dla rentgenowskich układów podwójnych około 107K, co odpowiada energii fotonów odpowiednio 1-10 eV i 1 keV. Mogą jednak również zachodzić optycznie cienkie procesy akrecji , wytwarzające fotony o znacznie wyższych energiach.

Ciśnienie promieniowania i granica Eddingtona

Fotony uwalniane przez akreujący obiekt wywierają siłę na akreujący gaz. Poprzez rozpraszanie (lub absorpcję i reemisję) na atomie, jonie lub elektronie, zewnętrzny kierunek fotonu zmienia się na bardziej losowy. Pęd fotonów na zewnątrz jest w ten sposób przenoszony na gaz: promieniowanie wywiera siłę skierowaną na zewnątrz. Jeśli F = L/4π?r2 jest strumieniem energii radiacyjnej w odległości r, a κ nieprzezroczystością gazu (rozpraszanie plus absorpcja), przyspieszenie wywołane tą siłą wynosi grad = Fκ/c. Ta siła jest po prostu równoważona przez przyspieszenie grawitacyjne w kierunku g = GM/r2, gdy jasność L ma wartość zwaną granicą Eddingtona lub jasnością Eddingtona:

LE = 4πGMc/κ. (3)

Stałe źródło fotonów, związane grawitacją, nie może mieć jasności znacznie przekraczającej tę granicę. Przy większej jasności atmosfera źródła jest wydmuchiwana przez promieniowanie (dzieje się tak np. podczas wybuchu NOVA). Wartość jasności Eddingtona zależy od nieprzezroczystości gazu, a tym samym od jego stanu jonizacji. To zależy od masy źródła, ale nie od jego wielkości. W pobliżu zwartego obiektu w rentgenowskim układzie podwójnym gaz jest prawie całkowicie zjonizowany, zwykle o normalnym składzie gwiazdowym, a dominującym procesem promieniowania jest rozpraszanie elektronów, z nieprzezroczystością κ ∼ 0,3 cm2g-1. Granica Eddingtona wynosi zatem

LE ≈ 1,5 × 1038M/M⊙ erg s-1 (4)

W przypadku gwiazdy neutronowej o wielkości 1,4 M jest to jasność około 50 000 razy większa od Słońca. Jeśli ta jasność jest generowana przez akrecję, przyrównanie jej do energii akrecji określa współczynnik akrecji Eddingtona ˙

ME = 4πcR/κ (5)

lub około 1,5 × 10-8M yr-1 dla gwiazdy neutronowej o promieniu 10 km. Gwiazda neutronowa nie może akreować znacznie więcej. Narastające ciśnienie promieniowania zapobiegłoby dalszej akrecji, a gaz gromadziłby się w rozszerzonej atmosferze wokół gwiazdy, zamiast osiadać na powierzchni gwiazdy neutronowej. (Przy założeniu, że promieniowanie pochodzi tylko od fotonów: przy dostatecznie wysokiej temperaturze i gęstości straty energii przez neutrina stają się istotne.) Szybkość akrecji na czarną dziurę może być znacznie większa niż ˙ME. Atmosfera otaczająca dziurę nie jest podtrzymywana u podstawy, ale przepływa przez horyzont. W procesie zabiera ze sobą fotony uwięzione w gazie. W zależności od gęstości takiej atmosfery tempo akrecji może być dowolnie wysokie. Jasność widziana z Ziemi nie staje się jednak dużo większa niż LE.

Dyski

Transfer masy w systemie binarnym


Jako przykład formowania się dysku akrecyjnego rozważ układ podwójny, w którym jedna z gwiazd jest wystarczająco duża, aby wypełnić płat Roche′a, a druga jest gwiazdą zwartą (biały karzeł, gwiazda neutronowa lub czarna dziura). Gwiazda wypełniająca płat Roche′a nazywana jest drugorzędną, ponieważ jest mniej masywną gwiazdą w takich układach podwójnych. Masa wypływa z wtórnego w wewnętrznym punkcie Lagrange′a L1. Orbita hipotetycznej swobodnej cząstki z tego punktu jest pokazana na rycinie 3. Z wyjątkiem punktu bezpośrednio w L1, prędkość orbitalna jest bardzo duża w porównaniu z prędkością dźwięku gazu. W konsekwencji jego tor jest prawie balistyczny, tj. zbliżony do toru cząstki swobodnej. Ponieważ jednak chmury gazu nie mogą przepływać przez siebie, przepływ balistyczny ustaje w pierwszym punkcie przecięcia orbity. Naddźwiękowy względny ruch dwóch części strumienia gazu jest tutaj rozpraszany przez fale uderzeniowe, które ogrzewają gaz i odchylają strumień. Dalsza ewolucja strumienia zależy od dodatkowych czynników fizycznych, takich jak szybkość, z jaką gaz może się ochładzać. Przykład tego, jak może wyglądać strumień po kilku okresach orbitalnych układu podwójnego, pokazano na rycinie 4. Gaz na orbicie zgromadził się w pierścieniu; nowo przybywający gaz jest wprowadzany do pierścienia przez system fal uderzeniowych. Silnie niekołowy ruch gazu ustabilizował się na spokojniejszej orbicie kołowej; większość energii rozproszonej w procesie została wypromieniowana. Pomijając zakłócenia powodowane przez uderzający strumień i przy braku sił lepkości, gaz może krążyć po takich okrągłych orbitach w nieskończoność.

"Problem momentu pędu"

W procesie osadzania się na orbicie kołowej duża część energii jest rozpraszana, ale moment pędu gazu wokół pierwotnego nie zmienił się (pomijając poprawki spowodowane przyciąganiem grawitacyjnym wtórnego). Ponieważ orbita kołowa ma najniższą energię dla danego momentu pędu, gaz może zanurzyć się głębiej w potencjale grawitacyjnym i akreować na pierwotną tylko wtedy, gdy może stracić trochę momentu pędu. Znalezienie procesu, w którym odbywa się to w rzeczywistych układach, nazywa się problemem momentu pędu. Zilustrowaliśmy to tutaj na przykładzie transferu masy w układzie podwójnym, ale ten sam problem pojawia się w przypadku formowania się gwiazd z obłoków międzygwiazdowych lub akrecji gazu na masywnych czarnych dziurach w AGN. W tych przypadkach początkowy moment pędu spowodowany przypadkowy ruch obłoków gazu jest o wiele rzędów wielkości większy, niż może pomieścić akreujący obiekt. Zamiast akrecji bezpośrednio, gaz tworzy dysk, działając jak tymczasowa "orbita parkingowa". Orientacja dysku jest określona przez kierunek wektora całkowitego momentu pędu chmur, podczas gdy czas potrzebny na spiralne przejście gazu przez dysk zależy od procesów rozwiązujących problem momentu pędu.

Lepkie dyski

W wielu przypadkach (nowe karłowate i transjenty rentgenowskie) akrecja na zwarty obiekt ma charakter epizodyczny, w postaci rozbłysków. Rozpad takiego wybuchu dostarcza pewnych informacji na temat czasu akrecji, to znaczy czasu, jaki zajmuje gazowi spiralne przejście od gwiazdy drugorzędnej do akrecyjnej gwiazdy pierwotnej. Na przykład w przypadku nowych karłowatych czas ten wynosi kilka dni, co pokazuje, że proces przenoszenia momentu pędu pozwala na akrecję w ciągu kilku dni lub mniej masy, która jest zaangażowana w wytwarzanie wybuchu. Chociaż rzeczywiste liczby zależą od modelu, obserwacje te wskazują, że transport momentu pędu jest o 12-15 rzędów wielkości bardziej wydajny niż oczekiwano na podstawie naturalnej lepkości gazu. Proces odpowiedzialny za przenoszenie momentu pędu w dyskach nie jest do końca znany. W obliczu tej niepewności teoria dysków akrecyjnych przyjmuje arbitralne założenie dotyczące procesu transportu momentu pędu. Zakłada się, że dysk zachowuje się w efekcie jak płyn o bardzo dużej lepkości. Taka zwiększona lepkość rzeczywiście rozwiązuje problem momentu pędu. Jako eksperyment myślowy rozpocznij od pierścienia gazu krążącego w pewnej odległości od źródła potencjału grawitacyjnego. Lepkie naprężenie między sąsiednimi orbitami obracającymi się z nieco inną prędkością powoduje, że pierścień rozszerza się zarówno na zewnątrz, jak i do wewnątrz, tworząc dysk. To rozprzestrzenianie się ma niezwykłą właściwość: jeśli jest wystarczająco dużo czasu, prawie cała masa gromadzi się na centralnym obiekcie. Niewielka ilość masy w zewnętrznych częściach dysku rozszerza się w nieskończoność, przenosząc prawie cały moment pędu pierwotnego pierścienia. Czas rozprowadzenia na określoną odległość jest odwrotnie proporcjonalny do lepkości. Charakterystyczną prędkością w dysku jest izotermiczna prędkość dźwięku cs = (RT )1/2, gdzie T jest temperaturą w płaszczyźnie środkowej dysku (powierzchnie są chłodniejsze). Częstotliwością charakterystyczną jest częstotliwość orbitalna Ω. Nieznaną lepkość dysku ν można następnie zmierzyć za pomocą bezwymiarowej lepkości α, określonej przez

ν = αc2s/Ω . (6)

Tam, gdzie dostępne są wskazania obserwacyjne, takie jak czas zaniku wybuchu, wskazują one lepkości w zakresie α = 10-3-1. Takie wartości są następnie wykorzystywane przy dokonywaniu teoretycznych szacunków struktury dysków akrecyjnych. Założenie, że procesy transportu momentu pędu można przedstawić równaniem (6), gdzie α jest czymś rzędu jedności, nazywa się α-lepkością założenia.

Cienkie dyski

Dyski akrecyjne są zwykle chłodne, ponieważ czasy akrecji są długie i jest wystarczająco dużo czasu, aby wypromieniować rozproszoną energię grawitacyjną. Jeśli są chłodne, wpływ ciśnienia gazu jest niewielki. Aby to zobaczyć, rozważmy równanie ruchu gazu doskonałego w potencjale grawitacyjnym o masie punktowej M, Φ = ?GM/r:



gdzie v to prędkość, ρ gęstość masy, a p ciśnienie gazu. W odległości r0 charakterystyczna skala czasu t0 jest odwrotnością częstotliwości Keplera, t0 = Ω-1 = (r30/GM)1/2. Wprowadzając wielkości bezwymiarowe t′ = t/t0, r′ = r/r0, ∇ = r0∇, v′ = v/Ωr0, równanie ruchu dla gazu o temperaturze T przyjmuje postać



gdzie   jest wektorem jednostkowym w kierunku promieniowym, a Tv temperaturą wirialną wprowadzoną powyżej. Dla procesów zachodzących w skali długości r0 i skali czasu t0 wyrazy w tym równaniu są rzędu jedności, z wyjątkiem członu ciśnienia, który obejmuje współczynnik T/Tv. T/Tv jest rzędu jedności, jeśli cała rozproszona energia pozostaje w gazie, ale gdy chłodzenie jest skuteczne, może być bardzo mała. Składnik ciśnienia jest wtedy mały, a gaz przepływa balistycznie w potencjale . Dysk z T/Tv << 1 obraca się w przybliżeniu po kołowych orbitach Keplera. Ruch orbitalny jest naddźwiękowy, z liczbą Macha M = Ωr/cs ∼ (Tv/T )1/2. Grubość dysku oblicza się, biorąc pod uwagę pionowy rozkład gazu na pewnej odległości r0, zakładając, że znajduje się on w równowadze hydrostatycznej w ramie obracającej się z prędkością keplerowską Ω(r0). Gaz izotermiczny j∼est następnie rozprowadzany na wysokości z nad płaszczyzną orbity jako ρ ˜ exp[?1/2(z/H)2], gdzie H jest wysokością skali, H = r0(T /Tv)1/2 = cs/Ω . Jeśli straty promieniowania są małe, dysk jest gorący, a współczynnik kształtu H/r0 jest rzędu jedności. Z drugiej strony wydajnie promieniujące dyski są chłodne i geometrycznie cienkie, H/r << 1. Przy założeniu H/r << 1 równania hydrodynamiczne dla osiowosymetrycznego, płaskiego, lepkiego dysku są proste. Do najniższego rzędu radialne równanie ruchu redukuje się do v? = Ωr. Azymutalne równanie ruchu można połączyć z równaniem ciągłości w jedno równanie rządzące gęstością powierzchniową

(9)

Zgodnie z oczekiwaniami równanie to jest typu dyfuzyjnego. Pokazuje, że dla chłodnego dysku wszystkie czynniki fizyczne wpływające na ewolucję dysku wchodzą tylko przez lepkość ?. Ta lepkość zawiera oczywiście również większość założeń dotyczących nieznanych procesów. Zwykle potrzebne są dodatkowe równania, aby określić, w jaki sposób chłodzenie radiacyjne wpływa na strukturę temperatury dysku, od której zależy ?. Dla stałej akrecji i niezbyt blisko centralnego obiektu, szybkość akrecji jest związana z lepkością o ˙

M ≈ 3πνΣ . (10)

Wysoka lepkość implikuje niską gęstość powierzchniową, ponieważ masa akrecyjna spędza niewiele czasu w dysku. Charakterystyczny czas ta dla gazu orbitującego w odległości r do akrecji to lepka skala czasu,



W przypadku chłodnych dysków jest to dużo w porównaniu z orbitalną skalą czasu. Z drugiej strony, długa skala czasowa oznacza, że dysk ma dużo czasu na ochłodzenie przez promieniowanie, więc w mechanizmie, który ustala temperaturę dysku, występuje pewna kolistość. W danej sytuacji (masa centralna, odległość) o temperaturze dysku decyduje szybkość przyrostu masy i dominujący proces chłodzenia. W niektórych przypadkach dyski mogą istnieć w jednym z dwóch stabilnych, stale akreujących stanów: chłodnego z długimi czasami akrecji i gorącego z krótkimi czasami akrecji. W innych przypadkach okazuje się, że modele dysków są niestabilne dla pewnych szybkości przenoszenia masy, oscylując między stanami wysokiej i niskiej akrecji. Szczegóły procesów chłodzenia określają, kiedy takie wielokrotne stany akrecji istnieją (patrz "Procesy radiacyjne, akrecja dwutemperaturowa" poniżej).

Niestabilność dysku

Pionowa struktura dysku jest zdeterminowana potrzebą transportu lepko rozproszonej energii do powierzchni promieniujących. Dla danej gęstości powierzchniowej Σ ta struktura określa temperaturę i lepkość dysku. W warunkach, w których proces transportu energii zmienia się szybko wraz z temperaturą, naprężenie lepkie ?Σ może zależeć niemonotycznie od powierzchniowej gęstości masy, w postaci "krzywej S", jak pokazano na rycinie 5. Jeśli średnia szybkość akrecji, która jest narzucona (na przykład przez gwiazdę wtórną przenoszącą masę) mieści się w zakresie, w którym Σ maleje wraz ze wzrostem v Σ (porównaj równanie (10)), dysk jest niestabilny. Zamiast równomiernej akrecji, wykonuje cykl graniczny, naprzemiennie między stanami wysokiej i niskiej akrecji. Zwykle warunki takie jak na rycinie 5 występują tylko w ograniczonych obszarach dysku, na przykład w obszarze częściowej jonizacji wodoru. Jeśli jednak ten region zawiera wystarczającą masę, cykl graniczny wpłynie na cały dysk. Uważa się, że jest to przyczyną wybuchów nowych karłowatych w zmiennych kataklizmicznych.

Procesy przenoszenia momentu pędu

Historycznie pomysł, że w dyskach istnieje jakaś forma turbulencji hydrodynamicznych, odegrał znaczącą rolę. Było to już częścią koncepcji Kanta i Laplace′a, którzy sugerowali, że Układ Słoneczny powstał z początkowo gazowej chmury przypominającej dysk. Jeśli ?m jest mikroskopową lepkością gazu, liczba Reynoldsa r2/?m w dysku akrecyjnym jest bardzo duża, co w mechanice płynów nazywa się sytuacją "gwałtownej turbulencji" (gdzie wysokie liczby Reynoldsa i turbulencje są uważane za równoważne). Zakłada się, że przepływ ścinający w dysku byłby niestabilny i przekształciłby się w turbulencję, jak w przepływach ścinających w laboratorium. Zostało to zakwestionowane w społeczności astrofizycznej ze względu na fakt, że przepływ w chłodnym dysku jest zbliżony do orbit Keplera, które są bardzo stabilne. W chwili pisania tego tekstu kwestia ta jest nadal kontrowersyjna, ale wydaje się całkiem możliwe, że przepływ gazów keplerowskich w rzeczywistości nie powoduje turbulencji hydrod∼ynamicznych. Ściśle analogicznym przypadkiem laboratoryjnym jest wirujący przepływ Couette′a. Co istotne, ten eksperyment nie wykazał turbulencji dla warunków odpowiadających dyskowi akrecyjnemu, w którym częstotliwość rotacji maleje wraz z odległością, ale właściwy moment pędu wzrasta (chociaż turbulencje obfitują w inne wartości parametrów). Próby wykazania turbulencji w tym przypadku za pomocą badań analitycznych lub symulacji numerycznych eksperymentu również zakończyły się niepowodzeniem. Wśród procesów, o których wiadomo, że działają, są spiralne fale uderzeniowe. W dużym dysku (w tym sensie, że promień zewnętrzny jest znacznie większy niż promień wewnętrzny) małe zaburzenie ściskające rozchodzące się do wewnątrz zmienia się w słabą falę uderzeniową. Rozproszenie podczas wstrząsu tłumi falę, ale ponieważ fala rozchodzi się również w przepływ o rosnącej prędkości, interakcja między falą a średnim przepływem przez wstrząs zwiększa jego amplitudę. W przypadku braku innych procesów tłumiących falę, szok o skończonej sile rozwija się dzięki równowadze między rozproszeniem wstrząsu a pobraniem energii ze średniego przepływu. Proces ten wytwarza niewielką ilość transportu momentu pędu, odpowiadającą α = 0,01(H/r)3/2. W przypadku dysków protogwiazdowych mieści się to w zakresie wartości wywnioskowanych z obserwacji, ale jest zbyt niskie dla zmiennych kataklizmicznych i rentgenowskich układów podwójnych. Jeśli dysk jest na tyle masywny, że grawitacja własna jest ważna, możliwy jest transport momentu pędu przez niestabilność grawitacyjną. Wewnętrzne tempo wzrostu niestabilności grawitacyjnej jest rzędu (2πG?)1/2. Jeśli jest większa niż szybkość ścinania ?Ω, niestabilność dysku może wzrosnąć; jeśli jest mniejszy, potencjalne perturbacje zostają rozerwane, zanim będą mogły się rozrosnąć. W odniesieniu do charakterystycznej masy dysku Md = 2π?r2ρH warunek ten można zapisać jako Md > MH/r. Takie dyski nazywane są samograwitującymi. Własna grawitacja jest ważniejsza w chłodnych dyskach o małym współczynniku proporcji H/r. Przy przyjętych lepkościach można oszacować masy dysków w obserwowanych układach. W przypadku rentgenowskich układów podwójnych i zmiennych kataklizmicznych okazują się one dość małe, mniejsze niż 10-8 M⊙ , a grawitacja własna nie ma znaczenia. Natomiast w zewnętrznych częściach dysków w AGN, a w szczególności w dyskach protogwiazdowych, istotna może być grawitacja własna. W takim przypadku rozważmy chłodzenie dysku przez promieniowanie, tak że H/r maleje z czasem. Po osiągnięciu progu niestabilności powstają nieosiowosymetryczne nieregularności o skalach długości rzędu H, które wywierają na siebie siły. Przepływ ścinający działający na te siły rozprasza energię, która z kolei ogrzewa dysk. Równowaga zostaje osiągnięta w temperaturze tuż powyżej progu niestabilności grawitacyjnej, a moment pędu jest przenoszony przez siły grawitacji i ciśnienia między zaburzeniami. Proces ten prawdopodobnie będzie ważny w przypadku młodych dysków protogwiazd, o masach rzędu kilku procent masy Słońca. Obecnie ulubiony proces dysków niegrawitujących polega na tym, że większość dysków jest częściowo lub całkowicie zjonizowana, a zatem wspiera pola magnetyczne. Możliwość, że rzeczywisty transport momentu pędu w dyskach jest wykonywany przez jakąś formę pola magnetycznego o małej skali, została już zaproponowane przez Shakura i Sunyaev wraz z wprowadzeniem przez nich założenia α-lepkości. Można wykazać, że początkowo słabe pole magnetyczne w dysku akrecyjnym jest niestabilne, a jego gęstość energii rośnie poprzez pobieranie energii z przepływu ścinającego. Matematyka tego procesu została obliczona około 1960 roku przez Velikhova i Chandrasekhara, jego fizyczną interpretację podali Fricke w 1972 roku, a jego znaczenie dla dysków akrecyjnych ostatecznie zrealizowali Balbus i Hawley w 1992 roku. Liczne trójwymiarowe symulacje numeryczne od tego czasu pokazały, jak ta niestabilność daje powstanie postulowanej wcześniej turbulencji magnetycznej. Dla wystarczająco zjonizowanych dysków proces daje efektywną lepkość α ˜ 0,1. Jest to pole magnetyczne o małej skali, ze skalą długości w kierunku promieniowym rzędu grubości dysku H i wydaje się zachowywać z grubsza zgodnie z oczekiwaniami procesu lepkiego. Wydaje się, że pole magnetyczne przełamuje ograniczenia dynamiczne, które zapobiegają turbulencji przepływu keplerowskiego za pomocą środków czysto hydrodynamicznych. Pod pewnymi względami proces ten przypomina zaproponowaną wcześniej turbulencję hydrodynamiczną, ale różni się też w ważnych aspektach. Na przykład transport momentu pędu jest zdominowany przez naprężenia magnetyczne (Maxwella), a nie przez ruchy płynu.

Planety wewnątrz dysków

Planety wyrastają z dysku protogwiazdy w tym samym czasie, w którym powstaje gwiazda . Planeta taka jak Jowisz jest wystarczająco masywna, aby znacząco wpłynąć na dynamikę tego dysku. Dzięki efektowi pływowemu usuwa szczelinę, obszar o niskiej gęstości gazu wokół swojej orbity, jak pokazano na rycinie 6. Siła pływowa wzbudza fale w dysku, które rozchodzą się z dala od planety. Poprzez siły pływowe, planeta przyciąga gaz z boków szczeliny, który gromadzi się na niej w postaci dwóch strumieni. Z drugiej strony dysk wywiera również na planetę moment grawitacyjny. Pod wpływem tej siły zmienia się moment pędu planety. Porusza się na inną orbitę, zwykle bliżej gwiazdy. Planety w naszym Układzie Słonecznym prawdopodobnie nie znajdują się zatem w odległościach, w których rozpoczęło się ich formowanie. Ekstremalnym przykładem tego procesu "dryfujących planet" mogą być masywne planety obserwowane na bardzo ciasnych orbitach wokół niektórych pobliskich gwiazd

Procesy radiacyjne, akrecja dwutemperaturowa

Promieniowanie wytwarzane przez dysk zależy od jego grubości optycznej τ . Energia uwolniona w dysku w wyniku rozpraszania lepkości, na jednostkę powierzchni i czasu, w odległości r od centralnej masy M jest rzędu W = GMM˙/r3. Ciepło to rozprasza się przez promieniowanie. Jeśli τ (dokładniej grubość optyczna dla procesów absorpcji) jest duże, promieniowanie emitowane na powierzchnię jest w przybliżeniu widmem ciała doskonale czarnego. Przybliżona temperatura powierzchni Ts chłodnego optycznie grubego dysku jest następnie określona równaniem (2), gdzie R zastąpiono odległością r. Jeśli akrecja jest stała, tak że ˙M jest niezależne od r, przewidywana temperatura zmienia się jako r-3/4. W przypadku dysków protogwiazdowych i dysków w zmiennych kataklizmicznych temperatury te są zbliżone do normalnych powierzchni gwiazd, a te same procesy promieniowania decydują o szczegółach emitowanego widma. Podczas akrecji czarnych dziur i gwiazd neutronowych przewidywane temperatury s∼∼ą rzędu 1 keV (107 K). Rzeczywiście, widma rentgenowskie tych obiektów często pokazują składową, która zgadza się z tą prognozą. Zwykle jednak występuje dodatkowy twardy składnik znacznie bardziej energetycznych fotonów, około 100 keV. Często dominuje w promieniowanej energii. W tych układach podwójnych znajduje się dodatkowy składnik plazmy akrecyjnej, który zachowuje się inaczej niż optycznie gruby dysk. Dokładna natura tej plazmy jest jednym z klasycznych problemów astronomii rentgenowskiej, który w chwili pisania tego tekstu nie został całkowicie rozwiązany. Z obserwowanego widma wydaje się, że jest to plazma termiczna o niewielkiej grubości optycznej (τ ˜) i temperaturze około 100 keV, znacznie wyższej niż chłodny dysk. Głównym procesem wytwarzania twardych fotonów w takich warunkach jest odwrotne rozpraszanie Comptona miękkich fotonów przez gorące elektrony. W sąsiedztwie czarnych dziur i gwiazd neutronowych akrecja jest możliwa nie tylko przez chłodny optycznie gruby dysk. Teoria przewiduje również możliwość akrecji poprzez stan gorący (por. omówienie powyżej w części "Cienkie dyski"). W tym stanie protony mają temperaturę zbliżoną do temperatury wirialnej, podczas gdy elektrony są znacznie chłodniejsze. Przepływ akrecyjny jest geometrycznie gruby (H/r ˜ 1), ale optycznie cienki. W tych warunkach oddziaływania kulombowskie między jonami i elektronami mogą być powolne w porównaniu z czasem akrecji (w zależności od szybkości akrecji i parametru lepkości). Ponieważ elektrony promieniują znacznie wydajniej i są nieefektywnie ogrzewane przez jony, pozostają znacznie chłodniejsze niż jony: plazma akrecyjna nie jest w równowadze termicznej. Szybkość interakcji Coulomba maleje wraz ze wzrostem temperatury elektronu, podczas gdy straty promieniowania przez odwrotny Compton i promieniowanie synchrotronowe rosną. W przepływie o niewielkiej głębokości optycznej odwrotne straty Comptona rosną wykładniczo powyżej około 100 keV, więc jest to nieco naturalna temperatura aby spodziewać się emitowanego promieniowania. Możliwość takiego dwutemperaturowego przepływu akrecyjnego w celu wyjaśnienia twardych widm rentgenowskich układów podwójnych została już zaproponowana na początku ery astronomii rentgenowskiej. Geometria takiego przepływu i charakter jego interakcji z komponentem chłodnego dysku są jednak nadal niepewne.

Dżety z dysków

Wydaje się, że większość systemów z dyskami akrecyjnymi jest zdolna do wytwarzania silnie skolimowanych wypływów zwanych dżetami, przynajmniej w niektórych okresach swojego istnienia . Dżety z relatywistyczną prędkością przepływu są znane z akrecyjnych czarnych dziur, zarówno dziur o masie gwiazdowej w rentgenowskich układach podwójnych, jak i masywnych dziur w AGN. Dżety o mniejszych prędkościach są wytwarzane przez protogwiazdy. Są również znane z co najmniej jednej akrecyjnej gwiazdy neutronowej (Cir X-1) i akrecyjnego białego karła (R Aqr). Związek między dyskami i dżetami jest zatem sugestywny, ale jednocześnie zagadkowy. Chociaż dżety zawsze wydają się być kojarzone z systemami akrecyjnymi, w których istnieją bezpośrednie lub pośrednie dowody na istnienie dysku, nie wszystkie systemy z dyskami wytwarzają dżety lub nie zawsze. Dobrym przykładem są OBIEKTY HERBIG-HARO wytwarzane przez dżety z protogwiazd, które wyraźnie pokazują, że dżety w tym przypadku są epizodyczne lub wysoce zmienne w czasie.

Podsumowanie typów dysków

W skali gwiezdnej dyski są wytwarzane w układach podwójnych przez przelewanie się gazu z jednego ze składników na drugi. Rozmiary tych dysków są tak duże, jak normalne gwiazdy, od kilku dziesiątych do kilku promieni słonecznych. Jeśli gwiazda pierwotna (gwiazda odbierająca masę) jest białym karłem, tak jak w zmiennych kataklizmicznych, wewnętrzne części dysku promieniują głównie w zakresie UV, a zewnętrzne w świetle widzialnym. Przenoszenie masy przez te dyski jest często niestabilne, powodując wybuchy nowych karłowatych. Jeśli pierwotną jest gwiazda neutronowa lub czarna dziura o masie gwiazdowej, wewnętrzny dysk promieniuje w promieniach rentgenowskich. Transfer masy w tych dyskach jest również niestabilny przy niskich szybkościach transferu, powodując tak zwane miękkie transjenty rentgenowskie. Czasami wytwarzają dżety z relatywistycznymi prędkościami. Dyski wokół gwiazd w procesie formowania, dyski protogwiazdowe, są znacznie większe (około 100 jednostek astronomicznych). Ich wewnętrzne regiony promieniują w zakresie widzialnym, a zewnętrzne w zakresie fal radiowych i podczerwonych. Prawdopodobnie są również niestabilne, powodując wybuchy FU Ori i są związane z dżetami i obiektami Herbiga-Haro. Dyski w AGN obracają się wokół masywnych ((106-109)M ) czarnych dziur w centrach aktywnych galaktyk. Ich centralne obszary promieniują zarówno w zakresie UV, jak i rentgenowskim i często wytwarzają relatywistyczne dżety obserwowane w dwupłatowych źródłach radiowych. Ich rozmiary są nieco niepewne, ale prawdopodobnie rzędu parseka lub większe. Dyski są również widoczne wokół BE STARS. Uważa się, że masa w tych dyskach jest powoli wyrzucana przez szybko obracającą się gwiazdę. Niektóre z ich właściwości są podobne do dysków akrecyjnych, ale z masą raczej odpływającą niż akrecyjną na gwiazdę. Czasami nazywane są dyskami wydalającymi lub wydalającymi.





Aktywne jądra galaktyczne: zmienność

Badania zmienności miały zasadnicze znaczenie dla zrozumienia fizyki AKTYWNYCH JĄDR GALAKTYCZNYCH, AGN, ponieważ rozmiar obszaru emitującego ogromną ilość energii charakterystycznej dla AGN jest zbyt mały, aby można go było rozdzielić nawet za pomocą istniejących lub planowanych INTERFEROMETRÓW optycznych/podczerwonych (IR). AGN emitują promieniowanie kontinuum pochodzące z okolic CZARNA DZIURA. Emitują również intensywne i szerokie linie emisyjne pochodzące z szybko poruszających się chmur gazu znajdujących się w małym obszarze wokół źródła kontinuum: regionie szerokich linii lub BLR. Poziom strumienia kontinuum i intensywność widmowych linii emisyjnych emitowanych przez AGN podlegają zmianom w skali czasowej od godzin do lat, w zależności od zakresu energii i wewnętrznej jasności AGN. Kiedy strumień emitowany przez źródło energii zmienia się znacząco (powiedzmy o współczynnik 2) w skali czasu t, ta zmiana strumienia wyznacza granicę rozmiaru R obszaru emitującego, tak że R ≤ ct. W AGN połączenie ogromnej ilości emitowanej energii i bardzo małych rozmiarów obszarów emisji określonych przez krótką skalę czasową zmienności nie jest zgodne z energią wytwarzaną w normalnych procesach gwiezdnych. Najpopularniejszym modelem produkcji energii w AGN i podstawą obecnego paradygmatu jest to, że AGN/kwazary są zasilane przez akrecję materii na SUPERMASYWNĄ CZARNA DZIURĘ. Przy wyższych energiach fotonów obserwuje się szybszą i większą zmienność amplitudy, m.in. zdjęcia rentgenowskie są różne niż optyczne. Skale czasowe zmienności są zwykle dłuższe w obiektach z natury rzeczy jaśniejszych. Skale czasowe oraz korelacje i opóźnienia między zmianami strumienia kontinuum i różnymi intensywnościami linii widmowych dostarczają informacji o naturze procesów fizycznych emitujących linie i kontinuum oraz o lokalizacji regionów, z których one pochodzą. Termin AGN jest tutaj używany niezależnie od przesunięcia ku czerwieni i jasności, a zatem obejmuje terminy Seyfert 1 i QSO lub kwazar, które są często używane do oddzielnego oznaczania AGN o średniej i wysokiej jasności. Ogólnie rzecz biorąc, dla 1 Seyferta dostępnych jest więcej danych o wyższej jakości niż dla kwazarów. Powodem jest to, że jest ich wiele, a całkiem sporo znajduje się w odległości 100 Mpc od Ziemi i można je łatwo zaobserwować za pomocą obecnego instrumentarium. Natomiast kwazary są rzadkie, a nawet te najbliższe znajdują się w tak dużych odległościach od nas, że strumień odbierany na Ziemi jest znacznie mniejszy niż z 1s Seyferta (jest jeden wyjątek, 3C 273). Podsumowując, zasób wiedzy o zmienności AGN jest zdominowany przez obserwacje Seyferta 1s, które doprowadziły do modeli fizycznych, które w zadowalający sposób wyjaśniają obserwowane zjawiska. Pozostaje zbadać, w jaki sposób modele te odnoszą się do znacznie jaśniejszego i znacznie słabszego AGN. AGN, które są przedmiotem tego artykułu, to te, w których centralne źródło promieniowania optycznego, UV i rentgenowskiego jest obserwowane bezpośrednio i gdzie zmiany nie są wzmacniane przez efekty relatywistyczne . W przypadku prawie tuzina Seyferta 1, a zwłaszcza trzech z nich (NGC 4151, NGC 5548 i NGC 7469) oraz kwazara 3C 273, duża międzynarodowa współpraca zorganizowała długie, spójne kampanie obserwacyjne, niektóre obejmujące jednoczesne obserwacje w zakresie optycznym, Zakresy promieniowania UV i rentgenowskiego, generujące duże ilości danych o jednolitej jakości i gromadzonych z optymalnym czasem próbkowania. Szereg 1 Seyferta (∿30) było monitorowanych mniej intensywnie, ale wciąż wystarczająco, aby ustalić, że wyniki z najlepiej zbadanych 1 Seyferta są reprezentatywne.

Zmienność strumienia kontinuum

Widmo elektromagnetyczne (widmo kontinuum) radio-cichego AGN, po odjęciu kontinuum gwiazd emitowanego przez galaktykę macierzystą, rozciąga się od ∿1 mm do ∿100 keV z wyraźnym szerokim pikiem w zakresie ekstremalnego UV (EUV) i drugorzędny pik w IR . Emisja promieniowania rentgenowskiego jest zdominowana przez składową prawa mocy (1-10 keV; α ≃ 0,9 gdzie f? ∝ ? ? α), która narasta w zakresie twardego promieniowania rentgenowskiego (> 50 keV), prawdopodobnie z odcięciem około 100 keV. Przypomnijmy tutaj, że w teorii dysków akrecyjnych, narosła materia wiruje w kierunku centrum pod wpływem przyciągania grawitacyjnego czarnej dziury. Sprawa jednak nie toczy się swobodnie. Ma wewnętrzne naprężenie (najprawdopodobniej pochodzenia magnetycznego), którego rozpraszanie wytwarza ciepło, a także wyznacza skalę czasową propagacji narosłej materii w kierunku centrum. Astronomowie mówią o ogrzewaniu dysku przez lepkość i o lepkich skalach czasowych, a teoretycy mogą obliczyć energię wytwarzaną przez lepkość, wynikające z tego widmo emitowane przez dysk oraz skale czasowe, w których zmienia się promieniowanie z dysku w odpowiedzi na zmieniającą się szybkość akrecji (DYSK AKRECJI). Obserwowany kształt widmowy kontinuum AGN w zakresie 1200-5000 Å (lub 10-2,5 eV) jest z grubsza zgodny z emisją termiczną z dysku akrecyjnego. Jednak wahania strumienia kontinuum UV występują w skalach czasowych dni, tygodni lub miesięcy, które są o wiele rzędów wielkości krótsze niż skale czasowe oczekiwane na podstawie zmian tempa narastania. Co ciekawe, w NGC 4151 i NGC 5548 strumień promieniowania rentgenowskiego o średniej energii (2-10 keV) oraz strumień optyczny/UV zmieniają się jednocześnie , przy czym wahania wysokoenergetyczne są znacznie większe niż wahania niskoenergetyczne. Podsumowując, obserwacje te sugerują model, w którym powierzchnia dysku jest naświetlana przez centralne zmienne źródło promieniowania rentgenowskiego. Uważa się, że sama zmienność źródła promieniowania rentgenowskiego jest spowodowana wybuchowymi ponownymi połączeniami linii pola magnetycznego przenikających dysk akrecyjny i koronę (gaz gorących elektronów otaczający centralne części dysku) poprzez zjawisko przypominające rozbłyski słoneczne w korona słoneczna. Znaczna część energii akrecji jest zużywana w ten sposób na ogrzewanie korony. Gorące elektrony przenoszą część swojej energii na otaczające fotony UV (emitowane przez dysk) i miękkie fotony rentgenowskie oraz wytwarzają fotony rentgenowskie o średniej i twardej energii poprzez odwrotną emisję Comptona. Ten "model komtonizacji i ponownego przetwarzania" wyjaśnia prostą korelację między promieniowaniem rentgenowskim a emisją UV w krótkich skalach czasowych w NGC 4151 i NGC 5548, a także wyjaśnia średnie nachylenie widma rentgenowskiego, granica wysokoenergetyczna i inne cechy widm rentgenowskich AGN. Ale życie nie jest takie proste, a dobra korelacja między promieniowaniem rentgenowskim a strumieniem UV obserwowana w NGC 4151 i NGC 5548 mogła być szczęśliwym zbiegiem okoliczności w skomplikowanej interakcji między gorącym gazem elektronowym, fotonami UV i fotonami rentgenowskimi ("który jest kurczakiem, a który jajkiem?"). W rzeczywistości, w trzecim jądrze Seyferta 1 intensywnie obserwowanym jednocześnie w promieniach UV i rentgenowskim, NGC 7469, zmiany UV czasami pozostają w tyle za zmianami rentgenowskimi, a czasami są jednoczesne ze zmianami rentgenowskimi. Ten przypadek stawia poważne wątpliwości co do przedstawionego wcześniej obrazu ponownego przetwarzania. Bliższe przyjrzenie się danym ujawnia jednak uderzające podobieństwo zmian w dwóch zakresach energii, co sugeruje podstawowy związek między emisją w dwóch zakresach energii, np. jak ogólnie zapewnia Comptonization. Najbardziej ekstremalna zmienność miękkiego promieniowania rentgenowskiego występuje w wąskich galaktykach Seyferta 1 (NLS1), podzbiorze AGN z bardzo intensywną emisją miękkiego promieniowania rentgenowskiego i bardzo stromymi widmami miękkiego promieniowania rentgenowskiego, wąskimi optycznymi liniami emisyjnymi i wyraźną optyczną emisją Fe II . Aby wyjaśnić brak szerokich linii w NLS1, zaproponowano, że intensywne miękkie promieniowanie rentgenowskie może zdmuchnąć wewnętrzny obszar szerokich linii (BLR) lub zjonizować go do stanów obecnie niewykrywalnych. Strome widmo miękkiego promieniowania rentgenowskiego NLS1 może wskazywać na dużą szybkość akrecji lub małą masę czarnej dziury. Przechodząc teraz do zakresu podczerwieni, zmiany, jeśli w ogóle zostaną wykryte, mają mniejszą amplitudę i dłuższą skalę czasową niż w zakresie optycznym i są zgodne z opóźnioną reakcją pyłu wokół centralnego źródła na długoterminowe zmiany promieniowania UV i strumień kontinuum rentgenowskiego.

Zmiany linii emisji

Metoda szacowania masy czarnej dziury

Monitorowanie zmian strumienia kontinuum i intensywności linii widmowych kilku jedynk Seyferta wykazało, że intensywności linii widmowych naśladują zmiany kontinuum optycznego/UV, ale z pewnym opóźnieniem czasowym τ. Opóźnienie to jest interpretowane jako czas potrzebny, aby światło ze źródła centralnego kontinuum znajdującego się w bezpośrednim sąsiedztwie czarnej dziury dotarło do obłoków gazowych emitujących linie widmowe (i znajdujących się wokół źródła centralnego kontinuum) i zwiększyło lub zmniejszyło emisyjność gaz . Opóźnienie czasowe τ jest miarą odległości d ∿ cτ chmur gazu emitującego linie od centralnego źródła kontinuum. Metodę tę można rozszerzyć, aby mapować obszar emisji liniowej i jest ona znana jako "mapowanie pogłosu". Zgrubne oszacowanie masy centralnej czarnej dziury można następnie obliczyć na podstawie zmian zmiennej składowej linii emisyjnej, łącząc szerokość składowej (która daje prędkość wirialną obłoków gazu) i τ (co jest opóźnieniem o w którym zmiany składników następują po zmianach kontinuum). Założenie, że ruchy chmur są ruchami orbitalnymi w polu grawitacyjnym czarnej dziury, jest mocno poparte faktem, że niebieskie i czerwone skrzydło dowolnej linii lub składowej linii zmieniają się razem (tzn. jedno skrzydło nie zmienia się przed ani po drugim jeden, na pierwsze zamówienie; patrz poniżej). Ta metoda wyznaczania masy centralnej czarnej dziury została zastosowana do kilkunastu AGN i daje wartości w przedziale od kilku 106M do kilku 108M . Pole prędkości gazu Jednym z kluczowych elementów wniesionych przez badania lotności jest to, że najszersze linie emisyjne zmieniają się z największą amplitudą iw najkrótszej skali czasowej, co wskazuje, że najszybciej poruszający się gaz znajduje się najbliżej środka. Szczegółowe zmiany intensywności i profilu linii dostarczają odpowiedzi na kluczowe dla określenia masy pytanie, czy obłoki są związane grawitacyjnie z centralną czarną dziurą: Zmiany profilu linii nie pokazują systematycznego wpływu jednej skrzydło reaguje przed drugim, czego można by się spodziewać w przypadku przepływów promieniowych: zaobserwowano, że niebieskie skrzydło zmienia się jako pierwsze w przypadku przepływów na zewnątrz i wiatrów kulistych, a skrzydło czerwone byłoby obserwowane jako pierwsze w przypadku akrecji sferycznej. To oraz fakt, że najszybciej poruszający się gaz znajduje się najbliżej środka, mocno sugeruje, że chmury o wysokiej jonizacji znajdują się w ruchu orbitalnym (ruchy chaotyczne lub rotacyjne) w polu grawitacyjnym czarnej dziury, z jedynie niewielkimi składnikami opadania netto lub odpływ. Ruchy chaotyczne są wykluczone, ponieważ chmury gazu zostałyby zniszczone podczas przechodzenia przez dysk akrecyjny. Najbardziej szczegółowe wyniki dotyczące pola prędkości w BLR pochodzą z intensywnego monitorowania profilu linii C IV podczas miesiąca życia NGC 4151′, z prawie całkowitym próbkowaniem 1 d w odstępie 35 dni. Analiza zmian w każdym przedziale prędkości w profilu linii C IV pokazuje, że zmiany są zgodne z ruchami grawitacyjnymi wokół masy około 107 M . Wartość ta zgadza się z wartością wynikającą z obserwacji całego widma UV NGC 4151 w innych epokach, które wykazują liniową zależność między czasem odpowiedzi linii a odwrotnością kwadratu szerokości linii. Podobne badanie NGC5548 daje masę (5 ± 3) × 107 M . Należy zauważyć, że zarówno w NGC 5548, jak i NGC 4151 istnieje prawdopodobnie słaba sygnatura składnika opadającego. Inne AGN dają spójne wyniki (choć mniej szczegółowe) i wstępnie stwierdza się, że szerokość linii jest zdominowana przez rotację. Stanowi to podstawę oszacowania masy czarnej dziury na podstawie odpowiedzi intensywności linii emisyjnych na zmiany strumienia kontinuum. Niepewność związana z tą metodą jest trudna do oszacowania i prawdopodobnie jest mniejsza niż współczynnik 10.

Model "dysku i wiatru".

W widmach AGN występują linie niskojonizacyjne, takie jak linie Balmera i linie Fe II i Mg II oraz linie highionizacji (najsilniejsze są linie C IV, N V, He II, Si IV). Z interpretacji obserwacji wynika, że linie o niskiej jonizacji pochodzą od płaskiego skupiska bardzo gęstych chmur (Ne ≥ 1011 cm-3 i całkowitej grubości optycznej 1024 cm-2), które utożsamiane są z częścią stosunkowo chłodną (temperatura powierzchni 5000 K) dysku akrecyjnego. Natomiast linie o wysokiej jonizacji pochodzą ze stosunkowo bardziej rozcieńczonego ośrodka, powyżej i poniżej dysku, przy czym linie najbardziej zjonizowanych pierwiastków są najszersze. Wskazuje to, że stopień jonizacji jest skorelowany z prędkością gazu. Co ciekawe, linie o wysokiej jonizacji nie znajdują się dokładnie na przesunięciu ku czerwieni linii o niskiej jonizacji (emitowanych przez dysk akrecyjny), które same znajdują się na przesunięciu ku czerwieni galaktyki macierzystej. Są przesunięte w kierunku błękitu (od 0 do ∿ 1500 km s-1) w stosunku do dysku i galaktyki macierzystej, co wskazuje, że silnie zjonizowany gaz płynie w naszą stronę. (Dzięki symetrii przepływ prawdopodobnie oddala się od nas, po drugiej stronie dysku, ale jest niewidoczny, ponieważ dysk jest nieprzezroczysty). Połączenie rotacji i wypływu z dysku sugeruje i jest zgodne z modelem, w którym linie o wysokiej jonizacji są emitowane przez chmury gazu wyłaniające się z dysku, wciąż zachowując dużą część momentu pędu, który gaz miał w dysku. Takie ruchy są przewidywane przez magnetohydrodynamiczny model dysków akrecyjnych, w których wiatry przyspieszone magnetycznie powstają z włókien wyciągniętych z pierwotnie gęstego, nisko zjonizowanego materiału dysku akrecyjnego i poddanych intensywnemu centralnemu polu jonizującemu. Tworzy to silnie zjonizowany wiatr nad i pod dyskiem. Fizyka tych zjawisk jest jednak skomplikowana i wiele cech tego obiecującego modelu pozostaje obecnie nieokreślonych.

Bieżące problemy i przyszły rozwój

Pozostaje wiele pytań i ekscytujących dróg dochodzenia. Po pierwsze, należy energicznie kontynuować teoretyczne badania efektów magnetohydrodynamicznych, które wraz z polem grawitacyjnym czarnej dziury dominują w fizyce w jej otoczeniu. Po drugie, zjawisko zmienności zostało najlepiej zaobserwowane i najlepiej zrozumiane w przypadku średniej jasności AGN (jasność całkowita L ∿ 1042 - 1045 erg s-1), ale dane zmienności dotyczące potężnych kwazarów (do 1049 erg-1) i przy bardzo małej jasności AGN (1039 erg s-1) jest wciąż bardzo mało. Na szczęście trwają stosowne obserwacje. Umożliwią one zbadanie całej przestrzeni parametrów definiowanej masą czarnej dziury i szybkością akrecji oraz zrozumienie specyfiki procesu akrecji w różnych obszarach tej przestrzeni parametrów (np. adwekcji, akrecji pojedynczych gwiazd, super- współczynnik akrecji Eddingtona). Wreszcie, chociaż ten artykuł koncentruje się na bezpośrednio obserwowalnej zmienności AGN, tj. występującej w skali czasowej od godzin do lat, wskazuje się, że inne zjawiska zmienności muszą zachodzić w dłuższych skalach czasowych, powiedzmy 102, 106 lub 109 lat. Szczególnie istotne w tym kontekście jest niedawne odkrycie (na podstawie pomiarów prędkości gwiazd w jądrach pobliskich galaktyk), że czarne dziury prawdopodobnie znajdują się w centrach nieaktywnych galaktyk, w tym w naszej Galaktyce, o masach mniej więcej w ten sam zakres wartości, co te określone w badaniach AGN. W naturalny sposób powstaje wtedy wiele pytań, takich jak to, czy AGN mogą być powtarzającymi się zjawiskami z fazami uśpienia i czy mogą być napędzane gazem wytwarzanym w wyniku ewolucji gwiazd w galaktyce macierzystej, czy też akreowana materia zawsze pochodzi spoza galaktyki macierzystej .



Aktywne galaktyki: Obserwacje

"Galaktyka aktywna" to ogólny termin odnoszący się do każdej galaktyki, która wytwarza znaczną emisję poza emisją swoich gwiazd składowych, gwiezdnych pozostałości i ośrodka międzygwiazdowego. Charakterystyka takich galaktyk jako "aktywnych" wynika z tego, że zazwyczaj zakłada się, że niezwykłe właściwości emisji są związane z wysokoenergetycznymi zjawiskami erupcyjnymi. Najwcześniejszy konsekwentny użytkownik wydaje się, że słowo "aktywność" w odniesieniu do jąder galaktyk pochodziło z V A Ambartsumian. W większości przypadków ta niegwiazdowa emisja wydaje się pochodzić z samego centrum lub jądra galaktyki, a źródła te są ogólnie znane jako "aktywne jądra galaktyczne" (AGN). Galaktyka zawierająca takie źródło jest znana jako host AGN. Historycznie rzecz biorąc, niektóre inne rodzaje źródeł, takie jak GALAXY STARBURST, które mają pewne fenomenologiczne podobieństwa do AGN (np. silna emisja bliskiego UV), były również znane jako aktywne galaktyki, chociaż w tych przypadkach aktywność może nie ograniczać się do regionów jądrowych . AGN to najjaśniejsze źródła o długiej żywotności wszechświata. Emitują silne promieniowanie w całym obserwowalnym zakresie długości fal, od promieniowania rentgenowskiego i promieniowania γ po fale radiowe o dużej długości. Pełen obraz emisji AGN można uzyskać jedynie obserwując go na wielu długościach fal, najlepiej jednocześnie w całym widmie, ponieważ są to źródła zmienne. Istnieje wiele różnych klas AGN; GALAKTYKI SEYFERTA stanowią niskojasny koniec zjawiska AGN, czyli ich jasność jąder jest z grubsza porównywalna z całkowitym światłem gwiazd z galaktyki macierzystej. AGN o wyższej jasności są znane jako "kwazary" lub "obiekty quasi-gwiazdowe" (QSO), przy czym te pierwsze są zarezerwowane (pierwotnie) dla silniejszych źródeł radiowych, a te drugie słabsze; w takich przypadkach światło optyczne z AGN może przekraczać, czasami ponad 100-krotnie, światło gwiazdowe z galaktyki macierzystej na wszystkich długościach fal. W ramach tych grup istnieje wiele różnych podklas, opartych na względnym znaczeniu optycznych linii emisyjnych UV, właściwościach radiowych i polaryzacji. W razie potrzeby zostaną one wymienione poniżej. W tej sekcji omówiony zostanie aktualny stan obserwacji w widmie elektromagnetycznym. Najpierw omówimy ciągłą emisję AGN pod względem ich "widmowych rozkładów energii" (SED), tj. ilości energii emitowanej w różnych pasmach fal. Następnie skupiamy się na widocznych liniach emisyjnych, które są wykrywane w widmach UV-optycznych (a ostatnio rentgenowskich) większości AGN, a następnie z krótkim opisem cech absorpcji w widmach AGN. Omówiono również przestrzennie rozdzielone struktury w AGN.

Widmowe rozkłady energii

SED normalnych gwiazd (i galaktyk) są dobrze przybliżone jako ciała doskonale czarne w zakresie temperatur . Dane Elvisa i innych, a zatem ich emisja jest silnie skoncentrowana w części widma od ultrafioletu (UV) do bliskiej podczerwieni (IR). W przeciwieństwie do tego, AGN emitują porównywalną energię (na jednostkę szerokości pasma logarytmicznego) w większości obserwowalnego widma. Jedynym wyjątkiem jest region radiowy, w którym AGN "radioloud" (RL) mają około 3 rzędów wielkości jaśniejszy niż ich "ciche radiowo" odpowiedniki (RQ). Te RLAGN stanowią ∼10% populacji. Rysunek



przedstawia medianę SED niskiego przesunięcia ku czerwieni dla obiektów RL i RQ z próbki ponad 40 AGN. Jest on wykreślany jako log (νLν ) w funkcji log ν, co pokazuje moc wyjściową energii w każdym paśmie fal, a także podkreśla ważną strukturę w SED. Nasza wiedza na temat tych SED jest ograniczona przez obecną technologię obserwacyjną do jasnych źródeł o dość niskim przesunięciu ku czerwieni i obejmuje (jak widać na rysunku ) ważne luki w różnych pasmach fal.

1. Brak obserwacji przy wysokich energiach (promienie γ) wynika z obecnych ograniczeń technicznych; detektory o wyższej energii nie są wystarczająco czułe, aby wykryć większość AGN. Te, które zostały wykryte do tej pory, to na ogół rdzeniowe (CD) RL AGN, tj. te, których emisja jest wzmacniana przez relatywistyczny przepływ wzdłuż naszej linii wzroku.
2. Luka EUV między obszarami dalekiego UV i miękkiego promieniowania rentgenowskiego widma (tj. między 912Å a około 0,1 keV, obejmująca około 10-krotny współczynnik energii fotonów) wynika z dużej nieprzezroczystości ośrodka międzygwiazdowego w naszą własną Galaktykę fotonom jonizującym wodór. Fotony w tym zakresie energii są szczególnie ważne, ponieważ napędzają silne linie emisyjne widoczne w widmie UV i optycznym AGN.
3. Przepaść między radiem submilimetrowym a krótkofalowym ponownie wynika z ograniczeń technologicznych. Nowe detektory i satelity ostatnio znacznie zmniejszyły te ograniczenia i ujawniły ostre przerwy widmowe w dalekiej podczerwieni dla wszystkich oprócz CD RL AGN.

Najbardziej widoczną cechą AGN SED jest silny pik w widmie UV. Cecha, często nazywana "dużym niebieskim guzem" (BBB), zaczyna się w bliskiej podczerwieni i może rozciągać się aż do energii miękkiego promieniowania rentgenowskiego. Obserwuje się go za pomocą kombinacji niskorozdzielczej spektroskopii optycznej i ultrafioletowej oraz/lub wielobarwnej fotometrii optycznej. Można wiarygodnie zidentyfikować, że powstaje w dysku akrecyjnym (AD) zawierającym materię o szerokim zakresie temperatur i krążącym wokół supermasywnej czarnej dziury. BBB osiąga szczyt w ekstremalnym UV, co jest zgodne z oczekiwaną emisją z AD wokół czarnej dziurya ∼108M, która akreuje materię z szybkością Eddingtona. Emisja IR z RQ AGN jest obserwowana głównie za pomocą fotometrii wielokolorowej, chociaż spektroskopia IR jest szybko rozwijającą się dziedziną. Uważa się, że widmo IR jest zdominowane przez emisję termiczną z pyłu w galaktyce macierzystej lub torusa molekularnego otaczającego AGN. Najbardziej przekonujące dowody przemawiające za tą interpretacją są następujące.

1. W AGN SED występuje lokalne minimum przy długości fali około 1 μm. To prawdopodobnie reprezentuje emisję z najwyższej temperatury (około 1500 K) ziarna, które mogą istnieć w pobliżu AGN; w wyższych temperaturach, tj. mniejszych odległościach od centralnego źródła, pył będzie sublimował.
2. W niektórych AGN zaobserwowano, że kontinuum w podczerwieni zmienia się, najwyraźniej w odpowiedzi na wcześniejsze, podobne zmiany kontinuum w widmie optycznym UV. Wywnioskowany czas podróży światła jest zgodny z maksymalną odległością, na jaką ziarna wystawione na działanie pola promieniowania AGN powinny sublimować.
3. Ostra przerwa w submilimetrowym obszarze dalekiej podczerwieni SED we wszystkich AGN oprócz CD RL jest generalnie zbyt stroma, aby można ją było przypisać optycznie grubej emisji synchrotronowej lub emisji ciała doskonale czarnego w jednej temperaturze, ale jest zgodna z emisją termiczną z ziaren (w zależności od nieznanego prawa emisyjności ziarna).

W RL AGN IR jest prawdopodobnie mieszanką izotropowej emisji termicznej i wiązki nietermicznej. Emisja wiązki dominuje w CD RL AGN, ponieważ jest wzmacniana przez relatywistyczny odpływ wzdłuż naszej linii wzroku. Mocnych dowodów na tę interpretację dostarcza skoordynowana zmienność obserwowana w kilku z tych źródeł, w szczególności 3C 273, który jest najjaśniejszym pobliskim QSO i w konsekwencji był szeroko monitorowany. Wstępne wyniki w średniej i dalekiej podczerwieni z ISO satelitarnego ESA pokazują postęp od emisji nietermicznej do termicznej w małej próbce CD i RLAGN i RQAGN zdominowanej przez płatki, potwierdzając ten ogólny obraz. Podczas gdy emisja UV-optyczna-IR z AGN wydaje się być głównie pochodzenia termicznego, uważa się, że zarówno ekstremalne, jak i niskoenergetyczne obserwowalne SED są wytwarzane przez procesy nietermiczne. Obserwacje rentgenowskie AGN są w dużej mierze ograniczone do spektroskopii o bardzo niskiej rozdzielczości, która daje kształt globalnego kontinuum. Główną cechą widm rentgenowskich RQ AGN jest kontinuum potęgowe (Fν ∝ ν, z α ≈ 0,9) w zakresie ∼1-100 keV. Widmo generalnie odwraca się przy energiach ≳ 100 keV i uważa się, że powstaje w wyniku powtarzającego się rozpraszania Comptona fotonów termicznych lub nietermicznych. RLAGN wykazują twardsze widmo rentgenowskie niż ich odpowiedniki RQ. Względna siła tego twardego komponentu wzrasta wraz z dominacją rdzenia źródła radiowego, co sugeruje, że emisja jest emitowana podobnie do radia i potwierdza pochodzenie fotonów radiowych synchrotronowych w rozpraszaniu w górę Comptona. CD RLAGN są jak dotąd jedynymi AGN wykrytymi w wysokoenergetycznych promieniach γ, co sugeruje, że promienie są kluczowym czynnikiem. Dokonano kilku bardzo wysokoenergetycznych obserwacji, w tym naziemne wykrycie pęków Czerenkowa, które występują, gdy fotony o energii TeV uderzają w ziemską atmosferę. Jak dotąd wszystkie AGN wykryte tą metodą to wszystkie obiekty BL Lac. Podobnie jak w przypadku CD RL AGN, obserwowana emisja z tych źródeł jest najwyraźniej zdominowana przez relatywistyczną wiązkę lub dżet skierowaną w stronę obserwatora. Przy energiach około 10 keV i wyższych widma RQ AGN mają również "twardy ogon" powyżej prawa mocy promieniowania rentgenowskiego, który jest silniejszy w źródłach o niższej jasności. Uważa się, że powstaje to w wyniku "odbicia Comptona" (połączenie nieelastycznego rozpraszania fotonów o wyższej energii i fotoelektrycznej absorpcji fotonów o niższej energii fotonów) ze stosunkowo chłodniejszego materiału. Cecha ta jest na tyle silna, że chłodniejszy materiał musi pokrywać około połowy nieba widzianego z samego źródła promieniowania rentgenowskiego, co doprowadziło do spekulacji, że odbijającym obiektem musi być sama AD, ze źródłem promieniowania rentgenowskiego znajdującym się gdzieś powyżej To. Przykład takiego widma pokazano na rysunku 2.



Zmienność widmowa

Jedną z najbardziej niezwykłych cech AGN jest ich silna zmienność strumienia. Rzeczywiście, samo istnienie zmienności kontinuum w ciągu dnia nakłada surową górną granicę (ustaloną przez argumenty dotyczące czasu podróży światła i spójności źródła) na rozmiar źródła kontinuum, a tym samym dostarcza jednego z najsilniejszych argumentów za identyfikacją AD wokół supermasywnej czarnej dziury jako źródło promieniowania ciągłego. Na poziomie podstawowym przyczyna zmienności kontinuum nie jest zrozumiała, chociaż AD niestabilności są czasami przywoływane jako mechanizm napędowy. Ogólnie rzecz biorąc, najszybsza i najwyższa amplituda zmian jest widoczne przy najwyższych energiach fotonów. Zmiany strumienia promieniowania rentgenowskiego wykryto w galaktykach Seyferta w skalach czasowych rzędu kilku minut. Dla celów fenomenologicznych możemy scharakteryzować siłę zmian jako funkcję czasu częstotliwości f przez ich "spektra gęstości mocy", które są konwencjonalnie modelowane jako prawo potęgowe, tj. P(f) ∝ f, gdzie α zwykle mieści się w zakresie 1-2 dla większości AGN. Przypadek α = 0 to "biały szum", tj. amplituda zmienności jest niezależna od skali czasu, a α = 1 odpowiada zmianom, które można opisać jako błądzenie losowe. Większe wartości ? odpowiadają zwiększonym amplitudom zmienności w dłuższych skalach czasowych (niższe częstotliwości f ). W niektórych przypadkach, np. NGC 4151 i 3C 390.3, najbardziej widoczne zmiany wydają się zachodzić quasi-jednocześnie (tj. jednocześnie z dokładnością do mniej niż jednego dnia) od promieni rentgenowskich (lub nawet promieni γ dla NGC 4151) do pasm fal optycznych. Struktury o mniejszej amplitudzie na krzywych blasku różnią się w całym spektrum, z niższymi amplitudami i mniejszymi strukturami widocznymi przy niższych energiach fotonów. Niemal jednoczesność zmian wymaga, aby zmiany były napędzane przez promieniowanie, a nie na przykład propagację zaburzeń przez AD w znacznie dłuższej lepkiej skali czasu. Obserwacje te, wraz z wykryciem twardego ogona promieniowania rentgenowskiego i linii emisyjnej FeKα, wskazują na modele "ponownego przetwarzania", w których zmienne źródło promieniowania rentgenowskiego oświetla AD z góry, przy czym zaobserwowano zmiany w pochłoniętej energii promieniowania rentgenowskiego przy niższych energiach fotonów. Jednak w co najmniej jednym przypadku (galaktyka Seyferta NGC 7469) zmiany rentgenowskie nie korelują dobrze ze zmianami optycznymi UV; zmiany podobnej amplitudy ułamkowej są widoczne zarówno w obszarach rentgenowskich, jak i UV-optycznych, ale nie ma między nimi wyraźnego związku przyczynowego. Jednak to w tym samym obiekcie wykryto opóźnienie czasowe między zmianami UV i optycznymi. Jest to jedyna galaktyka Seyferta, która została wystarczająco dobrze monitorowana, aby wykryć takie zależne od długości fali opóźnienia czasowe kontinuum. W stosunku do zmian w UV o najkrótszej długości fali, zmiany przy dłuższych falach są opóźnione o wartość τ ∝? γ4/3, co jest dokładnie taką zależnością od długości fali oczekiwaną, jeśli zmiany pojawiają się w cienkim AD, który jest napromieniowany zmiennym promieniowaniem rentgenowskim źródło. Oczywiście ta interpretacja całkowicie nie wyjaśnia obserwowanego braku korelacji między zmianami UV-optycznymi i rentgenowskimi. Obecnie wydaje się, że NGC 7469 stwarza poważne trudności w ponownym przetwarzaniu modeli, chociaż nie pojawiło się żadne inne wyjaśnienie sprzężenia (lub braku sprzężenia) między zmianami rentgenowskimi i UV-optycznymi. Ekstremalne zmiany strumienia obserwuje się również w obiektach BL Lac. Jednak w tym przypadku fundamentalne pochodzenie zmian jest prawdopodobnie związane z propagacją wstrząsów przez strumień relatywistyczny. W przeciwieństwie do Seyfertów, chociaż istnieje ścisła zgodność między zmianami w różnych pasmach, nie pojawił się jeszcze całkowicie spójny związek między opóźnieniem czasowym a długością fali; to samo źródło może najwyraźniej wykazywać różne zachowania w różnych momentach, a przyczyna tego nie jest zrozumiała.

Linie emisyjne

Podstawowe właściwości linii UV-optycznych

Silne szerokie linie emisyjne są cechą charakterystyczną wszystkich typów AGN, z wyjątkiem obiektów BL Lacertae, w których przypuszczalnie obecne linie emisyjne są zalane przez emisję kontinuum o wysokim promieniu z dżetu. W części widma UV-optyczne-IR najbardziej widoczne linie emisyjne (te o równoważnych szerokościach większych niż kilkadziesiąt Å) to zwykle Lyαλ 1215, C IV λ 1549, C III] λ 1909, Mg II λ 2798, Hβ λ 4861, Hα λ 6563 i Pα λ 1,88 μm . W większości Seyfertów i kwazarów obserwowana emisja powstaje w dwóch fizycznie odrębnych obszarach, przestrzennie zwartym (1015-1017 cm) "obszarze szerokoliniowym" (BLR) o stosunkowo dużej gęstości cząstek (ne ≈ 1011 cm-3) i dużej prędkości dyspersje (vFWHM ≈ 1000-10 000 km s-1) oraz przestrzennie rozciągnięty (100 pc-1 kpc) "region wąskoliniowy" (NLR) o stosunkowo małych gęstościach cząstek (ne ≈ 103 cm-3) i mniejszej prędkości dyspersji (vFWHM < 1000 km s-1). Pewne mgławicowe "zakazane" linie, takie jak [O III] λλ 4959, 5007, są wyróżniającymi się cechami w widmach wąskoliniowych, ale nie obserwuje się ich w widmach szerokoliniowych. W NIR o małej gęstości, zarówno linie Balmera, jak i [O III] znajdują się w granicy małej gęstości, w której emisyjność jest proporcjonalna do n2e. Jednak w gęstszym, ale o znacznie mniejszej masie BLR, linie Balmera nadal mieszczą się w granicy małej gęstości, ale linie [O III] znajdują się w granicy dużej gęstości, w której emisyjność jest proporcjonalna tylko do ne. Linie [O III] z regionu szerokich linii są zatem bardzo słabe w stosunku do linii Balmera, a linie zakazane są często określane jako "kolizyjnie stłumione". Galaktyki Seyferta tradycyjnie dzieli się na dwie podklasy spektroskopowe: Seyfert typu 1 ma emisję zarówno szerokoliniową, jak i wąskoliniową, podczas gdy Seyfert typu 2 ma tylko wąskie linie. W niektórych, a być może we wszystkich przypadkach, obiekty typu 2 to te, których BLR są zasłonięte przed naszym bezpośrednim widzeniem przez kurz. Widma kwazarów są zawsze podobne do widm Seyferta typu 1. Kwestia, czy istnieją jakieś prawdziwe "kwazary typu 2", pozostaje otwarta. Niedawna polarymetria ujawniła szerokie linie w niektórych ultrajasnych galaktykach podczerwonych: spektroskopowo można je czasami sklasyfikować jako nieuchwytne kwazary typu 2, ale zasadniczo są to wciąż zaciemnione kwazary typu 1. Poza semantyką pytanie brzmi, czy ujednolicone modele wyjaśniają wszystkie obiekty typu 2.

Zmienność linii emisji

Szerokie składowe linii emisyjnych AGN zmieniają strumień w odpowiedzi na zmiany strumienia kontinuum, z opóźnieniami czasowymi, które, jak się przyjmuje, są spowodowane efektami czasu podróży światła w BLR. Rzeczywiście, pomiar rozmiaru BLR opiera się na pomiarze średnich opóźnień czasowych (lub "opóźnień") między zmianami kontinuum i linii emisyjnych. Ten proces, znany jako "mapowanie pogłosu", został pomyślnie przeprowadzony przez ponad dwa tuziny AGN. Rozmiary BLR w galaktykach Seyferta mieszczą się w przedziale od kilku do około 100 dni świetlnych (tj. rBLR ≈ 1015-17 cm), a skala jasności w przybliżeniu wynosi rBLR ∝ L1/2, zgodnie z najprostszą teorią. Różne linie w danym AGN reagują z różnymi opóźnieniami czasowymi, zwykle w tym sensie, że linie o wyższej jonizacji reagują szybciej niż linie o niższej jonizacji; wskazuje to, że BLR ma radialnie uwarstwioną strukturę jonizacji i że maksymalna zmienność różnych linii występuje przy różnych promieniach. Zakres odpowiedzi czasowych jest taki, że zewnętrzna krawędź BLR jest co najmniej 10 razy większa niż wewnętrzna krawędź. Zasadniczo mapowanie pogłosu powinno być w stanie określić pole prędkości BLR, ponieważ szerokie linie są rozdzielone w prędkości w linii wzroku (Doppler). Na przykład, gdyby obłoki BLR przemieszczały się promieniowo na zewnątrz od centralnego źródła, wówczas zewnętrzny obserwator zobaczyłby, że gaz o krótkiej długości fali (względnie przesunięty w kierunku błękitu) po bliższej stronie jądra reaguje na zmiany kontinuum, zanim zobaczy stosunkowo przesunięte ku czerwieni długie fale ) gaz po drugiej stronie jądra. Brak tak silnej sygnatury wskazuje, że dominujące ruchy gazu nie są promieniowe. Jednak obecne obserwacje nie są wystarczająco obszerne, aby określić, czy gaz BLR jest ograniczony do dysku, czy też ma inną geometrię. Niezależnie od szczegółów, jeśli przyjmiemy, że ruchy gazu BLR są głównie orbitalne wokół źródła centralnego, masę źródła centralnego (Mblack hole) można zmierzyć łącząc pomiary wielkości obszaru z szerokością linii emisyjnej, tj. w obrębie pewnego zależnego od geometrii współczynnika jedności porządku, Mblack hole ≈ rBLRv2FWHM. Dla około dwóch tuzinów AGN o niskiej jasności, dla których to zrobiono, wywnioskowano masy w zakresie (106 -108)M. Wąskie linie emisyjne na ogół nie zmieniają się w skalach czasowych wynoszących lata lub mniej, ponieważ dłuższe czasy podróży światła i rekombinacji mają tendencję do zacierania skutków wszelkich zmian kontinuum. Doniesienia o wąskiej zmienności są rzadkie. Prawdopodobnie najlepszym przypadkiem rzeczywistej zmienności wąskiej linii jest przypadek radiogalaktyki szerokopasmowej 3C 390.3, która wydaje się mieć nienormalnie zwarty NLR o dużej gęstości. Szerokości wąskich linii wydają się dobrze korelować z centralnymi masami galaktyki macierzystej AGN w skalach porównywalnych z rozmiarem NLR (tj. asymetrie wynikają z interakcji z dżetami.

Rentgenowska linia żelaza (Fe) Kα

W widmach o niskiej rozdzielczości zwykle uzyskiwanych w obszarze rentgenowskim przez satelity, takie jak ASCA (Japonia), SAX (Włochy) i RXTE (USA), powszechnie obserwuje się fluorescencyjną linię emisyjną Fe K?. Ta linia emisji jest zwykle silniejsza w źródłach o niższej jasności. Energia, przy której obserwuje się linię, z grubsza wskazuje na stan jonizacji emitującego materiału. Szeroki zakres zachowań jest widoczny z nierozwiązanych, chłodnych linii (tj. z materiału lowionizacyjnego), zgodnych z pochodzeniem materiału pochłaniającego wzdłuż naszej linii wzroku przez kwazar, np. torusa molekularnego, do gorących, rozdzielczych linii o szerokościach, vFWHM ≳ 10 000 km s-1, co implikuje materię znacznie bliższą centralnej AGN niż linie optyczne UV i omówione powyżej. W kilku z nich, w szczególności w MCG-6-30-15, obserwuje się złożone profile linii, które sugerują emisję z bardzo bliskiej odległości od centralnego AGN. Ta interpretacja jest bardzo atrakcyjna, ponieważ linia zapewnia wtedy naszą jedyną bezpośrednią obserwację wewnętrznej AD i jest niezwykle ważna dla diagnozowania i ograniczania zarówno modeli AD, jak i modeli centralnego źródła. Satelity rentgenowskie, takie jak XMM (ESA) i Obserwatorium Rentgenowskie Chandra (NASA), oba wystrzelone w 1999 r., będą w stanie obserwować emisję Fe Kα w większej części populacji AGN. Ich siatki zapewnią również niezwykle wysoką rozdzielczość widmową (E/ΔE > 100-1000), umożliwiając bardziej szczegółowe badania profilu, a także wykrywanie większej liczby i słabszych linii w jasnym, pobliskim AGN.

Struktury przestrzennie rozdzielcze w AGN

Region wąskiej linii


Podczas gdy rozmiar i strukturę BLR należy wywnioskować pośrednio za pomocą procesów takich jak mapowanie pogłosu, NLR jest wystarczająco rozszerzony, aby w bliższym AGN można go było przestrzennie rozdzielić za pomocą Kosmicznego Teleskopu Hubble′a lub, w niektórych przypadkach, nawet za pomocą naziemnego obserwacje oparte na NLR jest zwykle w przybliżeniu osiowosymetryczny, a jego długa oś pokrywa się z osią radiową w tych źródłach, w których wykryto rozszerzoną emisję radiową. W niektórych przypadkach wydaje się, że na granicy między plazmą emitującą promieniowanie radiowe a ośrodkiem międzygwiazdowym w galaktyce macierzystej występują fronty uderzeniowe. Podczas gdy emisja wąskoliniowa jest najwyraźniej napędzana głównie przez fotojonizację przez centralne źródło, wykryto również silną emisję z obszarów ochładzających się po wstrząsie. W niektórych przypadkach emisja wąskoliniowa wydaje się być ograniczona do "stożków jonizacyjnych" w kształcie klina, które emanują z jądra. Kąty otwarcia tych stożków wynoszą zwykle 30°-100°. Uważa się, że te stożki są wynikiem anizotropii w polu promieniowania AGN, która jest wprowadzana w znacznie mniejszych skalach przez zaciemniający torus otaczający centralne źródło.

Galaktyki macierzyste AGN

We współczesnym wszechświecie AGN stanowią mniej niż 5-10% wszystkich jasnych galaktyk. Dlaczego niektóre galaktyki są "aktywne", a inne nie? Czy zjawisko AGN reprezentuje przejściową fazę w ewolucji galaktyk (zauważając, że w odległej przeszłości było ich znacznie więcej niż obecnie? Próby rozwiązania tych problemów doprowadziły do badań "galaktyk macierzystych" AGN. Często jest to trudne przedsięwzięcie, ponieważ AGN zwykle znajdują się w dużych odległościach, więc galaktyki macierzyste są słabe i mają małe rozmiary kątowe, a zwłaszcza w przypadku kwazarów, większość światła galaktyki macierzystej jest po prostu tracona w blasku kwazara. Oryginalna lista galaktyk emisyjnych o wysokiej jasności powierzchniowej sporządzona przez Carla Seyferta składała się prawie wyłącznie z galaktyk spiralnych. Z biegiem czasu definicja "AGN" stała się przede wszystkim spektroskopowa (oparta na obecności silnych linii emisyjnych, z wyjątkiem obiektów BL Lac). AGN o wysokiej jasności znajdują się zarówno w galaktykach eliptycznych, jak i spiralnych, chociaż przy niskim przesunięciu ku czerwieni RLAGN znajdują się preferencyjnie w galaktykach eliptycznych. Do niedawna powszechnie uważano, że istnieje korelacja między AGN a jasnością galaktyki macierzystej: jaśniejsze AGN znajdują się w jaśniejszych galaktykach. Istnieją jednak silne efekty selekcji, które mogą prowadzić do takiego wniosku. Niedawne obserwacje kwazarów za pomocą Kosmicznego Teleskopu Hubble′a (w celu pomocy w wykrywaniu słabych galaktyk macierzystych z AGN o wysokiej jasności) i nie tylko poprzez prace badawcze na pobliskich galaktykach (w celu znalezienia słabego AGN w jasnych hostach) nie potwierdziły istnienia silnej korelacji między AGN a jasnością galaktyki macierzystej. Słabe AGN znajdują się zarówno w galaktykach macierzystych o niskiej, jak i wysokiej jasności, podczas gdy AGN o wysokiej jasności występują tylko w jaśniejszych galaktykach macierzystych. W wyniku dużej części obserwacji za pomocą Kosmicznego Teleskopu Hubble′a wydaje się obecnie, że praktycznie wszystkie galaktyki zawierają w swoich jądrach supermasywne czarne dziury. Identyfikacja obiektów supermasywnych wymaga pomiaru dyspersji dużych prędkości w małych skalach przestrzennych (a tym samym wymaga wysokiej rozdzielczości kątowej możliwej do uzyskania przy obrazowaniu kosmicznym), co prowadzi do pomiarów masy wirialnej. Najciekawsze wydaje się teraz przejście od "czy supermasywne czarne dziury istnieją?" do "dlaczego niektóre supermasywne czarne dziury gromadzą masę (AGN), podczas gdy inne nie są (normalnymi galaktykami)"? To, czy jądro jest zasilane, czy nie, może być związane z tym, jak łatwo jest wprowadzić gaz do jądra galaktyki, a to z kolei może zależeć od charakterystyki galaktyki macierzystej.

Rozszerzona emisja promieniowania rentgenowskiego

Wysoka (jak na promieniowanie rentgenowskie) rozdzielczość przestrzenna High Resolution Imager na satelicie rentgenowskim ROSAT (∼5″ ) ułatwiła obrazowanie jasnych, pobliskich galaktyk Seyferta, takich jak NGC 1068 i NGC 4151. że znaczna część (do ∼50%) emisji promieniowania rentgenowskiego może pochodzić z rozszerzonego obszaru wokół centralnego AGN. W kilku źródłach ta emisja promieniowania rentgenowskiego jest przestrzennie skorelowana z NLR. Źródłem rozszerzonej emisji promieniowania rentgenowskiego może być rozpraszanie elektronów centralnej emisji promieniowania rentgenowskiego lub emisja promieniowania rentgenowskiego z gorącego, wiejącego wiatru. Obserwatorium Rentgenowskie Chandra (NASA) ze swoją bezprecedensową rozdzielczością przestrzenną (∼0,5″) pozwoli na wykonanie znacznie większej liczby takich badań przestrzennych.

Emisja megamasera

Do najbardziej ekscytujących obserwacji AGN w ostatnich latach należy emisja maserów wodnych w reżimie radiowym. Obserwacje radiowe, ze względu na długie fale i odpowiednio większe teleskopy, które można zbudować lub zsyntetyzować, są obecnie niedoścignione pod względem rozdzielczości przestrzennej, jaką mogą uzyskać, zwykle do poziomu milisekundy kątowej (mas). Niedawne obserwacje emisji masera wody w słabo jasnej galaktyce Seyferta 1,9 NGC 4258 wykazały kilka składowych, których prędkości dokładnie odpowiadają krzywej rotacji Keplera. W połączeniu z ich pozycjami kątowymi, te źródła maserowe wskazują na wypaczony, nachylony, geometrycznie cienki dysk molekularny w skali poniżej parseka i prowadzą do oszacowania (3,5 ± 0,1) × 107 M dla masy centralnej czarnej dziury, pierwszy bezpośredni i precyzyjny taki pomiar. Obserwacje masera z innych źródeł również dostarczyły informacji w podobnej skali, ale jak dotąd żadne nie były tak szczegółowe jak NGC 4258.

Linie absorpcyjne

Optyczne i UV


Widma optyczne i UV AGN zawierają cechy absorpcji ze względu na materiał wzdłuż linii wzroku między nami a źródłem kontinuum optyczno-UV, zarówno w samym AGN, jak iw przestrzeni pośredniej. Interweniujące absorbery, których przesunięcia ku czerwieni są zawsze niższe niż przesunięcia ku czerwieni QSO w tle, są najliczniejsze w QSO z wysokim przesunięciem ku czerwieni z odpowiednio dłuższą linią wzroku. Dominują w nich linie z podstawowego przejścia obojętnego wodoru, Lyα λ 1215. Linie te, znane jako "las Lymana α", dostarczają wielu informacji na temat rozmieszczenia zimnej materii we wszechświecie. Zakres gęstości kolumn w tych układach absorbujących jest szeroki, NH ≈ 1013-1021 cm-2, tak że cechy metali, Mg II λ 2798, C IV λ 1549 i przerwy graniczne Lymana są obserwowane w podzbiorze. Przy wysokim przesunięciu ku czerwieni, gdzie tylko najjaśniejsze źródła, głównie QSO, są dla nas widoczne, las Lyman α zapewnia nam jedyny widok na zimną materię i dlatego jest bardzo ważnym oknem na wczesny Wszechświat dla badań kosmologicznych. Najciekawsza klasa absorberów, jeśli chodzi o badania QSO, jest związany z wewnętrznymi absorberami. Są to systemy linii metalowych o dużej gęstości kolumn, które występują w ponad 50% wszystkich AGN i których przesunięcie ku czerwieni jest bliskie, a czasem nawet nieco większe niż QSO tła. W widmach optycznych UV o wystarczająco wysokiej rozdzielczości (≲ 5Å) linie są często widoczne w szerokich profilach linii emisyjnych. Utrudnia to ich badanie, ponieważ ani ich profile, które często obejmują wiele składników, ani linie emisyjne, które pochłaniają, nie są znane. Wymagane są dane o wysokiej rozdzielczości i stosunku sygnału do szumu, a nawet wtedy niepewność jest zwykle wysoka. Uważa się, że absorpcja pochodzi z materiału znajdującego się blisko jądra QSO i poruszającego się względem niego, zwykle w kierunku na zewnątrz. Wykazują one zakres jonizacji od niskiego, gdzie dominuje Mg II, do wysokiego, gdzie przeważa C IV lub nawet O VI λ 1034. Uważa się, że te pochłaniacze o wysokiej jonizacji również odpowiedzialne za omówione poniżej pochłaniacze ciepła promieniowania rentgenowskiego.

Ciepłe pochłaniacze promieniowania rentgenowskiego

Obszar widmowy miękkiego promieniowania rentgenowskiego jest silnie uzależniony od absorpcji atomowej z powodu dowolnego materiału wzdłuż linii wzroku między nami a źródłem promieniowania rentgenowskiego w samym AGN. Nasza Galaktyka ma znaczną gęstość kolumn neutralnej (zimnej) materii, której sygnatura jest obecna w widmach miękkiego promieniowania rentgenowskiego AGN (w zakresie 0,1-5 keV). Galaktyka gospodarza AGN tworzy podobny podpis. Oprócz tej zimnej absorpcji, w miękkich widmach rentgenowskich często obserwuje się absorpcję przez zjonizowany (ciepły) materiał. Na ogół świadczy o tym obecność silnej absorpcji na krawędzi (krawędziach) silnie zjonizowanego tlenu (O VII lub O VIII) lub, w przypadku danych o niższej rozdzielczości, "wyciek" miękkich fotonów powyżej oczekiwań dotyczących zimnej absorpcji od nieprzezroczystość niskoenergetyczna zmniejsza się wraz ze wzrostem jonizacji. Wszystko wskazuje na to, że wszystkie lub prawie wszystkie QSO wykazujące ciepłą absorpcję promieniowania rentgenowskiego mają również powiązane linie absorpcyjne w UV, które obejmują linie o wysokiej jonizacji, takie jak OVI i NV λ 1240. Niedawne prace wykazały, że wypływający materiał o dużej gęstości kolumn może wytwarzać zarówno właściwości rentgenowskie, jak i UV takich absorberów. Wynikająca z tego kombinacja ograniczeń związanych z promieniowaniem UV i promieniowaniem rentgenowskim nałożonym na materiał pochłaniający zapewniła nam bezprecedensowo skuteczną diagnostykę absorbera. Wydaje się, że jest to materiał o dużej gęstości kolumnowej (NH ≈ 1020-22 cm-2), wypływający z regionu centralnego przy prędkościach ∼100-1000 km s-1, położone między BLR i NLRat ≈1017 cm i często zawierające kilka odrębnych składników w ramach pojedynczego systemu.

Szerokie linie absorpcyjne

Najbardziej dramatycznymi cechami absorpcji widocznymi w widmach UV-optycznych QSO są szerokie linie absorpcyjne (BAL) . Są to wewnętrzne absorbery o wysokiej gęstości kolumnowej (NH ≈ 1020-23 cm-2) wypływające z jądra QSO. Mają zakres jonizacji (stąd C IV lub Mg II BAL) i szeroki zakres prędkości, czasami zbliżający się do ∼10% prędkości światła. Absorpcja generalnie zawiera dużo struktury, chociaż niewielki podzbiór ma gładkie profile typu P-Cygni, co wskazuje na gładki, kulisty odpływ. Ponieważ pochłaniają tak dużo kontinuum QSO i emisji liniowej, bardzo trudno jest je badać ilościowo. Widma o wysokiej rozdzielczości i wysokim stosunku sygnału do szumu są niezbędne wraz ze szczegółowym modelowaniem zarówno cech emisji, jak i absorpcji w celu uzyskania informacji o gęstościach kolumn w funkcji prędkości dla tego materiału. Interpretacja generalnie dotyczy turbulentnego, odpływającego wiatru w pobliżu jądra QSO i obejmującego znaczną część centralnego źródła kontinuum i BLR. Źródła te są powszechnie emiterami słabego promieniowania rentgenowskiego, w większości niewykrywanymi do granic znacznie niższych niż inne QSO. Silna absorpcja obserwowana w tych nielicznych wykrytych do tej pory prowadzi do interpretacji w kategoriach absorpcji emisji promieniowania rentgenowskiego przez ten sam, wypływający wiatr i sugeruje, że gęstość kolumn jest na górnym końcu podanego zakresu.



Aktywne galaktyki: obserwacja ich zmienności przez amatorów

Amatorzy zaczęli interesować się obserwacjami jaśniejszych aktywnych jąder galaktycznych (AGN) stosunkowo wkrótce po ich odkryciu pod koniec lat 60. XX wieku, chociaż niewielką ich liczbę zaobserwowano tak, jakby wcześniej obserwowano gwiazdy zmienne. Czołowi amatorzy obserwowali zatem jaśniejszych AGN od ponad pięciu dekad monitorują zmiany ich jasności. Ponadto wielu obserwatorów rekreacyjnych wyśledziło wizualnie te słabe plamki, szczególnie 3C273 w Pannie, i zdumiało się tym widokiem, chociaż nie tyle ich wyglądem, ile ich niezwykłą naturą. Pierwszy formalny skoordynowany program dla amatorów monitorowania AGN rozpoczął się w Wielkiej Brytanii pod koniec lat 70-tych. Sekcja Gwiazd Zmiennych Brytyjskiego Stowarzyszenia Astronomicznego dodała do swojego programu 3C273, NGC 4151 i Markarian 421. Były one monitorowane wizualnie, jak słabe gwiazdy zmienne. Wraz ze wzrostem apertury teleskopowej w latach 80. do programu dodano więcej AGN. Zainteresowaniem zainteresowała się organizacja Astronomer, która dodała tę klasę obiektów do swojego programu, który pozostaje aktywny - obserwacje do dziś publikowane są w miesięczniku The Astronomer. Potencjał poważnych prac fotograficznych odkryto pod koniec lat 80. XX wieku, a technika umożliwiła dodanie kilku słabszych przykładów, które były zbyt słabe dla większości obserwatorów wizualnych. Był to ograniczony sukces, trudności w patrolowaniu fotograficznym ograniczały popularność. Dopiero pojawienie się URZĄDZENIA CHARGE-COUPLED DEVICE (CCD) i jego dostępność dla amatorów umożliwiły kolejny impuls do obserwacji AGN. Nie ma wątpliwości, że interesuje się zawodowo obserwacjami amatorskimi - wsparcie i zachętę udzieliło kilku międzynarodowych astronomów, CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW. Ogólne cele amatorskich obserwacji AGN są trojakie:

•  monitorowanie widocznych zmian jasności dostępnych AGN ;
•  zmierzyć takie zmiany i zbudować możliwie najdokładniejszą krzywą blasku w zakresie widzialnych długości fal;
•  ostrzeganie zawodowych astronomów o niezwykłej i przewidywanej aktywności będącej przedmiotem zainteresowania oraz regularne przeprowadzanie rutynowych obserwacji.

W celu możliwie częstego monitorowania jak największej liczby AGN stworzono skoordynowany program. Obecnie dla dobrze wyposażonego amatora dostępnych jest ponad 20 AGN. Chociaż większość z nich jest stosunkowo słaba, kilka jest dostępnych wizualnie dla skromnych teleskopów i wszystkie powinny być dość proste cele dla użytkowników CCD. Zachęca się obserwatorów do prowadzenia obserwacji tak regularnie, jak pozwala na to niebo i warunki. Prawie wszystkie AGN w programie są wykreślone w Uranometria 2000, chociaż niektóre mają alternatywne oznaczenia w stosunku do bardziej popularnych terminów. Jednakże użycie współrzędnych powinno umożliwić identyfikację bez trudności. Po zlokalizowaniu jasność AGN można oszacować lub zmierzyć wizualnie, fotograficznie lub za pomocą CCD. Każdy ma swoje zalety i problemy. Na korzyść podejścia wizualnego przemawia możliwość obserwacji kilku obiektów w sesji; wyniki uzyskuje się szybko, a sprzęt jest stosunkowo niedrogi, chociaż realistycznie rzecz biorąc, w przypadku tak słabych obiektów potrzebna jest większa apertura. Jednakże teleskop nie musi być montowany równikowo. Naprzeciw tym zaletom stoją problemy związane ze znalezieniem stosunkowo słabych obiektów z miejsc odbiegających od idealnych, przy problematycznych warunkach nieba, spowodowanych zanieczyszczeniem światłem, bimberem, wysokimi cirrusami i tak dalej. Niezbędne jest doświadczenie w pracy z gwiazdami zmiennymi. Nieuchronnie pojawia się pewna stronniczość obserwatora, chociaż można to skompensować, podobnie jak w przypadku innych obserwacji gwiazd zmiennych. Nawet jeśli sama AGN nie stanowi większego problemu, słabsze gwiazdy porównania mogą okazać się trudne. Choć liczba dostępnych AGN jest ograniczona, posiadacze teleskopu o średnicy 16 cali lub większej mogą obserwować ich jeszcze kilkanaście. Wydaje się, że fotografia zmniejsza niektóre z tych barier. Można osiągnąć słabsze jasności, dzięki czemu dostępne będą bardziej aktywne galaktyki i łatwiej będzie uzyskać porównania. Osobiste uprzedzenia są zmniejszone, a wyniki można łatwo wyświetlić i odtworzyć. Jednakże niezbędny staje się teleskop równikowy lub napędzany, co zwiększa zaangażowanie finansowe. Aby uzyskać dokładne wyniki, na które zasługuje czas i nakłady finansowe, konieczna staje się standaryzacja i formalny pomiar. Wymagałoby to od obserwatora użycia standardowej kliszy (w przeszłości zalecano Kodak 103aB, ale jest on trudno dostępny i trzeba testować inne emulsje). Pożądane są również filtrowane obrazy, a do dokładnego oszacowania wielkości idealne są pomiary mikrodensytometryczne. Dodaj do tego żmudny proces samej fotografii i pracę w ciemni, a być może zrozumiałe jest, że programy fotograficzne końca lat 80. tak naprawdę nigdy nie doszły do skutku. Szansa na odkrycie nowej lub supernowej często stanowi odpowiednią zachętę do zaangażowania się w prace patrolowe, ale monitorowanie istniejącego obiektu rok po roku jest być może mniej kuszące. Odpowiedzią na to pytanie wydaje się być rewolucja CCD. Obrazy wykonane przy użyciu matryc CCD mogą sięgać bardzo głęboko, nawet przy niewielkich przysłonach. Wiele AGN jest dostępnych dla posiadaczy 10 teleskopów wyposażonych w matrycę CCD. Znalezienie obiektów z mniejszymi chipami CCD było kiedyś niezwykle trudne, ale nowoczesne udogodnienia GoTo w wielu nowoczesnych teleskopach oznaczają, że można z pewnością znaleźć pole, a następnie zidentyfikować AGN na mapach i sfotografować go naprawdę dość szybko oraz wykonać pomiar. Oprogramowanie komputerowe staje się coraz bardziej wyrafinowane i przy zachowaniu ostrożności powinna być możliwa fotometria z dokładnością do około 0,1 magnitudo. Dane można łatwo przechowywać na dysku i odtwarzać w dowolnym czasie. Dzięki szybkiemu porównaniu z obrazem wzorcowym możliwe jest wykazanie znaczących zmian jasności. Ten szczęśliwy stan rzeczy łagodzony jest koniecznością wydania sporej sumy pieniędzy na sprzęt. Oprócz teleskopu napędzanego na wyposażeniu znajduje się kamera CCD i komputer oraz niezbędne oprogramowanie. Zatem uzyskanie pierwszego znaczącego obrazu CCD AGN może kosztować obserwatora kilka tysięcy dolarów. Ponadto nie wszystkie matryce CCD mają tę samą czułość. Większość z nich ma odchylenie czerwone, co zniekształca wyniki, ale różne aparaty mają różne profile, więc aby fotometria była naprawdę użyteczna dla profesjonalistów, coraz wyraźniej widać, że potrzebna jest filtracja (patrz CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW, FILTRY ). Ostatecznie dopuszczalne może być użycie tylko filtrów B i V, nawet jednego z nich. Jednak proste monitorowanie bez fotometrii nie wymaga obrazów z filtrem, co może być nadal przydatne, nawet jeśli obserwator nie ma dostępu do żadnych filtrów. Obecnie większość obserwacji ma charakter wizualny, z pewnymi obrazami CCD, ale w miarę zwiększania się liczby użytkowników CCD poszukujących poważnych projektów, nacisk może się zmienić. AGN stanowią wspaniałe wyzwanie dla poważnego obserwatora-amatora, który pragnie wnieść swój niewielki wkład w dziedzinę nauki, w której profesjonaliści chętnie przyjmą pomoc, jeśli zostanie ona udzielona ostrożnie. Choć nie zapewniają zbyt wielu spektakularnych widoków, AGN pobudzają wyobraźnię w sposób równie satysfakcjonujący dla dociekliwego umysłu. Techniki są udoskonalane, jakość wyników będzie coraz bardziej udoskonalona, a badania najgłębszych obiektów głębokiego nieba wkrótce nabiorą tempa.


Aktywne galaktyki: Przegląd

Zdefiniowanie "AKTYWNEGO JĄDRA GALAKTYCZNEGO" (AGN) może być trudne. Ostatnie dwa słowa są stosunkowo proste, ponieważ AGN jest wydarzeniem energetycznym, którego nigdy nie można znaleźć nigdzie we wszechświecie, z wyjątkiem centralnych parseków galaktyki. Nie jest to zaskakujące, ponieważ jakiekolwiek tarcie dynamiczne powinno wkrótce zmusić bardzo masywny, zwarty obiekt do osadzenia się w centrum galaktycznego pola grawitacyjnego ma potencjał. Mówi się, że JĄDRO AGALAKTYCZNE jest "aktywne", jeśli generuje "znaczną" (lub wykrywalną) ilość energii w wyniku procesów innych niż te występujące gdziekolwiek indziej w galaktykach. Oznacza to, że energia "aktywności" nie jest wytwarzana w wyniku ewolucji gwiazd i materii międzygwiazdowej. Definicja ta jest czysta, ponieważ jest teoretyczna. Rzeczywiste zadanie obserwacyjne polegające na identyfikacji AGN może być trudne, zwłaszcza gdy aktywność gwiazd pozagwiazdowych jest słaba w porównaniu z tłem normalnych procesów gwiezdnych, w tym narodzin i śmierci. Znacząca klasyfikacja AGN jest trudniejsza. Zrozumienie ich fizycznej natury jest jeszcze trudniejsze. Problemy są jeszcze bardziej skomplikowane, ponieważ aktywność niegwiazdowa uwalnia energię w wielu postaciach i przy długościach fal fotonów obejmujących prawie całe widmo elektromagnetyczne. Ponieważ instrumenty i metody obserwacyjne różnią się znacznie w zależności od pasma fal, zaproponowano wiele nakładających się schematów i modeli klasyfikacji specyficznych dla długości fali. Nic dziwnego, że astronomowie jako pierwsi dowiedzieli się o bardziej spektakularnych i świetlistych przykładach AGN. Jądra te były na tyle jasne, że mogły przyćmić całą galaktykę, w której się znajdowały. Były też bardzo odległe i często nie było możliwe, zanim bardzo czułe obrazowanie wykryło otaczającą galaktykę, odróżnienie ich wyglądu optycznego od wyglądu gwiazdy. Doprowadziło to do określenia ich jako obiektów quasi-gwiazdowych. Niektóre z pierwszych z nich były także potężnymi źródłami radiowymi i wkrótce termin ten został skrócony do "kwazaru", który obecnie ogólnie odnosi się do wszystkich AGN o dużej jasności. Ich wyjątkowa natura stała się bardziej oczywista, gdy badano ich widma, w niemal każdym obszarze długości fali. Te unikalne właściwości odkryto obecnie w aktywnych jądrach o niezwykłym zakresie jasności1. Istnieją jedynie zaskakująco subtelne różnice spektroskopowe pomiędzy kwazarem o jasności 1048erg s-1 a tym, co wcześniej zidentyfikowano jako "jądro galaktyki Seyferta" o jasności 1042erg s-1. Dowody są przytłaczające, że te dwie kategorie astronomiczne muszą mieć jedno wspólne wyjaśnienie fizyczne. Dlatego dzisiaj prawie nie dokonuje się rozróżnienia między "kwazarem" a "jądrem Seyferta 1", ponieważ ich główna różnica polega (nieco arbitralnie) na ich jasności.

Zrozumienie silnika centralnego w AGN

Istnieje kilka kluczowych pomysłów, które są wykorzystywane do organizowania i nadania sensu naszym obszernym i rosnącym informacjom obserwacyjnym na temat AGN.

Ujednolicone modele

Od najwcześniejszych badań AGN uznano, że mogą one wykazywać silne różnice obserwacyjne pomimo wielu innych podobieństw. Wydaje się, że dwie cechy mają wystarczająco bimodalny rozkład, aby uzasadnić użycie ich do podziału AGN na dwie pary klas: silna emisja radiowa (która odróżnia radiogłośną (RL) od radiosłabej (RW)AGN) i szeroko dozwoloną emisję liniową (która odróżnia jądra Seyferta typu 1 od typu 2). Większość kwazarów to jedynie umiarkowanie silniejsze źródła radiowe niż zwykłe galaktyki. (Czasami określa się je jako ciche radiowo (RQ) AGN, choć ściśle mówiąc szczerze, emitują pewien strumień radiowy, więc RW jest dokładniejszym opisem.) Ważna mniejszość kwazarów jest dobrze znana z wiązek wysokoenergetycznych cząstek, które przyspieszają. Emisja radiowa z tych odrzutowców jest prawie zawsze dwubiegunowa, co jest kluczowym wskaźnikiem tego, że silnik centralny może mieć symetrię osiową. W wielu modelach ta oś dżetu jest osią obrotu centralnej masywnej czarnej dziury. Najbardziej dramatyczna podpróbka RLAGN, "blazary" (luźno nazwana na cześć prototypowego obiektu BL Lacertae), silnie spolaryzowane, gwałtownie zmienne, strome czerwone kontinuum, została zidentyfikowana jako nietermiczna emisja synchrotronowa. Blazar to nieformalny termin używany do określenia prototypowych nietermicznych obiektów BL Lacertae (z bardzo słabymi liniami emisyjnymi), a także gwałtownie zmiennych optycznie kwazarów. Mapy interferometryczne pokazały, że emisja radiowa zdominowana przez jądro generalnie miała jednostronny dżet, który często wydaje się rozszerzać z pozornymi prędkościami poprzecznymi kilka razy większymi niż ok. Najbardziej ekstremalne z tych obiektów wydają się emitować znaczną część swojej energii w postaci promieni gamma, a być może nawet do energii TeV. Wszystkie te niezwykłe (i wyraźnie niegwiazdowe) właściwości blazarów zostały wkrótce zrozumiane jako wynik obserwacji relatywistycznego strumienia (elektronów i protonów lub pozytonów), który wyłania się z aktywnego jądra blisko naszej linii wzroku. Ten niemal "biegunowy" kąt widzenia powoduje kilka efektów relatywistycznych, takich jak wzmocnienie Dopplera "wiązki" emisji synchrotronowej i kompresja pozornych skal czasowych, co uwzględnia "ruch nadświetlny" bez naruszania szczególnej teorii względności. Jednostronny charakter najbardziej wewnętrznych dżetów przypisuje się zwykle "faworyzowaniu Dopplera". Jeśli obecnie występuje wypływ w przeciwnym kierunku (co przewidują niektóre modele teoretyczne, ale jeszcze nie zostało potwierdzone), jest on niewidoczny, ponieważ dewzmocnienie Dopplera powoduje, że jest on tysiące razy słabszy. Bezpośrednią konsekwencją wyjaśnienia RL AGN zdominowanego przez jądro jest to, że więcej AGN ze strumieniami radiowymi musi być skierowanych w stronę od Ziemi. Muszą one być wykrywalne na podstawie ich emisji izotropowej (linie lub rozległe płatki radiowe) jako RLAGN zdominowane przez płatki lub być może "radiogalaktyki" (których właściwości optyczne mogą obejmować obszary linii emisyjnych Sefyert 2 lub nawet obszary linii emisyjnych o niskiej jonizacji (LINER)). Linie emisyjne (niepromieniowane) mogą być wykrywalne lub nie, ale są trudniejsze do wykrycia w świetle wzmocnionego kontinuum nietermicznego strumienia. Badania te wykazały, że centralny silnik w AGN (przynajmniej RL) ma silną symetrię bipolarną, która została zachowana przez miliony lat lub dłużej w największych dwupłatowych źródłach radiowych. Udowodnili także, że obserwacyjny wygląd RLAGN może w ogromnym stopniu zależeć od kąta patrzenia. Jednakże nie jest jeszcze pewne, w jakim stopniu te same spostrzeżenia można przenieść do większości AGN, którymi są RW. Szerokie dozwolone linie emisyjne są zwykle uważane za jedną z cech charakterystycznych AGN. Powstają z fotojonizowanego gazu o dużej gęstości. Ich wysoki stan jonizacji i duży zakres prędkości wskazują, że powstają one w "obszarze szerokiej linii" (BLR) stosunkowo blisko centralnego silnika. Jednakże na każdą szerokoliniową AGN o danej jasności (sklasyfikowaną jako "Seyfert 1") przypada co najmniej jedno jądro galaktyczne, które w innym przypadku mogłoby zostać sklasyfikowane jako Seyfert, ale które nie ma emisji szerokoliniowych i jest klasyfikowane jako "Seyferta 2". W Seyfert 2 bezpośrednie oglądanie centralnego silnika i otaczającego go BLR jest trudne lub niemożliwe. W niewielkiej liczbie przypadków występują mocne dowody na istnienie silnika centralnego w postaci silnie pochłoniętego (NH ∼ 1023 cm-2) źródła kontinuum twardego promieniowania rentgenowskiego lub szerokich skrzydeł linii emisyjnej Balmera widocznych w widmie liniowym polaryzowane światło. Mniej bezpośrednim dowodem jest wykrycie emisji fluorescencyjnej z linii rentgenowskiej K? przy 6,4 keV. W niektórych Seyfertach 2 bardzo duża równoważna szerokość tej linii (około rząd wielkości większa niż w niezasłoniętych Seyfertach 1) jest interpretowana jako zasilana przez jądrowe źródło twardego promieniowania rentgenowskiego, z którego praktycznie nic nie jest widoczne wzdłuż naszej bezpośredniej odległości. linii wzroku do jądra. Podobny argument wysunięto na podstawie spektroskopii UV: zsumowanie wszystkich fotonów jonizujących wywnioskowanych z kontinuum UV wydaje się niewystarczające, aby uwzględnić cały wykryty strumień linii emisyjnej Seyferta, a zwłaszcza kontinuum podczerwieni powiązane z aktywnym jądrem. Zakładając, że kontinuum 2-10 μm w Seyfercie 1s i 2s to energia AGN, która została ponownie wypromieniowana przez ziarna pyłu (patrz sekcja "Przetwarzanie" poniżej), w Seyfercie 2 sugeruje się jeszcze więcej niewidocznej mocy niegwiazdowej. Ten "deficyt energii" przemawia za wysokoenergetycznym źródłem energii, które jest obecne, ale nie jest bezpośrednio obserwowalne. Jednakże argumenty te nie są rozstrzygające. Rachunek energii obarczony jest wieloma dużymi niepewnościami i istnieją inne wiarygodne wyjaśnienia linii emisyjnej K?, które nie wymagają istnienia zakopanego źródła promieniowania rentgenowskiego AGN. Chociaż trudno jest uzyskać bardzo czułe obserwacje wymagane w tych testach, wiele dokładnych obserwacji nie ujawniło żadnych bezpośrednich dowodów na niegwiazdowe kontinuum z centralnego silnika. Bardziej rozbudowane wskazania widoczne w tych Seyfertach 2 - linie wąskoemisyjne i źródła radiowe - mogły zostać wygenerowane przez AGN, który "wyłączył się" wieki temu. Rodzi to empiryczne pytanie, czy większość jąder Seyferta może włączać się i wyłączać na przestrzeni wieków. Chociaż żadnej nie obserwowano przez tak długi czas2, w ciągu dziesięcioleci obserwacji zaobserwowano bardzo niewiele kompletnych przejść Seyferta 2 ⟷ Seyferta 1. Niemniej jednak założenie ujednolicenia jest takie, że wszystkie Seyferty 2 mają obecnie aktywny silnik centralny, który jest po prostu bardzo zasłonięty. Nawet jeśli ujednolicenie jest ogólnie prawidłowe, wymaga po prostu optycznie gęstego gazu, co wiąże się z bardzo dużą ekstynkcją pyłu, pomiędzy nami a jądrami galaktyk Seyferta 2. Wiadomo jedynie, że ten zasłaniający obszar musi być wystarczająco duży, aby zakryć szeroki obszar linii emisyjnej, widziany przez znaczną część linii wzroku centralnego silnika3. Podobnie ziarna pyłu muszą przechwycić znaczną część centralnego kontinuum i ponownie je napromieniować, aby wytworzyć silną emisję w bliskiej do średniej podczerwieni, charakterystyczną dla jąder Seyferta 1 i 2. Popularna specjalna wersja unifikacji proponuje, aby ta pochłaniająca materia była silnie niesferyczna i rozmieszczona w grubym torusie (o charakterystycznej średnicy od parseków do dziesiątek parseków), który jest współosiowy z centralnym silnikiem. W modelu grubego torusa brak materiału zasłaniającego nad biegunami torusa umożliwia fotonom z centralnego silnika jądrowego rozproszenie się w wyraźnej linii wzroku do Ziemi. Rezultatem byłoby rozproszone widmo jądrowe - szerokie linie emisyjne i kontinuum niegwiazdowe - które obserwujemy tylko w świetle spolaryzowanym. Ponieważ torus ma być ustawiony w jednej linii z osią centralnego silnika, wektor polaryzacji E powinien być równoległy do osi radiowej. Ta ostatnia jest trudna do zmierzenia, ale jest w przybliżeniu równoległa do polaryzacji w niektórych z najlepiej zmierzonych Seyferta 2. Kolejnym słabym dowodem na preferowaną "oś ucieczki" dla jonizujących fotonów AGN jest luźna tendencja do tego, że rozszerzone zjonizowane linie emisyjne w Seyfercie 2 pochodzą z dwubiegunowych "stożków". Jednakże w wielu Seyfert 2 istnieją dowody (np. z obrazowania HST), że zamiast tego dużo zaciemnienia występuje w galaktycznych pasach pyłowych. Zaobserwowano, że mają one rozmiary setek parseków i w ogóle nie są powiązane z centralnym silnikiem, z wyjątkiem tego, że zdarza się, że zasłaniają nam widok. Nadal nie jest jasne, ile, jeśli w ogóle, Seyfertów 1 i 2 rzeczywiście zawiera kompletne, grube tori owinięte wokół centralnych silników.

Emisja cieplna z przepływu akrecyjnego

Uważa się, że ogromne ilości energii wytworzonej z bardzo małych objętości, które obserwuje się w świecących kwazarach, powstają w wyniku akrecji czarnych dziur. Aby uniknąć znacznego przekroczenia granicy Eddingtona, akreujące czarne dziury muszą mieć masy kilku 106 -109 Słońc. Jednak konwersja potencjalnej energii grawitacyjnej napływającej materii na promieniowanie nie jest wcale wydajna, jeśli występuje opad czysto promieniowy. Również ogólne rozważania na temat momenut pędu gazu głęboko w jądrze galaktycznym silnie sugeruje, że przepływ akrecyjny musi w końcu szybko się obracać, ponieważ zbliża się do czarnej dziury. Wtedy możeakreować i zasilać AGN tylko wtedy, gdy doświadcza tarcia. Choć nie jest to jeszcze dobrze poznane, ten kluczowy proces przenosi moment pędu na zewnątrz, umożliwiając zasilenie czarnej dziury. Akrecji tej towarzyszy duże uwolnienie energii radiacyjnej, która zasila AGN. Fakt, że moment pędu jest ważny w przepływie akrecyjnym, potwierdza obserwacja, że silnik centralny jest dwubiegunowy. Jej oś symetrii jest naturalnie zidentyfikowana z osią wirowania przepływu akrecyjnego i jest kierunkiem najbardziej prawdopodobnych wypływów. Istnieją również dowody obserwacyjne na to, że obserwujemy bezpośrednio promieniowanie emitowane termicznie z tego strumienia akrecyjnego, gdy spiralnie wpada on do czarnej dziury. Jedną z charakterystycznych cech widma centralnego źródła kontinuum AGN jest szeroki garb, który wydaje się osiągać szczyt gdzieś w zakresie UV. To przegięcie, określane jako "nadmiar ultrafioletu" lub "duży niebieski guz", często zawiera największą część całkowitej jasności AGN.

Główne argumenty przemawiające za termicznym pochodzeniem tego kontinuum niebieskiego - UV są następujące.

•  Jego kształt widmowy. Szeroki pik w zakresie UV można dopasować poprzez sumę obszarów emitujących ciepło w zakresie temperatur, ze środkiem w okolicach ∼30 000 K. W prostym, optycznie grubym dysku akrecyjnym, jakiego można by się spodziewać w przypadku większości świecących AGN, temperatura termiczna przepływ akrecyjny jest proporcjonalny do r-3/4. Po uwzględnieniu poprawek relatywistycznych suma emisji cieplnej z pierścieni o różnych promieniach daje widmo z szerokim pikiem, które jest płaskie w jednostkach gęstości strumienia (F? = stała) i ma obrót o wysokiej częstotliwości. Modele, które traktują dysk jako sumę ciał doskonale czarnych, zapewniają wyjątkowo dobre dopasowanie do wszystkich rozkładów energii widmowej optycznej i UV obserwowanych w AGN.
•  Częstotliwość szczytowa. Efektywna temperatura przepływu akrecyjnego jest w przybliżeniu określona przez równowagę pomiędzy grawitacyjną energią potencjalną uwolnioną w wyniku akrecji lepkiej a emitowanym promieniowaniem4. W cienkim dysku warunek ten wynosi Tackrecja = (3GMbhM˙/8πr3)1/4 = (30 000K) (M8)1/4(L/LEddington)1/2. Jasności i częstotliwości szczytowe obserwowane w widmach kontinuum jąder Seyferta 1 i kwazarów są zgodne z temperaturami równowagi przewidywanymi dla akrecji dysku. Wymagane odpowiednie szybkości opadania masy wynoszą ∼ kilka procent i ∼ dziesiątki procent wartości granicznej Eddingtona dla wywnioskowanych mas czarnych dziur

Nawet w przypadku najwyższych możliwych wartości lepkości (odpowiadających najszybszemu dopływowi) akrecji. W rzeczywistości momenty lepkie transportują część tej energii potencjalnej na zewnątrz, ale większość z niej powinna ostatecznie wyłonić się w postaci fotonów. Powyżej szybkości akrecji Eddingtona dysk powinien nieco pogrubić, ale jego ogólne właściwości obserwacyjne mogą nie ulec znaczącym zmianom. nadal oczekuje się, że przepływ będzie bardzo nieprzezroczysty dla rozpraszania elektronów i prawdopodobnie będzie faktycznie gruby optycznie (τefektywny = (τesτff)1/2 > 1). Najlepszym obserwacyjnym dowodem na to jest wysoka wnioskowana emisyjność gazu emitującyego kontinuum UV. Prawdą jest, że optycznie cienkie modele termiczne mogą również pasować do obserwowanego kontinuum optyczno-UV. Charakterystyczne temperatury emisji bremstrahlung musiałyby wynosić 100 000 K lub więcej, ponieważ szczyty emisji wolnych i wolnych gazów osiągają przy około νthin = kT /h, a nie wyższej wartości dla funkcji Plancka: νthick = 3kT /h. Linie emisji EUV, których można się spodziewać z tak jasnej plazmy jeszcze nie zaobserwowano. Najpoważniejszą trudnością związaną z hipotezą free-free jest wyjaśnienie, w jaki sposób bardzo duża jasność kontinuum kwazara jest emitowana z małego obszaru. Aby jasność UV świecącego kwazara, takiego jak 3C 273, zmieniała się w wielomiesięcznych skalach czasowych, potrzebny jest mały obszar emitujący ciepło o wysokiej emisyjności, w rzeczywistości tak wysokiej, że emiter musi mieć głębokość optyczna przekraczająca 1. W tym momencie emitowane widmo będzie bardziej przypominało emisję optycznie gęstą niż optycznie cienkie widmo Lν ∝ exp(?h?/kT ). Główne ograniczenia lub niekompletność modelu cienkiego dysku akrecyjnego to słabość wszelkich obserwowanych cech widmowych na granicy Lymana, mała ilość polaryzacji liniowej oraz dowody monitorowania wielofalowego dotyczące ponownego przetwarzania, omówione w następnej sekcji. Widmo wychodzące z dysku akrecyjnego przy danym promieniu zależy od pionowej struktury "atmosfery" dysku. Pierścień dysku akrecyjnego różni się radykalnie od atmosfery jakiejkolwiek gwiazdy, ale ostatnio stało się możliwe obliczeniowo stworzenie realistycznych modeli widma wschodzącego innego niż LTE. Wiele pierścieni dysku emitujących promieniowanie UV ma wystarczająco niskie temperatury, aby nadal zawierać pewną część obojętnego wodoru. Powinno to prowadzić do gwałtownego wzrostu nieprzezroczystości wolnej od wiązań wzdłuż krawędzi Lymana. Niektóre modele przewidują, że doprowadzi to do skoku widmowego, przy czym strumień powyżej granicy Lymana będzie wyższy lub niższy niż strumień poniżej. Nieciągłości tych na ogół nie obserwuje się. Nieprzezroczystość dysku akrecyjnego jest prawdopodobnie zdominowana przez rozpraszanie elektronów. Czysta atmosfera rozpraszająca elektrony o nieskończonej głębokości optycznej, oglądana przy średnim nachyleniu cos i = 0,5, powinna emitować kontinuum termiczne, które jest spolaryzowane liniowo prawie 3%. Kąt położenia wektora elektrycznego powinien być równoległy do rzutowanej głównej osi dysku - prostopadły do osi obrotu dysku. Jednakże obserwacje pokazują, że większość polaryzacji AGN wynosi poniżej 0,5% w zakresie UV. Ponadto w przypadkach, w których można zdefiniować "oś" radiową, zazwyczaj nie jest ona prostopadła do wektora E strumienia spolaryzowanego. Największą niepewnością w tym teście są założenia, że powierzchnia dysku jest idealnie płaska i że pola magnetyczne w dysku są na tyle małe, że nie powodują zauważalnej rotacji Faradaya. Jedną z wad prostych modeli cienkiego dysku akrecyjnego, która może być powiązana z tymi konfliktami obserwacyjnymi, jest prawdopodobna obecność gorącej, optycznie cienkiej korony nad fotosferą powierzchni dysku. Szybkie elektrony w tym gazie o małej gęstości mogą komptonizować fotony termiczne uciekające z gęstego dysku, modyfikując ich widmo i polaryzację.

Utylizacja

W najprostszych modelach dysku akrecyjnego cała energia cieplna emitowana przez dysk pochodziła bezpośrednio z energii potencjalnej grawitacji, która jest transportowana na zewnątrz przez lepkie momenty obrotowe. Wiemy jednak, że AGN emituje również do 10% lub 20% swojej jasności przy częstotliwościach rentgenowskich. Te energie fotonów są zbyt wysokie, aby można je było łatwo wytłumaczyć paradygmatem termicznego dysku akrecyjnego, a ich strumień w pobliżu centrum jest bardzo duży. W zależności od geometrii część promieni rentgenowskich może zostać ponownie wchłonięta przez gęsty optycznie gaz akrecyjny, zanim uda im się uciec. Aby wyjaśnić garb "odbicia Comptona" obserwowany wokół 10-30 keV, prawdopodobnie wymagana jest pewna absorpcja promieni rentgenowskich. Przypuszcza się, że przyczyną powstania silnej linii emisyjnej Fe K? obserwowanej w wielu AGN jest ponowne przetwarzanie promieni rentgenowskich. Ponowne przetwarzanie fotonów o promieniach znacznie większych niż te, z których pochodzą, ma tendencję do degradacji energii uciekających fotonów. W najprostszym przypadku, gdy równowaga temperatury ciała doskonale czarnego materii poddawanej ponownemu przetworzeniu spada jako Tequil &prop L1/4r-1/2 (gdzie L jest jasnością centralnego źródła punktowego), powstałe widmo kontinuum termicznego ma tendencję do stromego opadania do nachylenia Lν ∝ ν?-1. Musi nastąpić pewne ponowne przetwarzanie; główne pytania brzmią: gdzie i za ile? Odpowiedź na pierwsze pytanie jest łatwa, zakładając, że zaabsorbowane fotony ulegają termizacji: promień ponownego przetwarzania określa poziom Tequil powstającego promieniowania, który powinien wynosić około kilku hν/kTequil. Na drugie pytanie można odpowiedzieć, jeśli potrafimy zmierzyć ułamek całkowitej ilości energii, która została pochłonięta. Jeśli założymy, że materia powtórna (gaz i pył, jeśli Tequil ma temperaturę poniżej 1000 K) jest nieprzezroczysta dla przychodzących fotonów o wysokiej energii, wówczas budżet energii może nam powiedzieć, jaki jest jej całkowity ułamek pokrycia nieba, tj. ułamek nieba widziany przez centralne kontinuum "źródło punktowe", które jest pokryte absorberami. Z definicji przetworzona jasność nie może przekraczać jasności pierwotnego źródła kontinuum wysokiej energii w centrum. W rzeczywistości jest mało prawdopodobne, aby ich jasność była w ogóle równa, ponieważ oznaczałoby to, że 100% linii wzroku prowadzących do środka jest zablokowanych, a w takim przypadku nie powinniśmy w ogóle widzieć tego bezpośrednio. Najlepszym obserwacyjnym dowodem ponownego przetwarzania jest wykazanie, że zmienność czasowa w pierwotnym paśmie fali jest następnie powielana przez te same zmiany strumienia na długości fali poddanej ponownemu przetwarzaniu, z wyjątkiem opóźnienia. Czas opóźnienia w tym "pogłosie" powinien być równy czasowi potrzebnemu światłu na podróż przez obszar, którego promień jest określony przez wartość Tequila oczekiwaną dla długości fali ponownie przetworzonego kontinuum. Najlepszym dowodem na ponowne przetwarzanie jest kontinuum bliskiej podczerwieni, które niesie ze sobą znaczną część (20% lub więcej) całkowitego budżetu energetycznego większości AGN. W kilku przypadkach jednoczesne monitorowanie bliskiej podczerwieni i kontinuum optycznego lub UV wykazało oczekiwane skorelowane rozjaśnianie i blaknięcie. Opóźnienie krzywej blasku w podczerwieni w stosunku do krzywej blasku przy krótszych falach jest zgodne z reemisją termiczną przez ziarna gorącego pyłu w ciągu roku świetlnego (lub nawet miesiąca świetlnego) centralnej elektrowni. Reakcją są głównie najgorętsze ziarna, które przeżywają w temperaturze tuż poniżej temperatury sublimacji wynoszącej około 1000-1500 K. Odległość od centralnego silnika, w której pył osiąga tę temperaturę, jest proporcjonalna do pierwiastka kwadratowego z centralnej jasności, co wyjaśnia zakres oczekiwanego promienia pogłosu pyłu. Mniej zdecydowane dowody sugerują, że część kontinuum optycznego, a być może nawet kontinuum UV, w niektórych jądrach Seyferta 1, może mieć wymierny udział ponownie przetworzonych promieni rentgenowskich. Dzieje się tak na kilku dobrze próbkowanych krzywych rentgenowskich i optycznych-UV, w których wykryto korelację i opóźnienie. Opóźnienia są tak małe, że sugerują, że wpływ fotonów o wysokiej energii rozprzestrzenia się na zewnątrz, do obszaru emitującego niską energię, z bardzo dużą prędkością. Opóźnienia są zgodne z tą prędkością wynoszącą c, tak jak powinno być, jeśli wpływ przenoszą fotony, które są następnie ponownie przetwarzane. Jednakże zmienność promieni rentgenowskich (w innych galaktykach, a także w niektórych galaktykach Seyferta 1 w innych epokach) często nie jest skorelowana ze zmianami na innych długościach fal, co budzi wątpliwości, czy duża część światła optyczno-UV w większości AGN jest w rzeczywistości przetwarzany na podstawie promieni rentgenowskich.

Wpływ galaktyk macierzystych

Galaktyki posiadające jądra Seyferta stanowią jedynie ułamek wszystkich galaktyk. Oszacowanie to komplikuje trudność zidentyfikowania AGN przy bardzo niskich jasnościach gwiazd niegwiazdowych. Na przykład wiele galaktyk ma słabe widma linii emisyjnych ze stosunkami linii pośrednimi pomiędzy widmami obszarów HII i jąder Seyferta, które określa się mianem galaktyk typu "LINER". Chociaż widma LINER można wytłumaczyć szybkimi wstrząsami, nadal można je uwzględnić jako posiadające aktywne jądra (a przypadek staje się coraz silniejszy w przypadku przynajmniej niektórych członków tej heterogenicznej klasy). Jeśli tak, to jest nawet możliwe, że większość galaktyk jest w pewnym sensie "aktywna". Najbardziej ostatecznym dowodem na istnienie prawdziwie niegwiazdowego jądra jest prawdopodobnie zwarte centralne źródło twardego promieniowania rentgenowskiego, najlepiej zmiennego. Jednakże zostałoby to przesłonięte przez gaz o gęstości kolumny 1025 cm-2, który jest optycznie gruby w porównaniu z rozpraszaniem elektronów Thomsona twardych promieni rentgenowskich. Może nie być całkowicie zaskakujące, że poza jądrem "galaktyki macierzyste" same w sobie prawie nie różnią się od galaktyk pozbawionych oczywistego AGN. Bardzo silny AGN może mieć ograniczony wpływ na ośrodek międzygwiazdowy swojej galaktyki, np. jonizując go, szokując i ściskanie go, a w niektórych szczególnych przypadkach nawet wywoływanie formowania się gwiazd, na przykład w pobliżu wypływającego strumienia. Głębszą tajemnicą jest przede wszystkim to, jakie właściwości galaktyki powodują AGN. Dwa najbardziej oczywiste to pochodzenie masywnej czarnej dziury i zdolność do dostarczenia wystarczającej ilości paliwa blisko jądra, aby ją "zasilić". Powstawanie masywnej czarnej dziury prawdopodobnie wymaga dynamicznego zapadnięcia się gęstej gromady gwiazd w gęstym centrum galaktyki. Ponieważ uważa się, że pierwsze gęste struktury, które łączą się w młodym wszechświecie, to wybrzuszenia protogalaktyczne, istnieje słaba teoretyczna motywacja do łączenia masywnych czarnych dziur ze współczesnymi wybrzuszeniami. Dramatycznie wyższa (o rzędy wielkości) właściwa gęstość przestrzeni świecącego AGN we wczesnym Wszechświecie wymaga, aby wiele pozornie "normalnych" dzisiejszych galaktyk musiało kiedyś posiadać centralny silnik AGN. Jeśli była to czarna dziura, powinna nadal być obecna i może zostać wykryta na podstawie przyspieszenia grawitacyjnego gwiazd i gazu w ciągu kilkuset parseków. (Grawitacja czarnej dziury o masie Mbh dominuje w promieniu w przybliżeniu GMbh2, gdzie σ jest charakterystycznym rozproszeniem prędkości w układzie gwiazdowym). Obszar ten jest na tyle mały, że można go rozróżnić optycznie jedynie w najbliższych galaktykach z najlepszymi spektrografami (Kosmiczny Teleskop Hubbl′a lub teleskopy naziemne o doskonałym widzeniu). Kinematyczne poszukiwania pobliskich masywnych czarnych dziur (przy użyciu spektroskopii Dopplera do pomiaru prędkości orbitalnych wokół jądra) są wciąż w początkowej fazie i dokonano mniej niż kilkudziesięciu odkryć . Dają one wstępną sugestię, że masa centralnej czarnej dziury może korelować liniowo z całkowitą masą wybrzuszenia galaktycznego, przy stałej normalizacji wynoszącej około pół procent. Jednakże ta rzekoma korelacja może mieć ogromny rozrzut lub nawet może nie okazać się znacząca, jeśli intensywnie bada się bezstronną próbkę galaktyk i uwzględni się wszystkie górne granice Mbh. W niedalekiej przyszłości zbiór galaktyk o wiarygodnych masach centralnych czarnych dziur będzie niestety w bardzo niewielkim stopniu przecinał się ze zbiorem aktywnych jąder, dla których można będzie podjąć próbę oszacowania masy. Dzieje się tak, ponieważ tę drugą mierzy się na podstawie emisji niegwiazdowej, podczas gdy ta pierwsza pochodzi z emisji nieaktywnej. Jeśli jeden z nich dominuje i można go łatwo zbadać, drugi nie będzie dobrze mierzony. Niemniej jednak obecne dowody na temat czarnych dziur, głównie w nieaktywnych galaktykach, sugerują, że jest to kluczowy potencjał i składnik centralnego silnika - masywna czarna dziura - może występować w wielu, a nawet w większości galaktyk. Fakt, że większość z nich dzisiaj nie jest Seyfertami, należy zatem przypisać brakowi paliwa. Nawet zakładając najbardziej wydajne znane modele, dyski akrecyjne czarnych dziur, energetyka najpotężniejszych kwazarów wymaga dostarczenia dziesiątek mas Słońca rocznie do centralnego parseka galaktyki. Aby osiągnąć tak mały promień, paliwo - prawdopodobnie gaz - musi zasadniczo stracić cały swój orbitalny moment pędu. Z podstaw teoretycznych wymagane momenty obrotowe mogą być zapewnione przez zniekształcenia i asymetrie potencjału grawitacyjnego galaktyki macierzystej, takiej jak słupki. Niestety, trudno było wykazać duży związek pomiędzy obecnością bliskich towarzyszy a aktywnym jądrem. Nie ma również korelacji między słupkami a aktywnością Seyferta. Jedną z możliwości jest to, że kraty i/lub spotkania wzmagają aktywność jądrową jedynie z dużym opóźnieniem (być może o miliard lat), ponieważ mogłoby to spowodować aby zająć tyle orbit, aby gaz ostatecznie opadł do jądra. Jedną z możliwych oznak tego jest odkrycie, że galaktyki Seyferta częściej wykazują pierścienie, które mogą być długowiecznymi reliktami poprzeczek, które już się rozproszyły. Prawdopodobnym powiązaniem pomiędzy aktywnością Seyferta a wcześniejszą aktywnością gwiazdotwórczą jest obserwacja, że dyski galaktyk macierzystych Seyferta mają zwykle wyższą jasność powierzchniową niż galaktyki inne niż Seyfert.

Perspektywy na przyszłość

Zrozumienie AGN jest problemem poważnie ograniczonym w zakresie danych. Jej typowa zmienność świadczy o tym, że silnik centralny nie jest w stanie ustalonym. Próbując to zrozumieć, możemy przekształcić to w atut, ale tylko wtedy, gdy uda nam się uzyskać obszerne, prawie ciągłe historie czasowe emisji z poszczególnych AGN. Oprócz ograniczonego próbkowania w czasie istnieją dwa najpoważniejsze ograniczenia obserwacyjne.

•  Nieodpowiednie obserwacje wielu obszarów długości fal, w których emituje AGN. AGN należą do najbardziej szerokopasmowych emiterów we wszechświecie i wiele długości fal, przy których emitują, jest blokowanych przez atmosferę ziemską lub, co bardziej istotne, przez absorpcję H I w ośrodku międzygalaktycznym (krótko od długości fali spoczynkowej wynoszącej 912 Å).
•  Nieodpowiednia rozdzielczość przestrzenna. Największe odpowiednie skale dla większości interesujących i ekstremalnych zjawisk AGN są rzędu 10 szt. lub nawet mniej.

Na szczęście oba te ograniczenia szybko znikają wraz z pojawieniem się nowych detektorów i obserwatoriów. Kluczowe obserwacje AGN w ciągu następnej dekady skorzystają z nowych i planowanych obserwatoriów kosmicznych oraz nowych technik naziemnych, takich jak interferometria. Ponadto, maksymalna rozdzielczość przestrzenna staje się dostępna dzięki intensywnemu monitorowaniu w celu wykrycia opóźnień w przejściu światła, jak w przypadku mapowania pogłosu.


Aktywne galaktyki: model ujednolicony

Obiekty znane jako "AKTYWNE JĄDRO GALAKTYCZNE" (AGN) można pogrupować w szeroką gamę fenomenologicznych podklas, które mają wiele nakładających się lub podobnych właściwości. Pierwszymi znanymi "galaktykami aktywnymi" były galaktyki spiralne o dużej jasności powierzchniowej, zidentyfikowane przez Carla Seyferta w 1943 r. Prawie dwie dekady później pierwsze radiowe przeglądy nieba doprowadziły do identyfikacji innych obiektów (galaktyk radiowych, takich jak Centaurus A i kwazary, takie jak 3C 48), które obecnie również uważamy za galaktyki aktywne, chociaż w momencie odkrycia podobieństwa między źródłami radiowymi a spiralami Seyferta nie były oczywiste. Wczesne niepowodzenia w rozpoznaniu podstawowych podobieństw tych obiektów wynikały głównie z zastosowania różnych technik identyfikacji izolowanych, ekstremalnych członków populacji aktywnych galaktyk: identyfikacja źródeł radiowych zwykle dawała kwazary o stosunkowo dużej jasności i dużym przesunięciu ku czerwieni (skrót od "kwazigwiazdowych źródeł radiowych" ), często należący do klasy "blazarów", w której większość obserwowanego widma dominuje emisja promieni z relatywistycznego dżetu. Z drugiej strony identyfikacja jasnych jąder galaktycznych doprowadziła do identyfikacji przestrzennie powszechnych, stosunkowo cichych radiowo jąder Seyferta o stosunkowo niskiej jasności . Dopiero pod koniec lat sześćdziesiątych i siedemdziesiątych XX wieku optyczne kryteria detekcji oparte na kolorze (albo wielokolorowa fotometria szerokopasmowa, albo spektroskopia niskodyspersyjna) zaczęły dostarczać wystarczająco duże próbki AGN zarówno o wysokiej, jak i niskiej jasności, że podstawowe podobieństwa zaczęły się ujawniać. jasne. Rzeczywiście, selekcja AGN na podstawie koloru doprowadziła do odkrycia, że większość AGN o dużej jasności nie należy do odmiany kwazarów "głośnych radiowo", ale są to źródła "ciche radiowo", które zaczęto nazywać "OBIEKTAMI KWASISTELLARNYMI" (QSO). ). Pomimo pojawiających się podobieństw pomiędzy galaktykami Seyferta i QSO, zidentyfikowano także istotne różnice pomiędzy typami AGN, co doprowadziło do szerokiej i dość złożonej taksonomii AGN. Porównanie różnych typów AGN powinno pomóc nam zrozumieć, które zjawiska mają fundamentalne znaczenie dla aktywności jądrowej, a które są w jakiś sposób przypadkowe lub wtórne. W niektórych przypadkach, jak zobaczymy poniżej, różnice między różnymi typami można wykorzystać do wnioskowania o strukturze źródła w skali zbyt małej, aby można ją było bezpośrednio określić. Niektóre z ważnych pytań, które pojawiają się w tym kontekście, są następujące. Dlaczego tylko około 10% aktywnych galaktyk jest głośnych w trybie radiowym? Dlaczego szerokie linie emisyjne są słabe lub nieobecne w widmach UV-optycznych obiektów BL Lac? Dlaczego niektóre galaktyki Seyferta nie mają szerokich linii emisyjnych?

Zjednoczenie

Zasady


Próbując wyjaśnić różnice pomiędzy różnymi klasami AGN, naszym celem jest wyjaśnienie jak najszerszej gamy zjawisk przy użyciu najprostszego modelu zgodnego z danymi. Prostą hipotezą wyjaśniającą znaczną część fenomenologii AGN jest to, że różnice między różnymi typami AGN wynikają z zależności orientacji; najprościej mówiąc, staramy się "ujednolicić" różne typy AGN w oparciu o jedną podstawową strukturę źródła, której wygląd dla obserwatora w dużym stopniu zależy od kąta patrzenia. Rzeczywiście istnieje wiele bezpośrednich dowodów na to, że AGN mają strukturę osiowosymetryczną i dlatego promieniują anizotropowo; obserwowalne właściwości konkretnego źródła będą zatem zależeć od lokalizacji obserwatora. W takich schematach "unifikacji AGN" postuluje się, że odmienny wygląd jednej klasy w porównaniu z drugą jest wynikiem oglądania tego samego typu obiektu pod innym kątem. Właściwości, które mogą zależeć od kąta widzenia i w ten sposób przyczyniać się do wewnętrznej anizotropii w tych źródłach, obejmują absorpcję przez pył lub gęsty optycznie gaz w dowolnym niesferycznie symetrycznym rozkładzie oraz ruch relatywistyczny, który prowadzi do dopplerowskiego wzmocnienia emisji, które osiąga szczyt w kierunku tego ruch. Schematy unifikacji obejmujące jedną lub obie te wewnętrzne właściwości źródła mają na celu wyjaśnienie przynajmniej części szerokiej różnorodności, którą obserwujemy w AGN pod względem różnic w kącie widzenia. Istnieje kilka schematów unifikacji mających na celu ujednolicenie dwóch lub więcej klas AGN, które odniosły pewien sukces; Oczywistym kluczowym elementem każdego planu unifikacji jest dowód jego wiarygodności. Jeśli postawimy na przykład hipotezę, że pewien specyficzny typ AGN (powiedzmy obiekty BL Lacertae) należy do jakiejś określonej szerokiej klasy lub "populacji rodzicielskiej" (powiedzmy, źródła radiowe klasy I Fanaroffa-Rileya), wówczas gęstość przestrzenna obiektów podklasa musi być zgodna z gęstością przestrzeni populacji macierzystej pomnożoną przez prawdopodobieństwo zaobserwowania członka populacji macierzystej w odpowiedniej orientacji. Określenie gęstości przestrzennej populacji rodzicielskiej jest często zadaniem samym w sobie trudnym i musi opierać się na identyfikacji źródła w oparciu o jakąś właściwość, która ma być izotropowa. Uważa się na przykład, że emisja twardego promieniowania rentgenowskiego jest emitowana w przybliżeniu izotropowo przez nieblazarowy AGN i w zasadzie emisja twardego promieniowania rentgenowskiego może być najlepszym sposobem na znalezienie jednorodnej próbki AGN. Rzeczywiście, twarde promienie rentgenowskie są prawdopodobnie warunkiem sine qua non aktywnego jądra. W praktyce jednak, stosunkowo niska czułość na twarde promieniowanie rentgenowskie ogranicza wykrywanie AGN do tych, które są stosunkowo blisko, a zatem pozornie jasne. W przypadku źródeł radiowych (w tym blazarów) zakłada się, że promieniowanie z optycznie cienkich, wydłużonych płatków jest emitowane izotropowo i w zasadzie można je wykorzystać do identyfikacji obiektów o wewnętrznie podobnej jasności.

Podstawowy model

Obecny paradygmat AGN opiera się na osiowosymetrycznym silniku centralnym, który składa się z dysku akrecyjnego otaczającego supermasywną (≳106M) czarną dziurę. Przypuszcza się, że kontinuum optyczne UV powstaje głównie w dysku akrecyjnym. Z tego układu wzdłuż osi dysku wyłaniają się dwukierunkowe dżety relatywistyczne, emitując promieniowanie wzmocnione Dopplerem za pośrednictwem synchrotronu i odwrotnego mechanizmu Comptona. Uważa się, że zarówno dżety, jak i struktura dysku akrecyjnego przyczyniają się do emisji promieniowania rentgenowskiego. Szerokie linie emisyjne (których szerokość można scharakteryzować jako pełną szerokość w połowie maksimum, FWHM ≈ 1500-10 000 km s-1), które są tak widoczne w widmach UV-optycznych AGN, powstają w stosunkowo gęstych ( gęstości elektronowe ne ≈ 1011cm?3) obłoki gazu w odległościach od czarnej dziury od kilkuset do kilku tysięcy promieni grawitacyjnych (Rgrav = GM/c2, gdzie M to masa centralnej czarnej dziury, G to stała grawitacyjna, oraz c jest prędkością światła). W skali parseków cały ten układ jest osadzony w zakurzonym torusie, który jest nieprzezroczysty w większości widma elektromagnetycznego; torus ten odgrywa kluczową rolę w modelach unifikacji AGN, ponieważ osłania zarówno dysk akrecyjny, obszar broadline, jak i strukturę wewnętrznego strumienia przed bezpośrednim widokiem zewnętrznych obserwatorów w płaszczyźnie torusa. Torus pochłania promieniowanie ze źródła centralnego i ponownie emituje tę energię w podczerwieni. Wąskie linie emisyjne (FWHM ≲ 300-800 km s-1) powstają w chmurach o małej gęstości w skali torusa i poza nią, w większości napędzane promieniowaniem ze źródła centralnego, a zatem w dużej mierze ograniczone do położenia wzdłuż osi układu.

Schematy unifikacji AGN

Typy Seyferta

Prawdopodobnie najbardziej znanym schematem unifikacji jest schemat połączenia dwóch typów GALAKTYK SEYFERTA. W połowie lat 70. Khachikian i Weedman odkryli, że galaktyki Seyferta można podzielić na dwie klasy spektroskopowe: te z wąskimi i szerokimi liniami emisyjnymi (typ 1 lub Sy1) oraz te z tylko wąskimi liniami (typ 2 lub Sy2). Widma wąskoliniowe typów 1 i 2 są statystycznie nie do odróżnienia od siebie, więc Sy2 wydają się być Sy1 bez szerokich linii. Co więcej, Sy2 są zazwyczaj mniej świecące niż Sy1 o około 1 magnitudo w optycznej części widma. Doprowadziło to do hipotez unifikacyjnych, w których Sy2 są z natury Sy1, których kontinuum i emisja szerokopasmowa są tłumione w kierunku obserwatora. Hipoteza ta, choć prosta i atrakcyjna, miała dwie główne trudności: po pierwsze, dlaczego źródło kontinuum AGN wygasa tylko o kilka razy, a szerokie linie o widocznie większy czynnik? Po drugie, kształt kontinuum Sy2 nie wygląda jak kontinuum Sy1 AGN osłabione przez pył, tj. kontinuum Sy2 nie wydaje się być silnie zaczerwienione w wyniku przejścia przez ośrodek, w którym przekrój poprzeczny absorpcji lub rozpraszania maleje wraz ze wzrostem długości fali. Przełom nastąpił na początku lat 80., kiedy Antonucci i Miller odkryli, że widma polaryzacyjne niektórych galaktyk Sy2, takich jak NGC1068, zawierają szerokie linie emisyjne, podobne do tych widocznych w widmach Sy1. Przynajmniej niektóre galaktyki Sy2 zawierają szerokie linie emisyjne, ale ich siła jest znacznie zmniejszona, tak że dominują w nich kontinuum i wąskie linie, z wyjątkiem oglądania w świetle spolaryzowanym. Ponieważ najczęstszą przyczyną polaryzacji jest rozpraszanie światła przez pył lub elektrony, obserwacja ta doprowadziła do interpretacji galaktyk Sy2 jako galaktyk Sy1 skierowanych krawędzią, w których optycznie gruby materiał o spłaszczonej geometrii przypominającej dysk zasłania nasz bezpośredni widok na galaktykę. szeroki obszar linii emisyjnej, jak opisano powyżej . Szerokie linie są widoczne w świetle spolaryzowanym, gdy są rozproszone w naszym polu widzenia przez pył lub elektrony powyżej i/lub poniżej tego materiału. W przypadku NGC1068 światło kontinuum AGN jest spolaryzowane w ∼16%, niezależnie od długości fali w widmie UV-optycznym, co dowodzi, że mechanizmem rozpraszania są elektrony, a nie pył, ponieważ przekrój poprzeczny rozpraszania Thomsona jest niezależny od długości fali, podczas gdy pył rozpraszanie jest silnie zależne od długości fali. Istnieją jednak dowody na to, że w przypadku innych spolaryzowanych Sy2 rolę odgrywa również rozpraszanie pyłu. Widma polaryzacyjne tych Sy2 pokazują również, że linie emisyjne są silniej spolaryzowane niż kontinuum. Najwyraźniej istnieje drugi niespolaryzowany składnik pozbawionego cech kontinuum AGN, który stanowi około 60-90% całkowitego kontinuum i ma w przybliżeniu taki sam kształt widmowy jak składnik spolaryzowany. Pochodzenie składnika niespolaryzowanego jest niejasne, chociaż może wynikać z emisji swobodnej w samym obszarze rozpraszania. W każdym razie istnienie tego składnika wyjaśnia, dlaczego kontinuum niegwiazdowe w Sy2 nie jest tak całkowicie stłumione, jak szerokie linie. Przewidywania względnych liczb każdej klasy stanowią ważny test, ale są bardzo wrażliwe na założenia, takie jak kąt otwarcia torusa i kątowa zależność jasności. W ramach tych ograniczeń liczby względne są zgodne z oczekiwaniami i wskazują kąty półotwarcia torusa wynoszące ∼60?. W miarę jak coraz więcej galaktyk Sy2 i AGN o niższej jasności, takich jak LINER (galaktyki z regionem emisji jąder o niskiej jonizacji), obserwuje się w świetle spolaryzowanym, odkrywanych jest więcej galaktyk Sy1 skierowanych krawędziowo. Nie jest jednak jeszcze jasne, czy wszystkie AGN, a nawet wszystkie galaktyki Seyferta pasują do tego schematu. Obecne badania pokazują, że współczynnik wykrywalności spolaryzowanych szerokich linii w galaktykach Sy2 wynosi około ∼50%, co sugeruje, że wiele galaktyk Sy2 albo nie posiada obszaru rozpraszającego, albo nie ma obszaru szerokich linii. Obserwacje rentgenowskie AGN również ogólnie potwierdzają ten obraz zjednoczenia. Jasność promieniowania rentgenowskiego galaktyk Sy2 jest niższa niż galaktyk Sy1. Co więcej, galaktyki Sy2 mają znacznie większą absorpcję miękkiego promieniowania rentgenowskiego, co odpowiada równoważnym kolumnom obojętnego wodoru, NH ≈ 1022-23cm-2, w porównaniu z NH ≈ 1020-21 cm-2 dla galaktyk Sy1. Jest to zgodne z tym, że nasza linia wzroku przez AGN przebiega przez optycznie gruby torus zimnej materii. Podobny schemat unifikacji prawdopodobnie wyjaśnia różnicę pomiędzy "szerokoliniowymi galaktykami radiowymi" (BLRG), które można opisać z dokładnością pierwszego rzędu jako radiogalaktyki Sy1, a "wąskoliniowymi galaktykami radiowymi" (NLRG), które mają strukturę podobną do Sy2 widma optyczne. Schemat geometrii mającej na celu ujednolicenie radiogalaktyk o silnych liniach. Pozostałą zagadką jest widoczny brak równoważnego rozwidlenia w QSO o wyższej jasności; nie ma ogólnie przyjętej klasy "QSO 2", która odpowiadałaby galaktykom Sy2 o niskiej jasności. Najbardziej prawdopodobnymi kandydatami na przesłane przez pył QSO są AGN wybrane w pobliżu podczerwieni, z których niektóre rzeczywiście pokazują szerokie linie w świetle spolaryzowanym, lub chłodniejsze, ultrajasne galaktyki IR (ULIRG), których emisja może być głównie spowodowana ponownym przetwarzaniem przez chłodny pył. W chwili obecnej jest jasne, że niektóre ULIRG zawierają niewidoczne AGN, ale inne są zasilane przez wybuchy gwiazd, a nie przez wierne AGN.

Kwazary i galaktyki radiowe zdominowane przez jądra i płatki

Jak zauważono wcześniej, tylko około 10% AGN to silne źródła radiowe. W tym podzbiorze istnieje szeroka gama radiomorfologicznych struktur od klasycznych źródeł podwójnego radia w skalach tak dużych jak megaparseki po małe źródła zdominowane przez rdzeń z niewielką lub żadną rozbudowaną strukturą. Źródła zdominowane przez jądro zwykle wykazują ruch nadświetlny, wskazując relatywistyczne prędkości wypływu w pobliżu naszej linii wzroku. Klasyczne podwójne źródła często mają jednostronne, silnie skolimowane struktury strumieniowe rozciągające się od ich zwartego rdzenia w kierunku jednego z wydłużonych płatów. Jednostronny charakter dżetów można zrozumieć w scenariuszu relatywistycznym, w którym zbliżający się dżet i przeciwnie skierowany oddalający się dżet są odpowiednio wzmacniane i przyciemniane metodą Dopplera przez efekty relatywistyczne. Zatem obie te właściwości są zgodne z relatywistycznymi dżetami powstającymi w rdzeniu źródła radiowego i zasilającymi płaty zewnętrzne. Sugeruje to, że główną zmienną rządzącą obserwowaną morfologią radioAGN jest jego orientacja w stosunku do naszej linii wzroku. W źródłach zdominowanych przez jądro patrzymy w dół na relatywistyczny dżet, podczas gdy w źródłach podwójnych dżet jest rzutowany na płaszczyznę nieba. Podstawowym testem tego schematu unifikacji jest porównanie względnej liczby źródeł zdominowanych przez rdzeń i płatek oraz rozkładu przewidywanych rozmiarów dla radioAGN z przewidywaniami modelu. Dżet jest wysoce skolimowany, więc główną niepewnością jest wielkość wzmocnienia spowodowana relatywistycznym ruchem w strumieniu, określona przez masowy współczynnik Lorentza γ = (1?V2/c2)?1/2, gdzie V jest wypływem prędkość, a c prędkość światła. Jest to zatem trudne aby dopasować obiekty zdominowane przez rdzeń i płatki pod względem wewnętrznej jasności, a tym samym zapewnić, że relatywistyczne efekty promieni nie będą uwzględniane w żadnych badaniach porównawczych. Ogólnie rzecz biorąc, badania te pokazują, że istnieje zbyt wiele źródeł zdominowanych przez rdzeń w porównaniu ze źródłami zdominowanymi przez płaty i że te pierwsze są zbyt duże, gdy zostaną odrzucone w oparciu o zaobserwowany współczynnik Lorentza. Brakuje także dżetów dwustronnych, czyli źródeł ustawionych w jednej linii z płaszczyzną nieba. Wiele z tych niespójności można rozwiązać, jeśli zjednoczenie obejmie bardzo jasne galaktyki radiowe FR II (BLRG i NLRG). W tym przypadku zdominowane przez płatki, głośno radiowe QSO są oglądane pod kątem pośrednim pomiędzy kątami radiogalaktyk, a QSO i większy rozmiar radiogalaktyk odpowiada rozmiarowi odrzutowanych źródeł z dominacją rdzeniową. Rozwiązanie to wprowadza jednak nowy problem, a mianowicie, że wąska emisja linii [O III] λλ 4959, 5007 jest znacznie (4-10-krotnie) słabsza w radiogalaktykach niż w kwazarach, co wymaga, aby linie te były emitowane również anizotropowo aby zjednoczenie zadziałało. Podobna siła dolnej linii jonizacji [O II] λ 3727 w obu klasach potwierdza ten scenariusz, ponieważ powstaje ona w większych odległościach od rdzenia AGN, a zatem oczekuje się, że będzie emitowana bardziej izotropowo. W kontekście tego obrazu orientacyjnego nachylenie źródła radiowego jest powiązane ze stosunkiem jasności rdzenia do płatka, głównie w wyniku relatywistycznego zwiększenia jasności rdzenia. Parametr ten, znany jako dominacja rdzenia R, można następnie wykorzystać do badania zależności innych parametrów od nachylenia. Na przykład szerokości szerokich linii emisyjnych Hβ i C IV wskazują, że obiekty skierowane twarzą w twarz (zdominowane przez rdzeń) mają zwykle stosunkowo wąskie szerokie linie (FWHM ≈ 1000-5000 km s-1, gdy są skierowane krawędzią (zdominowane przez płatek) mają szerszy zakres szerokości linii (FWHM ≈ 1000-10000 km s-1), co sugeruje, że orientacje szerokiego obszaru linii emisyjnej i zasłaniającego torusa są podobne.

Blazary i źródła radiowe

Wraz z uznaniem, że emisja blazarów ma swoje źródło w relatywistycznych dżetach skierowanych w stronę obserwatora, radiogalaktyki z dżetami na płaszczyźnie nieba okazały się kandydatami na "niewłaściwie ustawione" blazary. Same Blazary dzielą się na dwie odrębne kategorie: "BL Lacs" i "optyczne" gwałtownych zmiennych (OVV), które wydają się pochodzić z różnych rozkładów macierzystych radiogalaktyk. Podstawową różnicą między OVV i BL Lacs jest to, że OVV mają silne linie emisyjne UV i optyczne, więc ich widma UV-optyczne przypominają widma AGN bez wiązki, podczas gdy w BL Lacs inne cechy widmowe są zatapiane przez emisję ze strumienia. OVV mają również wyższą jasność i wyższe wywnioskowane współczynniki Lorentza niż BL Lac. Można przedstawić dość przekonujący argument, że BL Lacs znajdują się w radiogalaktykach FR I. Pomijając przestrzennie nierozwiązaną emisję jądra blazara i biorąc pod uwagę jedynie jasność "rozszerzonego" źródła radiowego (prawdopodobnie "płatków" widzianych wzdłuż ich osi), stwierdzono, że galaktyki FR I i BL Lacs mają porównywalną jasność radiową, co potwierdza tezę że pochodzą z jednej populacji. Funkcje jasności i gęstości przestrzenne są również zgodne z unifikacją tych dwóch typów obiektów. Należy przynajmniej wspomnieć, że same BL Lacs czasami dzielono na podkategorie wybierane radiowo i rentgenowskie, a źródła w tych kategoriach przeciętnie mają rozkład widmowy energii, który - co nie jest zaskakujące - osiąga szczyt przy niskich i niskich temperaturach. odpowiednio wysokie częstotliwości. Niedawne prace sugerują, że w rzeczywistości nie są to odrębne klasy, ale raczej reprezentują skrajności ciągłego rozkładu szczytowych długości fal dla całej klasy BL Lac. Jaśniejsze galaktyki radiowe FR II zapewniają wiarygodną populację macierzystą OVV. W porównaniu ze schematem unifikacji FR I - BL Lac jest to trudniejsze do wykazania, przynajmniej częściowo, ponieważ populacja FRII jest stosunkowo mniej jednorodna.

"Wielkie zjednoczenie": głośna i cicha radiowo AGN

Jednym z najdłużej zadawanych pytań w astrofizyce AGN jest to, dlaczego pomimo podobieństwa optycznego niewielka mniejszość (10%) AGN jest głośna radiowo, podczas gdy reszta jest cicha radiowa? Każdy schemat unifikacji, który może wyjaśnić różnicę między tymi dwiema głównymi klasami AGN, w znacznym stopniu przyczyni się do ogólnego wyjaśnienia zjawiska AGN i dlatego czasami nazywany jest "wielkim zjednoczeniem". Istnieje wyraźna dychotomia pomiędzy źródłami generującymi głośno i cicho radiowo; dla danej podczerwieni w świetle miękkiego promieniowania rentgenowskiego, AGN o głośności radiowej są o 2-3 rzędy wielkości jaśniejsze w radiu niż obiekty ciche radiowo. Istnieje bardzo niewiele obiektów o pośredniej jasności radiowej, więc rozkład mocy radiowej w stosunku do mocy na krótszych falach jest wyraźnie bimodalny. Innymi słowy, dowody wyraźnie wskazują na dwie odrębne populacje AGN określone na podstawie względnej jasności radiowej. Wczesna sugestia wysunięta przez Scheuera i Readheada była taka, że obiekty głośne i ciche radiowo stanowią pojedynczą populację, w której głośniki radiowe reprezentują źródła z osiami skierowanymi w stronę obserwatora. Nie uwzględniało to jednak braku przedłużonej emisji radiowej w ciszy radiowej. Ciche i głośne radiowo AGN różnią się między sobą wyrazy szacunku. Głośne radiowo AGN są średnio około 3 razy jaśniejsze w promieniach rentgenowskich o średniej energii (0,2-3,5 keV) z nieco bardziej płaskimi nachyleniami widma (tj. Stosunkowo więcej fotonów o wysokiej energii). Uważa się, że jest to spowodowane obecnością emisji wiązki promieniowania rentgenowskiego związanej ze strumieniem emitującym fale radiowe i dostarcza dowodów na ujednolicenie omówionych powyżej, zdominowanych przez rdzeń i płaty, głośnych radiowo AGN. Jednakże różnica w nachyleniu widma rentgenowskiego byłaby trudna do uwzględnienia w scenariuszu wielkiej unifikacji. Widma linii emisyjnych obu typów obiektów również wykazują różnice, przynajmniej w sensie statystycznym (np. silniejsze mieszanki optyczne Fe II, słabsze wąskie linie i węższe szerokie linie w obiektach radiocichych). Do stosunkowo niedawna sądzono, że szerokie, stosunkowo przesunięte w stronę błękitu cechy linii absorpcji, które wskazują na wypływy mas, występują tylko w cichych radiowo AGN; jest teraz jasne, że występują one również w AGN o głuchym radiowym, chociaż obecnie wydaje się, że przepływy w obiektach o głuchym radiowym mają stosunkowo niższe prędkości końcowe. Ogólnie uważa się, że wypływający materiał odpowiedzialny za absorpcję jest przyspieszany od powierzchni torusa, w związku z czym oczekuje się, że będzie obecny w określonych orientacjach zarówno w AGN głośnym, jak i cichym radiowo. Nie pojawiło się jeszcze zadowalające wyjaśnienie różnic między źródłami generującymi głośno i cicho radiowo. Chociaż było to trudne do zrozumienia, przez długi czas uważano, że natura galaktyki macierzystej determinuje klasę radiową z cichymi radiowo AGN w galaktykach spiralnych i głośnymi radiowo AGN w galaktykach eliptycznych. Jednak ostatnie obserwacje za pomocą Kosmicznego Teleskopu Hubble′a wykazały, że przy dużej jasności prawie wszystkie AGN leżą w galaktykach eliptycznych. Obecnie powszechnie podejrzewa się, że moment pędu centralnej czarnej dziury może być czynnikiem decydującym, ponieważ ruchy orbitalne naładowanych obiektów wokół czarnej dziury mogą decydować o tym, czy efekty elektromagnetyczne będą wystarczająco silne, aby wygenerować i skolimować dżety.


Poświata

Poświata składa się z nietermicznego promieniowania emitowanego przez ZIEMSKĄ ATMOSFERĘ. Emisja cieplna Ziemi, nagrzana przez światło słoneczne, a następnie wypromieniowana w przestrzeń kosmiczną, ma miejsce w podczerwonej części widma, przy długościach fal dłuższych niż 7 μm. W najprostszej postaci poświata powietrza powstaje w wyniku odwzbudzenia cząsteczek, atomów lub jonów wzbudzonych przez słoneczne fotony UV lub cząstki energetyczne, a powstałe w ten sposób emitowane fotony zazwyczaj, choć nie wyłącznie, znajdują się w zakresie widzialnym i UV widma. Istnienie łuny nocnego nieba długo po zachodzie słońca pokazuje, że mechanizmy pośrednie odgrywają ważną rolę w wytwarzaniu poświaty. W tym przypadku energia początkowa, przyniesiona przez fotony słoneczne, jest magazynowana w wysokiej atmosferze w postaci rodników lub cząsteczek zdolnych do rekombinacji w wyniku reakcji egzotermicznych w nocy i wytwarzania atomów lub cząsteczek w stanie wzbudzonym, z następczą emisją fotonów . Poświata nie obejmuje promieniowania wytwarzanego przez pioruny i meteoryty. Chociaż rozróżnienie to jest trudniejsze do ustalenia, zjawiska zorzowe występujące na dużych szerokościach geograficznych i wynikające z miejscowych, intensywnych opadów cząstek, których pochodzenie znajduje się poza atmosferą, nie są uważane za poświatę. W przeciwieństwie do AURORÓW i pomimo tego, że ogólny mechanizm emisji (wzbudzenie-odwzbudzenie) jest tej samej natury, poświata występuje o każdej porze i pod każdą szerokością geograficzną, w znacznie mniej sporadyczny sposób. Historycznie rzecz biorąc, istnienie ziemskiej składowej światła na nocnym niebie rozpoznano już około roku 1900. Yntenna, który jako pierwszy stwierdził metodami fotometrycznymi istnienie poświaty, zwrócił uwagę na dużą zmienność tego zjawiska z nocy na noc i wykazał że światło gwiazd rozproszone przez cząsteczki atmosfery było niewystarczające, aby wyjaśnić światło nocnego nieba. Techniki spektroskopowe wykazały, że zielona linia tlenu atomowego przy 558 nm była przez cały czas obecna na całym niebie, co potwierdziło istnienie "trwałej zorzy polarnej". Rayleigh (JOHN WILLIAM STRUTT) wykazał w latach dwudziestych XX wieku, że układ geograficzny zielonej linii tlenowej różni się od wzorca zorzy polarnej oraz że na nocnym niebie nie widać pasów N+2 widocznych w zorzach polarnych. Rayleigh najpierw wyraził jasność zielonej linii jako liczbę przejść atomowych na sekundę w kolumnie o jednostkowym polu przekroju poprzecznego wzdłuż linii wzroku. Nadał swoją nazwę jednostce fotometrycznej powszechnie stosowanej dziś w badaniach poświaty powietrza: jeden rayleigh (lub 1 R) reprezentuje dookólną szybkość emisji wynoszącą 106 fotonów na centymetr kwadratowy na sekundę. Przewidywano i obserwowano czerwone linie tlenu przy 630-636 nm około 1930 r., a także linię D sodu. Chociaż naziemne instrumenty spektrofotometryczne zapewniają wygodny sposób monitorowania przestrzennych i czasowych zmian poświaty powietrza, nie są one odpowiednie do wyszukiwania pionowych profili emisji. Jedną z możliwości jest wykorzystanie fotometrów zenitowych przelatujących przez warstwy poświaty na pokładzie rakiety. Zróżnicowanie sygnału ze względu na wysokość pozwala na uzyskanie lokalnego natężenia emisji objętościowej w funkcji wysokości. Innym sposobem postępowania jest wykonanie pomiarów poświaty powietrza z platformy orbitalnej w geometrii oglądania kończyn. Technika ta ma kilka zalet. Ponieważ sygnał jest całkowany wzdłuż stycznej ścieżki, intensywność mierzonego sygnału jest znacznie zwiększona. Dzięki temu słabe cechy, takie jak emisja kontinuum poświaty, są łatwiejsze do wykrycia i scharakteryzowania. Po drugie, widok styczny umożliwia oddzielenie sygnału galaktycznego tła od blasku atmosferycznego, ponieważ sygnał galaktyczny jest bezpośrednio dostarczany przez pomiary przeprowadzane na bardzo dużych wysokościach, gdzie gęstość atmosfery jest praktycznie zerowa. Pionowe profile kilku zidentyfikowanych linii nocnej poświaty, zaobserwowane podczas misji promu kosmicznego STS-37 krążącego na wysokości 267 km, przedstawiono na rysunku 1. Dobrze znana zielona linia tlenu przy 557,7 nm, wytwarzana przez O(1S) Przejście ?O(1D), obejmuje stosunkowo wąski obszar wysokościowy i osiąga silne szczyty na wysokości około 100 km. Pewną emisję rejestruje się również na czerwonej linii tlenu przy 630 nm, w wyniku przejścia O(11D) ? O(33P). Sygnał przy 762 nm wynika z radiacyjnego odwzbudzenia stanu wzbudzonego O2. Linia D Na przy 589 nm, ze względu na Na (22P) ? Na (2S), osiąga szczyt około 90 km, podobnie jak pasmo OH (6-0) Meinela przy 527 nm. Emisja OH powstaje w cyklu reakcji

H+O3 -> OH* +O*2

gdzie OH* jest wzbudzonym rotacyjnie poziomem OH, z wibracyjną liczbą kwantową ? mniejszą niż 9 (nie wykrywa się żadnych pasm pochodzących od ? > 9) i mechanizmem recyklingu typu

OH + O ->H+O2.

Pasmo 527 nm jest wytwarzane przez odwzbudzenie ? = 6 -> 0 OH*. Należy zauważyć, że silny pik na małej wysokości w emisji 630 nm wynika z pasma (9-3) OH. Ponieważ w całym cyklu skład chemiczny sodu obejmuje także ozon (O3).

Na + O3 -> NaO + O23
NaO + O -> Na + O2

można spodziewać się sprzężenia pomiędzy intensywnością OH poświaty powietrza i gęstością Na (wyprowadzoną albo z pomiarów lidarowych, albo z pomiarów poświaty powietrza), i jest to zdecydowanie wykazane w pomiarach. Istnieje również jasna emisja rozciągająca się od 400 do 600 nm. Dzieje się tak za sprawą O2 w zakresie bliskiego ultrafioletu i światła niebieskiego, do 480 nm, oraz NO2 przy dłuższych falach. Emisja pasma O2 składa się głównie z pasm Herzberga I, Herzberga II i Chamberlaina, jak opisano szczegółowo w następnej sekcji. Cechę rozproszonego NO2 można przypisać radiacyjnej rekombinacji NO i O i stanowi ona prawdziwe kontinuum. Profil wykonany przy 527 nm pokazano na rysunku.



Zaznaczony pik poświaty powietrza na wysokości od 95 do 105 km dobrze zgadza się z pomiarami mikrofalowymi termosferycznego NO dokonanymi podczas tego samego cyklu słonecznego, co sugeruje obszar maksymalnego stężenia pomiędzy 100 a 110 km. W badaniach emisji poświaty powietrza z górnych warstw atmosfery (poświaty dziennej i nocnej) za pomocą spektrometrii naziemnej lub przy użyciu spektrometrów i kamer na pokładach satelitów, takich jak Dynamics Explorer i prom kosmiczny, odnotowano bardzo znaczny postęp w ciągu ostatnich 20 lat. Pomiary te umożliwiły scharakteryzowanie procesów termosferycznych i jonosferycznych, zarówno w dziedzinie aeronomii, jak i dynamiki, przy pomocy postępów laboratoryjnych i teoretycznych. Interpretacja pomiarów poświaty powietrza jest niezwykle skomplikowana i obejmuje szczegółową charakterystykę strumieni wzbudzenia (słoneczne UV/EUV, cząstki), mechanizmy interakcji (bezpośrednie wzbudzenie cząsteczek, atomów lub jonów, pośrednie wzbudzenie poprzez procesy dysocjacji i jonizacji, a także chemiczne reakcje chemiczne), cykle chemiczne, radiacyjne przenoszenie światła poświaty powietrznej. Linie emisji tlenu w poświacie nocnej są teraz szczegółowe.

Wzbudzenie emisji tlenu w nocnej poświacie Ziemi

Czerwony dublet tlenu przy 630 nm i 636,4 nm, powstający w wyniku przejścia O(1D) -> O(3), czyli z pierwszego poziomu wzbudzonego do stanu podstawowego, z prawdopodobieństwem przejścia odpowiednio 0,0069 i 0,0022 s?1, obserwuje się przez kilka godzin po zachodzie słońca. Ponieważ średni czas emisji O(1D) jest równy odwrotności prawdopodobieństwa przejścia, czyli kilku minut, bezpośrednie wzbudzenie atomów tlenu przez słoneczne fotony UV, po którym następuje odwzbudzenie, nie może wyjaśnić utrzymywania się czerwonej poświaty przez długo po zachodzie słońca. Źródłem O(1D) w porze nocnej jest rekombinacja dysocjacyjna jonów O+2 O+2 + e? -> O+O(1D). Jony O+2 powstają w wyniku nocnego zaniku jonizacji, kontrolowanego przez reakcje wymiany ładunku, które przekształcają jony O+ w jony O+2. Pionowy rozkład emisji czerwonej linii jest złożony i można wykazać, że zmienia się z czasem w różny sposób na różnych wysokościach. Poniżej 200 km emisja czerwonej linii jest słaba, ponieważ O? jest dezaktywowany (lub "gaszony") w wyniku zderzeń z cząsteczkami powietrza w czasie krótszym niż czas emisji. Powyżej 200 km połączone efekty szybkości wygaszania kolizyjnego, która maleje wraz z wysokością, oraz pionowej zmiany gęstości elektronowej, która wzrasta wraz z wysokością, powoduje silny wzrost, w przypadku rosnących wysokości, świecenia czerwonej linii. Ważnym zastosowaniem pomiaru emisji termosferycznej poświaty nocnej, takiej jak czerwona linia tlenowa, jest wnioskowanie o wiatrach i temperaturach na podstawie spektroskopii o wysokiej rozdzielczości. Korzystając z interferometrów Fabry′ego - Perota i Michelsona, z linii emisyjnej O(1D) 630 nm uzyskano termosferyczny wiatr neutralny na poziomie 250 km poprzez pomiar powiązanego przesunięcia Dopplera, co daje wektor wiatru w linii wzroku. Temperatury neutralne można wywnioskować z szerokości linii. Spektroskopia Dopplera linii poświaty powietrznej jest skuteczną metodą badania dynamiki termosfery, silnie kontrolowanej przez pływy termiczne i ogólną aktywność fal. Wiadomo, że zielona linia tlenu przy 558 nm, będąca wynikiem przejścia O(1S) -> O(1D) pomiędzy drugim i pierwszym stanem wzbudzonym, powstaje w sąsiedztwie 100 km, czyli zdecydowanie niższych poziomach atmosferycznych niż czerwone linie. Chociaż część zielonej linii może powstać w wyniku rekombinacji dysocjacyjnej O+2 w obszarze F O+2 + e? -> O? +O? należy powołać się na inny mechanizm, aby wyjaśnić wysokość niskiej emisji tej linii. Sydney Chapman zaproponował mechanizm "wzbudzenia fotochemicznego"

O+O+O -> O2 +O(1S)

gdzie jeden z atomów O jest wzbudzany przez część energii wyzwolonej w połączeniu dwóch atomów O. W wyniku tego procesu maksymalne stężenie O występuje w odległości około 100 km, co jest zgodne z lokalizacją emisji zielonej linii. Odwzbudzenie O(1S) do O(1D) następuje poprzez wygaszenie przez cząsteczki otaczającego powietrza (głównie azot cząsteczkowy). Tak zwany proces Chapmana, choć może mieć udział w emisji zielonej linii, obecnie uważa się, że ma to drugorzędne znaczenie. Na początku lat sześćdziesiątych Barth i Hildebrandt odkryli w laboratorium, że emisja wytwarzana w poprzednim procesie jest o wiele za mała, aby uwzględnić obserwowany blask. Wynik ten zainspirował Bartha do zaproponowania w 1964 roku następującego dwuetapowego mechanizmu:

O+O+M -> O- 2 +M

gdzie M jest cząsteczką powietrza, a O-2 stanem wzbudzonym cząsteczki O2, po którym następuje proces przeniesienia wzbudzenia O- 2 +O(3P) -> O2 +O(1S). Efekt netto tych dwóch reakcji, uzyskany przez ich dodanie, jest podobny do efektu pojedynczej reakcji Chapmana. Inne procesy utraty to dezaktywacja poprzez wygaszenie przez zderzenie z cząsteczką powietrza O- 2 +M -> O2 +M lub promieniowanie fotonu poprzez odwzbudzenie radiacyjne O- 2 -> O2 + hv. Dlatego proces Bartha może powodować jednocześnie emisję zarówno O(1S) (zielona linia), jak i O2 (linia 762 nm). Można wykazać, że porównanie dwóch odpowiednich profili na rysunku jest zgodne ze schematem dwuetapowym, pomimo 10-kilometrowej różnicy pomiędzy wysokościami szczytowymi.

Emisja światła dziennego i zmierzchowego

Emisje poświaty powietrza obserwuje się również w ciągu dnia i odzwierciedlają one głównie dobowe wahania stężenia emitujących gatunków. Widma zmierzchowe można obserwować na przejściu pomiędzy atmosferą ciemną i w pełni oświetloną, gdy wysokość cienia przesuwa się pionowo w całym zakresie warstw emisyjnych. W ciągu dnia kilka linii i pasm jest bardzo jasnych, głównie ze względu na wyższą wydajność produkcji. Rzeczywiście, emisje światła dziennego i zmierzchowego wynikają głównie z bezpośredniego wzbudzenia przez fotony ultrafioletowe Słońca, fotoelektrony wytwarzane w procesach jonizacji w jonosferze oraz przez rozpraszanie rezonansowe lub fluorescencję promieniowania słonecznego. Takie zjawiska energetyczne skutkują złożonym widmem światła dziennego w ultrafiolecie, jak pokazano na rysunku



Pomiary te wykonano z satelity krążącego wokół Ziemi (STP78-1), ponieważ fotony ultrafioletowe nie mogą przedostawać się do ziemi ze względu na efekt ekranowania atmosfera. Nawet przy długościach fal bliskich UV lub widzialnych trudno jest uchwycić poświatę dzienną za pomocą instrumentów naziemnych ze względu na wysoki poziom rozproszonego światła słonecznego w tle. W widmie ultrafioletu o krótkich falach dominują pojedynczo zjonizowane i obojętne linie tlenu (O I, O II) i azotu (NI, N II). Linie te powstają w wyniku fotonów ultrafioletowych i uderzeń fotoelektronów. Linie krótkofalowe powstają w wyniku odwzbudzenia wyższych stanów o wysokiej energii, których nie można wzbudzić w reakcjach chemicznych ani rekombinacji. Kilka linii atomowych i jonowych w widmie światła dziennego to także linie pojawiające się w widmie Słońca, jak na przykład linia He I przy 584 Å. W przypadku helu zjawisko to wynika z rozproszenia rezonansowego linii emisyjnej promieniowania słonecznego He. Podobne cechy obserwuje się przy długościach fali 834 Å (triplet O II), 1216 Å i 1025 Å (HI, Lγα i L&gammalβ), 1302-1306 Å (triplet O I) i innych. Są one spowodowane rozpraszaniem rezonansowym lub fluorescencją.

Emisje tlenu cząsteczkowego w poświatach Ziemi, Wenus i Marsa

O ile przypadek stanu O(1S) jest dobrze poznany, o tyle szczegółowy proces emisji O2 nie jest jeszcze dobrze poznany. Oprócz dyskretnego pasma O2 o długości fali 762 nm, istnieje rozszerzona emisja w kolorze bliskim UV-niebieskiego przypisywana pasmom Herzberga i Chamberlaina. W poprzednich reakcjach wzbudzony stan związany O-2 O2 może wynosić A3Σ+u, A′3Δu lub c1Σ-u. Głównym prekursorem O(1S) mógłby być O2(c 1Σ?u ), ale nadal nie jest pewne, jaka jest natura prekursora i jest to nadal aktywny obszar badań. W atmosferze ziemskiej układ Herzberg I jest główną przyczyną kontinuum niebieskiej poświaty nocnej, ze średnią emisją 400 R. Z kosmicznych obserwacji poświaty Wenus prowadzonych przez radzieckie sondy Venera wykryto podobne poświaty tlenowe, chociaż w zupełnie innych \ ilościach . Nocna poświata tlenu cząsteczkowego Wenus wykazuje silną przewagę układu Herzberga II (2700 R). Tak duże różnice wynikają z odmiennego składu chemicznego środowiska atmosferycznego Ziemi i Wenus. W warstwach świetlnych gęstość otaczającego powietrza (N2+O2 dla Ziemi, CO2 dla Wenus) jest prawie 100 razy większa na Wenus niż na Ziemi, odwrotna sytuacja ma miejsce w przypadku O (trzy razy mniej na Wenus niż na Ziemi). Ponieważ wygaszanie kolizyjne O2(A3Σ+u ) jest realizowane głównie przez cząsteczki powietrza, podczas gdy O2(c1Σ-u) jest preferencyjnie wygaszane przez zderzenia z O, pasma Herzberga I są słabe na Wenus, a pasma Herzberga II są silnie wzmocnione pod względem w przypadku Ziemi (2700 R na Wenus w porównaniu do 100 R na Ziemi). Inną interesującą cechą jest ekstremalna słabość zielonej linii tlenowej w nocnej poświacie Wenus (5R w porównaniu do 120R na Ziemi), co było ważnym elementem faworyzującym mechanizm Bartha zamiast procesu Chapmana. Oczekuje się świecenia układu atmosferycznego w podczerwieni o masie 1Δg -> X3Σ?g w podczerwieni przy długości fali 1,27 μm. Świecenie to, po raz pierwszy odkryte na Wenus przez francuskiego spektroskopistę Pierre′a Connesa i jego współpracowników pod koniec lat 70. XX wieku, jest dość intensywne (>1 MR, czyli 106 R). Tak silną emisję mierzy się także na Ziemi. Ze względu na długi czas życia radiacyjnego O2(a1 &Dellta;g) (1 h) analizę komplikuje transport przez terminator. Fotoliza O3 w warunkach nasłonecznienia zgodnie z następującą reakcją

O3 + hv -> O2(a1Δ g)+O(1D)

stanowi część źródła światła dziennego Ziemi i Marsa, ale na Wenus jest nieistotna. Głównym źródłem poświaty nocnej wszystkich planet lądowych, poświaty dziennej Wenus i części poświaty dziennej Ziemi i Marsa, jest rekombinacja atomów O powstałych w wyniku fotolizy O2 na Ziemi oraz CO2 na Wenus i Marsie. Connes oszacował poszczególne linie rotacyjne tego pasma w widmie Marsa za pomocą 5-metrowego teleskopu na górze Palomar w latach 1973 i 1975. Z widm uzyskano temperatury rotacyjne i intensywność poświaty powietrznej. W każdym widmie zmierzono równoważne szerokości około 30 linii, które zwykle wynosiły 0,005-0,01 nm. Racjonując szerokość równoważna wytrzymałości linii i badając zależność tego stosunku od energii górnego stanu rotacyjnego przejścia, wywnioskowano temperaturę obrotową 200 K, co odpowiada rzeczywistej temperaturze uśrednionej na profilu wysokości poświaty. Stwierdzono typowe natężenie poświaty od 3 do 30 MR, w zależności od szerokości geograficznej. Zakładając, że współczynnik szybkości wygaszania przez cząsteczki powietrza (CO2 na Marsie) jest znany, ilość ozonu można wywnioskować na podstawie pomiarów poświaty powietrza o średnicy 1,27 μm, choć w dość niedokładny sposób.

AM Herkulis

AM Herculis (AM Her) to prototyp i najjaśniejszy z klasy krótkookresowych układów podwójnych kataklizmicznych (CB), w których silnie magnetyczny BIAŁY KARZEŁ akreuje gaz z Rochelobe wypełniający towarzysz masy podsłonecznej. Pole magnetyczne jest wystarczająco silne (B1 ≳ 20 MG; MG = 106 gausów), aby wpłynąć jakościowo na najbardziej podstawowe właściwości układu podwójnego: zapobiegać tworzeniu się dysku akrecyjnego i wymuszać przenoszenie masy całkowicie przez jeden lub więcej strumieni gazu; kierowanie przepływu w pobliżu białego karła do prawie promieniowego lejka, który uwalnia energię akrecji w wyniku wstrząsu nad biegunem magnetycznym; oraz synchronizowanie rotacji białego karła z ruchem orbitalnym towarzysza, tak że wszystkie podstawowe zjawiska są zorganizowane we wspólnym okresie Pspin = Porb. Ponieważ gaz dociera do powierzchni białego karła podczas wirtualnego swobodnego spadku, temperatura plazmy po szoku jest wysoka, a układy podwójne typu AM He∼∼r są silnymi emiterami promieniowania rentgenowskiego. Większość z obecnego katalogu około 50 takich układów wynika z satelitarnych badań całego nieba w zakresie promieni rentgenowskich. Sama AM Her została skatalogowana jako GWIAZDA ZMIENNA pół wieku przed tym, jak jej identyfikacja ze źródłem promieniowania rentgenowskiego 3U 1809+50 przyciągnęła uwagę obserwatorów. Przy typowych okresach w zakresie 1,5 ≲ Porb 4 h i masach gwiazd M1 ˜ 0,6M⊙ , M2 ˜ 0,2M⊙ , cały układ podwójny typu AM Her zwykle zmieściłby się w dysku Słońca. Systemy są zatem kompaktowymi laboratoriami do badania fizyki wysokotemperaturowych, namagnesowanych PLAZM, a także oddziaływań magnetycznych między gwiazdami

Miejsce akrecji

Tradycyjnie cechą charakterystyczną układu podwójnego AM Hertype była silna optyczna polaryzacja kołowa (∼5%-30%) emisji cyklotronu wypromieniowanej w przepływie po szoku tuż nad powierzchnią białego karła. Emisja cyklotronowa to promieniowanie szybkich (ale nierelatywistycznych) elektronów krążących spiralnie wokół linii pola magnetycznego i jeden z nielicznych procesów astrofizycznych, który powoduje tendencję wektora elektrycznego emitowanego promieniowania do oscylacji według wzoru składnik kołowy netto, w przeciwieństwie do zachowania czysto liniowego (polaryzacja liniowa) lub braku preferencyjnego wzoru (niespolaryzowany). Ta właściwość jest tak wyjątkowa dla zsynchronizowanych magnetycznie CB, że zyskała miano polarnych. Widmo emisyjne elektronu wirującego w polu magnetycznym występuje przy wielokrotnościach częstotliwości kątowej Larmora ωL = eB/mec. Przez analogię do izolowanych białych karłów, początkowo zinterpretowano, że silna optyczna polaryzacja kołowa AM Her występuje w pobliżu podstawy cyklotronu ωC = ωL, co sugeruje natężenie pola magnetycznego B1 ∼ 200 MG. Jednakże obserwacje spektropolarymetryczne podczas przerwy w ACCRETION ujawniły sygnaturę Zeemana w postaci pola magnetycznego o wartości zaledwie 10-20 MG w liniach absorpcyjnych szeregu wodoru Balmera. Ponieważ gwiazda wtórna była również widoczna w tym niskim stanie, widmo Zeemana przypisano uśrednionej na dysku fotosferze magnetycznego białego karła, a światło spolaryzowane w stanie wysokim przypisano emisji cyklotronu w liczbach harmonicznych 5 ≲ m ≲10. Następnie, W widmach stanów wysokich rozpoznano indywidualne termicznie poszerzone harmoniczne cyklotronu i wywnioskowano, że natężenie pola polarnego wynosi 14 MG. Strumień akrecyjny uderza w białego karła z prędkością



Oprócz promieniowania cyklotronowego, przepływ poszokowy chłodzi się za pomocą bremsstrahlung (emisji swobodnej) promieni rentgenowskich o charakterystycznej temperaturze kTbrem ∼ 20-30 keV. Około 50% każdego z tych składników, skierowanego w dół, jest pochłaniane i ponownie wypromieniowywane przez białego karła, tworząc trzeci, "ciało doskonale czarne", składnik, którego jasność według oryginalnych modeli przewidywała LBB ∼ Lcyc + Lbrem i temperatura kTBB ∼ 20 eV (w miękkim promieniowaniu rentgenowskim). Idee te były w dużej mierze zgodne z wczesnymi obserwacjami. Jednakże później zaobserwowano "odwrócony" tryb promieniowania rentgenowskiego AM Her, w którym twarde i miękkie promieniowanie rentgenowskie było silnie modulowane w okresie podwójnym, ale były względem siebie przeciwfazowe. Szybko zdano sobie sprawę, że tryb ten oznacza chwilową aktywację przepływu gazu na przeciwny biegun magnetyczny. Tutaj, z jakiegoś powodu, akrecja najwyraźniej zachodzi głównie w postaci gęstych skupisk o masie ∼1016 g, które odkładają swoją energię kinetyczną głęboko w atmosferze białego karła, ogrzewając otaczającą fotosferę od dołu do ∼105 K. Bezpośrednie dowody na to Narost "blobby" występuje w postaci migotania na krzywych blasku optycznego i rentgenowskiego nawet w "normalnym" trybie rentgenowskim; stąd zlepki muszą mieć mniejsze lub większe znaczenie we wszystkich przepływach, a jest to cecha, która zniekształca równowagę energetyczną w stosunku do przewidywanej przez prosty model. Dla parametrów gwiazdowych wymienionych w tabeli ,



obserwowana całkowita jasność AM Her, L ∼ 5 × 1032 erg s-1, w stanie wysokim, implikuje szybkość akrecji ˙M = LR1 / GM1 ≈ 1 × 10-10M⊙yr?1 przy spadku szybkości przenoszenia masy w stanie niskim o rząd wielkości lub więcej. Jest mało prawdopodobne, aby emisja była jednolita w całym strumieniu; rdzeń o dużej gęstości będzie stosunkowo skompresowany i będzie promieniował głównie w twardych promieniach rentgenowskich, podczas gdy bardziej rzadka osłona będzie miała większą wysokość wstrząsu odstającego i będzie sprzyjać chłodzeniu cyklotronu. Ze względu na znaczenie naświetlania z góry i ogrzewania subfotosferycznego, oczekuje się, że miękkie promieniowanie rentgenowskie będzie pochodzić z jeszcze większych obszarów. Pomysły te potwierdzają różnorodne obserwacje, które ujawniają, że obszar plamki jako ułamek powierzchni białego karła waha się od f < 10-4 dla emisji bremsstrahlunga do f ∼ 0,1 dla podgrzanej czapy polarnej w bliskim zakresie UV.

Strumień gazu

W układzie podwójnym akrecji wypełnienia ROCHE-LOBE transfer masy następuje przez wewnętrzny punkt Lagrangianu L1, gdzie wypadkowa siła grawitacji we współbieżnym układzie współrzędnych wynosi zero. Wystrzeliwane dzięki niewielkiej prędkości termicznej atomy są szybko jonizowane przez intensywne promieniowanie rentgenowskie/UV i przyspieszają w kierunku białego karła pod połączonym wpływem rosnącego pola grawitacyjnego i efekty Coriolisa. Rezultatem jest skierowanie strumienia w kierunku postępowym. W niemagnetycznym CB gaz krąży następnie wokół białego karła, zderza się z przepływem powyżej i dyfunduje do DYSKA AKRECJI otaczającego zwartą gwiazdę. W układach typu AM Her pole magnetyczne białego karła zaczyna dominować w kinematyce zjonizowanego strumienia przy mniej więcej promieniu Alfvena, określonym przez B2/ 8π ∼ρv2/ 2. To przejście z obszarów przepływu kontrolowanych balistycznie do obszarów kontrolowanych magnetycznie następuje w odległości ∼5-10R1 nad ∼∼∼∼∼∼powierzchnią białego karła. Poniżej "obszaru sprzęgania" grudki plazmy są mniej więcej całkowicie splatane przez szybko rosnące pole magnetyczne i w przybliżeniu podążają po trajektoriach dipolarnych. Ogólnie rzecz biorąc, obejmuje to odchylenie przepływu od płaszczyzny orbity. Ponieważ pierwotny strumień ma niemożliwy do pominięcia przekrój poprzeczny, a sprzęganie zachodzi na znacznej odległości liniowej, różne części strumienia ostatecznie wyznaczają różne linie pola prowadzące do powierzchni, a powstały punkt akrecji lepiej przypomina łuk niż okrąg. Rzeczywiście, gaz już porusza się z prędkością ˜1000 kmˇs-1, kiedy napotyka magnetosferę białego karła, zatem jest mało prawdopodobne, aby nawlekanie było procesem przypadkowym. Kiedy AM Her znajduje się w trybie dwubiegunowym, przepływ najwyraźniej rozgałęzia się z obszaru sprzęgania do drugiego strumienia, który uderza w gwiazdę magnetyczną w miejscu mniej więcej naprzeciw głównego bieguna. Bardziej znanym przykładem tej samej fizyki są bliźniacze strefy zorzowe powstałe w wyniku wychwytywania cząstek rozbłysków słonecznych przez ziemską magnetosferę. Strumień zjonizowanego radiacyjnie gazu jest także obfitym emiterem promieniowania rekombinacyjnego. Ze względu na dużą prędkość kolimowanego przepływu linie emisyjne są szerokie i bardzo zmienne pod względem prędkości radialnej, a także profilu na całej orbicie. W przeciwieństwie do typowej astrofizyki mgławicy strumień liniowy strumienia pokazuje F ˜ FH? ˜F, co wskazuje na duże głębokości optyczne w gęstym przepływie (Ne ≳ 1013 cm-3).

Gwiezdne komponenty

Nieprzezroczystości cyklotronu przy dużej liczbie harmonicznych są silnie zależne od kierunku i wrażliwe na polaryzację. W przypadku punktów widzenia w pobliżu kierunku lokalnego pola magnetycznego emisja jest stosunkowo słaba i spolaryzowana kołowo ze zwrotem (+/-), który odzwierciedla polaryzację pola. Prostopadłe linie wzroku mierzą silną polaryzację liniową i źródło wzmocnione efektami "promieniowania cyklotronowego". Ponieważ lejek akrecyjny i wynikający z niego wstrząs są przymocowane do mniej więcej promieniowych linii pola magnetycznego na współwirującym białym karle, zmiany strumienia i polaryzacja cyklotronu zależą od szczegółowej geometrii układu podwójnego: nachylenia i, współszerokości geograficznej bieguna magnetycznego β i długości osi pola względem linii środków gwiazd Ψ. Kiedy fazowo-rozdzielcze obserwacje spolaryzowanego światła cyklotronowego zostaną połączone z badaniami prędkości radialnych linii emisyjnych lejka i linii absorpcji gwiazd, wielkości te można mniej lub bardziej jednoznacznie określić i uzyskać niezwykle szczegółowe obrazy skonstruowanych układów. Co więcej, porównanie natężenia pola magnetycznego w przeciwległych obszarach akrecji układów dwubiegunowych można wykorzystać do wywnioskowania morfologii układu pola na białym karle (np. dipol, dipol offsetowy, kwadrupol). Praktycznie we wszystkich CB masa cząsteczki wtórnej jest na tyle niska, że czas życia gwiazdy w ciągu głównym przekracza wiek Galaktyki i zakłada się, że jest ona w dużej mierze niewyewoluowana. Kiedy gwiazdę można obserwować bezpośrednio, na przykład w stanie małej akrecji, zmierzony typ widma jest generalnie zgodny z wywnioskowaną masą i promieniem. Jednakże dla M2 < M1 kontakt między gwiazdą dawcą a jej powierzchnią Roche′a może zostać utrzymany w obliczu przenoszenia masy tylko wtedy, gdy z układu zostanie usunięty moment pędu. Oznacza to, że orbita musi zanikać z czasem - a okres się zmniejszać - przynajmniej do czasu, gdy element wtórny ulegnie całkowitej degeneracji. Obecne koncepcje utożsamiają mechanizm utraty pędu z promieniowaniem grawitacyjnym oraz, w przypadku wyższych szybkości przenoszenia masy obiektów z P ≳ 3h, hamowaniem magnetycznym przez wiatr typu słonecznego wymiatany na zewnątrz wzdłuż linii pola magnetycznego powiązanej pływowo gwiazdy magnetycznej. Argumentowano, że sytuacja ta ulega zmianie, gdy obecna jest silnie magnetyczna, zsynchronizowana gwiazda pierwotna, ponieważ duża część linii pola wtórnego kończyłaby się wówczas na białym karle. Zmniejszona liczba "otwartych" linii gwiazdy wtórnej zmniejszyłaby skuteczność magnetycznego mechanizmu hamowania. Wydaje się, że zsynchronizowane systemy - w tym AM Her - rzeczywiście wykazują tempo akrecji, które jest systematycznie niższe niż niemagnetyczne CB w tym samym okresie orbitalnym, więc możliwe jest, że pole magnetyczne wpływa nawet na ewolucję okresową układu podwójnego. Jednocześnie nie jest jasne, czy nawet dwie dekady obserwacji to wystarczająco długa linia bazowa, aby ocenić świeckie tempo przenoszenia masy bliskiego układu podwójnego, którego ewolucyjna skala czasowa waha się od ∼103 -104 lat (w przypadku erupcji nowych) do prawie 109 lat (dla zaniku okresu orbitalnego). Nieznana jest również przyczyna stanów niskiej akrecji, które obejmują nagłe odcięcie strumienia rentgenowskiego AM Her 7-krotnie w ciągu zaledwie 40 minut i które mogą utrzymywać się przez wiele miesięcy.

Synchronizacja spinu/orbity

Główna gwiazda AM Her podlega momentowi akrecji Nacc ∼ 2π/P R2L1 ˙M ∼ 5 × 1033 dyn cm gdzie RL1 jest odległością punktu L1 od białego karła. Pozostawione samemu sobie spowodowałoby to obrót białego karła w skali czasu τ ∼ 108 lat. Zatem moment akrecyjny musi być zrównoważony momentem równoważącym, który utrzymuje okres wirowania białego karła równy okresowi orbity towarzysza. Ponieważ wszelka interakcja magnetyczna musi być słabsza, gdy separacja składników jest większa (młodsza binarnie), często uważa się, że musi zadziałać dodatkowy, rozpraszający moment obrotowy, aby spowolnić prędkość wirowania białego karła i początkowo zsynchronizować ruchy. Wśród proponowanych możliwości znajdują się oddziaływania magnetostatyczne z wewnętrznie magnetycznymi lub niemagnetycznymi gwiazdami wtórnymi oraz efekty magnetohydrodynamiczne, w których prądy elektryczne przepływają przez rozrzedzony ośrodek plazmowy układu podwójnego. Chociaż prawdopodobnie nie jest możliwe uzyskanie jednoznacznej odpowiedzi w każdym indywidualnym przypadku, wskazówki empiryczne co do natury interakcji są potencjalnie dostępne w rozkładzie długości dipolowych φ dla konfiguracji równowagowych oraz w możliwych dryfach lub powolnych oscylacjach kątowych dipol w układach podwójnych. Obserwacje w czasie rzeczywistym resynchronizujących magnetycznych układów NOVA, które zostały oddzielone przez erupcje nowej, również są obiecujące w zakresie wyjaśnienia tego unikalnego aspektu fizyki systemów typu AM Her.

Amatorskie Towarzystwa Astronomiczne

Astronomia amatorska ma długą i wybitną historię. Na przykład William Herschel, odkrywca planety Uran i być może największy ze wszystkich obserwatorów, rozpoczął swoją karierę jako amator; w 1845 roku trzeci hrabia Rosse zbudował wówczas najpotężniejszy teleskop na świecie - zamek Birr 72 w reflektorze - i wykorzystał go do odkrycia spiralnych form obiektów, które obecnie wiemy, że są galaktykami. Współcześni amatorzy wykonują prace, na które profesjonaliści nie mają czasu, ochoty lub nie są do tego wyposażeni. Jednak obserwator pracujący samodzielnie może wnieść stosunkowo niewielką wartość - i właśnie w tym przypadku amatorskie towarzystwa astronomiczne odgrywają tak ważną rolę. Należy zauważyć, że w znacznym stopniu stowarzyszenia amatorskie i zawodowe w znacznym stopniu pokrywają się. Na przykład w Wielkiej Brytanii ROYAL ASTRONOMICAL SOCIETY, główna organizacja zawodowa, zrzesza wielu członków-amatorów, a całkiem niedawno niektórzy amatorzy pełnili nawet funkcję prezesów (na przykład WH Steavenson, lekarz medycyny). BRITISH ASTRONOMICAL ASSOCIATION (BAA) to głównie amatorskie stowarzyszenie, ale zrzesza także wielu profesjonalistów, a wśród jego poprzednich prezesów było kilku członków rodziny Astronomers Royal. Ta sama sytuacja ma miejsce w większości pozostałych krajów. Nawet MIĘDZYNARODOWA UNIA Astronomiczna, organ kontrolujący światową astronomię, ma kilku członków-amatorów. Wielka Brytania zawsze odgrywała znaczącą rolę w badaniach astronomicznych, warto więc przedstawić krótki opis rozwoju różnych tamtejszych społeczeństw. Początki Królewskiego Towarzystwa Astronomicznego sięgają oczywiście lat dwudziestych XIX wieku, a jednym z pierwszych prezesów był Sir William Hershel. Obowiązywały ograniczenia wjazdu; w szczególności kobietom nie pozwolono zostać towarzyszami dopiero znacznie później. Istniało wyraźne zapotrzebowanie na krajowe stowarzyszenie amatorskie, a w latach osiemdziesiątych XIX wieku powstało Liverpool Astronomical Society, które rozrosło się w organizację międzynarodową. Potem nagle upadł, częściowo z powodu problemów finansowych, a częściowo z powodu złej administracji. To wtedy powstało BAA; jego pierwsze spotkanie odbyło się w Londynie w 1890 r. Od samego początku BAA miało być stowarzyszeniem obserwacyjnym i utworzono różne sekcje, z których każda była kontrolowana przez doświadczonego dyrektora. Przykładowo jeden dział w całości poświęcono obserwacjom planety Jowisz i regularnie publikowano raporty, zarówno w miesięczniku Stowarzyszenia, jak i w specjalistycznych Memoirach . Prawdopodobnie prawdą jest stwierdzenie, że publikacje te stanowią najlepszą i najbardziej ciągłą dostępną serię obserwacji Jowisza, a prace trwają do dziś, chociaż prawdą jest, że wyniki badań sond kosmicznych w pewnym stopniu wyparły jakikolwiek ziemski program obserwacyjny. Inne sekcje dotyczyły Słońca, Księżyca, Marsa, komet, gwiazd zmiennych i tak dalej. Początkowo Królewskie Towarzystwo Astronomiczne patrzyło na BAA z dezaprobatą, ale szybko stało się jasne, że nie będzie konfliktu interesów i od wielu lat siedziby obu towarzystw mieszczą się w tym samym budynku w Burlington House na Piccadilly. Powstały różne oddziały BAA, choć jedna po drugiej decydowały się na oderwanie i uzyskanie całkowitej niezależności. Do dziś pozostał jedynie oddział w Nowej Południowej Walii w Australii. Nie było żadnych ograniczeń dotyczących wstępu, a było kilku bardzo młodych członków. Jednakże w pewnym momencie uznano, że może zaistnieć potrzeba stworzenia społeczeństwa skupiającego się wyłącznie na młodych ludziach. Propozycja utworzenia sekcji młodszej została skierowana do Rady BAA, ale nie została przyjęta. Doprowadziło to do powstania Junior Astronomical Society (JAS) i założono, że młodzi entuzjaści dołączą do JAS, a następnie przejdą do BAA. Na początku tak się działo, ale w latach sześćdziesiątych JAS zdecydował się stać się organizacją równoległą; obecnie jest znane jako Towarzystwo Astronomii Popularnej. Nie ma wątpliwości, że BAA jest organizacją odnoszącą ogromne sukcesy i to od wielu lat był klasą samą w sobie. W pewnym stopniu jest to nadal prawdą, ale skupiało się to głównie w Londynie, a potrzebne były także społeczności lokalne. Obecnie prawie każde większe miasto i miasteczko na Wyspach Brytyjskich ma swoje własne stowarzyszenie, a wiele z nich jest stowarzyszonych z BAA. Wielką zaletą społeczności lokalnej jest możliwość założenia obserwatorium. Obserwatoria publiczne w Wielkiej Brytanii są rzadkością, a społeczności lokalne okazały się nieocenione w wypełnieniu tej luki. Niektóre są wyjątkowo dobrze wyposażone i zdolne do wykonywania pracy na profesjonalnym poziomie. Co więcej, wielu młodych entuzjastów, którzy zaczynają od przyłączenia się do najbliższego stowarzyszenia, zostaje zawodowymi astronomami. Społeczności szkolne rozkwitają, choć prawdą jest, że ich funkcjonowanie zależy od obecności przynajmniej jednego oddanego personelu. Kilka szkół ma nawet własne obserwatoria radioastronomiczne (na przykład szkoła Taunton w Somerset). W Szkocji, a także w Irlandii istnieje wiele stowarzyszeń amatorskich. Aktywne społeczeństwa istnieją także na Wyspach Normandzkich i na Wyspie Man. Wszystkie te różne społeczeństwa są ze sobą powiązane i współpracują dla obopólnych korzyści. Ponadto wiele z nich wydaje własne, regularne czasopisma, a ich działalność i wyniki są relacjonowane w czasopismach ogólnopolskich, takich jak Modern Astronomer i Astronomy Now. Z punktu widzenia obserwatorium publicznego sytuacja w Stanach Zjednoczonych jest znacznie lepsza, a stowarzyszenia amatorskie są rzeczywiście bardzo liczne. Szczególne znaczenie ma AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH (AAVSO), które jest największą organizacją tego typu na świecie i która prowadzi ogromną liczbę ważnych obserwacji. Jak można się spodziewać, tworzą ją zarówno amatorzy, jak i profesjonaliści, ale w przypadku czystej pracy wizualnej to amatorzy są najbardziej płodni, zwłaszcza teraz, gdy mogą korzystać z urządzeń elektronicznych, takich jak matryce CCD, i mogą dawać wyniki, które zadowolą każdego zawodowego badacza. Wyliczenie wszystkich innych głównych stowarzyszeń zajęłoby wiele stron, ale należy szczególnie wspomnieć o Towarzystwie Astronomicznym Pacyfiku, które zrzesza wielu członków-amatorów. W Kanadzie działają dwa główne stowarzyszenia: Kanadyjskie Towarzystwo Astronomiczne (głównie zawodowe) i KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE KANADY (częściowo profesjonalista, częściowo amator). Taka sama sytuacja ma miejsce w Australii i Nowej Zelandii. Społeczeństwa amatorskie rozkwitają niemal we wszystkich krajach europejskich i w Rosji. Japonia ma oczywiście wielką tradycję amatorskiej pracy obserwacyjnej i tutaj także działają organizacje zarówno krajowe, jak i lokalne. Naturalnie wszystkie stowarzyszenia - krajowe i lokalne - odbywają regularne spotkania, a te są bezcenne, ponieważ często można zaprosić znanych prelegentów, którzy będą mogli udzielić rad i zachęty. Względy finansowe są zawsze na pierwszym planie. Stawki abonamentu są utrzymywane na możliwie najniższym poziomie, ale rachunki trzeba płacić, szczególnie jeśli w grę wchodzą wszelkiego rodzaju lokale. Władze lokalne często pomagają, choć inne są znacznie mniej skłonne do współpracy (w Wielkiej Brytanii jedno stowarzyszenie zostało niedawno zmuszone do opuszczenia swojego obserwatorium, ponieważ rada zdecydowała się podnieść czynsz za grunt do niemożliwej kwoty). Jednak nawet stowarzyszenie, które nie ma siedziby ani obserwatorium, prawie na pewno będzie miało członków posiadających własne teleskopy i udostępniających je nowicjuszom. Obecnie istnieją również ambitne stowarzyszenia, które zakładają własne planetaria - a planetarium jest z pewnością najlepszą możliwą pomocą edukacyjną. Jest ich mnóstwo w Stanach Zjednoczonych i kilka w Wielkiej Brytanii, zwłaszcza planetarium wznoszone obecnie w pobliżu Chichester w Sussex przez Towarzystwo Astronomiczne South Downs. W ostatnich latach doszło do jednego niepowodzenia. Proponowano utworzenie międzynarodowej organizacji amatorskiej, mającej na celu korelację prac towarzystw na całym świecie, i w latach 60. XX w. na Zgromadzeniu Ogólnym Międzynarodowej Unii Astronomicznej faktycznie powołano taką organizację: Międzynarodową Unię Astronomów Amatorów ( IUAA). Wydała kilka publikacji i odbyła kilka spotkań w różnych krajach, ale trzeba przyznać, że nigdy nie odniosła prawdziwego sukcesu, także ze względu na ograniczenia finansowe. Można mieć nadzieję, że w przyszłości zostanie on rozbudowany i odegra naprawdę pożyteczną rolę, jest jednak trudny do zorganizowania i wiele pozostaje do zrobienia. Tymczasem amatorskie stowarzyszenia astronomiczne istnieją praktycznie we wszystkich krajach. Ich wartość jest nie do przecenienia, a dziś, w epoce kosmicznej, ich rola jest jeszcze ważniejsza niż w latach ubiegłych.

Współpraca amatorsko-zawodowa w astronomii

Prawdopodobnie prawdą jest stwierdzenie, że w większości dziedzin nauki dzień amatora dobiegł końca. Żaden współczesny amator nie może spodziewać się podjęcia ważnych prac badawczych na przykład w fizyce, gdzie niezbędny jest skomplikowany i kosztowny sprzęt; nie może też spodziewać się wielkiego odkrycia teoretycznego, ponieważ potrzebne jest bardzo rygorystyczne szkolenie. To prawda, że nadal jest miejsce na dobrą amatorską pracę w geologii i paleontologii, ale to w astronomii amator naprawdę odnajduje się w swoich możliwościach. Sto lat temu istniały różne gałęzie astronomii, w których królował amator. Najlepszych obserwacji Księżyca i powierzchni planet dokonywali amatorzy i tak było jeszcze niedługo przed drugą wojną światową. Warto również pamiętać, że w 1845 roku 3. Hrabia ROSSE, bez żadnej pomocy eksperta, zbudował najpotężniejszy wówczas teleskop zwierciadlany 72-calowy w zamku Birr w Irlandii i użył go do odkrycia form obiekty zwane wówczas mgławicami spiralnymi, a obecnie znane jako galaktyki zewnętrzne. (Miło jest zauważyć, że po długim okresie zaniedbań teleskop Birra został przywrócony do pełnej sprawności, choć oczywiście w żadnym wypadku nie dorównuje współczesnemu teleskopowi o tej samej aperturze.) Około 1900 r. fotografia przejęła kontrolę nad okiem w większości dziedzin astronomii. Obecnie sama fotografia jest wypierana przez pomoce elektroniczne, takie jak URZĄDZENIA ŁADUJĄCE (CCD), które są znacznie bardziej czułe. Astronom nie musi już spędzać godzin w zimnej, ciemnej kopule, upewniając się, że jego teleskop jest nadal dobrze zamocowany na docelowym obiekcie; wcale nie musi przebywać w kopule ani nawet w tym samym kraju. Wszystko wyświetla się na ekranie telewizora. Ma to oczywiste zalety, poza wygodą, ale oznacza, że zawodowy astronom rzadko lub wcale nie patrzy przez teleskop i nie musi posiadać praktycznej wiedzy o niebie. Prawie na pewno prawdą jest stwierdzenie, że niewielu zawodowych astronomów jest w stanie rozpoznać więcej niż pół tuzina konstelacji1. Niektórzy amatorzy natomiast mają wręcz encyklopedyczną wiedzę o niebie i bez problemu potrafią zidentyfikować wiele setek gwiazd. Sprzęt amatorski zmienił się znacząco w niedawnej przeszłości. Pięćdziesiąt lat temu przeciętny amator używał teleskopu o umiarkowanej aperturze - powiedzmy do 18 cali w przypadku REFLEKTORA - i był bardziej zainteresowany pracą wizualną niż fotografią. Dziś dobrze wyposażony amator nabył umiejętności w elektronice. Używając matrycy CCD z, powiedzmy, 15-calowym teleskopem, współczesny amator może uzyskać wyniki porównywalne z wynikami uzyskanymi w głównych profesjonalnych obserwatoriach bezpośrednio po wojnie. Są oczywiście amatorzy, którzy w ogóle nie korzystają z teleskopów. Praca gołym okiem może być przydatna, szczególnie w przypadku meteorów i zorzy polarnej (zobacz artykuł na temat ASTRONOMII GOŁYM OKIEM). Jednak lornetka może być naprawdę bardzo cenna, zwłaszcza w rękach amatorów, którzy spędzają czas na poszukiwaniu komet i nowych. George Alcock, angielski nauczyciel, odkrył teraz cztery komety i trzy nowe, a wszystko to przy pomocy potężnej lornetki. "Przeczesuje" niebo, a jego znajomość układów gwiazd jest tak dobra, że na pierwszy rzut oka rozpoznaje przybysza. Nie jest w tym osamotniony; amatorzy odkryli ostatnio wiele komet - w tym dwie najnowsze "wielkie" komety, Hyakutake z 1996 r. i Hale-Bopp z 1997 r. Jednym z wybitnych współczesnych amatorów jest australijski duchowny, wielebny Robert Evans. Używa przenośnego teleskopu i skanuje zewnętrzne galaktyki w poszukiwaniu supernowych. Jak dotąd odkrył ich ponad 20. Supernowa to kolosalny wybuch gwiazdowy, oznaczający śmierć gwiazdy; w naszej Galaktyce od roku 1604 nie zaobserwowano żadnych supernowych gołym okiem, ale rzeczywiście zdarzają się one w układach zewnętrznych, oddalonych o wiele milionów lat świetlnych. Nikt nie jest w stanie przewidzieć, kiedy wybuchnie supernowa, dlatego ważne jest, aby przeprowadzić obserwacje tak wcześnie, jak to możliwe, aby wcześniejsze ostrzeżenia podawane przez amatorów takich jak Evans miały ogromne znaczenie. Poszukiwania tego rodzaju są obecnie prowadzone przez wielu amatorów z dużym sukcesem. Niektórzy obserwatorzy, tacy jak Evans, pracują wzrokowo; inni używają sprzętu fotograficznego lub CCD. Nie trzeba dodawać, że wkład tego rodzaju jest bardzo ciepło przyjęty przez zawodowych astronomów. Zwykłe nowe mogą być również identyfikowane przez amatorów, dzięki ich znajomości nieba, a w ostatnich latach w ten sam sposób odkryto także kilka mniejszych planet lub asteroid. Bez wątpienia konieczne jest niezwłoczne powiadomienie o odkryciu. Ośrodki znajdują się w wielu krajach, ale każde potwierdzone odkrycie ogłaszane jest przez usługę telegramową MIĘDZYNARODOWEJ UNII Astronomicznej (IAU), która ma zasięg ogólnoświatowy. Prawdą jest również, że wiele rzekomych "odkryć" okazuje się fałszywymi alarmami i dokładamy wszelkich starań, aby je odfiltrować, zanim zaczną marnować cenny czas obserwacji. Prace nad gwiazdami zmiennymi zawsze stanowiły główną część amatorskiej astronomii obserwacyjnej. GWIAZD ZMIENNYCH jest wiele rodzajów. Niektóre, jak cefeidy, są regularne jak w zegarku; inne, takie jak gwiazdy Mira, różnią się zachowaniem w zależności od cyklu; jeszcze inne są całkowicie nieregularne, tak że nigdy nie wiadomo, co zrobią dalej. Jest tak wiele gwiazd zmiennych, że zawodowi astronomowie nie są w stanie śledzić ich wszystkich, dlatego też w dużym stopniu polega się na pracy amatorskiej. Większość z nich ma charakter czysto wizualny. Procedura polega na porównaniu zmiennej z pobliskimi gwiazdami, które nie podlegają wahaniom. Przy odrobinie praktyki dokonanie szacunków z dokładnością do jednej dziesiątej wielkości nie jest trudne i w większości przypadków jest to wystarczające. Za pomocą fotometrów można uzyskać znacznie dokładniejsze szacunki i prawdą jest, że większość współczesnych amatorów poważnie zainteresowanych badaniami gwiazd zmiennych posiada sprzęt fotometryczny. Naprawdę duży teleskop nie jest niezbędny; reflektor o, powiedzmy, aperturze 6-12, da właścicielowi więcej pracy, niż jest on w stanie udźwignąć. Wyniki są korelowane przez organizacje takie jak Sekcja Gwiazd Zmiennych BRYTYJSKIEGO STOWARZYSZENIA ASTRONOMICZNEGO i AMERYKAŃSKIE STOWARZYSZENIE GWIAZD ZMIENNYCH OBSERWATORÓW. Istnieją pewne zmienne, które można dostrzec gołym okiem; taka jest GammaCassiopeiae w Wof Cassiopeia, która jest niestabilną gwiazdą "powłokową". Zwykle ma jasność nieco poniżej drugiej magnitudo, ale pod koniec lat trzydziestych XX wieku pojaśniała gwałtownie o ponad połowę magnitudo, a następnie spadła poniżej 3 magnitudo, zanim powróciła do normalnego stanu. Wczesne obserwacje wybuchu z lat trzydziestych XX wieku były amatorskie i nigdy nie wiadomo, kiedy to samo stanie się ponownie. Za pomocą lornetki można śledzić dziesiątki zmiennych i sporządzać dokładne krzywe blasku. Jeśli chodzi o Księżyc, przez wiele lat dominowała praca amatorska. Przed pojawieniem się misji kosmicznych większość profesjonalistów zajmowała się wyłącznie ruchami Księżyca, a mapy amatorskie były w tamtych czasach najlepsze. Była też szansa na dokonanie naprawdę ciekawych odkryć, jak np. formacji w obszarach libracji, w pobliżu krawędzi zwróconej ku Ziemi półkuli. Kiedy Rosjanie wysłali w 1959 roku swoją pierwszą sondę okołoksiężycową, Lunik 3, uzyskali zdjęcia odległej strony, która nigdy nie jest widoczna z Ziemi, ponieważ jest zawsze odwrócona od nas; mapy amatorskie wykorzystano do skorelowania wyników Lunika 3 z regionami obróconymi w stronę Ziemi. Jednak sytuacja uległa zmianie. Misje kosmiczne umożliwiły nam uzyskanie szczegółowych map całego Księżyca, a amatorska kartografia straciła na wartości, ale nadal jest nad czym pracować. Chociaż Księżyc jest mniej więcej obojętny, czasami zdarzają się bardzo krótkie, niejasne wybuchy, znane jako TLP lub przejściowe zjawiska księżycowe. Prawdopodobnie są one spowodowane łagodnym uwolnieniem gazów spod skorupy ziemskiej i były obserwowane tak często i przez tak wielu wiarygodnych obserwatorów (w tym kilku profesjonalistów), że trudno kwestionować ich realność. Potwierdzenie ich realności uzyskał w 1999 roku Adolfus za pomocą pomiarów wizualnych i polarymetrycznych. Badają je oddani amatorzy i rezultaty są takie z dużym zainteresowaniem. Zakrycia gwiazd przez Księżyc są nadal przydatne, a amatorzy są ekspertami w ich ustalaniu czasu. Zdarzają się również zakrycia gwiazd przez asteroidy, a ponieważ tory są tak wąskie, amator ma wielką przewagę; może zabrać odpowiedni teleskop we właściwe miejsce o właściwym czasie, czego profesjonalista nie jest w stanie zrobić. W ten sposób dokonano ważnych pomiarów pozycji i wymiarów asteroid. Coraz większego znaczenia nabiera także amatorska praca słoneczna. Codzienne śledzenie plam słonecznych jest interesujące, ale do prawdziwych badań Słońca potrzebna jest znaczna ilość złożonego sprzętu. Filtry H-alfa są obecnie powszechne i istnieje kilka doskonałych spektrohelioskopów; w istocie jeden z wiodących brytyjskich badaczy amatorów zajmujących się słońcem, komandor Henry Hatfield, posunął się tak daleko, że zbudował cały dom wokół swojego spektrohelioskopu. Amatorskie obserwacje rozbłysków i zjawisk towarzyszących służą uzupełnieniu prac prowadzonych przy większych obserwacjach zawodowych. Teraz, gdy dysponujemy niezwykle szczegółowymi widokami planet z różnych misji kosmicznych, można by pomyśleć, że amatorskie obserwacje planet straciły całą swoją wartość. Z całą pewnością tak nie jest. Przykładowo, obecnie (2000 rok) Saturn nie jest monitorowany przez żadną sondę. Od czasu do czasu zdarzają się tam poważne epidemie, a wiele z nich po raz pierwszy widzą amatorzy; na przykład jasną białą plamę z 1933 r. odkrył amator WTHAY, prawdopodobnie najlepiej zapamiętany przez ogół społeczeństwa jako Will Hay, komik teatralny i filmowy. Nową białą plamę po raz pierwszy zauważył także amator Wilber; dopiero później został sfotografowany przez Kosmiczny Teleskop Hubble′a. Jest bardzo prawdopodobne, że następny gwałtowny wybuch na Saturnie, o ile do niego dojdzie, będzie również odkryciem amatorskim, a wczesne powiadomienie oznacza, że profesjonalny sprzęt będzie mógł zostać u żyty tak szybko, jak to możliwe. Jowisz to kolejny ulubiony cel amatorów, ponieważ cechy powierzchni stale się zmieniają; na Gigantycznej Planecie nigdy nie brakuje czegoś nowego do zobaczenia. W przypadku Jowisza i być może Saturna z powodzeniem można zastosować skromny teleskop. Mars stanowi znacznie większy problem, ponieważ konieczne jest duże powiększenie, ale gdy planeta znajduje się blisko opozycji, amator z, powiedzmy, teleskopem 12 lub 15 cali może pomóc w monitorowaniu zjawisk chmur i zachowania czap polarnych - szczególnie jeżeli ma dostęp do sprzętu elektronicznego. Nawet w przypadku odległego Plutona istnieje zasięg. Bardzo rzadko Pluton zasłania gwiazdę, a kiedy to się ostatnio zdarzało, bardzo cenne były amatorskie pomiary; zanikanie gwiazdy przed zakryciem potwierdziło, że Pluton rzeczywiście posiada rozległą, choć bardzo rzadką atmosferę. W astronomii, podobnie jak we wszystkich innych naukach, współpraca jest sprawą najwyższej wagi. Nie ma sensu dokonywać obserwacji, jeśli inni pracownicy o tym nie usłyszą. Organem kontrolującym światową astronomię jest IAU, która w rzeczywistości ma charakter międzynarodowy - i takim pozostała nawet podczas najgorszej części zimnej wojny. W IAU jest kilku członków-amatorów, byli nawet urzędnicy-amatorzy. Zgromadzenia Ogólne odbywają się co 3 lata w różnych krajach; rok 2000 przypada na Anglię (Manchester), po latach 1997 (Holandia) i 1994 (Argentyna). W latach sześćdziesiątych XX wieku podjęto próbę powołania analogicznej organizacji amatorskiej, Międzynarodowej Unii Astronomów Amatorów. Istnieje, ale bezsensem byłoby udawać, że odniósł taki sukces, jak oczekiwano, i że potrzebna jest lepsza organizacja. Tymczasem wszystkie kraje mają swoje stowarzyszenia krajowe - na przykład w Wielkiej Brytanii Brytyjskie Stowarzyszenie Astronomiczne, które ma głównie charakter amatorski i nie ma sobie równych w zakresie obserwacji. Większość większych miast na świecie ma własne stowarzyszenia i istnieje zadowalający poziom współpracy, zarówno krajowej, jak i międzynarodowej (zobacz także Podsumowując, można śmiało powiedzieć, że astronomowie-amatorzy podejmują się pracy, której profesjonalista nie chce zrobić, nie ma na to czasu lub rzeczywiście nie może tego zrobić. Prawdą jest również, że praca amatorska jest ceniona i ciepło witana oraz że astronom amator jest obecnie tak samo ważny, jak był w przeszłości.

Galaktyka Andromedy

Galaktyka Andromedy jest najbliższą DROGI MLECZNEJ GALAKTYKĄ SPIRALNĄ, widoczną gołym okiem w ciemną noc jako słaba smuga światła w gwiazdozbiorze Andromedy. Najwcześniejsze wzmianki o mgławicy Andromedy, jak wciąż często się o niej mówi, pochodzą z roku 964 n.e., z "Księgi gwiazd stałych" opublikowanej przez perskiego astronoma AL-SU? FI. Pierwszym Europejczykiem, który oficjalnie zauważył mgławicę Andromedy, był Simon Mayer, niemiecki matematyk i astronom, który nie był świadomy wcześniejszych prac Al-Sûfi. Obiekt ma numer 31 w słynnym KATALOGU MESSIERA, którego początki sięgają XVIII wieku i dlatego często nazywany jest M31. Innym pseudonimem galaktyki Andromedy jest NGC224, ponieważ zajmuje ona numer 224 w NOWYM KATALOGU OGÓLNYM (NGC) opracowanym przez DREYERA w 1888 roku. Współczesne pomiary oparte na zmiennych cefeidach umieszczają M31 w odległości 740 kpc, czyli około 2,4 miliona lat świetlnych. To czyni ją najbliższą Galaktyką spiralną Drogi Mlecznej. Jest dominującym członkiem GRUPY LOKALNEJ i jako taki odgrywa i nadal pełni ważną rolę w badaniach struktury, ewolucji i dynamiki galaktyk, populacji gwiazd, powstawania gwiazd i ośrodka międzygwiazdowego. Do najważniejszych osiągnięć historycznych należą prace HUBBLE′a z lat dwudziestych XX wieku dotyczące odległości do M31, które dowiodły, że istnieją galaktyki poza naszą Drogą Mleczną, oraz prace BAADE z lat czterdziestych XX wieku nad populacjami gwiazd, które doprowadziły do koncepcji starych (populacja II) i młodych (populacja ja) gwiazdy. Zidentyfikowano wiele małych galaktyk towarzyszących, które uważa się za powiązane z M31, niektóre dopiero w zeszłym roku. Są to M32 (eliptyczne o niskiej jasności), NGC 147, 185 i 205 (eliptyczne karłowate), IC 10 (nieregularne karłowate), LGS 3 (obiekt przejściowy między karłowatymi nieregularnymi a karłowatymi sferoidalnymi) oraz And I, II, III, V i VI (sferoidy karłowate). Jest prawdopodobne, że do odkrycia pozostało jeszcze więcej słabych towarzyszy. Rycina 1 przedstawia optyczny obraz galaktyki Andromedy.

Morfologia, masa i zawartość gwiazd

Galaktyka Andromedy to duża galaktyka spiralna wczesnego typu, należąca do KLASYFIKACJI HUBBLE′A Sb, o klasie jasności I-II. Posiada wyraźne centralne zgrubienie gwiazd o efektywnym promieniu 2 kpc, które płynnie przechodzi w wydłużony, spłaszczony sferoidalny składnik starych gwiazd. Jak w większości galaktyk spiralnych, oprócz zgrubienia lub składnika sferoidalnego, istnieje cienki dysk gwiazd i gazu z nałożoną strukturą ramion spiralnych. Łączne światło gwiazd dyskowych maleje wykładniczo wraz z odległością od centrum, co jest typowe dla galaktyk spiralnych. Długość skali dysku wynosi około 5-6 kpc, a M31 jest około 50% większa od naszej Galaktyki Drogi Mlecznej i około dwa razy jaśniejsza. Dysk staje się bardziej niebieski w większej odległości promieniowej od centrum, co może być spowodowane stosunkowo większą liczbą młodszych gwiazd lub mniejszą obfitością ciężkich pierwiastków. Oznaczenia obfitości tlenu, azotu i siarki w ośrodku międzygwiazdowym M31 rzeczywiście wykazują ogólny spadek tych pierwiastków w porównaniu z wodorem wraz ze wzrostem odległości radialnej. Struktura SPIRAL ARM M31 była trudna do określenia ze względu na jej orientację na niebie. Segmenty ramion spiralnych są wyraźnie widoczne w rozmieszczeniu młodych masywnych gwiazd i różnych znaczników ośrodków międzygwiazdowych, takich jak zjonizowany, obojętny i cząsteczkowy wodór oraz pył, ale nie było możliwe połączenie segmentów ramion spiralnych w jednoznaczną, wielką strukturę spiralną . Kolejną komplikacją jest to, że wydaje się, że interakcja z bliskim, małym eliptycznym towarzyszem M32 również zniekształciła ramiona spiralne. Zewnętrzne dyski gwiazdowe i gazowe, powyżej około 20 kpc, wyginają się z głównej płaszczyzny, powodując zjawisko znane jako wypaczanie. Biorąc pod uwagę rozmiar wybrzuszenia i jasność, nie ma wątpliwości, że M31 jest spiralą wcześniejszego typu niż nasza Droga Mleczna. Na przykład całkowita liczba Gromadad Kulistych, która, jak wykazano, jest powiązana z wybrzuszeniem lub jasnością sferoidy, wynosi prawdopodobnie od 400 do 500 w M31, czyli prawie 3-krotnie więcej niż w Drodze Mlecznej. Rozproszenie prędkości gwiazd w zgrubieniu M31 wynosi około 155 km s-1, podczas gdy dla Drogi Mlecznej jest to 130 km-1. Z prędkości obrotowej H I do promienia 30 kpc można wywnioskować, że M31 ma masę co najmniej 3 × 1011 mas Słońca, ale całkowita masa będzie prawdopodobnie znacznie większa w zależności od nieznanego promieniowego zasięgu halo CIEMNEJ MATERII, będącego powszechnym składnikiem galaktyk spiralnych wywnioskowano z wysokich prędkości obrotowych obłoków gazu w odległych dyskach zewnętrznych. Argument czasowy dla Grupy Lokalnej implikuje masę M31 wynoszącą kilka razy 1012 mas Słońca. Biorąc pod uwagę te liczby, ciemna materia musi silnie dominować nad masą wynikającą z widocznych gwiazd i gazu. Populacje gwiazd w M31 zostały omówione w artykule M31: STARYCH POPULACJACH GWIAZD, więc tutaj wystarczy krótkie podsumowanie. Populacja zgrubienia i sferoid jest stara, chociaż znaczne rozproszenie ilości metali w gwiazdach w zgrubieniu, a także w zewnętrznym halo implikuje bardziej skomplikowany scenariusz powstawania niż bardzo szybkie początkowe zapadnięcie się. W przeciwieństwie do sytuacji w Drodze Mlecznej, w wewnętrznym zgrubieniu nie ma obecnie formacji gwiazdowej. Właściwości gromad kulistych M31 są pod wieloma względami podobne do właściwości Drogi Mlecznej, tj. gromady kuliste są stare, wykazują różną zawartość metali i takie same ogólne korelacje pomiędzy rozproszeniem prędkości a jasnością, centralną i średnią jasnością powierzchniową, jak gromady kuliste Galaktyki. Na dysku znajduje się niewielka liczba młodych masywnych gromad, około 10 kpc od centrum. Gromady takie są powszechne w galaktykach późnego typu, takich jak M33 i Obłoki Magellana, ale najwyraźniej są rzadkie we wczesnych typach spiralnych. Mogą to być przodkowie gromad kulistych (o małej masie). Co ciekawe, obiekty te skupiają się głównie w południowo-zachodnim ramieniu spiralnym zakłócanym przez pływy i mogą być podobne do młodych niebieskich gromad obserwowanych w oddziałujących galaktykach. Jedną z zalet bliskiej nam odległości M31 jest to, że umożliwia ona prowadzenie unikalnych eksperymentów. Jedną z nich jest niedawna próba wykrycia MIKROLENSOWANIA w kierunku gwiazd zgrubionych M31 w celu ograniczenia natury ciemnej materii. Chociaż M31 jest zbyt odległa, aby rozdzielić większość światła poszczególnych gwiazd, mikrosoczewkowanie w zasadzie można nadal wykryć jako pojaśnienie pojedynczych pikseli w detektorze, jeśli jedna z wielu gwiazd przyczyniających się do jasności tego piksela zostanie soczewkowana przez ciemny obiekt w halo M31. Kilka z tych badań jest obecnie w toku, poszerzając w ten sposób trwające obserwacje mikrosoczewkowania zgrubienia galaktycznego i Obłoków Magellana.

Region centralny

Galaktyka Andromedy nie zawiera w swoim centrum szczególnie aktywnego jądra, ale wydaje się, że znajduje się tam CZARNA DZIURA o masie około 3×107 mas Słońca. Dowody na to pochodzą z pomiarów prędkości gwiazd w pobliżu centrum, zarówno za pomocą Kosmicznego Teleskopu Hubble′a, jak i z Ziemi. Morfologia obszaru centralnego jest dość zaskakująca, z dwoma pikami w rozkładzie jasności oddzielonymi 0,5 sekundy łukowej. Obecnie preferowana interpretacja jest taka, że to pozorne podwójne jądro jest w rzeczywistości spowodowane pojedynczym ekscentrycznym dyskiem gwiazd krążących wokół czarnej dziury. Jaśniejsze z dwóch "jąder" byłoby wówczas spowodowane gromadzeniem się gwiazd w pobliżu apocentrum mimośrodowego dysku, gdzie ich prędkości są niskie, podczas gdy słabsze "jądro" byłoby spowodowane wzrostem gęstości w kierunku środka. Brak silnej aktywności jądrowej związanej z czarną dziurą może wynikać z ogólnego braku ośrodka międzygwiazdowego w zgrubieniu M31. NoHI lub CO wykryto w odległości 1 kpc od centrum, chociaż w projekcji na tle jasnego kontinuum gwiazdowego widać pewne obłoki pyłu. W zjonizowanym gazie widoczny jest słaby, rozproszony "dysk spiralny" o promieniowym zasięgu około 500 pc, ale zawierający tylko niewielką ilość masy, być może łącznie zaledwie 1500 mas Słońca. Gaz ten prawdopodobnie pochodzi z masy utraconej przez ewoluujące gwiazdy o małej masie w postaci wiatrów gwiazdowych. Brak aktywności objawia się także słabym poziomem emisji kontinuum radiowego, około 10-krotnie mniejszym niż w centrum Galaktyki.

Powstawanie gwiazd i ośrodek międzygwiazdowy

Jako najbliższa pobliska spirala, M31 jest głównym celem badania właściwości różnych faz gazowych ośrodka międzygwiazdowego i masywnych gwiazd oraz połączeń między nimi. Rozkład przestrzenny wszystkich tych składników, czy to gazu obojętnego, czy zjonizowanego, pyłu czy gwiazd OB, jest bardzo podobny: ogólnie występuje brak gazu i młodych gwiazd w wewnętrznych kilku kpc, pewna ilość gazu i formacja gwiazd w ramionach spiralnych 3- 5 kpc od centrum, silne stężenia w pierścieniu od 8 do 12 kpc i umiarkowane stężenia w ramionach do 15 kpc. Poza tym dysk H I w dalszym ciągu wykazuje strukturę spiralną do około 25 kpc, ze słabym ciągłym FORMOWANIEM GWIAZD w wybranych obszarach. Szybkość powstawania gwiazd można oszacować na podstawie rozkładu zjonizowanego gazu (obszary H II i rozproszony zjonizowany gaz), który wymaga gorących, świecących, a zatem masywnych i młodych gwiazd do jego jonizacji, emisji kontinuum radiowego w dalekiej podczerwieni i światła UV. Ponadto bliskość M31 umożliwia wykrywanie pojedynczych gwiazd OB i wyewoluowanych śladów młodych masywnych gwiazd, takich jak WOLF-RAYET STARS i LUMINOUS BLUE VARIABLES. Wszystkie te znaczniki wskazują, że ogólny poziom aktywności gwiazdotwórczej w M31 jest dość niski, około ≈ 0,3-0,5 mas Słońca rocznie, w porównaniu z Drogą Mleczną i innymi spiralami, takimi jak M33. Ponadto największe kompleksy gwiazdotwórcze w M31 wydają się skromne w porównaniu z kompleksami występującymi w innych galaktykach. Masa atomowego wodoru wynosi około 4 × 109 mas Słońca, podczas gdy masa wodoru cząsteczkowego jest ponad 10-krotnie mniejsza; niepewność co do współczynnika konwersji strumienia linii CO na masę molekularną gazu sprawia, że to ostatnie oszacowanie jest raczej niedokładne, ale gęstość powierzchniowa wodoru niskocząsteczkowego jest zgodna z ogólnie niskim tempem powstawania gwiazd w M31. Istnieją pewne dowody na obecność bardzo zimnego gazu cząsteczkowego w M31, co może mieć dalsze konsekwencje dla całkowitej masy gazu cząsteczkowego. M31 była jedną z pierwszych spiral zewnętrznych, w przypadku których wykryto rozległą dystrybucję zjonizowanego gazu poza tradycyjnymi obszarami H II. Ten rozproszony zjonizowany gaz, nazywany także ciepłym zjonizowanym ośrodkiem, jest dominującym składnikiem zjonizowanego gazu w galaktykach pod względem masy i zasięgu przestrzennego. Aby pozostać zjonizowanym, wymaga dużej ilości energii, a jej szerokie rozmieszczenie oznacza, że morfologia ośrodka międzygwiazdowego musi być bardzo porowata, w przeciwnym razie fotony ultrafioletowe z gwiazd OB nie mogłyby podróżować daleko od swojego źródła, zanim zostaną zaabsorbowane. Informacje o promieniach kosmicznych i polu magnetycznym rozkład w M31 uzyskano na podstawie szczegółowych obserwacji kontinuum radiowego na kilku częstotliwościach. Kontinuum radiowe jest silnie zdominowane przez nietermiczną emisję synchrotronową, pochodzącą od wysoce relatywistycznych elektronów krążących spiralnie w polu magnetycznym. Informacje na temat natężenia i kierunku pola można wywnioskować z intensywności emisji, wektorów polaryzacji i miar rotacji obserwowanych w kierunku pozagalaktycznych źródeł tła. Wielkoskalowe pole magnetyczne rozciąga się od wnętrza 5 kpc do pierścienia gwiazdotwórczego aż do 25 kpc od centrum. Główna organizacja pola jest toroidalna, ułożona wzdłuż pierścienia, z pewnymi dowodami na obecność składowej poloidalnej rozciągającej się do halo. Struktura pola wydaje się być zgodna z oczekiwaniami dla DYNAMO w trybie parzystym.

Perspektywy na przyszłość

Nie ma wątpliwości, że galaktyka Andromedy będzie nadal odgrywać kluczową rolę w przyszłych badaniach morfologii i ewolucji galaktyk, tak jak miało to miejsce w przeszłości. Dzięki nowej generacji teleskopów naziemnych i kosmicznych możemy spodziewać się nowych wyników w wielu obszarach, takich jak badania mikrosoczewkowania, mapy o wysokiej rozdzielczości wszystkich składników ośrodka międzygwiazdowego, pomiary obfitości w poszczególnych gwiazdach i dalsze odkrywanie gwiazdy historia powstawania dysku i wybrzuszenia M31.

Anomalne promienie kosmiczne

Anomalne promienie kosmiczne są jonowym składnikiem strumienia promieniowania kosmicznego, który w heliosferze jest znaczny przy energiach w zakresie od 20 MeV do ponad 500 MeV. Składają się z wielu rodzajów jonów, od wodoru po neon, ale węgla anomalnego jest znacznie za mało. Najwyższa energia kinetyczna odnotowana dla tego składnika wynosi ponad 1,6 GeV. Obserwacje z detektorów znajdujących się na pokładzie heliosferycznego statku kosmicznego pokazują, że ich intensywność w dalszym ciągu rośnie aż do maksymalnej odległości osiąganej przez obecne statki kosmiczne, co wskazuje, że są one przyspieszane w zewnętrznym Układzie Słonecznym. Po raz pierwszy zaobserwowano je na początku lat 70. XX wieku i początkowo nazwano je anomalnymi promieniami kosmicznymi ze względu na ich niezwykły skład oraz ponieważ ich widmo różniło się od widma dobrze znanych już galaktycznych lub słonecznych promieni kosmicznych. Nazwa ta przylgnęła do nas, mimo że obecnie wiemy znacznie więcej o naturze i pochodzeniu tych cząstek. W 1974 roku zasugerowano, że składnik anomalny jest wynikiem przyspieszenia w heliosferze niedawno zjonizowanych międzygwiazdowych obojętnych atomów. Neutralne atomy napływają do Układu Słonecznego z ośrodka międzygwiazdowego, a następnie są jonizowane przez słoneczne promieniowanie ultrafioletowe lub w wyniku wymiany ładunku z WIATEM SŁONECZNYM. Hipoteza ta bardzo dobrze wyjaśnia niezwykły skład składnika anomalnego, gdyż tylko początkowo obojętne cząstki międzygwiazdowe mogą przedostać się do heliosfery i wziąć udział w tym procesie. Na przykład jony węgla, które w ośrodku międzygwiazdowym są prawie całkowicie zjonizowane i dlatego międzyplanetarne pole magnetyczne w większości uniemożliwia im przedostanie się do Układu Słonecznego, są szczególnie uszczuplone w anomalnym promieniu kosmicznym. Nowsze obserwacje wykazały, że większość anomalnych promieni kosmicznych jest rzeczywiście naładowana pojedynczo, jak można się spodziewać na tym zdjęciu. Później, w 1981 roku, wskazano, że wiele cech składnika anomalnego można wyjaśnić, jeśli większa część przyspieszania nowo zjonizowanych cząstek zachodzi w szoku końcowym wiatru słonecznego, poprzez mechanizm przyspieszenia szoku dyfuzyjnego. Późniejsze wyrafinowane symulacje numeryczne przeprowadzone w połowie lat 80. XX wieku wyraźnie wykazały, że energetyczne, pojedynczo naładowane cząstki mogą być bardzo skutecznie przyspieszane w szoku końcowym. Zasadnicze zaobserwowane cechy widma i gradientów przestrzennych można w bardzo naturalny sposób wyjaśnić za pomocą tego obrazu. Ten obraz przyspieszania nowo zjonizowanych międzygwiazdowych cząstek neutralnych i późniejszego przyspieszania do wysokich energii w momencie szoku końcowego wiatru słonecznego jest obecnie standardowym paradygmatem. Paradygmat ten schematycznie zilustrowano na rysunku 1, który przedstawia nadchodzące neutralne atomy, ich jonizację i późniejsze przyspieszenie w momencie szoku końcowego wiatru słonecznego.

Przyśpieszenie

Przyspieszenie anomalnych promieni kosmicznych od niskich energii do typowych obserwowanych energii ?200-300MeV musi nastąpić w czasie krótszym niż kilka lat, ponieważ w przeciwnym razie nastąpiłaby dalsza utrata elektronów w wyniku interakcji z otaczającym gazem i nie byłyby one pojedynczo naładowane . W rzeczywistości, niezależnie od miejsca lub modelu akceleracji, zaobserwowany fakt, że anomalne cząstki tlenu promieniowania kosmicznego przy ?160 MeV są nadal głównie naładowane pojedynczo, oznacza, że całkowita długość drogi, jaką przebyły od momentu przyspieszenia, jest mniejsza niż 0,2 pc. Biorąc pod uwagę, że nie mogą one przemieszczać się po linii prostej ze względu na nieregularne pola magnetyczne otoczenia, fakt ten wymaga, aby anomalne promienie kosmiczne musiały być lokalnie przyspieszane. Przy ich zaobserwowanej prędkości oznacza to, że czas od przyspieszenia wynosi mniej niż kilka lat. Przyspieszenie szoku dyfuzyjnego w quasi-prostopadłym szoku końcowym wiatru słonecznego, które osiąga przyspieszenie do ≈200 MeV w ciągu około pół roku, jest jedynym znanym obecnie procesem, który może osiągnąć przyspieszenie w dopuszczalnym czasie. W szczególności powszechnie przywoływany mechanizm przyspieszenia Fermiego drugiego rzędu, obejmujący zmienne pola elektryczne powiązane z falami, jest zdecydowanie za wolny. Przyspieszenie wstrząsu dyfuzyjnego jest zawarte w równaniu transportu promieniowania kosmicznego Parkera , jeśli pozwoli się, aby przepływ wiatru miał nieciągłość ściskającą odpowiadającą uderzeniu. Ta nieciągłość ściskająca jest miejscem przyspieszenia. Można wykazać, że proces przyspieszania w quasi-prostopadłym uderzeniu jest ściślej powiązany z dryfem cząstek w otaczającym polu elektrycznym związanym z ruchem płynu niż ze sprężaniem płynu podczas uderzenia, chociaż matematycznie jest on zawarty w składnik kompresji równania transportu. Można wykazać, że energia ΔT uzyskana przez cząstkę posiadającą ładunek elektryczny Ze podczas quasi-prostopadłego wstrząsu jest w przybliżeniu energią potencjalną elektrostatyczną Δφ uzyskaną podczas dryfowania wzdłuż powierzchni uderzenia: ΔT ≈ ZeΔ?. Możemy pisać dla wiatru słonecznego
(Δφ)max = Brr2Ω⊙ /c ≈ 240 MeV/Z (1) gdzie c jest prędkością światła, a wartość liczbowa wynika z zastosowania promieniowego pola magnetycznego o wartości 3,5 γ w promieniu 1 AU i obrotowej prędkości kątowej Słońca Ω⊙= 2,9 × 10?6. Wynika z tego, że dla cząstek posiadających ładunek Z istnieje na ogół charakterystyczna energia Tc ≈ Ze(Δ&|phi;)max, powyżej której widmo zaczyna gwałtownie spadać. Z tego powodu wszelkie wielokrotnie naładowane cząstki należy przyspieszać do wyższych energii niż cząstki naładowane pojedynczo. Cząsteczki "odpłyną" z szoku, zanim zyskają więcej energii. Pojedynczo naładowane cząstki przyspieszane w szoku końcowym miałyby wówczas widmo energii w szoku końcowym, które jest w przybliżeniu zgodne z prawem mocy i które wykazuje spadek powyżej energii pomiędzy 200 a 300 MeV. Ten limit energii niekoniecznie spowoduje ostre odcięcie w widmie energii, ponieważ dyfuzja spowoduje, że niektóre cząstki zyskają więcej energii, a inne mniej. W wyniku dalszych interakcji z materiałem otoczenia można wytworzyć wielokrotnie naładowane cząstki. Mogą one następnie zyskać znacznie więcej energii, w zależności od ich ładunku, i dlatego będą dominować przy wyższych energiach, wykraczających poza energię charakterystyczną dla cząstek o pojedynczym ładunku. Obserwacje przeprowadzone w ciągu ostatnich kilku lat wykazały przejście w kierunku zwielokrotnionych naładowanych anomalnych promieni kosmicznych przy energiach większych niż około 240 MeV.

Wyniki obliczeń modelowych

Omówiony powyżej scenariusz został uwzględniony zarówno w dwu-, jak i trójwymiarowych symulacjach numerycznych transportu i przyspieszenia w heliosferze, które rozwiązują równanie transportu dla realistycznych parametrów. Zauważamy, że ogólne heliosferyczne pole magnetyczne zmienia znak co 11 lat, podczas maksimum plam słonecznych. Ruchy energetycznych cząstek naładowanych zależą w znacznym stopniu od znaku pola magnetycznego. W szczególności prędkość dryfu, daną dla izotropowego rozkładu cząstek o prędkości w i pędu p w otaczającym polu magnetycznym B(r), wyraża się wzorem Vd = pcw/3Ze ⋅∇ × B/B2 . Jest oczywiste, że Vd zmienia kierunek wraz ze zmianą znaku pola magnetycznego. W obecnym okresie minimum plam słonecznych północne pole magnetyczne Słońca jest skierowane na zewnątrz od Słońca, podczas gdy przed ostatnim maksimum było skierowane do wewnątrz. Obecne modele są najdokładniejsze podczas minimum plam słonecznych, kiedy arkusz prądu międzyplanetarnego jest najbliższy równikowi, dlatego zasadniczo omawiamy dwie heliosfery, jedną w pobliżu minimum plam słonecznych, gdy pole jest skierowane na zewnątrz (prąd), i jedną w pobliżu następnego minimum plam słonecznych, gdy pole jest skierowane do wewnątrz. Najpierw rozważ wyniki modelu dla przypadku, w którym cząstki o niskiej energii są wtryskiwane równomiernie na wszystkich szerokościach geograficznych w momencie uderzenia. Obliczone i zaobserwowane widma porównano dla danych zebranych w 1985 r. (północne pole magnetyczne skierowane do wewnątrz). Obliczone widma energii anomalnego tlenu są wyraźnie zgodne z widmami obserwowanymi. Dotyczy to również innych widm. Widzimy, że intensywność wzrasta wraz z promieniem, podobnie jak w przypadku galaktycznych promieni kosmicznych, aż do szoku końcowego (w promieniu 60 jednostek astronomicznych). Dalej intensywność maleje aż do zewnętrznej granicy heliosfery. Wzdłuż szoku maksymalne natężenie występuje na szerokości geograficznej, która zmienia się wraz ze zmianą znaku pola magnetycznego. Jeśli północne międzyplanetarne pole magnetyczne jest skierowane na zewnątrz (A > 0), cząstki dryfują w kierunku bieguna wzdłuż powierzchni uderzeniowej, a następnie do wewnątrz i w dół od biegunów do arkusza prądu, a maksimum intensywności występuje w pobliżu biegunów. Dla A < 0 dryfty są w przeciwnym kierunku, a maksimum przesuwa się w stronę równika. Dokonano licznych pomiarów gradientów promieniowych i równoleżnikowych składowej anomalnej. Ogólną cechą symulacji anomalnych promieni kosmicznych i galaktycznych promieni kosmicznych jest to, że przy identycznych parametrach równoleżnikowe gradienty anomalnych promieni kosmicznych są znacznie większe niż w przypadku cząstek galaktycznych. Dzieje się tak w dużej mierze wskutek dużego równoleżnikowego gradientu anomalnych promieni kosmicznych wywołanych dryfem podczas przyspieszania w momencie uderzenia. Dotyczy to również modeli. Niezawodne przewidywania modeli są takie, że gradient równoleżnikowy w pobliżu aktualnej płachty, w pobliżu minimum plam słonecznych, powinien zmienić znak w alternatywnych minimach plam słonecznych. W szczególności podczas ostatniego minimum plam słonecznych, w pobliżu 1975 r., intensywność zarówno galaktycznego promieni kosmicznych, jak i składnika anomalnego powinna wzrosnąć w kierunku od aktualnej warstwy, podczas gdy podczas minimum plam słonecznych w 1986 r. promienie kosmiczne powinny maleć w oddalaniu od obecnej warstwy. Oczekuje się, że w pobliżu minimum plam słonecznych, gdy obecna warstwa jest prawie płaska, najważniejsze będą skutki tych dryfów. W 1977 roku PIONEER zaobserwował, zgodnie z przewidywaniami, dodatni gradient anomalnego helu w kierunku od aktualnej warstwy. Obserwacje przeprowadzone podczas ostatniego minimum plam słonecznych w latach 1984 i 1985, kiedy obecne nachylenie arkusza spadło poniżej szerokości geograficznej statku kosmicznego VOYAGER 1, wykazały, że znak gradientu równoleżnikowego zmienił się z dodatniego na ujemny, ponownie zgodnie z przewidywaniami teoria.

Odbiór jonów

Powyższa dyskusja podsumowała obecny stan przyspieszania anomalnych promieni kosmicznych do najwyższych zaobserwowanych energii, przekraczających 1 GeV. Najbardziej prawdopodobnym mechanizmem tego przyspieszenia wydaje się przyspieszenie dyfuzyjne w szoku końcowym wiatru słonecznego. Nie do końca rozwiązana pozostaje kwestia, w jaki sposób wcześniej nieprzyspieszone jony wychwycone są przyspieszane do energii wystarczająco dużych, aby można je było dalej przyspieszać w szok kończący. Ten "problem wtrysku" wynika z faktu, że nieprzyspieszone jony wychwytujące mają prędkość mniejszą lub równą prędkości konwekcji wiatru słonecznego, a zatem nie są wystarczająco mobilne, aby napotkać prawie prostopadły wstrząs wielokrotny niezbędny do wzmocnienia znacząca energia. Wykazano, że propagujące się wstrząsy łatwiej przyspieszają wychwytywanie jonów o niskiej energii niż wstrząsy wywołane wiatrem słonecznym. W związku z tym są bardziej naturalnymi wtryskiwaczami cząstek i mogą stanowić pierwszy etap dwuetapowego procesu przyspieszania wychwytu jonów do anomalnych energii kosmicznych.

Zasada antropiczna

Pierwsi ludzie zaczęli od "antropocentrycznego" poglądu, że znajdujemy się w centrum wszechświata. Zjawiska zwykle interpretowano antropomorficznie i nawet prawa natury wydawały się skupiać na człowieku w tym sensie, że można je było wykorzystać do własnych celów. Jednak ta perspektywa wkrótce została zachwiana: najpierw przez odkrycie MIKOŁAJA KOPERNIKA, że Ziemia krąży wokół Słońca, a następnie przez "Principia" NEWTONA, które doprowadziły do "mechanistycznego" spojrzenia na świat. Mechanizm mówi, że wszechświat jest gigantyczną maszyną, w której działają prawa natury zupełnie nieświadomi obecności człowieka. Jednakże w ciągu ostatnich 40 lat rozwinęła się reakcja na mechanizm, który nazywa się poglądem "antropicznym" . Oznacza to, że pod pewnymi względami wszechświat musi być taki, jaki jest, ponieważ w przeciwnym razie nie mógłby wytworzyć życia i nie bylibyśmy tutaj, spekulując na ten temat. Chociaż termin "antropiczny" pochodzi od greckiego słowa oznaczającego "człowiek", należy podkreślić, że jest to w rzeczywistości określenie błędne, ponieważ większość argumentów dotyczy życia w ogóle, a nie ludzi w szczególności. Zacznijmy od bardzo prostej ilustracji argumentu antropicznego, rozważmy pytanie, dlaczego wszechświat jest tak duży, jak jest? Mechanistyczna odpowiedź jest taka, że w dowolnym momencie rozmiar obserwowalnego wszechświata to odległość, jaką przebyło światło od Wielkiego Wybuchu. Ponieważ obecny wiek Wszechświata wynosi około 1010 lat, jego obecny rozmiar wynosi około 1010 lat świetlnych. Nieodłącznym elementem tej prostej odpowiedzi jest przekonanie, że nie ma żadnego przekonującego powodu, dla którego wszechświat ma takie rozmiary; tak się składa, że ma 1010 lat. Istnieje jednak inna odpowiedź na to pytanie, której jako pierwszy udzielił Robert Dicke . Jego argumentacja wygląda następująco. Aby mogło istnieć życie, musi istnieć węgiel lub przynajmniej jakaś forma chemii. Obecnie węgiel wytwarzany jest poprzez gotowanie wewnątrz gwiazd, a proces ten trwa około 1010 lat. Dopiero po tym czasie gwiazda może eksplodować jako SUPERNOWA, rozrzucając nowo wypalone pierwiastki po całej przestrzeni, gdzie mogą ostatecznie stać się częścią planet rozwijających życie. Z drugiej strony Wszechświat nie może być dużo starszy niż 1010 lat, w przeciwnym razie cała materia zostałaby przetworzona na pozostałości gwiazdowe, takie jak BIAŁE KARLERY, GWIAZDY NEUTRONOWE i CZARNE DZIURY. Ponieważ wszystkie formy życia, jakie możemy sobie wyobrazić, wymagają istnienia gwiazd, sugeruje to, że życie może istnieć tylko wtedy, gdy Wszechświat ma około 1010 lat. Ten zaskakujący wniosek wywraca do góry nogami mechanistyczną odpowiedź. Już sam ogrom wszechświata, który na pierwszy rzut oka wydaje się wskazywać na znikomość ludzkości, jest w rzeczywistości konsekwencją jej istnienia. Nie oznacza to, że sam wszechświat nie mógłby istnieć w innym rozmiarze, a jedynie, że nie moglibyśmy być tego świadomi, gdyby jego rozmiar był inny. Oczywiście może to być po prostu zbieg okoliczności, że wiek Wszechświata jest mniej więcej taki, jaki jest niezbędny do powstania inteligentnego życia. Freeman Dyson argumentował również, że życie może przetrwać nawet po 10 latach. Jednakże argument ten daje przynajmniej przedsmak rodzaju rozumowania, jaki pociąga za sobą zasada antropiczna. Rzeczywiście, dowody na rzecz zasady antropicznej opierają się prawie wyłącznie na dużej liczbie numerycznych "zbiegów okoliczności" w fizyce, które wydają się być warunkami wstępnymi pojawienia się życia i które w przeciwnym razie należałoby uznać za czysto przypadkowe.

Skale konstrukcji

Większość argumentów antropicznych dotyczy bezwymiarowych kombinacji stałych fizycznych, takich jak prędkość światła - (c), stała Plancka (h), stała grawitacji (G), ładunek elektronu (e) i masy cząstek elementarnych takie jak proton (mp) i elektron (me). Na przykład stała elektryczna "drobnej struktury" α = e2/hc = 1/137 określa siłę oddziaływania elektrycznego i odgrywa kluczową rolę w każdej sytuacji, w której ważny jest elektromagnetyzm. Podobnie stała grawitacyjna drobnej struktury, αG = Gm2 p/hc = 6 × 10-39, określa siłę oddziaływania grawitacyjnego i odgrywa ważną rolę w określaniu struktury bardzo dużych obiektów (takich jak gwiazdy). Fakt, że αGαG jest znacznie mniejsze niż α, odzwierciedla fakt, że siła grawitacji między dwoma protonami jest znacznie mniejsza niż siła elektryczna między nimi. Grawitacja dominuje w strukturze dużych ciał tylko dlatego, że są one elektrycznie obojętne, w związku z czym siły elektryczne znoszą się. Godne uwagi jest to, że prosta fizyka pokazuje, że z dokładnością do rzędu wielkości α i αG określają masę i rozmiar prawie każdego naturalnie występującego obiektu we wszechświecie . Na przykład wszystkie gwiazdy mają masę w przybliżeniu αG-3/2 ∼ 1060 razy większą od masy protonu; największe planety (takie jak Jowisz) mają masę mniejszą o współczynnik α3/2; a masa ludzi - jeśli założymy, że muszą żyć na planecie o odpowiedniej temperaturze i atmosferze sprzyjającej życiu i że nie mogą się rozbić przy upadku - jest rzędu (α/αG)3/4 razy większej masa protonu. Charakterystyczna masa galaktyki jest mniej poznana, ale na podstawie jednego z możliwych argumentów można ją zapisać jako α-2Gα 4 razy masa protonu. Podobnie można wyrazić rozmiary tych obiektów. Należy podkreślić, że wszystkie zależności od α i αG 1 są konsekwencjami prostej fizyki. Nie wprowadzono żadnego argumentu antropicznego poza - jak wkrótce zobaczymy - wyprowadzeniem skali samego wszechświata.

Słabe i mocne zasady antropiczne

Powróćmy teraz do twierdzenia Dicke′a, że wiek Wszechświata (t0) musi być w przybliżeniu równy czasowi spalania jądra gwiazdy. Możemy uszczegółowić ten argument, ponieważ fizyka przewiduje, że czas życia gwiazdy wynosi około α-1G ∼ 1040 razy czas tp = h/mpc2 ∼ 10-23 s wymagany do przejścia światła przez proton. Można wywnioskować, że stosunek wielkości wszechświata do wielkości atomu musi być porównywalny ze stosunkiem α do αG. Zatem zasada antropiczna wyjaśnia, dlaczego te dwa stosunki muszą mieć tę samą ogromną wartość 1036. Można również wyprowadzić proste wyrażenie na liczbę protonów we wszechświecie. Dzieje się tak, ponieważ model Wielkiego Wybuchu zakłada, że masa obserwowalnego Wszechświata wynosi ∼ρ0c3t30, gdzie ρ0 jest jego obecną gęstością. Ponieważ model wymaga również ρ0 ∼ 1/Gt20 , masa ta wynosi c3t0/G ∼ α-2Gmp, więc liczba protonów we wszechświecie jest rzędu α-2G ∼ 1080. (Zauważ, że liczba gwiazdy w obserwowalnym wszechświecie muszą zatem mieć około α-1/2G ∼ 1020, na co przywołujemy później.) Istnienie tych "wielkoliczbowych" zbieżności docenia się od pewnego czasu, ale bez odwoływania się do zasady antropicznej, lub alternatywnie rodzaj modelu zmiennej G przywołanego przez Diraca (1937), należy je uważać za przypadkowe. Argument Dicke&rprime;a pomaga nam zrozumieć, dlaczego powyższe "wielkoliczbowe" zbieżności przeważają, ale nie mówi nam, dlaczego α-1G ma swoją szczególną ogromną wartość. Jego argumentacja jest zatem przykładem tak zwanej słabej zasady antropicznej. To akceptuje stałe natury jako dane, a następnie pokazuje, że nasze istnienie narzuca efekt selekcji na to, kiedy obserwujemy wszechświat. W związku z tym jest to po prostu logiczna konieczność: stwierdzenie, że musimy istnieć w określonym czasie, nie jest bardziej zaskakujące niż stwierdzenie, że musimy istnieć w określonym miejscu (np. blisko gwiazdy). Zaskakujące może być odkrycie, jakie są efekty selekcji, ale ich istnienie w zasadzie nie jest zaskakujące. W rzeczywistości większość fizyków zgodziłaby się ze słabą wersją zasady antropicznej. Problem pojawia się, gdy rozważymy, czy stałe natury, takie jak G, same w sobie są zdeterminowane wymogiem powstania życia, co jest czasami określane jako "silna zasada antropiczna". (W dość mylący sposób wyrażenie to jest również używane do opisania raczej odmiennego poglądu, że wszechświat musi mieć właściwości, aby mogło powstać życie . To, że słaba zasada może nie być całą historią, sugeruje również fakt że wszystkie skale są względne. Gdyby stałe struktury subtelnej różniły się od tego, co obserwujemy, wszystkie skale uległyby zmianie, ale podstawowe zależności między nimi pozostałyby takie same. Można na przykład wyobrazić sobie hipotetyczny wszechświat, w którym wszystkie prawa mikrofizyczne pozostały niezmienione, ale G było (powiedzmy) 106 razy silniejsze. Masy planet i gwiazd (∼α-3/2G ) spadłyby wówczas o 109, ale gwiazdy ciągu głównego spalające wodór nadal istniałyby, aczkolwiek ich czas życia (∼α-1G ) wynosiłby 104 lata, a nie 1010 lat. Co więcej, argument Dicke′a nadal miałby zastosowanie: hipotetyczny obserwator patrzący na wszechświat w czasie t0 ∼ tMS stwierdziłby, że liczba cząstek we wszechświecie jest 1012 razy mniejsza niż w naszym, ale nadal odnalazłby opisane powyżej "duże" zbieżności. Jeśli ktoś ustaliłby αG, ale pozwolił na zmianę α, efekty byłyby mniej ekstremalne, ale nadal bardzo zauważalne. Jakie są argumenty przeciwko "poznawalności" tego rodzaju przyspieszonego wszechświata na małą skalę? Jedno z dość luźnych ograniczeń αG wynika z rozważań biologicznych. Widzieliśmy, że liczba gwiazd w obserwowalnym wszechświecie jest rzędu α-1/2G. Jeśli uznamy gwiazdy - lub przynajmniej powiązane z nimi układy słoneczne - za potencjalne miejsca życia, jest to również liczba miejsc, w których życie mogło powstać. Oczywiście nie jest to warunek wystarczający do życia, ponieważ istnieje cały szereg dodatkowych warunków, z których każdy może być bardzo nieprawdopodobny. Na przykład gwiazda musi mieć planetę, planeta musi znajdować się w odpowiedniej odległości od gwiazdy, musi mieć odpowiednią atmosferę i chemię oraz muszą istnieć odpowiednie warunki, aby mogły powstać pierwsze samoreplikujące się komórki . Jest zatem oczywiste, że ogólne prawdopodobieństwo (P) powstania życia w jakimkolwiek konkretnym miejscu musi być bardzo małe. Jeśli chcemy upierać się, że gdzieś we wszechświecie istnieje życie, potrzebujemy, aby liczba miejsc występowania życia pomnożona przez prawdopodobieństwo P przekroczyła 1. Oznacza to, że αG musi być mniejsze niż P2. Na przykład, gdyby P wynosiło 10-15, potrzebne byłoby αG < 10-30. Nie jest to bardzo precyzyjny argument, ale daje jakościowy powód, dla którego αG musi być mała. Istnieją jednak bardziej szczegółowe argumenty antropiczne, które w węższy sposób określają αG. Pierwszy przykład takiego argumentu podał Brandon Carter i dotyczył istnienia gwiazd z otoczkami konwekcyjnymi . Taka gwiazda powstaje, gdy ciepło wytwarzane w jej jądrze w wyniku reakcji jądrowych jest transportowane na powierzchnię głównie w drodze wielkoskalowych ruchów samego materiału gwiazdowego. Dzieje się tak zazwyczaj w przypadku wystarczająco małych gwiazd (czerwonych karłów). Z kolei większe gwiazdy (niebieskie olbrzymy) są zwykle "promieniujące" w tym sensie, że ciepło wydostaje się głównie poprzez przepływ promieniowania. Linią podziału pomiędzy tymi dwoma typami jest pewna masa krytyczna, która może wynosić około α-2 Gα10mp. Tak się składa, że ta masa krytyczna mieści się w zakresie mas ?α ?3/2 G mp, w którym gwiazdy faktycznie istnieją tylko dzięki niezwykłej koincydencji αG ∼ α20. Gdyby G (a co za tym idzie αG) było nieco większe, wszystkie gwiazdy byłyby niebieskimi olbrzymami; gdyby był nieco mniejszy, wszystkie gwiazdy byłyby czerwonymi karłami. Warunek konwekcji nie określa rzeczywistych wartości α i αG, ale określa prawo skalowania między nimi i wyjaśnia, dlaczego αG jest o wiele mniejsze niż α. Carter przypisał tej zależności znaczenie antropiczne na tej podstawie, że powstawanie układów planetarnych można powiązać z gwiazdami konwekcyjnymi. Sugestia ta opierała się na obserwacji, że czerwone karły mają znacznie mniejszy moment pędu niż niebieskie olbrzymy, a utrata momentu pędu może być konsekwencją powstawania planet. Argument ten nie jest już przekonujący, ponieważ istnieją inne sposoby utraty momentu pędu. Lepszym argumentem może być to, że tylko gwiazdy konwekcyjne wytwarzają wiatry w swojej wczesnej fazie, wystarczająco intensywne, aby zdmuchnąć gazową otoczkę pobliskich planet, ułatwiając w ten sposób powstawanie planet stałych z atmosferami nie zawierającymi wodoru. W każdym razie Carter wnioskuje, że gdyby αG było znacznie większe od α20, nie powstałyby żadne planety, a zatem i życie. Gdyby była znacznie mniejsza, wszystkie gwiazdy byłyby chemicznie jednorodne dzięki mieszaniu konwekcyjnemu i nie uzyskano by struktury powłoki typu "skórka cebuli", która charakteryzuje modele sprzed supernowej.

Słabe i mocne siły

W skalach mniejszych niż atomy wchodzą w grę jeszcze dwie podstawowe siły natury: siła silna i siła słaba. Podobnie jak grawitacja i elektromagnetyzm, siłę tych sił można opisać za pomocą bezwymiarowych stałych drobnych struktur. Oddziaływanie słabe ma stałą sprzężenia αW = (gm2ec/h3) ∼ 10-10 gdzie g ∼10-49erg cm3 jest stałą Fermiego. Zatem siła jego interakcji jest pośrodku siły grawitacji i elektryczności. Bezwymiarowa stała opisująca siłę silną jest oznaczona przez αS i ma wartość rzędu 10. Chociaż siły mocne i słabe są o wiele rzędów wielkości silniejsze od siły grawitacji, to obie mają krótki zasięg i stają się pomijalne w odległościach 10-13 cm i odpowiednio 10-15 cm. Z tego powodu nie odgrywają one istotnej roli w określaniu struktury obiektów większych od atomów. Okazuje się . że wiele cech chemii jest wrażliwych na wartość αS. Na przykład, jeśli αS wzrośnie o 2%, wszystkie protony we wszechświecie połączą się podczas nukleosyntezy Wielkiego Wybuchu w diprotony (jądra składające się z dwóch protonów). W tym przypadku nie byłoby wodoru, a tym samym spalania wodoru gwiazdy. Ponieważ gwiazdy miałyby wówczas znacznie skrócony czas ciągu głównego, mogłoby nie być czasu na powstanie życia. Gdyby αS zwiększyć o 10%, sytuacja byłaby jeszcze gorsza, bo wszystko trafiałoby do jąder o nieograniczonej wielkości i nie byłoby tam interesującej chemii. Brak chemii miałby również miejsce, gdyby αS zmniejszono o 5%, ponieważ wszystkie deuterony byłyby wówczas niezwiązane i można było mieć tylko wodór. Najbardziej wrażliwe ograniczenie wartości αS jest związane z tak zwaną reakcją "potrójnej alfa". Gwiazda wytwarza węgiel poprzez połączenie dwóch cząstek alfa w jądro berylu, a następnie dodanie kolejnej cząstki alfa w celu utworzenia jądra węgla (4He + 4He -> 8Be, 8Be + 4He -> 12C). Problem w tym, że beryl jest niestabilny (w przeciwnym razie "błysk helu" w olbrzymach doprowadziłby do katastrofalnej eksplozji) i dawniej sądzono, że ulegnie rozkładowi, zanim dodatkowa cząstka alfa będzie mogła się z nim połączyć. Dlatego przez wiele lat trudno było zrozumieć, dlaczego we wszechświecie istnieje węgiel. Następnie Fred HOYLE (Hoyle 1953) zdał sobie sprawę, że w drugim etapie musi wystąpić rezonans (tj. zwiększony współczynnik interakcji), który umożliwia utworzenie węgla, zanim zniknie beryl, tj. 12C musi mieć stan o energii tuż powyżej sumy energie 8Be i 4He. Nie ma jednak podobnego, korzystnie umiejscowionego rezonansu w 16O; w przeciwnym razie prawie cały węgiel zostałby przekształcony w tlen. Po wysunięciu tej sugestii szukano rezonansu w laboratorium i szybko go znaleziono, można więc uznać to za pierwszą potwierdzoną prognozę antropiczną. Rzeczywiście wymagane dostrojenie jest tak precyzyjne, że Hoyle doszedł do wniosku, że wszechświat musi być "pracą odkrytą". Wartość αsub>W jest również związana z interesującym ograniczeniem antropicznym związanym z supernowymi. Widzieliśmy, że supernowe są niezbędne do powstania życia, ponieważ rozprzestrzeniają ciężkie pierwiastki po całym wszechświecie. Jednak nadal nie jest pewne, dlaczego gwiazda eksploduje po spaleniu paliwa jądrowego. Jednym z wyjaśnień jest to, że rdzeń gwiazdy staje się bardzo gorący podczas zapadnięcia się, co generuje wiele neutrin, które następnie rozrywają otoczkę w wyniku słabych interakcji. Aby ten model zadziałał, wymagana jest, aby skala czasu interakcji neutrin z jądrami w otoczce była porównywalna z dynamiczną skalą czasu. Gdyby była znacznie dłuższa, otoczka byłaby zasadniczo przezroczysta dla neutrin; gdyby był znacznie krótszy, neutrina zostałyby uwięzione w jądrze i nie mogłyby uciec, aby zdeponować swój pęd w słabiej związanych otaczających warstwach. Obie skale czasowe są porównywalne pod warunkiem, że αG ∼ α4W . Wiemy, że ta zależność zachodzi liczbowo, ale zasada antropiczna wyjaśnia, dlaczego musi ona zachodzić. Jeśli więc przyjmiemy, że αG jest zdeterminowane antropicznie, musimy również przyjąć, że αW jest tak zdeterminowane. Co dość niezwykłe, zależność αG ∼ α4W również odgrywa kluczową rolę w obliczeniach nukleosyntezy Wielkiego Wybuchu. Przewidywanie, że 24% masy Wszechświata zamieniło się w hel w ciągu zaledwie kilku minut, jest jednym z największych triumfów obrazu Wielkiego Wybuchu. Jednakże produkcja helu zależy w sposób wrażliwy od stosunku neutronów do protonów, gdy słabe oddziaływania stają się wolniejsze niż kosmologiczna szybkość ekspansji w temperaturze 1010 K, a jedynym powodem, dla którego uzyskuje się interesującą wydajność helu, jest "zamrożenie" temperatura jest porównywalna z różnicą mas neutronów i protonów. Okazuje się, że warunkiem tego jest αG ∼? α4W , czyli dokładnie warunek wymagany dla supernowych. Nie jest jasne, w jakim stopniu tę zbieżność można interpretować antropicznie. Gdyby αW było nieco mniejsze niż α1/4G , cały wszechświat spaliłby się w hel, a życie gwiazdy helowej mogłoby nie być wystarczająco długie, aby umożliwić ewolucję życia. Gdyby αW było nieco większe niż α1/4G , w ogóle nie doszłoby do produkcji helu, chociaż nie jest jasne, czy ma to jakiekolwiek znaczenie antropiczne.

Kosmologiczne ograniczenia antropiczne

Kilka bardziej jakościowych ograniczeń antropicznych wynika z rozważań kosmologicznych. Na przykład można przypuszczalnie wykluczyć wszechświat o zerowej gęstości materii (tj. czystym promieniowaniu), ponieważ nie byłoby wówczas w ogóle zawartości barionowej. Istnieją również proste antropiczne powody, dla których parametr gęstości Ω całkowitej mieści się w rzędzie wielkości 1. (Jest to gęstość w jednostkach wartości krytycznej, która oddziela modele, które rozszerzają się w nieskończoność od tych, które ponownie się zapadają.) Gdyby Ω były znacznie większe niż 1, wszechświat uległby ponownemu zapadnięciu w skali czasu znacznie krótszej niż czas ciągu głównego gwiazdy. Z drugiej strony, gdyby Ω były znacznie mniejsze niż 1, wahania gęstości przestałyby rosnąć, zanim galaktyki mogłyby się związać. Argument ten wymaga, aby wartość mieściła się w zakresie 0,01-100. Czasami twierdzi się, że scenariusz inflacyjny wymaga dokładności Ω o 1 ton większej niż ta, w którym to przypadku wyjaśnienie antropiczne może nie wydawać się już istotne. Jednak nawet scenariusz inflacyjny sprawdza się tylko wtedy, gdy tak dobierze się potencjał próżni, aby uzyskać wystarczającą liczbę e-fałdów ekspansji i fluktuacji gęstości o właściwej amplitudzie. Forma tego potencjału może zatem sama być ograniczona argumentami antropicznymi. W rzeczywistości niektórzy teoretycy opowiadają się obecnie za scenariuszami "otwartej inflacji" z Ω < 1. W tym przypadku, aby określić obecną wartość , należy przywołać to, co Alex Vilenkin nazywa "zasadą przeciętności" (pomysł, że jesteśmy najprawdopodobniej żyją we wszechświecie z największą liczbą galaktyk). Jednak w rzeczywistości jest to po prostu zasada antropiczna pod inną nazwą. Innym ważnym parametrem kosmologicznym jest amplituda fluktuacji pierwotnej gęstości wymagana do wyjaśnienia obecnie obserwowanej struktury wielkoskalowej. Kiedy te fluktuacje dotarły za horyzont, musiały mieć amplitudę ε rzędu 10-5. W tym przypadku galaktyki powstały, gdy Wszechświat miał 109 lat, podczas gdy gromady galaktyk rozdzielają się w obecnej epoce. Co by się stało, gdyby z jakiegoś powodu wartość ? była inna? Gdyby ε było poniżej 10-6, bariony kondensowałyby tylko w bardzo późnych momentach, kiedy byłyby bardzo rozproszone. Chłodzenie byłoby wówczas nieskuteczne, więc gaz nigdy nie kondensowałby w gwiazdy. Z drugiej strony, gdyby ε było znacznie większe niż 10-3, bariony wcześnie skondensowałyby się, tworząc ściśle związane układy, które zatrzymywałyby promieniowanie i zapadały się w supermasywne czarne dziury. Ewolucja takiego wszechświata byłaby trudna do obliczenia, ale z pewnością nie zawierałby on niczego takiego jak galaktyki. Antropicznie dozwolony zakres ε wydaje się zatem mieścić w przedziale od 10-3 do 10-6 . Trzecim ważnym parametrem kosmologicznym jest stosunek fotonów do barionów S ∼ 109 (tj. stosunek gęstości fotonów w tle mikrofal do średniej gęstości protonów). W standardowym modelu Wielkiego Wybuchu promieniowanie tła dominowało w gęstości Wszechświata aż do około 104 lat, a powstawanie galaktyk mogło nastąpić dopiero po tym czasie. Jednakże dla ogólnej wartości S czas ten wyniósłby ∼S2α?1/2Gtp, a wiek Wszechświata podany w argumencie Dicke′a byłby wtedy większy tylko dla S<α-1/4G . Zatem górna granica S wynosi około 1010. Dolna granica S jest uzyskiwana, jeśli wymaga się, aby podczas kosmologicznej nukleosyntezy we Wszechświecie dominowało promieniowanie, w przeciwnym razie cały wodór zamieniłby się w hel, co oznacza, że S > (mp/me)4/34wG)1/6 ∼ 104. Zatem argumenty antropiczne wymagają, aby S mieścił się w przedziale 104-1010. Oczywiście na obrazie standardowym wartość S wynika z małego ułamkowego nadmiaru cząstek nad antycząstkami wdrukowanymi około ∼10-34 s po Wielkim Wybuchu z powodu naruszenia zasady zachowania barionu występującego w epoce Wielkiej Zjednoczenia. Jednakże w większości modeli WIELKIEJ UNIFIKOWANEJ TEORII (GUT) przewiduje się, że S będzie miało postać α-n, gdzie n jest liczbą całkowitą, zatem ograniczenie antropiczne S < α-1/4G przekłada się jedynie na ograniczenie αG < α4n. Jeśli n = 5, daje to po prostu warunek gwiazdy konwekcyjnej . Na koniec musimy wziąć pod uwagę ograniczenia antropiczne dotyczące wartości stałej kosmologicznej. Często przyjmuje się, że wynosi zero, ale nie jest to nieuniknione ani teoretycznie, ani obserwacyjnie. Dodatni + powoduje, że Wszechświat rozpoczyna wykładniczą ekspansję, gdy gęstość zwykłej materii spadnie wystarczająco nisko. Wzrost zaburzeń gęstości zostaje wówczas wyhamowany, w związku z czym związane systemy, które do tego czasu nie powstały, nigdy już nie powstaną. Dlatego też dla danej wartości ? względy antropiczne wyznaczają górną granicę. Co ciekawe, granica ta jest tylko 10-krotnie wyższa od wartości, którą niektórzy kosmolodzy opowiadają się za naszym obecnym Wszechświatem. W perspektywie 120 potęg 10 niepewności gęstości energii próżni, przewidywanej przez teoretyków cząstek, jest to bardzo poważne ograniczenie. że gęstość energii próżni jest znacznie mniejsza niż gęstość krytyczna, to można podejrzewać, że jest ona bardzo mała, być może dokładnie równa zero, z jakiegoś fundamentalnego powodu fizycznego.

Interpretacje zasady antropicznej

To, czy uznać argumenty antropiczne za mieszczące się w fizyce czy metafizyce, zależy od tego, jak je zinterpretować. Sugerowano różne rodzaje wyjaśnień. Pierwsza możliwość jest taka, że antropiczne zbiegi okoliczności odzwierciedlają istnienie "dobroczynnej istoty", która stworzyła wszechświat z konkretnym zamiarem stworzenia nas. Taka interpretacja jest logicznie możliwa i może przemawiać do teologów, ale prawdopodobnie jest nie do przyjęcia dla większości fizyków. Inna możliwość, zaproponowana przez Johna Wheelera , jest taka, że wszechświat właściwie nie istnieje, dopóki nie pojawi się świadomość. Opiera się to na założeniu, że wszechświat jest opisany przez kwantowo-mechaniczną funkcję falową i że do zapadnięcia tej funkcji falowej wymagana jest świadomość. Gdy we wszechświecie rozwinie się świadomość, można o niej pomyśleć jako o odbiciu się od źródła Wielkiego Wybuchu, tworząc w ten sposób zamknięty obwód, który powołuje świat do istnienia . Nawet jeśli świadomość rzeczywiście załamuje funkcję falową (co nie jest pewne), to wyjaśnienie również należy uznać za metafizyczne. Trzecia możliwość jest taka, że istnieje nie tylko jeden wszechświat, ale wiele z nich, każdy z różnymi losowo rozłożonymi stałymi sprzężenia. W tym przypadku z konieczności znajdujemy się w jednej z małych frakcji, które spełniają ograniczenia antropiczne. Dzięki tej interpretacji fakt, że stałe mają wartości wymagane do życia, staje się po prostu aspektem słabej zasady antropicznej, ponieważ świadomi obserwatorzy muszą znajdować się nie tylko w specjalnych punktach czasu i przestrzeni, ale także w specjalnych wszechświatach. Przywoływanie wielu dodatkowych wszechświatów może wydawać się raczej nieekonomiczne, ale istnieje kilka kontekstów fizycznych, w których ma to sens. Jedna z możliwości wiąże się z interpretacją mechaniki kwantowej "Wiele światów", zapoczątkowaną przez Hugh Everetta . Pomysł jest taki, że Wszechświat rozpada się za każdym razem, gdy funkcja falowa załamuje się w wyniku obserwacji. Oznacza to, że wszechświat nieustannie rozgałęzia się na ogromną liczbę równoległych światów, co daje początek słynnemu paradoksowi kota Schrödingera. David Deutsch twierdzi, że wszystkie te światy są w pewnym sensie "realne" (Deutsch 1991). Jednakże wszystkie one mają te same stałe sprzężenia w obrazie Everetta, zatem znaczna ekstrapolacja polega na twierdzeniu, że istnieją również światy, w których stałe się różnią. Bardziej prawdopodobny kontekst scenariusza "wielu wszechświatów" pojawia się, jeśli wszechświat jest zamknięty. W tym przypadku można sobie wyobrazić, że przechodzi on cykle ekspansji i ponownego załamania, a przy każdym odbiciu generowane są nowe wartości stałych sprzężenia (rysunek 2(c)). Podczas większości cykli stałe nie pozwalały na powstanie życia, ale czasami pojawiały się odpowiednie wartości i wszechświat stawał się świadomy siebie. Jakkolwiek mało prawdopodobne jest, aby stałe miały prawidłowe wartości, przy nieskończonej liczbie cykli z pewnością tak się stanie czasami. W kontekście obrazu inflacyjnego pojawia się inny scenariusz "wielu wszechświatów". Sugeruje to, że w bardzo wczesnym okresie fluktuacje kwantowe powodują, że małe obszary przechodzą fazę wykładniczej ekspansji. Każdy region staje się "bańką", a cały nasz widzialny wszechświat zostaje zawarty w jednej z nich. W zasadzie, jak podkreśla Andrei Linde, w każdym bąbelku mogą występować różne wartości stałych sprzężenia . W tym przypadku tylko niewielka część z nich rozwinęłaby świadomość, ale nasz wszechświat z konieczności znalazłby się wśród tej frakcji. Zarówno model cykliczny, jak i inflacyjny odwołują się do dużej - i być może nieskończonej - liczby wszechświatów. Jedyna różnica polega na tym, że pierwszy przywołuje nieskończoność w czasie, podczas gdy drugi przywołuje nieskończoność w przestrzeni.

Ocena końcowa

Możliwość ewolucji życia, jakie znamy we wszechświecie, zależy od wartości kilku podstawowych stałych fizycznych i pod pewnymi względami jest niezwykle wrażliwa na ich wartości liczbowe. Z drugiej strony, z fizycznego punktu widzenia, antropiczne "wyjaśnienie" różnych zbiegów okoliczności w przyrodzie można krytykować z wielu powodów. (1) Argumenty antropiczne mają głównie charakter post hoc - poza rezonansem potrójnej alfa nikt nigdy nie oparł skutecznej prognozy na zasadzie antropicznej. (2) Argumenty antropiczne mogą być nadmiernie antropocentryczne, ponieważ założyliśmy warunki, które są specyficznie związane z życiem typu ludzkiego. (3) Zasada antropiczna nie przewiduje dokładnych wartości stałych, a jedynie relacje rzędu wielkości między nimi, więc nie jest to pełne wyjaśnienie. Dwa ostatnie zastrzeżenia można spotkać w ramach interpretacji "wielu wszechświatów", jeśli weźmie się pod uwagę, że wszechświaty zajmują abstrakcyjną wielowymiarową przestrzeń stałych sprzężenia (z jednym wymiarem dla każdego α). Zasadę antropiczną można następnie zinterpretować w ten sposób, że życie może istnieć tylko w małych obszarach tej przestrzeni. W niektórych regionach możliwe będą formy życia podobne do naszych; inne formy życia mogą być możliwe gdzie indziej, ale życie nie będzie możliwe wszędzie . Być może nie w każdym podtrzymującym życie regionie przestrzeni istnieje taka sama relacja antropiczna, ale będzie ona istniała. Jak widzieliśmy, inną atrakcją wyjaśnienia "wielu wszechświatów" jest to, że możliwe jest przedstawienie mu rozsądnej podstawy fizycznej . Oczywiście nie jest jasne, czy te fizyczne idee będą kiedykolwiek możliwe do przetestowania. Na przykład prawdopodobnie nigdy nie dowiemy się, czy wszechświat może podlegać cyklom; nawet jeśli udowodnimy, że ponownie się załamie, nie możemy być pewni, że wejdzie w kolejną fazę ekspansji. Na obrazie inflacji sytuacja nie jest lepsza, bo z pozostałymi bańkami nigdy nie będziemy mogli się zetknąć. Obydwa obrazy są zatem niesprawdzalne i w tym sensie zasadę antropiczną można nadal uważać za metafizyczną. Być może najmniej radykalnym wyjaśnieniem antropicznych zbiegów okoliczności jest to, że mogą one okazać się konsekwencją jakiejś ujednoliconej teorii fizyki cząstek elementarnych. W końcu takie teorie mają na celu powiązanie różnych stałych sprzężenia, więc nie jest wykluczone, że przewidywałyby rodzaj powiązań między różnymi wartościami α omówionymi powyżej. Jednakże, o ile nam wiadomo, omówionych powyżej zależności nie przewiduje żadna ujednolicona teoria. Nawet gdyby tak było, byłoby niezwykłe, że teoria ta dostarcza dokładnie takich zbiegów okoliczności, jakie są wymagane do powstania życia. Na koniec należy przestrzec, że wiele z argumentów antropicznych odnosi się jedynie do obecności złożoności - antropiczne zbiegi okoliczności można w równym stopniu uznać za warunek wstępny dla obiektów nieożywionych, takich jak samochody - więc nacisk na życie może być niewłaściwie umiejscowiony. W tym kontekście Lee Smolin przypuszczał, że stałe rządzące naszym wszechświatem są zdeterminowane nie względami antropicznymi, ale rodzajem "doboru naturalnego" między wszechświatami . Postuluje, że nowe wszechświaty powstają, gdy tworzą się czarne dziury, i że nowe stałe, choć różnią się nieco od ich wartości we wszechświecie macierzystym, zachowują pewną pamięć o swoim pochodzeniu. Pomysł ten ma charakter wysoce spekulacyjny i obejmuje fizykę znacznie wykraczającą poza wszystko, czego możemy być pewni. Jednak pomysł Smolina ma przynajmniej tę zaletę, że można go przetestować: przewiduje, że właściwości naszego Wszechświata powinny być optymalne do powstawania czarnych dziur, tak aby jakiekolwiek majsterkowanie przy stałych zmniejszyło skłonność czarnych dziur do powstawania. Konwencjonalna astrofizyka może przynajmniej zacząć zajmować się tą kwestią.

Sztuka i literatura

Poszerzające umysły właściwości astronomii wpływają na pisarzy i artystów w równym stopniu (a może w większym stopniu) na ogół ludzi, a istnieje długa tradycja wykorzystywania odniesień astronomicznych w literaturze i sztuce.

Astronomia i sztuka

Jednym z celów sztuki pięknej (malarstwa, rzeźby i przedmiotów, które mają być podziwiane, a nie użyteczne) jest komentowanie ludzkich działań za pomocą metafory lub analogii. Działania takie mogą być przeciwne zjawiskom astronomicznym lub kojarzone z nimi, we własnym interesie lub w ramach komentarza. Na przykład na obrazach przedstawiających ukrzyżowanie często pojawiają się obrazy zaćmień. Są one dosłowne przedstawienia nagłej ciemności, która według Pisma Świętego nastąpiła po śmierci Jezusa. Są także metaforami wygaśnięcia ważnej osoby i przykładami "żałosnego błędu", w którym utożsamia się świat przyrody z reakcją na zachodzące w nim działania człowieka. Podobnie florenckiemu malarzowi Giotto de Bondonelowi w 1303 roku zlecono udekorowanie wnętrza kaplicy należącej do bogatego kupca z Padwy, Enrico Scrovegniego, i namalował 38 scen religijnych, z których jedną była Pokłon Trzech Króli . Kult Dzieciątka Jezus w stajni odbywał się pod Gwiazdą Betlejemską, symbolem przemiany i złowieszczym niebiańskmi znakiem narodzin. Giotto przedstawił ją jako płonącą kometę. Inspiracją dla niego była Kometa Halleya, która w 1301 roku powróciła do peryhelium i którą malarz niewątpliwie widział. Wypadało, aby statek kosmiczny wysłany do jądra Komety Halleya podczas powrotu w 1986 roku otrzymał nazwę GIOTTO. Na poziomie bardziej indywidualnym Vincent van Gogh namalował Gwiaździstą noc. Przedstawia prowansalską wioskę z kościołem oraz domy z oświetlonymi oknami w krajobrazie wzgórz, drzew oliwnych i cyprysów, pokazane nocą pod rozgwieżdżonym niebem, z półksiężycem i wirującą Drogą Mleczną. Wygląda na to, że niebobraz jest swobodną wizualizacją nocnego nieba w momencie jego malowania. Niezależnie od naturalnego realizmu kosmiczne tło oszałamiających świateł, górujące nad ludzkim krajobrazem poniżej, stanowi niepokojące kosmiczne tło dla mniejszych wydarzeń ludzkich poniżej, w tym, jak należy przypuszczać, rozwijającego się szaleństwa Vincenta, którego kulminacją było samobójstwo w następnym roku. Ta sama Droga Mleczna biegnie po nocnym niebie w Ucieczce do Egiptu Albrechta Altdorfera (1609, w Pinakotece w Monachium). Ponownie jest to kosmiczne tło dla wydarzeń, pokazanych w małych rozmiarach, które mają miejsce na Ziemi poniżej, gdy Święta Rodzina podróżuje na osiołku, uciekając przed masakrą niemowląt dokonaną przez Heroda. Altdorfer to pierwsze przedstawienie Drogi Mlecznej jako masy pojedynczych gwiazd. Instrumenty astronomiczne są często pokazywane na portretach. Są to ciekawe dekoracje, które odzwierciedlają zainteresowania, osiągnięcia i wykształcenie opiekuna(ów) i mogą, ale nie muszą, być bezpośrednio powiązane z tematem. Ambasadorzy to pełnometrażowy portret dwóch bogatych, wykształconych i wpływowych młodych mężczyzn, Jeana de Dinteville, ambasador Francji w Anglii i Georges de Selve, biskup Lavaur. Artysta Hans Holbein Młodszy (1497/8-1543) przedstawił dwóch mężczyzn stojących po obu stronach stołu niosącego kolekcję globusów, książek oraz instrumentów astronomicznych i muzycznych. Zegar słoneczny na stole jest identyczny z tym, który znajduje się na portrecie astronoma Nicholasa Kratzera wykonanym przez Holbeina z 1528 r. Można przypuszczać, że zegar słoneczny został zaprojektowany lub wykonany przez Kratzera, a jego wizerunek został ponownie wykorzystany i włączony przez Holbeina do The Ambassadors jako pochlebstwo. Odniesienia astronomiczne w ilustrowanych książkach angielskiego poety romantycznego Williama Blake′a nie sprzyjają nauce. Bóg jako architekt, ilustracja z The Ancient of Days, przedstawia Boga jako starca, klęczącego na burzliwych chmurach przed ognistym słońcem i chłodno mierzącego kosmos za pomocą podziałów . Blake przedstawił Newtona jako wprowadzonego w błąd bohatera przypominającego greckiego boga, którego wzrok skierowany był tylko w dół, na sterylne diagramy geometryczne, które również mierzył za pomocą dzielników . Co ciekawe, to pogardliwe przedstawienie Newtona jest często widywane jako plakaty na ścianach wydziałów fizyki uniwersytetów. W przeciwieństwie do pesymizmu Blake′a, jego współczesny i rodak Samuel Palmer ukazuje sielankowe sceny w wyidealizowanej Anglii pod łagodnym, wieczornym niebem ze świecącymi księżycami i planetą Wenus.

Astronomia i literatura

Tak jak artyści wykorzystywali tematy astronomiczne jako tło dla ludzkich spraw, tak też czynią to pisarze. W pismach Williama Szekspira (1564-1616) pełno jest odniesień astronomicznych. W jego sztukach znajdują się liczne przemówienia za i przeciw astrologii, a poglądy przeciwne wyrażają głównie bardziej nachalne, zbuntowane postacie. Szekspir urodził się po opublikowaniu przez Kopernika swojej teorii Układu Słonecznego w 1543 r. i był rówieśnikiem entuzjastycznych angielskich zwolenników nowego spojrzenia na Wszechświat, takich jak THOMAS DIGGES (zm. 1595), WILLIAM GILBERT (1540-1603) i JOHN DEE (zm. 1595). 1527-1608). Niemniej jednak w dziełach Szekspira nie ma śladu tej kontrowersji, z wyjątkiem sporów o ważność astrologii. Thomas Hardy (1840-1928) był poetą i płodnym powieściopisarzem żyjącym na wsi Wessex. Opisał swoją powieść "Dwa na wieży" jako "niezbyt rozbudowany romans", który "był wynikiem chęci zestawienia emocjonalnej historii dwóch nieskończenie małych żyć ze zdumiewającym tłem gwiezdnego wszechświata i zaszczepić czytelnikom poczucie, że z tych kontrastujących wielkości mniejsza może być dla nich jako ludzi większa" (przedmowa do wydania z 1895 r.). Peter Ackroyd (1949-), angielski powieściopisarz, znany ze swojego podejścia do względności czasu w swojej twórczości, również umieścił swoją powieść Pierwsze światło w krajobrazie zachodniego kraju, który ukazuje palimpsest czasu w jego kurhanach, ludowych wspomnieniach i współczesnych obserwatorium. W literaturze można wyraźnie skomentować dość abstrakcyjne idee astronomiczne. Rozmiar wszechświata jest jednym z czynników pobudzających wyobraźnię astronomii, a samo słowo "astronomiczny" zyskało dodatkowe znaczenie słowa "ogromny", ponieważ wielkości występujące w astronomii są tak ogromne. Czasami reakcją na odległości gwiazd jest podziw i strach, jak w Myśli Blaise'a Pascala (1623-1962): Wieczna cisza tych nieskończonych przestrzeni napawa mnie przerażeniem. Ze względu na długi czas podróży światła z gwiazdy do nas, obraz nieba, który w tej chwili postrzegamy, powstał dawno temu i może ukazywać wspomnienie gwiazdy, która od tego czasu dobiegła kresu swojego życia i już nie istnieje. istnieje. The Oda to Charles Sumner autorstwa Henry'ego Longfellowa (1807-1882) (1979 Complete Works (Oxford: Oxford University Press) s. 326) ilustruje tę ideę:

Gdyby gwiazda zgasła na wysokościach,
Przez wieki będzie jego światło,
Wciąż podróżując w dół z nieba,
Świeć na nasz śmiertelny wzrok.
Kiedy więc umiera wielki człowiek,
Przez lata poza naszym zasięgiem
Światło, które zostawia za sobą, leży
Na ludzkich ścieżkach.

Amerykański poeta Robert Frost (1874-1963) astronomią interesował się przez całe życie, a jego początki sięgają już w wieku 15 lat, kiedy to zainstalował w górnym pokoju domu rodziców mały teleskop, kupowany za pieniądze ze sprzedaży prenumerat czasopism. W przemówieniu na dwa miesiące przed śmiercią przedstawił swoją filozoficzną reakcję na astronomię: "Jakie to poruszające, Słońce i wszystko inne. Weź teleskop i spójrz tak daleko, jak tylko możesz. Ile wszechświata zmarnowano, żeby wyprodukować nas marnych. To cudowne… w porządku". W A Star in a Stone Boat (Frost R 1962 (Harmondsworth: Penguin) s. 116) opisał, jak materia niebieska jest częścią tkanki Ziemi i jej zawartości. Nigdy mi nie mów, że ani jedna gwiazda ze wszystkich, które nocą spadają z nieba i delikatnie spadają, nie została podniesiona wraz z kamieniami, by zbudować mur. Primo Levi (1919-1987) był włoskim poetą i pisarzem żydowskim. Z wykształcenia chemik przemysłowy, miał dramatyczne życie jako partyzant piemoncki, był świadkiem, uczestnikiem i ocalałym z obozu koncentracyjnego w Auschwitz. Popełnił samobójstwo, najwyraźniej zrozpaczony kondycją człowieka. Jego poezja In the Beginning z 1998 Collected Poems: Shema transl R Feldman i B Swann (Londyn: Faber and Faber) s. 27) opisuje tę samą myśl, co Frost, w odniesieniu do Wielkiego Wybuchu:

Z tego jednego spazmu narodziło się wszystko:
Ta sama otchłań, która nas otacza i rzuca wyzwanie,
W tym samym czasie, który nas rodzi i pokonuje,
Wszystko, o czym ktokolwiek kiedykolwiek pomyślał,
Oczy kobiety, którą kochaliśmy,
Słońca tysiącami
I ta ręka, która pisze.

Jednakże, podobnie jak w sztukach pięknych, nie wszystkie odniesienia do astronomii w literaturze są przychylne i Newton jest na linii ognia. Podczas pijackiej kolacji w dniu 28 grudnia 1817 r., w której uczestniczyło czterech literatów - Benjamin Haydon, William Wordsworth, Charles Lamb i John Keats - Lamb znieważył Haydona za umieszczenie popiersia matematycznego naukowca Izaaka Newtona na właśnie namalowanym przez niego obrazie. Lamb wyśmiewał Newtona jako "człowieka, który nie wierzy w nic, jeśli nie jest to jasne jak trzy boki trójkąta". Lamb wzniósł toast za "zdrowie Newtona i zamieszanie z matematyką". Keats zgodził się i wraz z Wordsworthem ubolewał nad zniszczeniem piękna przez naukę. To drwiny z nauki pojawiają się w poezji Keatsa i Wordswortha. Żaden naukowiec nie zgodziłby się z opinią wyrażoną przez Keatsa (Lamia, część II, wiersze 229-38 w: Garrod H. W. 1956 The Poetical Works of John Keats:

Nie wszystkie amulety latają
Na sam dotyk zimnej filozofii?
Kiedyś w niebie była straszna tęcza:
Znamy jej wątek, jej teksturę; jest jej dane
W nudnym katalogu rzeczy pospolitych.
Filozofia podetnie skrzydła Aniołowi,
Pokonaj wszystkie tajemnice według zasad i linii,
Opróżnij nawiedzone powietrze i gnom moje -
Rozpleć tęczę…
Fantastyka naukowa

Astronomia kojarzona jest z odrębnym gatunkiem literackim, jakim jest science fiction. "Science fiction to rodzaj prozatorskiej narracji opisującej sytuację, która nie mogłaby mieć miejsca w znanym nam świecie, ale której hipotezę opiera się na jakiejś innowacji w nauce lub technologii, lub pseudotechnologii, zarówno ludzkiej, jak i pozaziemskiej, w pochodzenia" . Science fiction ma długą i chwalebną historię. Jej początki sięgają II w. n.e., gdyż wówczas powstała pierwsza prawdziwa powieść o wyprawie na Księżyc, której autorem był grecki satyryk Lucjan z Samosaty. Nazwał ją Prawdziwą Historią, ponieważ od początku do końca składała się z samych kłamstw. Opisuje rzeczy, których "nie widział, nie cierpiał, ani nie nauczył się od kogoś innego, rzeczy, których nie ma i nigdy nie mogło być; dlatego moi czytelnicy w żadnym wypadku nie powinni im wierzyć". Lucian łączył chłodny umysł z darem do płynnego, łatwego pisania i posiadał duże poczucie humoru. Jego podróżnikami są marynarze, którzy zostali porwani przez strumień wody, gdy przechodzili przez Słupy Herkulesa (naszą Cieśninę Gibraltarską), i zostali wyrzuceni w górę z taką siłą, że po siedmiu dniach i siedmiu nocach wylądowali na Księżycu. Zostali aresztowani przez księżycowych wojowników i uwięzieni przez Króla Księżyca. Łącząc arystotelesowskie postrzeganie ciał niebieskich jako doskonalszych od Ziemi z Księżycem, Lucian opisał ludzi księżycowych jako znacznie bardziej zaawansowanych niż ludzie na Ziemi. Wszystko, co nieczyste i nieczyste, było dla nich odrażające. Seks był albo nieznany, albo ignorowany, a kiedy księżycowy człowiek umierał, po prostu rozpływał się w dymie, tak że nie pozostawiano żadnych szczątków do pochówku. Ta konwencja mówiąca, że istoty niebieskie są czystsze od nas, przetrwała do dziś w wierzeniach o pozaziemskich gościach w UFO. Somnium (Sen) Johanna KEPLERA było zupełnie inne. W 1593 roku, mając 22 lata, student Uniwersytetu w Tybindze, Kepler napisał rozprawę pt. Stanowisko Kopernika na temat tego, jak niebo będzie wyglądało dla obserwatora na powierzchni Księżyca. Debata na temat tej radykalnej tezy została stłumiona. Somnium, napisane w 1609 r. i opublikowane w 1634 r., rozwija tę tezę w dzieło wyobraźni. To było i miało być zarówno edukacyjne, jak i rozrywkowe. Było 223 notatki wyjaśniające jego odniesienia. Praca ta była pierwsza, kładąc nacisk na to, co dla Keplera było nauką, a nie na historię przygodową opowieść science fiction (hard core, w której nauka jest najważniejszą cechą, w przeciwieństwie do science fiction). Bohater Keplera, Islandczyk imieniem Duracotus, zostaje przeniesiony na Księżyc przez demona. Kepler wiedział, że ziemska atmosfera nie rozciąga się aż do Księżyca i że musi istnieć punkt neutralny, w którym siły grawitacyjne Ziemi i Księżyca równoważą się. Kepler wiedział również, że Księżyc zawsze jest zwrócony tą samą twarzą w stronę Ziemi, i wyjaśnia, że warunki na obu półkulach są zupełnie inne. Opisuje zaćmienie Księżyca widziane z Księżyca (tj. zaćmienie Słońca przez Ziemię) i jak wygląda zaćmienie Słońca z perspektywy mieszkańca Księżyca (tj. przejście cienia umbralnego przez powierzchnię Ziemi). W 1865 roku ukazała się książka Juliusza Verne′a "Z Ziemi na Księżyc", a później ukazała się jej kontynuacja "Dookoła Księżyca". Verne świadomie starał się trzymać znanych mu faktów i, ogólnie rzecz biorąc, udało mu się to wyjątkowo dobrze, mimo że jego podstawowy sposób podróżowania był niewłaściwy. Jego podróżnicy zostali wystrzeleni na Księżyc z lufy ogromnej armaty i wyruszyli z prędkością 7 mil s-1. Liczbowo Verne miał rację; 7 mil na s-1 to prędkość ucieczki Ziemi, a pocisk wystrzelony z tą prędkością nigdy nie powróci. Niestety, pocisk zostałby natychmiast zniszczony przez tarcie o atmosferę, a w każdym razie szok odlotu z pewnością zamieniłoby wszystkich podróżnych w galaretę, ale przynajmniej Verne sprawił, że wszystko brzmiało wiarygodnie. Jego opis Księżyca opierał się na najlepszych dostępnych informacjach, a jego fabuła jest genialna; pocisk napotyka mniejszego satelitę Ziemi i jego tor zostaje zmieniony w taki sposób, że zamiast dotrzeć do Księżyca, podróżujący zostają bumerangiem z powrotem na Ziemię. Opisuje "Wojna światów" HG Wellsa (1898)., ak Ziemię najeżdżają groteskowe potwory z Marsa, uciekając przed wysuszeniem swojej planety. Powodują spustoszenie, dopóki nie zostaną zniszczone przez bakterie lądowe, na które nie mają odporności. W 1938 roku audycja radiowa powieści wyprodukowanej przez Orsona Wellesa wywołała powszechną panikę w niektórych częściach Stanów Zjednoczonych, a słuchacze wzięli ją za prawdziwy biuletyn informacyjny. Powieść zupełnie innego rodzaju napisał KONSTANTIN EDWARDOWICZVICH CIOŁKOWSKI, urodzony w 1857 roku w Ijewsku, odległej wiosce w Rosji. Uświadomił sobie, że jedyną praktyczną metodą podróży kosmicznych jest rakieta, która działa na zasadzie reakcji i może pracować w próżni kosmicznej. Jego jedyna powieść, Beyond the Planet Earth, została ukończona prawdopodobnie w 1895 r., choć ukazała się drukiem dopiero w 1920 r., a jej tłumaczenie na język angielski opóźniono aż do 1960 r. Jako opowieść i wysiłek literacki można ją określić jedynie jako okropną. , ale według prognoz naukowych wyprzedzał swoje czasy o całe lata. W swojej powieści podróżnicy użyli silnika rakietowego na paliwo ciekłe zamiast na ciała stałe, takie jak proch strzelniczy; opisał zasadę "krokowego" montażu jednej rakiety na drugiej (co nazwalibyśmy rakietą wielostopniową). Podał także doskonale dokładny opis przyczyn i skutków nieważkości, czyli zerowej grawitacji. Był równie świadomy wielu problemów związanych z długimi podróżami kosmicznymi i zaproponował zabranie ze sobą różnego rodzaju zielonych roślin, aby usunąć nadmiar dwutlenku węgla z atmosfery wewnątrz statku kosmicznego i zastąpić go wolnym tlenem. W latach trzydziestych XX wieku ukazywało się wiele tanich magazynów science fiction (i kryminałów). W ten sposób powstała nazwa "pulp fiction", obecnie będąca synonimem opowiadania historii bez wyrafinowania. Niemniej jednak niektórzy młodzi, a teraz już uznani pisarze zaczynali na tym rynku. W przeciwieństwie do większości pulp fiction, wśród ostatnich autorów, których książki zawierają dużo solidnej wiedzy naukowej, znajduje się wizjoner podróży kosmicznych Sir ARTHUR CLARKE, autor książki 2001: a Space Odyssey, nakręconej przez Stanleya Kubricka. Astronom FRED HOYLE jest także uznanym pisarzem, którego pierwsze i najbardziej znane dzieło science fiction, Czarna chmura, zawiera wzory matematyczne.

"Sztuka kosmiczna"

Podobnie jak science fiction, "sztuka kosmiczna" ma głównie na celu przekazywanie myśli o kosmosie i astronomii, a nie ukazywanie niuansów samodzielnej formy sztuki. Sztuka kosmiczna jest formą ilustracji naukowej, podobną do ilustracji botanicznej. Ponieważ tematu nie widać bezpośrednio, artyści kosmiczni ekstrapolują wiedzę na jego temat na ilustrację, podobnie jak zrobiłby to ilustrator rekonstruując dinozaura ze skamielin lub miejsce historyczne z wykopalisk archeologicznych. Artyści kosmiczni mogą pokazać, jak wyglądałaby odległa planeta, układ podwójny gwiazd lub galaktyka, gdybyśmy byli tam osobiście, lub w jaki sposób można by zrealizować działanie w przestrzeni kosmicznej, takie jak wydobycie asteroidy lub kolonizacja Marsa. Sztuka kosmiczna może również włączać do swojego gatunku elementy fantasy, umieszczając ryby, kwiaty itp. w scenie kosmicznej, aby uzyskać dramatyczny efekt. Wczesnym przykładem tej formy sztuki kosmicznej był The Sower of Systems , przedstawienie chaosu poprzedzającego powstanie planet przez George′a Fredericka Wattsa (1817-1904). Ekspresjonistyczny obraz hipotezy mgławicy Laplace′a łączy się z niewyraźną formą kroczącej postaci w szarym płaszczu, jakby zasiewała pole. Pionierskim artystą kosmicznym we współczesnej szkole był CHESLEY BONESTELL, który ilustrował książki ekspertów w dziedzinie podróży kosmicznych, takich jak WERNHER VON BRAUN i Willy Ley. Nowoczesną sztukę kosmiczną wyróżnia naturalistyczny sposób ilustracji, tworzący szczegółowe pejzaże nawiązujące do pejzażystek amerykańskich romantycznych. Zarówno tematyka, jak i dostępny materiał sprzyjają cyfrowym metodom pracy, ale powszechne są również bardziej tradycyjne techniki. Około 120 artystów kosmicznych tworzy Międzynarodowe Stowarzyszenie Artystów Astronomicznych (http://www.iaaa.org/), założone w 1982 roku. Współcześni praktycy to David Hardy i Paul Doherty (Wielka Brytania), Lynette Cooke (USA) oraz kosmonauci Właidimir Dżanibekow. Aleksjie Leonow , a także Georgij Popławski i Andrjej Sokołow (Rosja). Sztuka kosmiczna ma nieograniczone możliwości. W przyszłości fascynujące będzie spojrzenie wstecz na niektóre spekulacje XX wieku; na przykład, czy baza księżycowa naprawdę będzie przypominać pełną wdzięku kopułową strukturę wizualizowaną przez Bonestell? Poczekamy i zobaczymy.

Odkrycie asteroidy w historii

Odkrycie pięciu głównych planet (innych niż Ziemia) w Układzie Słonecznym zostało utracone w starożytności. Wraz z przyjęciem heliocentrycznego modelu Układu Słonecznego Kopernika zauważono wyraźną anomalię w rozstawie planet. JOHANNES KEPLER uważał, że różnica między Marsem a Jowiszem jest zbyt duża w stosunku do odstępów między innymi parami sąsiednich planet. Doszedł do wniosku, że nieznana planeta krąży wokół Słońca pomiędzy Marsem a Jowiszem. W 1766 roku Titius von Wittenburg opracował empiryczny wzór na odległości planet od Słońca. Wzór został spopularyzowany przez Johanna Bodego i jest dziś znany jako PRAWO BODE lub prawo Titiusa-Bodego. Wzór ma postać:

A = 0,4 + 0,3 x 2n

gdzie A jest odległością od Słońca (w jednostkach odległości Ziemi), a n = ?∞, 0, 1, 2, …. Wartości A określone tym wzorem, odpowiadające im planety i rzeczywiste odległości przedstawiono w tabeli .



Tycjusz przypisał przerwę przy n = 3 nieodkrytym księżycom Marsa. Podobnie jak Kepler, Bode argumentował, że tę lukę zajmuje większa planeta. Odkrycie Urana w 1781 roku w odległości bardzo zbliżonej do przypadku n = 6 utwierdziło wiarę w brakującą planetę. (Należy zauważyć, że Neptun bardzo słabo pasuje do przypadku n = 7 i że "Prawo" wydaje się być niczym więcej niż ciekawostką liczbową.)

Niebiańska policja

Jednym z zwolenników prawa Bodego był BARON FRANZ VON ZACH, który posunął się nawet do przewidzenia elementów orbitalnych "brakującej planety" i podjął samodzielne poszukiwania, aby ją znaleźć. Po kilku latach bezowocnych poszukiwań poddał się. We wrześniu 1800 roku von Zach odbył spotkanie w obserwatorium JOHANNA SHRÖTERA w Lilienthal w celu zorganizowania wspólnego poszukiwania domniemanej planety. Poszukiwania miały być prowadzone w odległości około 4° od ekliptyki, którą podzielono na 24 sekcje, z których każda miała być przeszukiwana przez innego astronoma. 1 stycznia 1801 roku, zanim niebiańska policja zdążyła zabrać się do pracy, sycylijski mnich, ojciec GUISEPPE PIAZZI, w trakcie konstruowania katalogu gwiazd odkrył poruszający się obiekt gwiezdny. Piazzi obserwował obiekt przez 6 tygodni, zanim przerwała mu choroba. Chociaż Piazzi napisał listy do różnych astronomów, w tym do Bodego, ogłaszając odkrycie, do czasu otrzymania listów nowego obiektu nie można już było obserwować. Korzystając z obserwacji Piazziego, różne komputery orbitalne próbowały przewidzieć, gdzie obiekt będzie znajdował się w nadchodzącym roku, ale przewidywania obejmowały 5° nieba. Zainspirowany odkryciem Piazziego niemiecki matematyk CARL FRIEDRICH GAUSS opracował nową metodę ogólnego obliczania orbity. Prace Gaussa umożliwiły odnalezienie nowego obiektu, który otrzymał nazwę Ceres Ferdinandea (później na szczęście skróconą do po prostu CERES), z dokładnością do 0,5° od jego przewidywań niezależnie przez von Zacha i HEINRICHA OLBERSA.

Era wizualna

28 marca 1802 roku Olbers sprawdzał położenie gwiazd w pobliżu Ceres i odkrył PALLAS. 1 września 1804 roku KARL HARDING odkrył trzecią asteroidę, JUNO. Olbers zauważył, że Juno została odkryta w pobliżu jednego z punktów przecięcia orbit Ceres i Pallas i wierząc, że asteroidy są fragmentami jednego obiektu, skoncentrował swoje poszukiwania w pobliżu tych punktów. 29 marca 1807 roku jego pracowitość zaowocowała odkryciem VESTA. W 1845 roku Karl Hencke, niemiecki naczelnik poczty, po 15 latach poszukiwań odkrył piątą asteroidę, Astraea. Hencke odkrył Hebe w 1847 roku, a inni astronomowie szybko rozpoczęli własne poszukiwania. Zastosowano różne techniki obserwacji. Jaśniejsze asteroidy można wykryć dzięki ich nieobecności na opublikowanych mapach gwiazd. W przypadku asteroid słabszych niż pokazano na mapach, obserwatorzy musieli uciekać się do rysowania własnych map i porównywania rysunków tego samego pola gwiazdowego w różnych momentach. Do 1850 roku odkryto 13 asteroid. Szybko rozwinęła się tradycja, że nowo odkrytym obiektom nadano nazwy natychmiast po (lub wkrótce po) ogłoszeniu o odkryciu. Wczesnym odkryciom również przypisywano symbole, choć praktyka ta zanikła już w 1855 r. Numery nadawane według kolejności odkryć wprowadzono w 1851 r. Fakt, że numery i nazwy nadano natychmiast po opublikowaniu ogłoszenia o odkryciu, często powodował zamieszanie. Gwałtowny wzrost liczby odkryć (100 w 1868 r., 200 w 1879 r. i 300 w 1890 r.) przerósł możliwości komputerów orbitalnych próbujących śledzić wszystkie obiekty, w wyniku czego wiele obiektów zaginęło. W 1856 roku Hermann Goldschmidt odkrył (41) Daphne. Obiekt obserwowano tylko przez cztery dni. Goldschmidt myślał, że w następnym roku wyzdrowiał (41), ale okazało się, że jest to nowy obiekt, którym stał się (56) Melete. Ten ostatni obiekt obserwowano tylko przez dwa tygodnie i zaginął do czasu, gdy Goldschmidt podjął wyczerpujące poszukiwania w 1861 r. Karol Luter przypadkowo odnalazł (41) ponownie w 1862 r., ale został wzięty za nowy obiekt i przez pewien czas był ponumerowany (74). . W miarę odkrywania kolejnych asteroid stało się jasne, że większość obiektów znajduje się w pasie, zwanym Pasem Głównym, rozciągającym się w odległości od 2,2 do 3,28 jednostki astronomicznej od Słońca (patrz PAS ASTEROID). Pierwszym obiektem odkrytym poza Pasem Głównym była (65) Cybele w 1861 r. W 1875 r. (153) Hilda została znaleziona w średniej odległości prawie 4 jednostek astronomicznych. Był to prototyp Hild, obiektów znajdujących się w rezonansie ruchu średniego 3:2 z Jowiszem i chronionych przed bliskimi zbliżeniami do tej planety, mimo że ich orbity zbliżają się dość blisko.

Epoka fotograficzna

Do 1892 roku wszystkie obserwacje prowadzono wzrokowo, używając kręgów tranzytowych lub mikrometrów. Wprowadzenie poszukiwań fotograficznych pod koniec 1891 roku przez MAX WOLFA w Heidelbergu w Niemczech, a wkrótce potem przez Auguste'a Charloisa w Nicei we Francji, oznaczało nie tylko, że obserwatorzy mogli wykryć obiekty słabsze niż można było zaobserwować wizualnie, ale że płyta fotograficzna stanowiła trwały zapis obserwacji. Odkryć wizualnych dokonano poprzez obserwację zmian w polach gwiazdowych na przestrzeni kilku godzin, gdy obiekty przemieszczały się przez to pole. W przypadku zdjęć z długim czasem naświetlania, wykonanych teleskopem śledzonym z prędkością gwiazdową, poruszające się obiekty zdradzałyby swoją obecność, tworząc krótkie ślady na płycie. Problem z obserwacjami fotograficznymi polegał na tym, że przynajmniej początkowo często nie mierzono dokładnych pozycji obiektów na płytach, głównie dlatego, że był to czasochłonny proces wymagający specjalistycznego sprzętu pomiarowego. Ogólnie rzecz biorąc, uzyskiwano przybliżone pozycje, które można było szybko wyznaczyć. Dokładne obserwacje uzupełniające można następnie uzyskać za pomocą obserwatorów wizualnych za pomocą mikrometrów. Jednakże obserwatorzy wizualni mieli trudności ze śledzeniem słabszych odkryć fotograficznych, a coraz większa liczba nowo odkrytych obiektów szybko ginęła. Aby uporać się z tym narastającym problemem, wprowadzono tymczasowe oznaczenia. Nowo odkryte obiekty otrzymywały najpierw tymczasowe oznaczenie, a stały numer nadawany był dopiero wtedy, gdy wydawało się, że orbita nowego obiektu jest bezpieczna. Początkowo tymczasowe oznaczenie składało się z roku i jednej litery. Zatem pierwszym obiektem tak oznaczonym był 1892 A, drugim 1892 B, itd. Literę I pominięto, aby schemat ten mógł obsłużyć 25 odkryć rocznie. Rok 1892 zakończył się rokiem 1892 V. Sekwencję liter rozpoczęto od nowa w roku 1893, lecz oznaczenie 1893 Z osiągnięto w maju tego roku. Wprowadzono nową serię podwójnych liter, zaczynającą się od AA, AB,…, AZ, BA, BB itd. Ta dwuliterowa sekwencja nie rozpoczynała się co roku od nowa; ostatnim obiektem odkrytym w 1893 r. był 1893 AP, pierwszym w 1894 r. był 1894 AQ. Dwuliterowy ciąg został wyczerpany w 1907 ZZ. Zamiast rozpoczynać sekwencję potrójną, sekwencja dwuliterowa została po prostu wznowiona za pomocą 1907 AA. Sekwencja została ponownie wyczerpana w 1916 ZZ i rozpoczęto od nowa w 1916 AA. W 1925 roku wprowadzono nowy system oznaczeń tymczasowych. Używało to sekwencji dwuliterowej i było powiązane z datą kalendarzową odkrycia. Pierwsza litera odzwierciedlała pół miesiąca odkrycia obiektu: A oznaczało odkrycia dokonane między 1 a 15 stycznia, B między 16 a 31 stycznia, C między 1 a 15 lutego, …, zostałem pominięty, …, Y pomiędzy 16 i 31 grudnia. W drugim piśmie wskazano kolejność w ciągu każdego pół miesiąca (znowu zostałem pominięty). Jeżeli w ciągu pół miesiąca dokonano więcej niż 25 odkryć, druga sekwencja liter była poddawana recyklingowi i do oznaczenia dodawana była cyfra. Zatem sekwencja oznaczeń obiektów odkrytych w pierwszej połowie stycznia 1998 będzie następująca: 1998 AA, 1998 AB, … , 1998 AZ, 1998 AA1, 1998 AB1, … , 1998 AZ1, 1998 AA2 itd. Zakrojony program poszukiwań prowadzono w Heidelbergu od 1891 r., a program głównie wizualny Johanna Palisy w Wiedniu działał od 1881 r. W latach 1874-1880 Palisa odkryła 28 asteroid w Poli, która wówczas była w Austrii. Po przeprowadzce do Wiednia odkrył kolejnych 55, po czym porzucił poszukiwania i poświęcił się kontynuacji odkryć innych ludzi. Poszukiwania nowych obiektów wznowił w 1905 r., a w 1923 r. odkrył kolejnych 38. Dalsze istotne programy rozpoczęto w Johannesburgu i Simeis w 1911 r., Uccle (Belgia) w 1925 r., Flagstaff (USA) w 1929 r. (poszukiwania doprowadziły do odkrycia Pluton) i Turku (Finlandia) w 1935 r. W dalszym ciągu odkrywano nowe klasy asteroid: 1898, (433) EROS, pierwszy obiekt o odległości peryhelium mniejszej niż 1,3 AU; 1903, (588) ACHILLES, pierwszy obiekt w rezonansie 1:1 z większą planetą (trojany Jowisza); 1920, (944) Hidalgo, obiekt asteroidalny o orbicie kometarnej; 1932, (1862) Apollo, pierwsza asteroida o odległości peryhelium mniejszej niż 1 AU (patrz ASTEROIDY NEARTH). Zadanie skatalogowania asteroid podjęto w Niemczech. Głównym czasopismem publikującym informacje o odkryciach, pozycjach i orbitach było Astronomische Nachrichten (AN). Astronomishes Rechen-Institut w Berlinie-Dahlem zaczął publikować serię okólników szybkiego ostrzegania, okólników RI, w 1926 r. Coroczne zbiory efemeryd mniejszych planet publikowano, najpierw w Jahrbuch Rechen-Institut, a następnie od 1917 r. osobno jako Kleine Planeten. Działalność tych podmiotów została jednak poważnie zagrożona przez II wojnę światową. W 1947 roku Międzynarodowa Unia Astronomiczna podzieliła się zadaniem katalogowania mniejszych planet. Za wydawanie rocznych tomów efemeryd dla ponumerowanych obiektów odpowiedzialny był Instytut Astronomii Teoretycznej w Leningradzie w ZSRR (obecnie Sankt Petersburg, Rosja). Minor Planet Center, założone na Uniwersytecie Cincinnati, miało za zadanie śledzenie nowo odkrytych obiektów i nadawanie tymczasowych i stałych oznaczeń. Centrum rozpoczęło publikację Okólników Minor Planet, zastępujących nieistniejące już Okólniki RI. Pierwszym priorytetem było ponowne odnalezienie ponumerowanych obiektów, które zaginęły. Spośród 1564 obiektów oznaczonych numerem w 1945 r. orbity około 20% uznano za w złym stanie. Nowe programy badawcze w Obserwatorium Goethe Link w Indianie, Obserwatorium McDonald i Krymskim Obserwatorium Astrofizycznym rozwiązały problem utraconych obiektów i pomogły odzyskać wiele obiektów. Jeśli chodzi o obliczenia, Paul Herget, pierwszy dyrektor Minor Planet Center, wykorzystał niedawno opracowany komputer elektroniczny do wykonania obliczeń orbity i ulepszeń. Przed 1973 rokiem wszystkie znane obiekty bliskie Ziemi (NEO) zostały odkryte jako produkty uboczne innych programów astronomicznych. Dwa takie obiekty odkryto w 1948 r. w trakcie przeglądu Lick Proper Motion Survey, a pięć w Palomar w latach 1949-1954 podczas przeglądu nieba Palomar. W 1973 roku Eleanor Helin i Eugene Shoemaker rozpoczęli badanie Palomar Planet-Crossing Asteroid Survey, pierwsze badanie, którego głównym celem było odkrycie NEO. Odkryto więcej nowych klas asteroid: 1976, (2062) Aten, pierwsza asteroida o orbicie mniejszej niż orbita Ziemi; 1977, (2060) CHIRON, pierwszy centaur z orbitą pomiędzy orbitami planet Jowisza. W 1978 roku, kiedy Minor Planet Center przeniosło się z Cincinnati do Smithsonian Astrophysical Obervatory w Cambridge w stanie Massachusetts, wydano 4390 Minor Planet Circulars i było tam ponumerowanych 2060 obiektów, z czego około 20 uznano za zaginione.

Era CCD

Podobnie jak w przypadku przejścia z obserwacji wizualnej na fotograficzną, przejście z obserwacji fotograficznych na obserwacje CCD oznacza, że obserwatorzy mogą docierać do słabszych obiektów szybciej niż było to możliwe wcześniej. Wadą, którą usunięto dopiero niedawno, jest to, że pole widzenia matrycy CCD jest znacznie mniejsze niż pokrycie zapewniane przez kliszę fotograficzną. Płyta wykonana dużym Schmidtem zazwyczaj obejmuje obszar 6 na 6 stopni, podczas gdy wczesne CCD mogą obejmować tylko 6 minut kątowych na 6 minut kątowych. Nowoczesne wielkoformatowe matryce CCD i matryce CCD łagodzą ten problem zasięgu. Pierwsze systematyczne zastosowanie CCD do wyszukiwania asteroid miało miejsce w ramach projektu Spacewatch w 1981 r. Wykorzystując czcigodny reflektor o średnicy 0,91 m w Obserwatorium Stewarda na Kitt Peak, Spacewatch odkrył ponad 180 planetoid NEO i 25 000 asteroid Pasa Głównego. Większość obecnych profesjonalnych poszukiwań asteroid za pomocą CCD jest zoptymalizowanych pod kątem odkrywania NEO, ale w trakcie poszukiwań wychwytuje wiele rutynowych obiektów. Program LINEAR (zespół badawczy Lincoln Laboratory Near-Earth Asteroid Research) odkrył 153 planetoidy NEO i ponad 19 000 asteroid Pasa Głównego. Inne aktywne programy obejmują NEAT (śledzenie asteroid bliskich Ziemi), LONEOS (przeszukiwanie obiektów bliskich Ziemi w Obserwatorium Lowell) i ODAS (badanie asteroid OCA-DLR). Inne programy zawodowe, takie jak czeskie programy w Klet i Ondrejov, koncentrują się na kontynuacji. Wciąż odkrywane są nowe klasy asteroid. Pierwsze OBIEKTY TRANS-NEPTUNIAŃSKIE, po Plutonie, odkryto w latach 1992 i 1993. Orbity niektórych z tych obiektów leżą daleko poza orbitą Neptuna i są zasadniczo okrągłe, podczas gdy inne mają orbity, które znajdują się w rezonansie ruchu średniego z Neptunem ( głównie rezonans 2:3, jak w przypadku Plutona). Chociaż orbity tych ostatnich obiektów przecinają orbitę Neptuna, rezonans uniemożliwia bliskie spotkania z Neptunem. Skrajna słabość większości tych obiektów utrudnia dalsze działania, a wiele odkrytych obiektów należy już uznać za zaginione. Dostępność niedrogich kamer CCD na rynku amatorskim na początku lat 90. XX wieku doprowadziła do odrodzenia się działalności amatorskiej w dziedzinie odkrywania asteroid. Wcześniej wielu amatorów, choć posiadało odpowiednie teleskopy, nie było w stanie prowadzić astrometrycznych obserwacji asteroid, ponieważ nie mieli sprzętu do pomiaru klisz fotograficznych lub klisz. Przetworniki CCD i pojawienie się programów komputerowych do przetwarzania obrazów CCD umożliwiło wielu amatorom obserwację i odkrywanie asteroid. Inni amatorzy stali się oddanymi obserwatorami, pilnie śledzącymi odkrycia potencjalnych NEO za pomocą profesjonalnych ankiet. Japońscy amatorzy są bardzo aktywni od lat 70. XX wieku, najpierw fotografując, a następnie używając matryc CCD. Dużą działalność amatorską prowadzi się także we Włoszech, Australii i USA. W chwili pisania tego tekstu liczba asteroidów jest ponumerowana 10 986, przydzielono ponad 164 000 tymczasowych oznaczeń i wydano ponad 35 000 okólników mniejszych planet. Zaginęła tylko jedna asteroida o numerze. Istnieje ponad 12 000 nienumerowanych obiektów o dobrych orbitach, które w najbliższej przyszłości będą kwalifikowały się do numeracji. Ponad 25 000 innych obiektów, zaobserwowanych jedynie podczas odkrycia, ma orbity różnej jakości i oczekuje na odnalezienie lub ponowne odkrycie

Asteroidy

Asteroidy to małe ciała krążące wokół Słońca, które nie wykazują aktywności kometarnej ani nie mają do niej potencjału. Słowo "mały" ma na celu wykluczenie planet z definicji. Wszystkie znane asteroidy mają średnicę mniejszą niż 1000 km i sięgającą kilku centymetrów (METEOROIDY). Największą znaną planetoidą jest 1 CERES, odkryta 1 stycznia 1801 roku przez Giuseppe Piazzi w Palermo we Włoszech, o średnicy 950 km. Asteroidy nazywane są także mniejszymi planetami. Nowo odkryte mniejsze ciało znane jako 2001 KX76, którego średnica czyni go największym znanym mniejszym ciałem w Układzie Słonecznym (jego średnica, która nie jest zbyt dobrze określona, wynosi około 1200 km, a być może nawet 1400 km) to OBIEKT TRANSNEPTUŃSKI (TNO). Większość asteroid krąży w zamkniętym obszarze pomiędzy Marsem a Jowiszem, zwanym głównym PASEM ASTEROID. Spośród około 30 000 znanych obiektów jedynie 8500 asteroid ma dokładnie określone orbity. Każda z tych asteroid ma ostateczną identyfikację, składającą się z liczby wskazującej kolejność jej pojawienia się oraz nazwy zaproponowanej przez odkrywcę (np. "3752 Camillo" oznacza 3752. odkrytą asteroidę). Dla pozostałych 21 500 dostępne są jedynie wstępne orbity; każda oznaczona jest rokiem odkrycia i dwiema literami wskazującymi datę pierwszej obserwacji w ramach tymczasowej identyfikacji (np. "1998 p.n.e." oznacza trzecią asteroidę (C) odkrytą w drugiej połowie stycznia (B) 1998 r.). Satelita astronomiczny w podczerwieni (IRAS) wykrył tysiąc asteroid, który dostarczył radiometryczne średnice i albedo większości z nich. Około 700 asteroid ma określony okres rotacji. Mniej niż 1000 asteroid ma średnicę większą niż 30 km, a spośród nich około 200 asteroid ma średnicę większą niż 100 km. Ekstrapolując rozkład wielkości asteroid do 1 km, uzyskuje się szacunkową liczbę około miliona asteroid, których średnica jest większa lub równa 1 km. Szacuje się, że globalna masa populacji jest rzędu jednej tysięcznej masy Ziemi. Asteroidy uważano za nieciekawe "robactwo niebios", dopóki nie odkryto, że przechowują różnorodne informacje. W rzeczywistości uważa się, że asteroidy to pozostałości, fragmenty lub "ocalałe" roje PLANETESIMALI, z których powstały planety ziemskie: zapisy pierwotnych procesów chemicznych i fizycznych wciąż można znaleźć zamrożone w rzeczywistych charakterach asteroid. Badanie tych obiektów dostarcza informacji na temat natury tych pierwotnych rojów, nawet jeśli różnicowanie i/lub aktywność wewnętrzna w różny sposób wpływały na ich ewolucję. Obserwacje asteroid naziemne i in situ pokazują populację ciał stałych wykazujących różnorodne właściwości chemiczne i fizyczne: jedną z najciekawszych cech asteroid jest ich różnorodność. Zrozumienie pochodzenia różnorodności wymaga zbadania dużej liczby ciał. Informacje zebrane in situ na temat asteroid RG21 6XS, UK Zarejestrowany pod numerem 785998 i Institute of Physics Publishing 2003 Dirac House, Temple Back, Bristol, BS21 6BE, UK 1 różne asteroidy będące celami misji kosmicznych stanowią potężny test umożliwiający kalibrację technik stosowanych do określania właściwości chemicznych i fizycznych asteroid na podstawie obserwacji naziemnych, które są i pozostaną głównym źródłem danych o asteroidach. Obecna wiedza na temat populacji planetoid została uzyskana głównie z obserwacji naziemnych. Na przykład ostatnie obserwacje wykonane za pomocą 10-metrowego teleskopu Keck II na Mauna Kea ujawniają obecność małego satelity krążącego wokół asteroidy 87 Sylvia. Przewidywana odległość między pierwotnym i wtórnym wynosiła 0,59 cala na obrazach w paśmie H uzyskanych 18 lutego 2001 r. przy użyciu systemu optyki adaptacyjnej na 10 m teleskopie WM Keck II. Na obrazach uzyskanych w odstępie godziny był widoczny niewielki ruch względny (górna granica 0,02 cala). ). Zmierzony współczynnik jasności wyniósł 420 ą 70, co oznacza stosunek rozmiarów około 1:20. Oznacza to, że satelita ma szerokość około 7 km, w przeciwieństwie do Sylvii, która ma szerokość około 130 km. Niewiele dużych asteroid objętych jest programem obserwacyjnym Kosmicznego Teleskopu Hubble'a (HST), a pierwsze wyniki dotyczące 4 VESTA cieszą się dużym zainteresowaniem. Infrared Satellite Observatory (ISO) zaobserwowało kilkadziesiąt asteroid, umożliwiając astronomom uzyskanie danych spektralnych do 45 ľm. Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA) MISJA GALILLEO po raz pierwszy zbliżyła się do dwóch asteroid, 951 GASPRA (październik 1992) i 243 IDA (sierpień 1993), oferując społeczności planetologów możliwość przyjrzenia się z bliska dwóm S- typu asteroidy z pasa głównego. Przelot 253 Mathilde (czerwiec 1997, misja Near Earth Asteroid Rendezvous (NEAR)) dostarczył nam pierwszych danych in situ na temat asteroidy typu C.

Asteroidy pasa głównego

Główny pas asteroid zajmuje obszar wokół Słońca przypominający pączek, zawierający orbity większości asteroid, charakteryzujący się półosiami wielkimi (a) w zakresie od 2,1 AU do 3,3 AU, mimośrodami (e) w zakresie od 0,01 do 0,3 oraz nachyleniem (i) względem płaszczyzny orbity Ziemi (ekliptyki) pomiędzy 0° a 35° (ze średnią wartością 10°). Strukturę pasa asteroid określają oddziaływania grawitacyjne zarówno z Marsem, jak i Jowiszem. Ze względu na większą masę, efekty Jowisza są dominujące i powodują wyczerpywanie się obiektów odpowiadających rezonansom, tj. obszarów, w których okres orbitowania ciała byłby dokładnym całkowitym stosunkiem okresu orbity Jowisza (asteroida 2,5 AU od Słońca mówi się, że znajduje się w "rezonansie" 3:1: to znaczy, że ciało wykona dokładnie trzy okrążenia wokół Słońca na każde okrążenie Jowisza). Te przerwy w jednorodności pasa asteroid nazywane są KIRKWOOD GAPS od nazwiska amerykańskiego astronoma, który je zidentyfikował. Usuwając skutki świeckich zaburzeń planetarnych, można uzyskać opis orbity asteroidy pod względem jej właściwych elementów. Niektóre planetoidy pasa głównego mają bardzo blisko siebie półosie główne, odpowiednie mimośrody i odpowiednie nachylenia: tworzą skupienia w przestrzeni odpowiednich pierwiastków i generalnie wszyscy członkowie gromady należą do tego samego typu składu. W 1918 roku japoński astronom Hirayama nazwał te gromady "rodzinami planetoid" . Analizując 950 znanych asteroid, Hirayama nazwał zidentyfikowane rodziny największego członka rodziny: Themis, Eos, Koronis i Flora. Od tego czasu zidentyfikowano kilka innych rodzin i klanów (grupa asteroid nazywana jest "klanem", gdy niemożliwe jest jednoznaczne zdefiniowanie członka rodziny i/lub oddzielenie go od innych obiektów tła). Rodziny asteroid interpretuje się jako wynik katastrofalnego rozerwania ciała macierzystego w wyniku zderzenia z inną, mniejszą asteroidą. Jeśli tak, to rodziny planetoid stanowią naturalne laboratorium, w którym doszło do uderzeń z dużą prędkością (v∼5 km/s-1) w skali niemożliwej do odtworzenia w naszych laboratoriach. Rozkład wielkościowy członków rodziny (fragmentów ciała macierzystego) jest obrazem skutków zderzenia; skład chemiczny fragmentów wskazuje na wewnętrzną strukturę i skład ciała macierzystego. Badanie rodzin asteroid dostarcza informacji na temat historii kolizyjnej populacji asteroid od czasu jej powstania. Odkrycie nowej rodziny planetoid potwierdzono w 2002 roku. Uważa się, że jest to najmłodsza planetoida, która ma mniej niż 6 milionów lat. David Nesvorny i współpracownicy z Southwest Research Institute w Boulder w Kolorado rozpoznali około 39 asteroidów jako należących do tej samej rodziny, badając ich orbity. Projektując obecne orbity wstecz w czasie, naukowcy odkryli, że zbiegły się one około 5,8 miliona lat temu, a więc musiało to mieć miejsce w momencie, gdy powstały w wyniku rozpadu większego ciała. Spośród 39 dwie to duże asteroidy. Jedna, zwana (832) Karin, od której wzięła się nazwa całej gromady, ma średnicę około 19 km; druga, zwana (4507) 1990, ma długość około 14 km. Zespół szacuje, że ciało macierzyste miało średnicę co najmniej 24,5 km. Rozmiar ciała macierzystego i powstałych przez nie fragmentów może stanowić test dla teoretycznych modeli sposobu, w jaki uderzenia rozbijają ciała skaliste. Stosunkowo świeże powierzchnie dwóch większych fragmentów mogą również ujawnić, z czego zbudowane są asteroidy i jak szybkie wietrzenie w przestrzeni kosmicznej pokrywa je małymi kraterami. Zderzenie Karin mogło być również odpowiedzialne za niedawno odkryte pasmo pyłu asteroidalnego. Rozkład prędkości obrotowej w zależności od średnicy asteroid pasa głównego pokazuje, że obiekty o średnicy około 100 km mają dłuższe okresy rotacji niż zarówno większe, jak i mniejsze asteroidy. W hipotezie kolizyjnej ewolucji asteroid z roju planetozymalnego wartość średnicy zinterpretowano jako wielkość, przy której następuje oddzielenie pierwotnych większych asteroid od ich mniejszych produktów kolizyjnych. Rozkład prędkości wirowania asteroid o średnicy większej niż 50 km jest jednomodalny i odzwierciedla zachowanie rotacyjne uzyskane podczas pierwotnych faz procesu akrecji asteroid, podczas gdy rozkład asteroid o D < 50 km jest sumą trzech składników, " pierwotny", jeden z szybkich rotatorów i jeden z bardzo wolnych rotatorów. Zderzenia zakłócające pozwalają małym fragmentom uzyskać moment pędu, tworząc grupę szybkich rotatorów, natomiast mechanizm spowalniania, który dał początek powolnym rotatorom, w tym 253 Mathilde, wymaga dalszych badań. Kształty 50 szeroko obserwowanych dużych asteroid oceniono za pomocą analizy Fouriera pełnego zestawu krzywych blasku, a pomiary radarowe wykorzystano do określenia kształtów małych obiektów. Dane te wskazują, że większe asteroidy są bardziej regularne niż mniejsze. Wynik ten ponownie wskazuje, że większe ciała są pozostałością pierwotnej populacji, która zachowała w swoim kształcie figury równowagi, podczas gdy mniejsze, ogólnie nieregularne obiekty, są zapisami destrukcyjnych zderzeń. Kierunek osi obrotu (orientacja bieguna) został wyznaczony (w najlepszym przypadku z dokładnością do 15%) dla 50 planetoid. Nawet jeśli dostępna próbka jest zbyt mała, aby wyciągnąć jednoznaczne wnioski, rozkład kierunków biegunów wydaje się bimodalny: ponownie jest to możliwa wskazówka na nałożenie się dwóch różnych grup asteroid. Dokładne określenie kierunku bieguna znacznej liczby asteroid pozwoli na lepsze zrozumienie historii populacji. W rzeczywistości, mimo że większość nachyleń osi obrotu pierwotnych asteroidów była rozłożona wokół jednej wartości w wyniku procesu akrecji, zderzenia spowodują losową zmianę orientacji osi obrotu, których rozkład zostanie rozłożony i spłaszczony. Populacja asteroid rozprzestrzenia się pomiędzy orbitami Marsa i Jowisza. W tej strefie leży granica oddzielająca wewnętrzny Układ Słoneczny (gdzie odparowała woda w mgławicy protosłonecznej) od obszarów zewnętrznych (gdzie nastąpiła kondensacja wody). Strefa ta, rozciągająca się od 2,6 AU do 3,1 AU, znana jest jako wodna strefa zmian, w której w wielu widmach asteroid typu C wykryto sygnatury widmowe przejść elektronowych, możliwe tylko w obecności ciekłej wody. Jest to mocny dowód na obecność, czasami w przeszłości, wody w stanie ciekłym na tych asteroidach. Ilość wody obecnej w asteroidzie jest kwestionowana, ale jej wykrycie byłoby istotne dla zrozumienia związków między asteroidami a KOMETAMI.

Skład asteroidy

Skład chemiczny i mineralogię powierzchni asteroid można określić za pomocą spektroskopii lub, nawet jeśli z mniejszą precyzją, za pomocą spektrofotometrii wielofiltrowej. Analizując za pomocą wyrafinowanych kodów grupowania wszystkie dostępne widma asteroid, uzyskano system taksonomiczny. Główne uznane klasy są oznaczone, w kolejności ich obserwowanej względnej liczebności, literami: S, C, M, D, F, P, V, G, E, B, A (inicjały słów używanych do z grubsza opisu asteroida lub jej widmo, tj. kamienista, węglowa, metaliczna,…). Większość asteroid należy do typu C o niskim albedo, charakteryzującym się stosunkowo neutralnym widmem, wykazującym absorpcję w zakresie fal ultrafioletowych, a czasami oznaki zmian wodnych. Ich widma odpowiadają widmom węglowych meteorytów chondrytycznych, co stanowi silną wskazówkę o podobnym składzie. Kilka asteroid (typu B, G i F) przypomina C widma z niewielkimi różnicami przy krótszych długościach fal, które mogą odzwierciedlać stopnie metamorfizmu materiału podobnego do C. Asteroidy typu D, charakteryzujące grupę trojanów, mają niskie albedo i są bardziej czerwone niż planetoidy typu C. Asteroidy typu P o niskim albedo, dominujące w odległości 3,6 AU

Odległe asteroidy

Poza głównym pasem, w kierunku zewnętrznego obszaru Układu Słonecznego, kilka grup asteroid zachowuje się zupełnie inaczej niż asteroidy z pasa głównego: w rzeczywistości znajdują się one w głównych rezonansach z Jowiszem. Na 3,9 AU (rezonans 3:2) znajduje się grupa Hildy; asteroida Thule spada w rezonansie 4:3 (przy 4,3 AU). Szczególnie interesująca grupa, zwana ASTEROIDAMI TROJAŃSKIMI, rezyduje w rezonansie 1:1. Te asteroidy mają taką samą odległość heliocentryczną i okres orbitalny jak Jowisz: krążą w pobliżu dwóch pozycji równowagi, znanych jako punkty Lagrange′a Jowisza, które leżą około 60° na wschód i zachód od Jowisza w jego płaszczyźnie orbity. Obecnie znanych jest około 200 trojanów; ma istnieć kilka tysięcy, większych niż 15 km. Chociaż trojany są klasyfikowane jako asteroidy na podstawie braku aktywności kometarnej, fizyczna natura trojanów jest niepewna: ich widma optyczne pokazują czerwone kontinua bez dowodów na cechy absorpcji lub emisji (typ taksonomiczny D): ich albedo jest bardzo niskie (2- 3%). Obie te cechy są porównywalne z cechami kilku obserwowanych jąder komet i mogą świadczyć o wspólnych związkach organicznych w obu klasach obiektów. Podobnie jak w przypadku komet, ciemnoczerwone powierzchnie trojanów mogą być cienkimi płaszczami gruzu osłaniającymi zakopany lód, którego szybkość sublimacji (w przypadku odsłonięcia, np. w wyniku zderzenia) jest zbyt mała, aby utrzymać obserwowalną śpiączkę. Orbita Jowisza wyznacza granicę między światami skalistymi (planety podobne do Ziemi, asteroidy, pył) i światami lodowymi (systemy satelitarne planet-olbrzymów, komety, pierścienie); w tych regionach możliwe byłoby znalezienie elementu przejściowego między asteroidą a kometą, które prawdopodobnie są przeciwległymi członkami tej samej populacji pierwotnych planetozymali. W rzeczywistości niedawno odkryto kilka dużych obiektów, zwanych CENTAURAMI, na orbitach przecinających orbity gazowych gigantów. 2060 CHIRON, pierwszy odkryty centaur, jest jedynym członkiem tej grupy, który wykazuje aktywność kometową (jej oznaczenie komety to P/Koval). Centaury to prawdopodobnie ogromna populacja niestabilnych ciał przemierzających planety zewnętrzne; ich łączną liczbę szacuje się na 105-106 obiektów w przeliczeniu na km. Wszystkie znane centaury są podobne dynamicznie, ale ich powierzchnie wykazują dramatyczne różnice widmowe: niektóre mają całkowicie neutralne widmo (podobne do słonecznego), podczas gdy inne wykazują najbardziej czerwone widma ciał Układu Słonecznego. Czy są to łyse komety, a także OBIEKTÓW TRANS-NEPTUNIAŃSKICH?

Asteroidy bliskie Ziemi

ASTEROIDY BLISKOZIEMIOWE (NEA) należą do trzech różnych grup ogólnie małych obiektów znajdujących się w wewnętrznym Układzie Słonecznym. Znanych jest około 500 NEA, a wskaźnik ich odkrywania stale rośnie. Spośród NEA 5,8% należy do grupy Atens charakteryzującej się półosią wielką a<1 AU i odległością aphelium Q>0,983 AU, 48,5% należy do grupy Apollo (a>=1 AU i odległością peryhelium q<=1,017 AU), a 45,7% należy do grupy Amor (1,017 AU6-108 lat. Ponieważ NEA mają niestabilne orbity, potrzebne są ciągłe dostawy nowych obiektów. Powszechnie proponuje się dwa główne mechanizmy zaopatrywania populacji zbliżającej się do Ziemi: pierwszy zakłada, że NEA to fragmenty asteroid pochodzące z głównego pasa, natomiast drugi zakłada, że możliwym źródłem NEA są uśpione lub wymarłe jądra komet. Powszechnie uważa się, że NEA, zarówno pochodzenia asteroidowego, jak i kometarnego, są w sposób ciągły wstrzykiwane na orbity przecinające Ziemię za pośrednictwem kilku różnych kanałów rezonansowych, które zbierają fragmenty wyrzucane losowo z asteroid z pasa głównego w wyniku energetycznych wzajemnych zderzeń asteroid. Obiekty te przechodzą dość złożony proces ewolucji orbitalnej, napędzany ruchem średnim i rezonansami świeckimi, nierezonansowymi perturbacjami świeckimi oraz sekwencją bliskich spotkań z planetami. Ostatecznie w większości wpadają do Słońca lub są wyrzucane z Układu Słonecznego po spotkaniu z Jowiszem; tylko kilka procent zderza się z planetami ziemskimi. Aby zachować równowagę pomiędzy średnim tempem utraty planetoid na orbitach zbliżających się do Ziemi a tempem ich uzupełniania, tempo źródeł musi generować kilkaset nowych obiektów o średnicy większej niż 1 km na 106 lat. Jak dotąd uzyskano stosunkowo niewiele obserwacji spektroskopowych NEA ze względu na ich małe rozmiary, słabe pozorne jasności i ograniczone odstępy widoczności. Nasza obecna wiedza na temat natury NEA sugeruje, że populacja ta charakteryzuje się różnorodną mineralogią powierzchni i obejmuje prawie wszystkie typy taksonomiczne występujące w pasie głównym. Nawet jeśli nasze próbkowanie NEA do obserwacji fizycznych jest mocno stronnicze, wydaje się, że nie istnieje żadna korelacja pomiędzy typem taksonomicznym a wymiarem lub okresem rotacji: zarówno największa, jak i najmniejsza NEA to asteroidy typu S; kilka typów C obejmuje znaczny zakres średnic, podczas gdy rzadkie typy taksonomiczne mają zakres prędkości rotacji, podobnie jak liczne typy S. Na podstawie tych danych wydaje się, że populacja NEA ma w przybliżeniu taki sam udział asteroid typu S i C, jak pas główny. To podobieństwo rodzi pytanie, gdzie znajdują się martwe komety, które nie powinny być głównym składnikiem głównego pasa. Kilka NEA sklasyfikowanych jako typy C jest najwyraźniej utworzonych przez prymitywny materiał podobny do uwodnionych meteorytów chondrytowych CI i CM węglowych. Badanie aspektroskopowe NEA w zakresie 0,45-0,9 ?m wykazało, że spośród 35 obiektów sześć ma widma podobne do widm zwykłych meteorytów chondrytowych, podczas gdy 29 ma właściwości widmowe obejmujące zakres od domen zwykłych meteorytów chondrytowych do najpopularniejszego meteorytu typu S asteroidy pasa głównego. Zakres ten może wynikać z różnorodności mineralogii i rozmiarów cząstek regolitu, a także z zależnego od czasu procesu wietrzenia powierzchni. W tym przypadku, jeśli aktywny jest proces wietrzenia zależny od czasu (jak zaproponowano w celu wyjaśnienia zmian powierzchni zmierzonych na zdjęciach 243 Ida ze statku kosmicznego Galileo), asteroidami bardzo przypominającymi zwykłe meteoryty chondrytowe będą te z najmłodszymi powierzchniami. Obserwacje sugerują, że planetoidy podwójne często pojawiają się na orbitach przecinających Ziemię. Korzystając z dwóch najpotężniejszych astronomicznych teleskopów radarowych na świecie, astronomowie szacują, że około 16% planetoid bliskich Ziemi o średnicy większej niż 200 metrów (219 jardów) to prawdopodobnie układy podwójne. Asteroidy bliskie Ziemi mogą stać się układami podwójnymi, gdy przyciągają je znacznie większe siły grawitacyjne planet, zniekształcając, a czasem przerywając satelitę. Wyniki teoretyczne i modelowanie pokazują, że asteroidy podwójne powstają najprawdopodobniej podczas bliskiego spotkania z planetami wewnętrznymi, Ziemią lub Marsem, czasami zaledwie 16 000 mil od powierzchni planety. W 2002 roku w wiadomościach pojawiły się dwie asteroidy ze względu na ich przewidywane bliskie podejście do Ziemi. 9 lipca 2002 roku astronomowie z MIT odkryli 2002 NT7, kosmiczną skałę o szerokości 2 km, krążącą po dziwnej orbicie. W przeciwieństwie do większości asteroid krążących wokół Słońca w płaszczyźnie planet, 2002 NT7 podąża po torze nachylonym pod kątem 42 stopni. Większość czasu spędza daleko powyżej lub poniżej reszty Układu Słonecznego. Jednak co 2,29 roku asteroida przelatuje przez wewnętrzny Układ Słoneczny niedaleko orbity Ziemi. Po tygodniu dalszych obserwacji badacze przeprowadzili pewne obliczenia. Doszli do wniosku, że istnieje szansa, że 2002 NT7 może uderzyć w naszą planetę 1 lutego 2019 r. To trafiło na pierwsze strony gazet, niepokojąc część opinii publicznej. Nie zgłoszono jednak, że prawdopodobieństwo zderzenia wynosi 1 do 250 000. 14 lipca astronomowie odkryli 2002 NY40. Asteroida ta ma średnicę około 800 metrów i porusza się po orbicie rozciągającej się od pasa asteroid do wewnętrznego Układu Słonecznego. Najbliższe podejście miało miejsce 18 sierpnia 2002 r., przechodząc zaledwie 1,3 razy dalej niż Księżyc i było widoczne przez lornetkę.

Przelot asteroidy

Misja Galileo zmierzająca w stronę Jowisza zbadała asteroidy 951 Gaspra i 243 Ida, odkrywając wokół tej ostatniej pierwszego satelitę asteroid o nazwie Dactyl; wszystkie te trzy to małe obiekty typu S. 243 Ida jest członkiem rodziny Koronis. Przeloty Galileo dostarczyły zdjęć tych asteroid z rozdzielczością przestrzenną, jakiej nigdy nie uzyskano w obserwacjach naziemnych. Obserwacje wykazały, że zarówno 951 Gaspra, jak i 243 Ida mają kształt wydłużony i dość nieregularny, natomiast Dactyl ma raczej gładki, regularny kształt, co kontrastuje z kanciastością innych znanych małych ciał (951 Gaspra, 243 Ida, kometa P/Halley jądro, 4179 Toutatis i 4769 Castalia), ale wykazuje pewne aspekty o porównywalnej szorstkości kończyn z księżycami Marsa (PHOBOS I DEIMOS). Jedną z charakterystycznych cech powierzchni jest układ prążków liniowych (wgłębienia o jednakowej szerokości do kilku km i szerokości kilkuset metrów i głębokości prawdopodobnie nie większej niż kilkadziesiąt metrów), które są podobne do rowków obserwowanych na Fobosie i mogą być sygnaturą ich pochodzenia z powodu niemal katastrofalnej kolizji. Najważniejszymi wynikami było określenie rozkładu wielkości kraterów na powierzchniach obiektów. Z rozkładu częstotliwości kraterów wynika, że wiek 243 Ida wynosił około 1 miliard lat, podczas gdy wiek 951 Gaspra wynosił zaledwie 200 milionów lat. Obie asteroidy są pokryte warstwą regolitu o znacznych różnicach w albedo i kolorze. Sekwencja zdjęć, na których widoczny jest Dactyl, pozwoliła nam wyznaczyć jego orbitę w funkcji masy 243 Idy. Połączenie tej wartości z oszacowaną objętością 243 Ida daje gęstość nasypową 243 Ida na poziomie 2,6 ± 0,5 g cm-3, co jest zgodne z masowym składem chondrytycznym. 27 czerwca 1997 roku NEAR przeleciał blisko (około 1200 km) asteroidy 253 Mathilde z pasa głównego, wykonując pierwszy przelot w pobliżu asteroidy typu C. Aby scharakteryzować 253 Mathilde, przeprowadzono kilka naziemnych badań rozpoznawczych. Ustalono okres rotacji wynoszący 17,4 dnia: 253 Mathilde jest wyjątkowo powolnym i opadającym rotatorem. Obserwacje spektralne 253 Mathilde wykazały, że jej neutralne właściwości odblaskowe są wysoce jednorodne na całej badanej powierzchni, a wyniki widma są porównywalne z wynikami chondrytów węglowych i czarnych zwykłych. Obserwacje koloru NEAR na całym dysku w zakresie od 400 do 1100 nm ściśle zgadzają się z wynikami widma teleskopowego. NEAR odkrył, że 253 Mathilde jest jednakowo nijaka zarówno pod względem albedo, jak i koloru (bardziej łagodna pod względem wariacji kolorystycznych niż Fobos). 253 Mathilde ma albedo geometryczne wynoszące 0,041 ± 0,003 przy 0,55 μ. W ramach projektu NEAR odkryto pięć kraterów o średnicy 19-33 km, co odpowiada średniemu promieniowi 26,5 km. Przelot pozwolił także na bezpośrednie określenie masy i oszacowanie gęstości na 1,3 ± 0,2 g cm-3. Porównanie tej gęstości z gęstością chondrytów węglowych sugeruje, że porowatość 253 Mathilde wynosi ∼ 50%. W lutym 2000 r. główny cel misji, spotkanie z bardzo wydłużoną planetoidą z grupy Amor typu S 433 EROS, został osiągnięty za pomocą serii manewrów, które spowolniły statek kosmiczny do prędkości względem asteroidy wynoszącej zaledwie 5 m s-1 przed wejściem na orbitę. Zestaw szczegółowych i precyzyjnych danych na temat trzech planetoid typu S (951 Gaspra, 243 Ida i Dactyl), drugiego pod względem składu planetoidy pod względem liczebności, jest już dostępny, a w ciągu przyszłego roku pojawią się nowe informacje na temat innej osobliwej asteroidy typu S (433 Eros) zostanie uzyskany. Na podstawie analizy tych danych prawdopodobnie możliwe będzie ustalenie, czy asteroidy S są prymitywnymi zbiorowiskami minerałów, niewiele zmienionymi od czasu, gdy powstały jak zwykłe kondryty, czy też materiałem w postaci meteorytów bazaltowych i kamienno-żelaznych, które uległy intensywnemu stopieniu i ewolucja. Pierwszy przelot statku typu C (253 Mathilde) wykazał bardzo małą gęstość tego ciała i bardzo jednorodny kolor powierzchni. Zderzenia na 253 Mathilde silnie wpłynęły na morfologię jej powierzchni. Czy te znaki są wspólne dla całej klasy C? W piątek 2 listopada 2002 roku należąca do NASA sonda kosmiczna Stardust została przetestowana podczas przelotu obok asteroidy Annefrank i odkryła, że asteroida jest około dwukrotnie większa od przewidywanej, ale ma ciemniejszą powierzchnię. Gwiezdny pył przeleciał w odległości około 3300 km (2050 mil) od asteroidy w ramach próby przed spotkaniem statku kosmicznego ze swoim głównym celem, kometą Wild 2, w styczniu 2004 r. Rozdzielczość kamery była wystarczająca, aby pokazać, że Annefrank znajduje się w odległości około 8 km (5 mil) długości, dwukrotnie większej od przewidywanej na podstawie obserwacji naziemnych. Powierzchnia odbija około 0,1 do 0,2 procent światła słonecznego, nieco mniej niż oczekiwano. Można zobaczyć kilka kraterów o średnicy setek metrów. Prosta krawędź po prawej stronie obrazu może być artefaktem przetwarzania.

Ewolucja kolizyjna

Po powstaniu Jowisza i Marsa roje planetozymalne krążące pomiędzy tymi dwiema planetami doświadczyły silnych zaburzeń i uległy znacznemu wyczerpaniu, a pozostałości "zamrożono" na znacznie stabilniejszych orbitach. Długoterminowe perturbacje mogły spowodować wzajemne zderzenia, które wraz z wietrzeniem przestrzeni kosmicznej były jedynymi procesami modyfikującymi pierwotną populację planetozymali. Chociaż objętość przestrzeni, w której krążą asteroidy, jest duża, a przekroje asteroid małe, prawdopodobieństwo wystąpienia kolizji asteroid w przedziale czasowym zgodnym z wiekiem Układu Słonecznego jest dość wysokie (rzędu jednej kolizji na miliard lat). . Co więcej, fakt, że okresy rotacji asteroid są zgodne z rozkładem Maxwella, można uznać za wskazówkę, że zderzenia w populacji asteroid były wystarczająco częste, aby wytworzyć stan odprężenia kolizyjnego w przypadku bardziej masywnej populacji pierwotnej. Wiele innych obserwowalnych cech asteroid jest przypuszczalnie efektem ewolucji kolizyjnej: kształt i rozkład wielkości, właściwości fizyczne i chemiczne rodzin, właściwości rotacyjne. Niestety, skutki zderzenia dwóch asteroid, zależne głównie od ich rozmiarów i prędkości względnej, są słabo poznane. Symulacja laboratoryjna uderzeń małego pocisku (∼10-3 kg) z dużą prędkością (kilka km na s-1, rzędu prędkości dźwięku w materiałach skalistych) w większy cel ∼10 kg) nie uwzględnia reżim grawitacyjny, który dominuje w zderzeniach asteroid, nawet jeśli stosowane są prawa skali. Jaki jest stosunek katastrofalnych zderzeń zakłócających (w których następuje rozproszenie większości masy ciała) do zderzeń fragmentacyjnych (w których ciało zostaje rozbite, ale fragmenty ponownie gromadzą się w układzie gruzu)? W jaki sposób powstanie krateru uderzeniowego wpływa na skład chemiczny pierwotnej populacji asteroidy? Jakie są skutki zderzenia z obiektem sterty gruzu? Jaka jest utrata masy (wyrzucenie z Układu Słonecznego lub wprowadzenie na orbity planet lub przecinających Słońce) wywołane procesem ewolucji kolizyjnej? Odpowiedzi na te pytania pozwolą nam zrozumieć rolę wzajemnych zderzeń w kształtowaniu się współczesnej populacji planetoid. Na podstawie tego, w co dzisiaj wierzymy, oraz informacji dostarczonych przez obserwacje, możemy jedynie nakreślić wstępny scenariusz procesów, które rządziły powstawaniem i ewolucją rojów planetozymalnych znajdujących się w odległości od 2,3 AU do 5 AU od Słońca. Rozpad bardzo dużych ciał, takich jak Ceres, PALLAS i Westa, wydaje się być wydarzeniem nieprawdopodobnym, a fakt, że w niektórych z nich zachowała się większość swojej starożytnej skorupy, sugeruje, że nawet duże uderzenia miały ograniczony wpływ modyfikujący na większe asteroidy . Rozważania te sugerują, że jeśli masa pierwotnej populacji asteroid była większa, potencjalne impaktory należały do raczej małych ciał. Najmniejsze pozostałości w rzeczywistej populacji asteroid to prawdopodobnie fragmenty większych ciał. Asteroidy średniej wielkości mogły ulegać powtarzającym się zderzeniom, mogąc częściowo zmodyfikować swój skład (tworzenie się zespołów minerałów szokowych, obróbka termiczna itp.) i/lub ich właściwości fizyczne (stosy gruzu, okres rotacji, orientacja osi obrotu itp.), ale wciąż zachowując swój pierwotny charakter. Jeśli zderzenia były rzadkimi zdarzeniami, scenariusz przedstawiony w obserwacjach jest nadal prymitywny i patrzymy na stosunkowo nieskazitelną pozostałość pierwotnych planetozymali. Jeśli kolizje miały wpływ na pierwotny rój przez cały okres istnienia Układu Słonecznego, tylko większe asteroidy mogą zachować w nienaruszonym stanie niektóre oryginalne cechy, podczas gdy większość asteroid odzwierciedla efekty dokładnego ponownego przetwarzania, a poszukiwanie śladów oryginalnych odcisków będzie musiało być dużo bardziej ostrożnie.

Astrologia

Astrologia to teoria mówiąca, że planety, Słońce i Księżyc, a także 12 "znaków zodiaku" łączą się w różnych, stale zmieniających się konfiguracjach względem siebie nawzajem i lokalnego horyzontu, wpływając na wydarzenia "podksiężycowe". W astrologii, podobnie jak w astronomii klasycznej przed przyjęciem hipotezy Kopernika, przyjmowano, że Ziemia znajduje się w centrum skończonego wszechświata, a środek Ziemi stanowi środek sfer ciał niebieskich - w kolejności od góry z Ziemi, Księżyca, Merkurego, Wenus, Słońca, Marsa, Jowisza, Saturna, gwiazd "stałych", ekliptyki i często "pierwotnej siły napędowej". Ruch tych 10 kul był według Arystotelesa kołowy i równomierny, zgodnie z naturą pierwiastka, eteru, z którego się składały. Ruchy czterech żywiołów tworzących świat podksiężycowy były liniowe w stosunku do środka Ziemi, elementy ziemi i wody poruszały się "w dół" w kierunku centrum, a elementy powietrza i ognia poruszały się "w górę" od centrum. Okrągłe ruchy sfer niebieskich zakłócają liniowe ruchy czterech elementów podksiężycowych, powodując w ten sposób zmiany na Ziemi oraz w otaczających ją warstwach wody, powietrza i ognia. Powstałe w ten sposób kombinacje pierwiastków tworzą podstawowe materiały, z których kształtowane są ciała ziemskie i atmosferyczne, na które następnie w sposób ciągły wpływają ruchy ciał niebieskich i pomocnicze oddziaływania ciał podksiężycowych. Zatem WSZECHŚWIAT jest rozległą, ale skończoną maszyną napędzaną naturalnymi ruchami pięciu elementów składowych, wśród których główny wpływ ma ETER o swoim regularnym ruchu kołowym, a astrologia jest nauką badającą działanie tej uniwersalnej maszyny.

Niebiańskie wróżby

W starożytnej Mezopotamii i w wielu kulturach znajdujących się pod jej wpływem wiele zjawisk niebieskich - zaćmienia, koniunkcje Księżyca i planet między sobą oraz z gwiazdami, duża liczba zjawisk spowodowanych zniekształceniem światła przechodzącego przez atmosferę, i inne zjawiska - uważano za wiadomości wysyłane przez bogów, aby ostrzec władców ludzi lub zbiorowe grupy ludzi o zbliżającej się katastrofie lub szczęściu. Interpretacja tych niebiańskich znaków była także nauką, dzięki której ludzie wielkiej wiedzy starali się udzielać przydatnych rad królom i innym urzędnikom państwowym. Doświadczenie tych uczonych czytelników wróżb doprowadziło do rozpoznania okresowego zachowania Słońca, tzw. Księżyca i planet, a ostatecznie do rozwoju matematycznych metod przewidywania samych zjawisk (które ze względu na swoją przewidywalność powinny być wówczas, ale nie były, uważane za wiadomości wysyłane przez rozgniewanych lub zadowolonych bogów). Doprowadziło to również do rozwoju niektórych technik interpretacji niebiańskich znaków, które zostały przeniesione do astrologii, w tym przewidywania losu osoby na podstawie pozycji planet w chwili jej narodzin lub obliczonego poczęcia. W praktyce te protohoroskopy z ostatnich czterech wieków p.n.e. nie były częścią astrologii, ponieważ zjawiska te były raczej złowieszcze niż skuteczne, a skomplikowana geometria stosowana w astrologii nie była czynnikiem wpływającym na ich interpretację

Temat lub horoskop

Podstawowym narzędziem służącym do interpretacji wpływów ciał niebieskich w danym momencie - powiedzmy narodzin tubylca - był diagram zwany motywem lub horoskopem. Ten diagram przedstawia EKLIPTYKĘ podzieloną na 12 znaków zodiaku po 30? każdy, w postaci koła lub czworoboku z zaznaczonymi czterema głównymi punktami - ascendent na wschodnim horyzoncie, potomek na zachodnim horyzoncie, środek nieba na południu w punkcie obliczonym przy użyciu lokalnych ukośnych wzniesień i antyśrodka nieba 180? naprzeciwko niego na północ. Pomiędzy i w tych głównych punktach znajdują się wierzchołki 12 miejsc astrologicznych. Znaki zodiaku są podzielone na różne podpodziały: dekany po 10? każda, dwunaste po 2?30 każda i wyrazy o różnej długości, zwykle pięć do znaku zodiaku. W temacie zapisywane są długości geograficzne planet, których położenie ujawnia ich konfiguracje (aspekty) względem siebie - koniunkcja, sekstyl (do 60?), kwartyl (do 90?), trygon (do 120?) i opozycja (do 180?). ?) - które można obliczyć za pomocą różnych wzorów matematycznych, aby można je było mierzyć we wzniesieniach ukośnych lub rektascensyjnych, lub aby uwzględnić szerokości geograficzne planet. Ponadto na temacie zaznaczane są różne działki (określane jako odległość pomiędzy dwoma rzeczywistymi lub wyimaginowanymi ciałami niebieskimi odmierzona od trzeciego) oraz prorogator (obliczany na różne sposoby), a także mogą być takie stałe punkty, jak wywyższenia (punkty maksymalna skuteczność) planet i czterech potrójności (Baran, Lew, Strzelec; Byk, Panna, Koziorożec; Bliźnięta, Waga, Wodnik; Rak, Skorpion, Ryby).

Domeny wpływów

Każdy znak zodiaku jest klasyfikowany według licznych kategorii: męski - żeński; nieparzyste - parzyste; zwierzę - człowiek; wieś - las; itp. Ponadto istnieją melotezje zodiakalne, przypisując różne części ciała ludzkiego znakom zodiaku; topotezja, robiąca to samo z rodzajami terenu na powierzchni Ziemi; listy zwierząt, zawodów, metali, klejnotów, kolorów itp. znaków zodiaku. Każdy ze znaków ma szczególny wpływ na przypisane mu kategorie. Każda trójka, w liczbie czterech, jest powiązana z kierunkiem kardynalnym i elementem. Każde z 12 miejsc astrologicznych ma władzę nad pewnym aspektem życia tubylca (forma ciała, odziedziczony majątek, rodzeństwo, rodzice, dzieci, choroby, małżeństwo, sposób śmierci, podróże, zawód, zysk, strata) lub nad podjętym przedsięwzięciem. Mają wpływ na swoje domeny zgodnie ze znakami zodiaku, na które się nakładają, oraz obecnością w nich lub aspektami planet i działek. Również siedem planet (dziewięć w Indiach, gdzie uwzględnione są węzły wstępujące i zstępujące Księżyca) ma swoje własne domeny, wśród fizycznych typów ludzi i zwierząt, a także typów psychologicznych, a każda z nich jest powiązana z typami terenu, zwierzętami roślin, minerałów itp. oraz do pierwiastka i jego humorów (ogień - gorący i suchy, woda - zimna i wilgotna, powietrze - gorące i wilgotne, ziemia - zimna i sucha). Są one również klasyfikowane jako męskie i żeńskie oraz jako korzystne, szkodliwe i nijakie. Gdy siedem planet krąży wokół znaków zodiaku, a one z kolei krążą wokół nieruchomej Ziemi, wpływy, jakie rzucają na sferę podksiężycową, stale się zmieniają, powodując wciąż nowe wydarzenia i transformacje na Ziemi. Zgodnie z teorią astrologiczną można je wszystkie przewidzieć przy założeniu (rzekomo posiadającym pewne podstawy empiryczne), że przyjęte domeny wpływów ciał niebieskich są rzeczywiście prawidłowe. Historycznie rzecz biorąc, system nie pozostawał statyczny; po prostu nie było wystarczająco skomplikowane, aby rozróżnić pozornie nieograniczone odmiany ludzkiego doświadczenia. Aby uwzględnić te różnice, astrolodzy - zwłaszcza astrolodzy z Indii i islamu, których należycie naśladowano w średniowiecznej Europie i Bizancjum - opracowali znacznie więcej podziałów znaków zodiaku w celu pomnożenia potencjalnej liczby skutków działania planety, wymyślili skomplikowane metody przypisywania liczbowej wagi wpływom każdej planety i rozszerzono liczbę efektywnych ciał poprzez wprowadzenie nowych partii.

Rodzaje astrologii

Paradygmatycznym typem astrologii jest genetlialogia, nauka zajmująca się interpretacją tematów narodzin lub obliczanego czasu poczęcia, wynaleziona prawdopodobnie w I wieku p.n.e. w Egipcie ptolemejskim. Takie przewidywania można i stosowano także w odniesieniu do zwierząt, a nawet roślin. Chociaż teoretycznie przepowiednie są unikalne dla każdego momentu w danej miejscowości, wielu astrologów mądrze radziło neofitom, aby przed próbą opisania swojego przyszłego życia dowiedzieli się czegoś o statusie społecznym i ekonomicznym rodziny tubylca. Działem genetlialogii jest horoskop ciągły, który pozwala na przydatność astrologa przez całe życie. Ponieważ planety i ekliptyka nie przestają się obracać, można stwierdzić ich zmienny wpływ na pierwotny wzór życia określony na podstawie horoskopu urodzeniowego, tworząc nowy horoskop na każdą rocznicę urodzin, na początek każdego miesiąca lub nawet dzień życia tubylca, a także można obliczyć czas, w którym każda planeta przechodzi do innego znaku zodiaku lub miejsca astrologicznego, zmieniając w ten sposób jego skutki, a także można obserwować wyimaginowany ruch prorogatora podczas ukośnych wzniesień poprzez terminy różnych planet oraz przeszłości ciał i aspektów różnych planet. Astrologia katarchiczna, wynaleziona jednocześnie z wersją genetlialogiczną, pozwala przewidzieć przebieg jakiegoś ludzkiego przedsięwzięcia na podstawie horoskopu chwili jego powstania. Istnieją dwa główne działy astrologii katarchicznej, odnoszące się do małżeństwa i wojen. Niektóre aspekty astrologii medycznej są również katarchiczne, chociaż inne aspekty zależą od genetlialogii. Te dwie podstawowe formy astrologii zostały przeniesione z grecko-rzymskiego Egiptu do Indii w II wieku naszej ery. W Indiach astrologia interrogacyjna rozwinęła się z astrologii katarchicznej. W tej formie astrolog odpowiada na konkretne pytania zadawane przez swojego klienta na podstawie tematu chwili, w której pytanie zostało zadane. To wyraźnie rodzi poważne pytania dotyczące ogólnej teorii astrologii; albowiem albo klient kieruje się wolną wolą przy ustalaniu, kiedy zada pytanie, tak że pomiędzy ciałami niebieskimi a wydarzeniem naziemnym przestaje istnieć czysto fizyczne połączenie, albo też o jego wyborze decydują gwiazdy i zatem teoretycznie można je przewidzieć za pomocą astrologii i odpowiedzieć na nie bez uciekania się do nowego tematu. Te trzy typy astrologii zostały przekazane z Indii do Sasańskiego Iranu w III-V wieku naszej ery, podobnie jak pierwsze dwa z Cesarstwa Rzymskiego. Sasanie dodali do nich czwarty główny typ, astrologię historyczną, która wykorzystuje formy horoskopów ciągłych (np. horoskopy początków wszystkich lub wybranych lat) oraz koniunkcje dwóch najdalszych ze znanych wówczas planety, Saturn i Jowisz, lub koniunkcje dwóch złych planet, Saturna i Marsa, w Raku. Praktycy astrologii historycznej sporządzali także horoskopy koronacji królów i innych początków historycznych, w tych przypadkach kierując się zasadami astrologii katarchicznej.

Kwestia ważności astrologii

Oczywiście, niezależnie od tego, jakie twierdzenia opierały się na podstawach empirycznych, cała ta teoria opiera się na arbitralnych założeniach dotyczących relacji między poszczególnymi znakami zodiaku i planetami a fizycznymi częściami i psychologicznymi aspektami obiektów i istot podksiężycowych, a także na później obalonej teorii KOSMOSU. W starożytności argumenty przeciwko słuszności astrologii opierały się w dużej mierze na problemach praktycznych: jak wyjaśnić często duże różnice między fizycznymi i psychicznymi cechami bliźniąt a ich odrębnym życiem; jak wytłumaczyć jednoczesną śmierć dużej liczby osób w różnym wieku w bitwie lub katastrofie naturalnej; jak być pewnym dokładnego momentu urodzenia i lokalnego ascendentu w tym momencie. Kościół chrześcijański, a później islam, często potępiały astrologię, ponieważ pozbawia ona mężczyznę lub kobietę wolnej woli i w ten sposób pozbawia ich możliwości uzyskania zbawienia własnymi wysiłkami, a także dlatego, że czyni Boga nieistotnym dla wszechświata, który jest wiecznym i automat. Żaden z tych argumentów nie podważył w poważnym stopniu wiarygodności astrologii wśród wielu osób, podobnie jak upadek teorii geocentrycznej, choć zniechęciło to wiele osób o poglądach naukowych do przyznania jej jakiejkolwiek wiarygodności. Podobnie jak kilka innych współczesnych nauk, które w rzeczywistości nieustannie wykazują swoją niezdolność do dokładnego przewidywania przyszłości, astrologia wciąż jest w stanie przyciągnąć i utrzymać patronat niezliczonych klientów.

Badania astrometryczne

Znaczenie badań astrometrycznych W astronomii badanie definiuje się jako "badanie mające na celu ustalenie jakości lub ilości czegoś". W zależności od charakteru badania może to oznaczać przyjrzenie się dużej liczbie obiektów w celu znalezienia tych, które spełniają określone kryteria . W powyższej definicji nie określono, czy badanie obiektów spełniających założone kryteria musi być wynikiem programu obserwacyjnego, czy też poszukiwań w literaturze. Chociaż termin przegląd w astronomii jest dość często stosowany w odniesieniu do programów obserwacyjnych, w niektórych ostatnich badaniach astrometrycznych wykorzystano materiał opublikowany w dostępnej literaturze. Co więcej, badania astrometryczne nowej generacji mogą być nawet przeprowadzane przez Internet (patrz "Nowe tysiąclecie" poniżej). Dlatego też mówiąc o badaniach, możemy mieć na myśli obserwacyjne badania astrometryczne, bibliograficzne badania astrometryczne i nadchodzące badania astrometrii komputerowej. Kiedy ankietę można nazwać astrometryczną? Innymi słowy, jakie są główne cechy przeglądu astrometrycznego? Aby odpowiedzieć na te pytania, należy najpierw rozważyć, czym jest astrometria? Astrometria to dział astronomii zajmujący się pozycjami (bezwzględnymi lub względnymi), ruchami i odległościami trygonometrycznymi ciał niebieskich . Każdy z tych parametrów ma swoje znaczenie w badaniu naszego środowiska gwiezdnego. Jaka powinna być dokładność danego parametru astrometrycznego? Ważne jest określenie poziomu dokładności, ponieważ od tej wartości w pewnym stopniu zależeć będzie jakość badania. Na przykład nikt dzisiaj nie podjąłby się przeprowadzenia badań astrometrycznych na poziomie dokładności Durchmusterungs , ponieważ taki poziom byłby niezwykle niski jak na dzisiejsze standardy; jednakże znaczenie tych badań w momencie ich publikacji jest niezaprzeczalne. Co to jest badanie astrometryczne? Łącząc wszystkie powyższe rozważania, badanie astrometryczne można zdefiniować jako poszukiwanie obiektów niebieskich spełniających określoną dokładność w zakresie ich bezwzględnego lub względnego położenia, ruchu lub odległości trygonometrycznych. Niektóre z tych badań zostały lub są prowadzone za pomocą naziemnych kręgów południkowych, ASTROLABÓW lub teleskopów astrograficznych, podczas gdy inne - już ukończone lub planowane na przyszłość - wykorzystywały lub będą korzystać z instrumentów kosmicznych.

Krótki opis historyczny badań astrometrycznych

Kompilacja katalogów zawierających pozycje i RUCHY WŁAŚCIWE jest jedną z najbardziej znanych czynności w astrometrii. Na początku astronomii podanie pozycji ciał niebieskich było dla wielu starożytnych kultur prawdziwą koniecznością. Astrometria, której korzenie sięgają cywilizacji przedgreckiej, dostarczyła informacji potrzebnych do obliczenia zaćmień Słońca i Księżyca, a co ważniejsze, do określenia czasu. Dzięki pozycjom uzyskanym przez poprzedników i własnym obserwacjom HIPPARCHUS był w stanie zidentyfikować precesję osi obrotu Ziemi. To także dzięki starym i nowym katalogom astrometrycznym Edmund HALLEY wprowadził w 1718 roku ruch własny gwiazd. Kilka lat później, w 1802 roku, HERSCHEL zaobserwował względny ruch orbitalny dwóch składników Castora, wyznaczając początek astrometrii podwójnych gwiazd. Kolejny punkt zwrotny pojawił się w 1838 roku, kiedy Friedrich Wilhelm BESSEL był w stanie określić PARALAKSĘ 61 Cygni. Historię katalogów astrometrycznych - przyjmując za parametr detektor używany w procesie obserwacyjnym - można podzielić na trzy różne okresy: wizualny (z instrumentem lub bez), fotograficzny i CCD (instrumenty naziemne lub kosmiczne). Biorąc pod uwagę epoki, w których stosowano różne detektory, można powiedzieć, że ogólnie rzecz biorąc, nieuzbrojone oko ludzkie było używane jako detektor od samych początków astronomii aż do roku 1610, kiedy to GALILEO GALILEI zaczął używać teleskopu podczas swoich obserwacji. Po 1610 r. w większości badań astrometrycznych używano kręgów południkowych lub innych typów instrumentów optycznych do wspomagania ludzkiego oka. Takie podejście przetrwało ponad 300 lat. Jeden z pierwszych katalogów, jaki kiedykolwiek powstał, został sporządzony przez Hipparcha. Ukończono go około 129 roku p.n.e. (odbyła się debata dotycząca liczby obiektów wymienionych przez Hipparcha: niektórzy historycy zgodzili się, że gwiazd było 1080, inni zaś, że tylko 850). Katalog Hipparcha znalazł się w Almagestie Ptolemeusza, największym kompendium astronomii tamtych czasów, obowiązującym przez około 14 wieków. Poprzednie zestawienia astronomów greckich i chińskich datowane są na około 300 rok p.n.e., a nawet 360 rok p.n.e. . W średniowieczu najważniejszym zestawieniem, o którym warto wspomnieć - choć nie można go uważać za katalog w obecnym znaczeniu - są Tablice Alfonsyńskie, powstałe za panowania Alfonsa Mądrego i opublikowane po raz pierwszy - prawdopodobnie - po 1277 roku. prawdziwym celem Tablic było umożliwienie obliczenia pozycji planet; Jednym z głównych użytkowników Tablic Alfonsyńskich był Kopernik . Kolejny katalog opracowany w pierwszej połowie XV w. to ULEGH BEG. TYCHO BRAHE jest jednym z pierwszych astronomów, którzy - korzystając ze swojego kwadrantu ściennego - zaczęli dokonywać dokładnych, systematycznych obserwacji w latach przed pojawieniem się teleskopu. Jego obserwacje obejmują supernową z 1572 r., kometę z 1577 r. i duży zbiór pozycji Marsa. Po śmierci Brahego w 1601 r. stanowiska te wykorzystał jego asystent JOHANNES KEPLER i odegrały kluczową rolę w wyprowadzeniu praw Keplera. Wraz z wprowadzeniem teleskopu jako instrumentu astronomicznego wiele katalogów strefowych (niezależnych) zaczęto obserwować za pomocą kręgów południkowych. Większość badań obserwacyjnych przeprowadzonych od początku do połowy XIX wieku ograniczała się do pewnych określonych obszarów i nie było żadnych porozumień co do "systemu", jaki należy zastosować (pod koniec XIX wieku zaproponowano wygodę posiadania systemu we współczesnym znaczeniu terminu, do którego należy odnosić stanowiska). Jedną z pierwszych prób przeprowadzenia kompleksowych badań ARGELANDER rozpoczął od obserwacji strefy od +80° do -2°. Strefy od -2° do bieguna południowego dodano później. To pierwsze badanie - znane jako Durchmusterungs - składało się z trzech części: Bonner Durchmusterung, Córdoba Durchmusterung i Cape Photographic Durchmusterung. Najważniejszym dziełem początków XX w. był Katalog Główny (GC) , którego wstępna wersja została opublikowana przez Lewisa Bossa w 1910 r. Wersja ta nosiła nazwę Wstępnego Katalogu Ogólnego (PGC), a został on później uzupełniony publikacją KG w 1937 r., która obejmowała ponad 33 000 gwiazd. W projekcie PCG/GC należy podkreślić ostateczny cel Lewisa Bossa: zbudowanie podstawowego systemu. Cel ten ostatecznie osiągnął jego syn, Benjamin Boss. W tym sensie warto wspomnieć o katalogu N30 opracowanym przez Morgana (1952). Szczegółowy opis historyczny katalogów astrometrycznych można znaleźć w Eichhorn . Omówienie różnych typów katalogów można znaleźć także w Jascheku . Kiedy klisza fotograficzna została ostatecznie zaakceptowana przez społeczność astronomiczną jako detektor (około 1880 r.), zaczął się rozwijać fotograficzny przegląd astrometryczny. Co ciekawe, pierwszym programem obserwacyjnym nowo wprowadzonym teleskopem astrograficznym (instrumentem towarzyszącym kliszy fotograficznej) była obserwacja największego międzynarodowego projektu ostatnich lat XIX wieku: Katalogu Astrograficznego (AC). Program ten spotkał się z dużą krytyką, ponieważ wielu uważało, że jest zbyt wcześnie w rozwoju teleskopów astrograficznych i klisz fotograficznych, aby podjąć się tak dużego projektu przy użyciu raczej małego (2° × 2°) pola widzenia. Jednak z dzisiejszej perspektywy uruchomienie AC można uznać za inicjatywę pozytywną. Dzięki tej decyzji astrometria dysponuje obecnie wspaniałym zestawem ponad czterech milionów pozycji z pierwszej epoki (obecnie 100-letnich) umożliwiających bardzo dokładne określanie ruchu własnego. Chociaż AC samo w sobie powinno być uważane za badanie obserwacyjne, nigdy nie było wykorzystywane jako takie aż do niedawna. W tym sensie przy użyciu opublikowanych współrzędnych AC stworzono dwa główne katalogi: katalog 4 milionów oraz AC2000 . Pierwsza łączyła AC z Katalogiem Gwiazd Przewodnika Kosmicznego Teleskopu Hubble'a (GSC) w celu obliczenia ruchów właściwych; oba zestawy stanowisk (AC i GSC) zostały zredukowane do systemu PPM. Oprócz pozycji i wniosków właściwych, Katalog 4 Million umożliwia także identyfikację krzyżową z innymi badaniami, takimi jak Durchmusterungs, PPM, SAO i VARIABLE STARS. AC2000 zawiera ponad cztery i pół miliona pozycji (i wielkości) ze średnią epoką 1907. Aby zredukować opublikowane współrzędne x, y AC, Corbin i Urban (1990) najpierw skompilowali ACRS do wykorzystania jako ramka odniesienia. Pozycje AC2000 znajdują się w systemie Hipparcos/ICRS. Nowsza ponowna analiza AC2000 dała AC2000.2 (Urban i in. 2001). Oprócz 4 Million i AC2000 istnieje kilka innych badań, w których wykorzystano AC. Spośród nich PPM był pierwszy. Szczegółową i fascynującą historię Katalogu Astrograficznego można znaleźć w Eichhorn . Podczas gdy trwała obserwacja AC, trwały także inne fotograficzne - strefowe - badania: strefy Yale i AGK2 (AGK1 obserwowano za pomocą okręgów południków). W sumie Yale opublikowało 30 katalogów z epokami od 1928 do 1942. Pierwszy tom stref Yale, który się ukazał, obejmował ponad 5000 gwiazd równikowych (Schlesinger i in. 1926); ostatnia (strefa od -60° do -70°) uległa licznym opóźnieniom i została opublikowana dopiero w 1983 r. Ostatnim z serii AGK był AGK3 . W związku z rozwojem sztucznych satelitów i pilną koniecznością ich śledzenia, już w połowie lat 60. XX w. zaistniała potrzeba opracowania ogólnego, kompleksowego zestawienia obejmującego istniejące katalogi w jeden. Realizacji takiego projektu podjęło się Smithsonian Astrophysical Observatory, a w 1966 roku społeczności astronomicznej udostępniono "Katalog gwiazd" z podtytułem "Pozycje i ruchy własne 257 997 gwiazd dla epoki i równonocy 1950". Katalog, znany jako SAO (szczegóły konstrukcji katalogu można znaleźć w Haramundanis 1966), obejmuje zakres od +90° do -90° i przez wiele lat był standardowym układem odniesienia dla redukcji większości klisz fotograficznych. Tysiące pozycji asteroid, komet, głównych planet i naturalnych satelitów uzyskano, wykorzystując SAO jako główny katalog referencyjny pozycji gwiazd i ich ruchów własnych. Jednakże, jak dobrze wiadomo, czas - poprzez odpowiednie ruchy - jest zawsze odpowiedzialny za degradację każdego katalogu astrometrycznego. SAO nie był wyjątkiem i po ponad 25 latach użytkowania został zastąpiony przez PPM. PPM - obejmujący także całe niebo - zawiera ponad 375 000 pozycji i ruchów właściwych w systemie 2000/FK5. Typowe wartości skuteczne błędy na półkuli północnej wynoszą 0,27 sekundy łuku w pozycjach z epoki 1990 i 0,42 ars wieku - 1 w ruchach właściwych, podczas gdy odpowiednie wartości na niebie południowym są znacznie lepsze . Główna poprawa PPM w stosunku do SAO została dokonana poprzez włączenie stuletnich danych AC. Po publikacji PPM zastąpił SAO jako układ odniesienia dla większości programów astrometrii fotograficznej. W związku z zaprzestaniem produkcji klisz fotograficznych i pojawieniem się detektorów CCD, PPM zostało obecnie zastąpione katalogami o znacznie większej gęstości. Podczas gdy niektórzy astronomowie zajmowali się obserwacją i redukcją dużych katalogów pozycji, inni skupiali swoją uwagę na poszukiwaniu gwiazd o dużych ruchach własnych. Według Luytena (1963) tego typu projekty odniosły ogromne korzyści dzięki wprowadzeniu mikroskopu mrugającego. Luyten (1970) przeprowadził kilka badań gwiazd o dużych ruchach własnych, co doprowadziło do wykrycia dużej liczby obiektów. Podzbiory tych badań i/lub ich rewizja lub reorganizacja zostały opublikowane jako badania Luyten Half Second (LHS), Luyten Two Tenths (LTT) i New Luyten Two Tenths (NLTT). Większość wyników została opublikowana przez Uniwersytet Minnesota w Minneapolis (USA). Wśród dużych badań ruchów własnych jednym z najważniejszych jest badanie Lowell Proper Motion Survey , ponieważ obejmuje wyszukiwanie wykresów dla każdej gwiazdy. Aby przedstawić pełniejszy opis historyczny badań astrometrycznych, należy odwołać się do misji Hipparcos. Satelita Hipparcos - finansowany i obsługiwany przez ESA - był pierwszym eksperymentem kosmicznym poświęconym astrometrii. Jego głównym celem było określenie dokładnych pozycji, ruchów właściwych i paralaks 118 218 gwiazd. Dokładność parametrów astrometrycznych wynosi w przybliżeniu 1 mas dla pozycji i paralaks oraz 1 mas rok-1 dla ruchów własnych gwiazd o jasności zaledwie 10mag. Położenia i ruchy własne z Katalogu Hipparcosa (ESA 1997a) są realizacją optyczną ICRS i stanowią najdokładniejszy duży katalog astrometryczny, jaki kiedykolwiek zaobserwowano. Znaczenie Hipparcos polega na tym, że po raz pierwszy umożliwiła astronomom dokładną kalibrację jasności i mas wielu pobliskich gwiazd oraz badanie struktury kinematycznej Galaktyki w sąsiedztwie Słońca. Wpływ, jaki Hipparcos wywarł na astronomię, można docenić w materiałach ze spotkania Hipparcos w Wenecji w 1997 r. , które zawiera prawie 200 artykułów naukowych opartych na danych Hipparcosa. W ramach misji Hipparcos narzędzia do mapowania gwiazd znajdujące się na satelitie zostały wykorzystane do zbudowania mniej dokładnego katalogu: Katalogu Tycho. Ponowna analiza oryginalnych danych z tego eksperymentu dała Katalog Tycho-2 , który stał się jednym ze standardowych zestawień w astrometrycznej redukcji klatek CCD (głównie w obserwacjach koła południka). Więcej szczegółów na temat HIPPARCOS oraz KATALOGÓW HIPPARCOS I TYCHO znajduje się w innych artykułach. Można powiedzieć, że w ciągu ostatnich 14 lat historię astrometrii wyznaczyły dwa główne wydarzenia: pierwszym z nich był wystrzelenie w 1989 r. wspomnianej misji Hipparcos; drugim było ustanowienie 1 stycznia 1998 r. Międzynarodowego Niebiańskiego Systemu Odniesienia (ICRS) jako nowego układu odniesienia, kończąc w ten sposób reżim serii FK. Dzięki tej istotnej zmianie, po raz pierwszy, układ odniesienia astrometrii - Międzynarodowy Układ Odniesienia Nieba (ICRF) - do którego należy odnosić pozycje, opiera się na 212 pozagalaktycznych ŹRÓDŁACH RADIOWYCH obserwowanych za pomocą interferometrii o bardzo długiej linii bazowej (VLBI). technik . Feissel i Mignard (1998) dokonali ważnego przeglądu dotyczącego przyjęcia i konsekwencji tej zmiany. Dziś, po znaczących osiągnięciach w swojej historii i dzięki zastosowaniu nowej generacji niezwykle wysokiej jakości instrumentów ziemskich i kosmicznych, astrometria przechodzi nowe i głębokie zmiany. Od ziemskich instrumentów zasilanych wieloma włóknami po najbardziej zaawansowane i wyrafinowane satelity - istnieje powszechna potrzeba lepszego pozycjonowania ciał niebieskich, a astrometria po raz kolejny musi zapewniać dokładne pozycje, właściwe ruchy i paralaksy gwiazd. Fakt, że niektóre z nadchodzących misji kosmicznych, aby odnieść sukces, będą musiały opierać się na naziemnych obserwacjach astrometrycznych, ilustruje znaczenie nowej astrometrii. Aby sprostać wymaganiom stawianym przez dzisiejszą astronomię, prowadzone są nowe badania astrometryczne nastawione na zapewnienie parametrów klasycznych. Ze względu na rosnące możliwości rozwoju zarówno komputerów, jak i detektorów, obecne projekty rosną pod względem rozmiaru (ogółem ponad 500 milionów wpisów) i dokładności (kilka mas). Niektóre z tych nowych badań opierają się na nowych obserwacjach, podczas gdy wiele innych wykorzystuje obszerny materiał dostarczony przez bazy danych, w ten sposób nawiązując do nowego sposobu uprawiania astronomii w ogóle: wirtualnych obserwatoriów.

Najważniejsze osiągnięcia

W ciągu ostatnich kilku lat w większości projektów astrometrycznych nastąpił niezwykły postęp. Można je podsumować w następujący sposób.

Pozycje i ruchy właściwe

Ponieważ matryce CCD stały się standardowymi detektorami w prawie każdym projekcie astronomicznym, istnieje realna potrzeba opracowania katalogów pozycji (a w idealnym przypadku także ruchów własnych) zawierających dużą liczbę gwiazd. W pewnym sensie można powiedzieć, że astronomia - ponownie - znajduje się w sytuacji podobnej do tej, która miała miejsce w połowie lat 60. XX w., kiedy wydano SAO (wówczas zastąpione przez PPM). Ze względu na niewielką liczbę obiektów, które obejmują (według dzisiejszego standardu), te dwa katalogi nie są obecnie odpowiednie do astrometrycznej redukcji większości klatek CCD. Aby przezwyciężyć problem zbyt małej liczby gwiazd na minutę łuku kwadratowego, konieczne było sporządzenie znacznie większych katalogów. Pierwszym krokiem w tym kierunku był Katalog Gwiazd Przewodnika po Kosmicznym Teleskopie Hubble'a (GSC) autorstwa Laskera i innych, który obecnie został zastąpiony przez GSC II zarówno pod względem ilościowym, jak i jakościowym. Inną ważną kompilacją, o której warto wspomnieć, jest USNO-A2.0 , która jest standardem - przynajmniej na razie - dla astrometrycznej redukcji większości klatek CCD. Podzbiór - zwany USNOSA2.0 - zawierający około pięćdziesiąt milionów gwiazd, jest najczęściej używany do redukcji klatek CCD mniejszych planet i komet. Jak zwykle po opublikowaniu katalogu jego zawartość jest analizowana i porównywana zewnętrznie z innymi kompilacjami w celu ostatecznej oceny jakości. USNO-A2.0, podobnie jak GSC II, nie jest wyjątkiem. Bardzo szczegółową analizę USNO-A2.0 przeprowadzili Assafin i inni. W tej pracy autorzy porównali niektóre pozycje USNO A2.0 z pozycjami obserwowanymi dla koła południka CCD Valinhos . Obecnie trwa rozbudowa katalogu USNO-A2.0 o nazwę USNO-B . Będzie zawierać ruchy właściwe i klasyfikację gwiazd/galaktyk. O krok od USNO-A2.0 (przynajmniej z ilościowego punktu widzenia) jest GSC II. Po ukończeniu będzie zawierał prawie 109 wpisów z typowym błędem 0,3 sekundy łukowej (najgorszy przypadek wynosi od 0,35 do 0,65 sekundy łuku dla gwiazd słabszych niż 16 mag w pobliżu krawędzi płyty). Wstępna wersja tej kompilacji, znana jako GSC 2.2, jest gotowa do użycia i zawiera listę ponad 430 milionów gwiazd. Stanowiska GSC II, a także GSC 2.2 znajdują się w systemie ICRF. Celem pocztowym GSC 2.2 jest wspieranie działania zarówno teleskopów GEMINI, jak i VLT. Momany i inni przeprowadzili zewnętrzne porównanie GSC 2.2. W ramach ESO Imaging Survey (EIS) autorzy ci porównali pozycje GSC 2.2 z pozycjami zgłaszanymi przez innych w obszarze niektórych gromad otwartych. Prawdopodobnie najnowszym projektem, który osiągnął część swoich celów, jest Katalog Astrografów CCD USNO (UCA). Wstępny katalog - UCAC1 - w ICRS zawiera ponad 27 milionów gwiazd z dokładnością pozycjonowania mniejszą niż 20 mas dla obiektów w zakresie 9-14 mag. Podano także wstępne ruchy własne z różnych źródeł. UCAC1 zostanie zastąpiony przez UCAC2 - obsługujący zakres od -90° do +30° - który będzie dostępny w połowie 2002 roku. Gdy zakończono, projekt UCA zapewni pierwszy katalog astrometryczny w całości zaobserwowany za pomocą teleskopu naziemnego wykorzystującego CCD jako detektor. Aby poprawić jakość ruchów własnych, które mają zostać uwzględnione w projekcie UCAC, płytki AGK2 (mające ponad 70 lat obecnie) są ponownie mierzone w USNO, a następnie zostaną połączone z nowoczesnymi stanowiskami . Różne raporty z postępu prac nad projektem UCAC można znaleźć u Zachariasa . Wśród projektów zorientowanych na wyznaczanie bezwzględnych ruchów własnych dużą liczbę danych dostarczyły dwa programy: Northern Proper Motion Program (NPM) opracowany w Lick Observatory oraz Southern Proper Motion Program (SPM), nad którym pracuje konsorcjum Uniwersytetu Yale (USA) i Uniwersytetu Narodowego w San Juan (Argentyna). Pierwsza partia NPM - zwana NPM1 - została wypuszczona w 1993 roku. Zawiera pozycje, ruchy właściwe i dwukolorową fotometrię dla 149 000 gwiazd poza Drogą Mleczną. Druga partia serii NPM2 będzie zawierać około 300 000 gwiazd znajdujących się w Drodze Mlecznej. Ponieważ galaktyki odniesienia są "nieobecne" na niebie Drogi Mlecznej, Katalog Hipparcosa służy do powiązania ruchów właściwych NPM2 z systemem (absolutnym) zdefiniowanym przez NPM1. NPM2 zostanie wydany w 2003 roku. Pierwsza epoka obserwacji SPM rozpoczęła się w 1965 roku i trwała do 1974 roku. Druga epoka, wykorzystująca klisze fotograficzne, rozpoczęła się w 1987 roku i została przerwana w 1993 roku z powodu braku klisz fotograficznych. Teraz obserwacja drugiej epoki zostanie wznowiona przy użyciu dwóch kamer CCD . Opublikowano dwa główne wyniki SPM: SPM 1.0 oraz SPM 2.0 . W ramach projektu SPM ogłoszono także katalog pozycji około 30 milionów gwiazd . Niedawno opublikowano wyniki innego ważnego procesu digitalizacji klisz fotograficznych. Właściwości astrometryczne badania SuperCOSMOS zostały przeanalizowane przez Hambly′ego i innych. Porównując pierwszą publikację danych - południową czapę polarną Galaktyki - z zewnętrznymi zbiorami danych, doszli do wniosku, że pozycje (w ICRF poprzez Tycho 2) są dokładne z dokładnością lepszą niż ±2 sekundy łukowej przy magnitudo J, R ∼ 19, 18, podczas gdy wykazano, że prawidłowe pomiary ruchu mają dokładność typowo ±10 mas rok -1 przy tym samym poziomie wielkości. Bardzo dużą uwagę poświęcono także astrometrii gromad otwartych. W ciągu ostatnich kilku lat ukazało się wiele artykułów na ten temat. Niektórzy z nich skorzystali z dostępnych obszernych baz danych, podczas gdy inni opierali się na nowych obserwacjach. W obu przypadkach - analizie baz danych lub nowych obserwacji - efektem było określenie pozycji, ruchów właściwych i jasności dużej liczby gwiazd. Ważnym badaniem prowadzonym za pomocą teleskopu WIYN jest WIYN Open Cluster Study (WOCS). Wyniki tego badania zostały opublikowane przez Plataisa. Istnieje znaczna liczba wkładów w badania w klastrach otwartych, w których wykorzystano bazy danych i bardzo dokładne katalogi astrometryczne. Wśród nich są Baumgardt ,Dias , Sanner i Geffert oraz Masden . WEBDA to zaktualizowany zbiór danych z gromad otwartych, prowadzony przez Jean-Claude'a Mermillioda w Instytucie Astronomii Uniwersytetu w Lozannie (Szwajcaria). Baza danych posiada bardzo proste funkcje, które zapewniają łatwe wyszukiwanie danych oraz udostępnia informacje astrometryczne, fotometryczne i spektroskopowe. Uwzględniono także różne dane (takie jak prawdopodobieństwo członkostwa) i odniesienia bibliograficzne.

Podwójne gwiazdy

Najważniejszym zestawieniem DOUBLE STARS jest katalog Washington Double Star (WDS). Główną zaletą kompilacji jest to, że jest ona aktualizowana codziennie. Obserwatorium Marynarki Wojennej Stanów Zjednoczonych wydało niedawno serię czterech płyt CD. Tom I zawiera podstawowe dane astrometryczne (współrzędne J2000, kąt położenia, separacja itp.) dla ponad 84 000 systemów. Tom drugi to zbiór 1465 orbit. Tom III jest w rzeczywistości Trzecim Katalogiem Interferometrycznych Pomiarów Gwiazd Podwójnych. Tom IV - ostatni z serii - to zbiór różnic wielkości dla ponad 10 000 systemów. Od początku lat 80. CHARA jest wiodącą grupą badawczą wykorzystującą techniki plamkowe do pomiaru odległości i kątów położenia gwiazd podwójnych (podstawowe informacje do określania masy gwiazd). Do chwili obecnej opublikowano 19 katalogów zawierających kąty położenia i odległości dla około 10 000 gwiazd. Grupa zakończyła budowę układu interferometrycznego składającego się z sześciu 1-metrowych teleskopów do rozdzielania układów podwójnych z odstępami kątowymi do 0,2 mas. CHARAarray będzie w pełni operacyjny gdzieś w roku 2002. Sprawozdania z postępu prac nad tą tablicą można znaleźć u McAlistera , Turnera , Sturmanna oraz dziesięciu Brummelaara . Inne ważne badania - wykorzystujące techniki plamkowe - kontynuowały obserwacje gwiazd podwójnych. Najnowsze raporty z badania Rochester Institute of Technology (RIT) można znaleźć w pracach Horcha. Kolejny ważny wynik z tej grupy jest związany z różnicami wielkości dla około 130 par . Podsumowanie ostatnich 4 lat działalności przedstawili Robinson i inni, natomiast nową kamerę o nazwie RYTSI, zaprojektowaną przez tę grupę, opisali Horch i inni. Wyniki z grupy obserwatoriów Pic du Midi, uzyskane za pomocą systemu Pupil Interferometry Speckle and Coronograph (PISCO) , zostały opublikowane przez Scardię oraz Prieura. Z drugiej strony separacje kątowe, kąty położenia, a także różnice wielkości dla systemów 606 - przy użyciu "zwykłej" kamery CCD - zostały opisane przez Gili i Bonneau oraz Lampens . Mason i inni ponownie przeanalizowali informacje zawarte w Tycho-2, próbując dostarczyć podstawowych danych na temat gwiazd podwójnych. Kolejna rewizja i ponowna redukcja Tycho-2 przez Fabriciusa zaowocowała odkryciem ponad 13 000 nowych dubletów, głównie z odstępem od 0,3 do 1 sekundy łukowej. Właściwe połączenie z danymi WDS pozwoliło na stworzenie Katalogu Tycho Double Star (TDSC), który zawiera ponad 100 000 wpisów. TDSC jest dostępny w CDS.

Paralaksy

W kontekście astrometrii słowo paralaksa jest prawie zawsze kojarzone z paralaksami trygonometrycznymi; to znaczy bezpośredni sposób określania odległości gwiazd. Metoda jest ograniczona do odległości mniejszych niż 100 szt. Historia oznaczeń paralaksy - podobnie jak katalogów astrometrycznych - jest bardzo bogata. Mówi się na przykład, że pierwszą próbę uzyskania paralaksy gwiazdy podjął Tycho Brahe. Ponieważ nie mógł uzyskać żadnej rozsądnej wartości, doszedł do wniosku, że albo (a) Ziemia znajdowała się w spoczynku w centrum wszechświata, albo (b) gwiazdy znajdowały się zbyt daleko, aby można było zmierzyć ich paralaksy. Ponieważ Brahe nie wierzył, że gwiazdy mogą znajdować się tak daleko, wybrał pierwszą opcję. Wynik ten pozwolił mu potwierdzić, że Kopernik całkowicie mylił się w swojej heliocentrycznej teorii Układu Słonecznego. Jak już wspomniano, to właśnie Bessel w 1838 roku wyznaczył pierwszą paralaksę tryginometryczną 61 Cygni. Do roku 1890 istniało około 30 gwiazd, których paralaksy były znane z dokładnością do ±0,05 sekundy łukowej . Pod koniec XIX wieku - wraz z przyjęciem kliszy fotograficznej jako detektora - wyznaczanie paralaks trygonometrycznych stało się standardowym programem badawczym w niektórych najważniejszych obserwatoriach. W tym sensie w 1903 roku Frank Schlesinger - znany jako "ojciec współczesnej astrometrii" - rozpoczął w Obserwatorium Yerkes jeden z najwybitniejszych projektów tamtych czasów . Inne instytucje, takie jak McCormick, Allegheny, Sproul, Greenwich, Cape, Boschha i Sztokholm wkrótce zainicjowały podobne projekty, podczas gdy Obserwatorium Lick i Stacja USNO Flagstaff zaczęły później używać swoich teleskopów zwierciadlanych i obie rozszerzyły swoje ustalenia na słabsze gwiazdy. Większość prac nad określeniem paralaks trygonometrycznych w erze fotografii została podsumowana w różnych wydaniach Ogólnego katalogu paralaks trygonometrycznych - lepiej znanego jako Katalog paralaks Yale (YPC). Pierwsze wydanie serii przygotowali Schlesinger (1924) oraz Schlesinger i Jenkins (1935). Trzecie wydanie zostało opublikowane przez Jenkins (1952), a następnie jej dodatek z 1963 r. Czwartą edycję YPC, ostatnią z serii, przygotowali van Altena i inni. Zawiera listę paralaks trygonometrycznych dla 8112 gwiazd, w tym oznaczenia fotograficzne i CCD. Gdy CCD stała się dostępna do użytku naukowego, rozpoczęto różne programy mające na celu określenie paralaks trygonometrycznych. Dwa z pierwszych raportów wykorzystujących techniki CCD to raporty Moneta (1981) oraz Moneta i Dahna (1983). Na szczęście oznaczenia paralaksy trygonometrycznej przeprowadzono także na półkuli południowej we wczesnym etapie ery techniki CCD . Obecnie, ze względu na obecne zapotrzebowanie astronomii na badanie i katalogowanie otoczenia Słońca, pobliskim gwiazdom udało się zyskać nowe zainteresowanie i w związku z tym wyznaczane są nowe odległości. Od szczegółowych badań pojedynczych gwiazd po przeglądy półkul - nowe wyniki publikowane są niemal co roku. Wśród wyników dotyczących pojedynczych gwiazd wymieniamy nowe spostrzeżenia dotyczące Proximy Centauri (naszego najbliższego sąsiada, odkrytego przez R. Innesa w 1915 r.) oraz Gwiazdy Barnarda autorstwa Benedicta ; wspomniano nawet o pewnych dowodach na towarzysza Proxima Centauri. Również w kategorii pojedynczych gwiazd warto wspomnieć, że zidentyfikowano gwiazdę polową, która może być najbliższym Słońcu karłem M9. Prawdopodobnie jednym z najważniejszych wyników (głównie ze względu na konsekwencje, jakie będzie to miało) jest określenie przez Benedicta absolutnej paralaksy i względnego ruchu własnego kalibratora skali odległości RR Lyrae. Różne wyszukiwania pobliskich gwiazd również przyniosły nowe wyniki. Wśród nich badanie mające na celu identyfikację brązowych karłów w odległości 8 pc od Słońca nie ujawniło żadnych nowych gwiezdnych towarzyszy w dużych odległościach; program ten wykorzystuje już istniejące obrazy z pierwszej epoki, które łączy się z nowymi obserwacjami w paśmie J. Poszukiwania zorientowane na znalezienie najmłodszych i najbliższych (d<60 szt.) gwiazd względem Ziemi (z wykorzystaniem informacji rentgenowskich oraz danych astrometrycznych z Hipparcosa i Tycho) prowadzą Song i inni. Ostatecznym celem projektu jest wykrywanie planet-olbrzymów. Obserwacje prowadzone są z obserwatorium Lick dla celów północnych oraz z Obserwatorium Siding Spring na południu. Szczegółowa analiza pomiarów płyt brytyjskiego teleskopu Schmidta za pomocą automatycznego pomiaru płyt (APM) przeprowadzona przez Scholza i inni zaowocowała odkryciem wcześniej nieznanych jasnych (12

Inne projekty

Teraz, gdy matryce CCD stały się standardowymi detektorami w astronomii, prawdopodobnie nadszedł czas, aby zmienić starą klasyfikację instrumentów astronomicznych. Najbardziej uderzający przypadek dotyczy kręgów południków (MC). Od ich pierwszego zastosowania w astronomii aż do kilku lat temu gwiazdy obserwowano naocznie (pojedynczo), gdy przekraczały południk. Kolejnym krokiem w rozwoju technik obserwacyjnych było zastąpienie ludzkiego oka fotopowielaczami. Teraz, gdy kamery CCD zostały podłączone do większości MC na całym świecie, procedura obserwacyjna została zastąpiona trybem skanowania dryfu. Takie podejście pozwala uzyskać paski o długości od kilku minut do kilku godzin w rektascencji i około 10-20 minut łuku (w zależności od rozmiaru i typu chipa CCD) w deklinacji. Ten zbiór danych można łatwo porównać z danymi uzyskanymi ze zwykłego teleskopu astrograficznego. Obserwacje są następnie redukowane za pomocą dowolnego katalogu referencyjnego. Ponadto niektóre MC zajmowały się obserwacjami obiektów tradycyjnie obserwowanych przez teleskopy typu astrograficznego: mniejszych planet (prawdopodobnie można to zinterpretować jako "powrót do korzeni", odkąd Ceres została odkryta przez Piazziego obserwującego za pomocą MC). Wśród tych obserwacji możemy wymienić te zawarte w różnych katalogach południków Carlsberga lub te zaobserwowane przez automatyczny krąg południków San Fernando - zlokalizowany w San Juan w Argentynie od 1996 r. Prawdopodobnie najbardziej kompleksowym raportem pod tym względem jest raport Stone′a (2000), który obejmuje ponad 56 000 pozycji (w ICRF) dla asteroid z 1940 roku. Bordeaux Automated Meridian Circle właśnie opublikowało katalog M2000 , który zawiera listę ponad dwóch milionów gwiazd o wartości granicznej 16,3mag. Zaobserwowane pasmo deklinacji pokrywa się z Carte du Ciel obserwowanym w Bordeaux. Mediana wewnętrznego błędu standardowego pozycji jest rzędu 35 mas, natomiast zewnętrzne porównanie z katalogami Hipparcosa i Tycho-2 daje szacunkową wartość lepszą niż 40 mas. Automatyczny krąg południków San Fernando (wyposażony w matrycę CCD od grudnia 1999 r.) zajmuje się obserwacją części południowego nieba w zakresie jasności około 16 mag. Projekt zakłada obserwację od +3° do -60°'. Do tej pory ukończono około 30%. Paski (o długości od 20 minut do 3 godzin w rektascencji i 18 minut łuku przy deklinacji) są redukowane przy użyciu Tycho-2 jako układu odniesienia . Oczekuje się, że obserwacje zakończą się w 2005 roku. MC z Obserwatorium Abrahão de Moraes (niedaleko Valinhos, Brazylia) był zaangażowany w różne projekty. Wśród nich należy wspomnieć o rozszerzeniu ICRF do 15 mag V. Projekt ten obejmuje ponad 44 000 gwiazd zlokalizowanych wokół niektórych pozagalaktycznych źródeł radiowych. Instrument ten wykorzystano także do określenia pozycji w celu określenia ruchu właściwego w południowych obszarach gwiazdotwórczych. Kolejny ważny katalog ukończony w 2000 roku został przygotowany w Obserwatorium Astronomicznym im. Nikołajewa. Obserwacji dokonano za pomocą osiowego koła południka (AMC). Katalog - dostępny w Internecie - zawiera ponad 14 000 gwiazd i został zredukowany przy użyciu USNO-A2.0 jako układu odniesienia. AMC uruchomiono w 1995 r. i od tego czasu uczestniczy w obserwacjach w ramach różnych projektów. W wielu badaniach wzięły także udział astrolabia. W ciągu ostatnich 20-25 lat wprowadzono wiele ulepszeń w instrumentach, jednym z przykładów jest fotoelektryczne Astrolabium II (PA II) opracowane w Chinach . Ostatnie wyniki uzyskane za pomocą tego nowego instrumentu zostały opublikowane przez Manrique i innych. Inne mniejsze kompilacje astrometryczne - wykorzystujące astrolabia fotoelektryczne - opublikowali Hui i Rui oraz Martin. Inne badania, choć w swoim zakresie astrometrycznym, w rzeczywistości zostały zaprojektowane i zorientowane na poprawę parametrów astrometrycznych obiektów astrofizycznych. Na przykład López i Girard poprawili pozycje ponad 1000 gwiazd zmiennych. Na potrzeby tego projektu autorzy zmierzyli płyty z pierwszej epoki SPM. Kolejnym projektem mającym na celu poprawę pozycji i ruchów właściwych gwiazd zmiennych jest Astrometryczny Katalog Gwiazd Zmiennych (ACVS) autorstwa Gulyaeva i Ashimbaevy (1997). Do tego badania autorzy wzięli gwiazdy wymienione w GCVS i NSV i porównali je z gwiazdami z Katalogu 4 milionów . Korzystając z kart wyników zalecanych przez GCVS i NSV, dokonano około 21 500 pozytywnych identyfikacji krzyżowych. SDSS to projekt na dużą skalę, mający na celu uzyskanie fotometrii optycznej i pozycji gwiazd o wielkości do 22 mag na około jednej czwartej nieba, którego środkiem jest północna czapa galaktyczna. Dodatkowo uzyskane zostaną widma około miliona galaktyk, 100 000 kwazarów i 50 000 gwiazd. To "nienastrometryczne" badanie powinno zaowocować ogromną liczbą wysokiej jakości stanowisk, które w porównaniu z pierwszą epoką POSS zaowocują również ruchami właściwymi. Obserwacje w ramach tego projektu rozpoczęły się w 1999 r. i mają trwać 5 lat. Oprócz projektów dotyczących długości fal optycznych, o których mowa w poprzednim akapicie, niektóre propozycje oparte na długości fal radiowych również wnoszą istotny wkład do astrometrii. Wśród nich jedną z takich propozycji, bardzo ważną ze względu na swój globalny zasięg, jest VERA (VLBI Exploration of Radio Astrometry), która jest sponsorowana przez Narodowe Obserwatorium Astronomiczne Japonii i grupę japońskich uniwersytetów. Projekt ma na celu wyznaczenie pozycji, paralaks i ruchów własnych źródeł maserowych w całej Galaktyce

Nowe tysiąclecie

Astronomia w ogóle, a astrometria w szczególności, cieszą się dużym uznaniem ze względu na duże bazy danych, które są obecnie w użyciu i które powstaną w najbliższej przyszłości. Ten nowy sposób wykonywania astrometrii lub wydobywania danych do ponownej analizy obejmuje wykorzystanie obiektów takich jak Aladin Sky Atlas (CDS), Astrovirtel, Astrogrid (brytyjskie wirtualne obserwatorium), SuperCOSMOS Sky Survey lub zapowiadane Astrophysical Virtual Observatory (AVO). oraz między innymi Narodowe Obserwatorium Wirtualne (NVO). Ogromna moc tych narzędzi - gdy będą w pełni dostępne do użytku publicznego i ogólnego - umożliwi obsługę różnych, bardzo dużych baz danych. Niektóre z udogodnień - jak VizieR czy SIMBAD - umożliwiają także wizualizację wszystkich danych (współrzędnych, wielkości, ruchu własnego itp.) przechowywanych dla danego obiektu. Wiele źródeł drastycznie zmieni sposób, w jaki nowe badania astrometryczne będą przeprowadzane w nadchodzących latach. Wśród nich znajdują się już istniejące sposoby wyodrębniania obrazów (klatek) z digitalizacji głównych przeglądów fotograficznych (POSS I, POSS II itp.) - znane jako Digitized Sky Survey (DSS) - dodane do nowego "banku obrazów" takie jak EIS, projekt MISAO czy Obserwatorium Marii Mitchel (MMO). Innym alternatywnym miejscem dla obrazów uzyskanych w wyniku digitalizacji ważniejszych przeglądów fotograficznych jest stacja USNO Flagstaff . Ponieważ cały ten materiał jest dostępny na wyciągnięcie ręki, za pośrednictwem sieci, nie zawsze konieczne będzie posiadanie teleskopów (dużych lub małych), aby podjąć się wybitnych programów badawczych zorientowanych na astrometrię. Obecnie realizowanych jest wiele projektów wykorzystujących te nowe możliwości. Obecnie DSS okazał się jednym z najbardziej rozbudowanych banków obrazów w użyciu. Od potwierdzenia supernowych po identyfikację milionów galaktyk , DSS pozwala na podjęcie niemal każdego projektu. Jako astrometryczny przykład tej możliwości można wymienić poprawę pozycji źródeł ICRF i prawie trzech tysięcy obiektów wymienionych w Second Byurakan Survey of Blue Compact Galaxies . Ponadto połączenie klatek DSS z różnych epok lub migotanie pomiędzy obrazami DSS z obrazami z innych przeglądów (takimi jak te dostępne w banku obrazów MISAO lub te z SkyMorph) pozwala na identyfikację gwiazd o wysokim ruchu własnym . Innym możliwym sposobem lokalizowania "brakujących" gwiazd o dużym ruchu własnym jest połączenie różnych badań; projekt wykorzystujący to podejście jest opracowywany przez Goulda i Salima . Jednak w wyszukiwaniu kompilacji baz danych można uwzględnić nie tylko obiekty gwiezdne; obiekty niegwiazdowe - takie jak mniejsze planety i komety - są również brane pod uwagę i przedłożono do MPC szereg stanowisk przed odkryciem, co usprawnia określanie parametrów orbitalnych . Ponadto klatki uzyskane w wyniku poszukiwań niektórych najważniejszych mniejszych planet (w szczególności NEO), takich jak LINEAR, NEAT i LONEOS, są również odpowiednie do wykorzystania na przykład do wyznaczania ruchu własnego. Ramki te są łatwo dostępne poprzez udogodnienia SkyMorph. Istnieje również szereg programów badawczych wykorzystujących już istniejące, wysokiej jakości katalogi astrometryczne, głównie Hipparcos i Tycho-2. Bazy te zostały wykorzystane między innymi w badaniach ruchów własnych gromad otwartych (Dias i in. 2001) oraz w kompleksie gwiazdotwórczym . W niektórych innych przypadkach wysoka dokładność tych zestawień (głównie Tycho-2) pozwoliła na określenie "astrometrycznych prędkości radialnych" gwiazd należących do gromad otwartych . Artykuły, a także adresy internetowe wymienione w tej sekcji to tylko mały (i niekompletny) przykład tego, co można zrobić, korzystając z materiałów dostępnych w głównych centrach danych. Jednakże potencjał tych nowych narzędzi nie został jeszcze w pełni wykorzystany; Kiedy to nastąpi, od tego momentu duży wpływ będzie mieć sposób, w jaki astrometria będzie przeprowadzać nowe przeglądy astrometryczne. Te nowe możliwości, a także jeszcze większy zbiór danych, które mają dostarczyć nadchodzące misje kosmiczne (GAIA, SIM itp.) zaplanowane na nadchodzące lata, zmienią sposób, w jaki będą wykonywane badania astrometryczne w najbliższej przyszłości. Będą znacznie łatwiejsze i jednocześnie znacznie bardziej skomplikowane w opracowaniu: łatwe, bo po prostu mając dostęp do sieci, będzie można wydobyć wiele megabajtów informacji; skomplikowane, ponieważ będzie wymagało nie tylko większych urządzeń komputerowych do prawidłowego przetwarzania takiej ilości danych, ale także (i prawdopodobnie ważniejsze) nowych koncepcji w technologii komputerowej . Kiedy to nastąpi, astrometria będzie miała szansę na rozwój i ekspansję na nowe i nieoczekiwane dziedziny. Jednak oczywiście zmieni się nie tylko astrometria; w rzeczywistości najbardziej znacząca zmiana nastąpi w sposobie, w jaki widzimy i rozumiemy otaczający nas wszechświat.

Załącznik

Podsumowanie akronimów


Obecnie używa się dużej liczby akronimów w odniesieniu do badań astrometrycznych, instrumentów i instytucji zaangażowanych w projekty astrometryczne. Poniżej znajduje się podsumowanie akronimów wspomnianych w niniejszej pracy oraz innych, które można znaleźć w innej aktualnej literaturze.

2MASS Two-Micron All Sky Survey
AC Astrographic Catalogue
ACRS Astrographic Catalogue Reference Stars
ACT Astrographic Catalogue and Tycho
ACVS Astrometric Catalogue of Variable Stars
AGK Astronomisches Gesselschaft Katalog
APS Automated Plate Scanner
AVO Astrophysical Virtual Observatory
BD Bonner Durchmusterung
CAMC Carlsberg Automatic Meridian Circle
CCD Charge-coupled device
CDS Centre de données astronomiques de Strasbourg
CHARA Center for High Angular Resolution Astronomy
CoD Córdoba Durchmusterung
CPC2 Second Cape Photographic Catalogue
CPD Cape Photographic
CTIO Cerro Tololo Inter-American Observatory
CTIOPI CTIO Parallax Investigation
DENIS Deep Near-Infrared Survey
DSS Digitized Sky Survey
EIS ESO Imaging Survey
ESA European Space Agency
ESO Europen Southern Observatory
FAME Full-Sky Astrometric Mapping Explorer
FK Fundamental Katalogs
FOCAT-S Photographic Catalogue-South
GAIA Global Astròmetric Interferometer for Astrophysics
GC General Catalogue
GCVS General Catalogue of Variable Stars
GSC Guide Star Catalogue
HDEC Henry Draper Extension Charts
HDF Hubble Deep Field
HIPPARCOS High Precision Parallax Collecting Satellite
HST Hubble Space Telescope
IAU International Astronomical Union
ICRF International Celestial Reference Frame
ICRS International Celestial Reference System
LHS Luyten Half Second
LINEAR Lincoln Near Earth Asteroid Research
LONEOS Lowell Observatory NEO Search
LTT Luyten Two Tenths
MISAO Multitudinous Image-Based Sky-Survey
and Accumulativè Observations
NASA National Aeronautics and Space Administration
NEA Near-Earth asteroid
NEAT Near-Earth asteroid tracking
NEO Near-Earth object
NLTT New Luyten Two Tenths
NOAO National Optical Astronomical Observatories
NPM Northern Proper Motion Survey
NSV New Catalogue of Suspected Variable Stars
NTT New Technology Telescope
NVO National Virtual Observatory
OAFA Observatorio Astronómico Félix Aguilar
PGC Preliminary General Catalogue
PISCO Pupil Interferometry Speckle and Coronograph
POSS Palomar Observatory Sky Survey
PPM Positions and proper motions
RECONS Research Consortium on Nearby Stars
RIT Rochester Institute of Technology
ROA Real Instituto y Observatorio de la Armada
SAOC Smithsonian Astrophysical Observatory Catalogue
SDSS Sloan Digital Sky Survey
SIM Space Interferometry Mission
SIMBAD Set of Identifications, Measurements
Bibliography for Astronomical Data
SPM Southern Proper Motion Survey
SRS Southern Reference System
TAC Twin Astrograph Catalogue
TPMC Tokyo Photoelectric Meridian Circle
TRC Tycho Reference Catalogue
UCAC-S United States Naval Observatory CCD Astrograph Catalogue-South
UKST United Kingdom Schmidt Telescope
USNO United States Naval Observatory
VERA VLBI Exploration of Radio Astrometry
VLBI very-long-baseline-interferometry
VLT very large telescope
WEBDA WEB Database of Open Clusters
WDS Washington Double Star Catalogue
WIYN Wisconsin Indiana Yale NOAO
WOCS WIYN Open Cluster Studies
YPC Yale Parallax Catalogue

Astrometria za pomocą Kosmicznego Teleskopu Hubble'a

W 1990 roku NASA wystrzeliła Kosmiczny Teleskop Hubble′a. Oprócz kamer i spektrografów obsługujących zakres od dalekiego ultrafioletu do bliskiej podczerwieni, obserwatorium zawiera trzy INTERFEROMETRY światła białego. W ramach wsparcia inżynieryjnego i naukowego ich głównym zadaniem było prowadzenie teleskopu; do pozycjonowania i utrzymywania celów naukowych w otworach instrumentu naukowego z tolerancjami zbliżającymi się do 0,1, co odpowiada 100 milisekundom łuku (100 mas). Wskazywanie i śledzenie wymaga dwóch takich precyzyjnych czujników naprowadzania (FGS), pozostawiając trzeci wolny dla ASTOMETRII. Celem projektowym astrometrii z FGS była precyzja 3 mas w całym polu obserwacji. Zaprojektowany i zbudowany na początku lat 80. XX w. FGS stanowił postęp o rząd wielkości w porównaniu z istniejącymi technikami naziemnymi. Opóźnienia w uruchomieniu HST zapewniły technikom naziemnym wystarczający czas na osiągnięcie tego celu, a nawet przekroczenie tego celu. Tym samym na nowo zdefiniowano cel postartowy. Cel ten, czyli astrometria małego pola z precyzją 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. HST FGS pozostanie konkurencyjnym narzędziem astrometrycznym do wykrywania słabych celów na zatłoczonych polach i słabych układów podwójnych o małej separacji, aż do pojawienia się naziemnych interferometrów o dużej aperturze i interferometrów kosmicznych o dłuższej linii bazowej (patrz także ASTOMETRIA: TELESKOPY I TECHNIKI). W tym artykule opisano badania naukowe, które można przeprowadzić za pomocą FGS, i przedstawiono niektóre najnowsze wyniki nauki. Opisujemy, w jaki sposób te dane są modelowane, pozyskiwane i kalibrowane. Następnie pokażemy, jak astrometr FGS 3 działa jako interferometr. Na koniec przedstawiamy przewodnik po literaturze, który zawiera dodatkowe szczegóły dotyczące każdego elementu omawianego w tym artykule. Astrometrię z dokładnością do 1 mas można uzyskać za pomocą szerokokątnej kamery planetarnej HST. Techniki są podobne do tych stosowanych w naziemnej astrometrii CCD i należy je omówić osobno.

Wybór celów nauki

Wybór celów naukowych w zakresie astrometrii HST jest słusznie uzależniony od tego, co można zrobić z ziemi. Unikalne możliwości HST muszą pozostać zarezerwowane dla wymagających ich projektów. W tej części podsumowujemy mocne strony astrometrii HST, wskazując kilka przykładów rodzajów obiektów, do których idealnie nadają się HST i FGS. Ponieważ interferometr FGS oferuje dwa tryby obserwacji, skanowanie prążków i śledzenie prążków, pozostałą część tego artykułu dzielimy na każdym etapie według trybów.

Skanowanie prążków: użycie HST do astrometrii gwiazd podwójnych Podczas próby rozdzielenia docelowej GWIAZDY PODWÓJNEJ należy wziąć pod uwagę cztery cechy techniki obserwacyjnej o wysokiej rozdzielczości (<1 ): granica jasności źródła, zdolność rozdzielcza, dokładność astrometryczna i różnica wielkości między składnikami, które można zaobserwować. Chociaż wszystkie cztery parametry są współzależne, podajemy limity prądu dla każdej charakterystyki oddzielnie, aby zilustrować skuteczność HST FGS 3 jako instrumentu astrometrycznego. W przypadku gwiazd podwójnych obserwacje HST FGS 3 dostarczają wyników obecnie nieosiągalnych technikami naziemnymi. HST FGS 3 ma dokładność do 1-3 mas przy granicy rozdzielczości 15 mas dla różnic wielkości mniejszych niż 2 mag. Może skutecznie obserwować cele z dokładnością do co najmniej V ∼ 15. Przy separacji składników większej niż 200 mas może pokonać różnice jasności co najmniej V = 4 mag, co wykazało wykrycie Gliese 623B. Przyszły rozwój interferometrów naziemnych powinien poprawić dokładność pomiarów astrometrycznych i zapewnić lepszą rozdzielczość, ale nadal będzie ograniczony do stosunkowo jasnych celów i umiarkowanych różnic wielkości. HST FGS 3 to jedyny dostępny obecnie instrument o wysokiej rozdzielczości, który (a) może zapewnić wysoce precyzyjną astrometrię dla bardzo bliskich układów podwójnych, (b) umożliwia obserwację stosunkowo słabych celów oraz (c) może pokonać co najmniej umiarkowanie duże różnice wielkości pomiędzy elementami systemu binarnego. Śledzenie prążków: wykorzystanie HST do uzyskania paralaks. W przypadku braku odległości astrofizyce brakuje precyzji. Nasza wykazana precyzja pomiaru PARALAKSY wynosi 0,5 masy lub więcej, biorąc pod uwagę sześć epok obserwacji przy maksymalnym współczynniku paralaksy. Często cel paralaksy jest niemożliwy do zmierzenia, ponieważ gwiazdy odniesienia nie znajdują się w polu widzenia urządzenia pomiarowego; jest to szczególnie prawdziwe w przypadku małoformatowych (zwykle kilku łuków kwadratowych) kamer CCD. FGS zapewnia duże pole widzenia, a jego kształt przypomina marynatę. Kształt ten pochodzi od lustra pick-off w płaszczyźnie ogniskowej HST. Obserwacje paralaksy są zazwyczaj przeprowadzane w odstępie sześciu miesięcy, w którym to czasie, ze względu na ograniczenia oświetlenia układu HST, pole widzenia FGS obraca się o 180?. Obszar w kształcie soczewki (rysunek 6), wspólny dla dwóch skrajnych orientacji, zapewnia stosunkowo duże pole o krótkiej osi = 3,5 i długiej osi = 14. FGS 3 ma duży zakres dynamiki, umożliwiający śledzenie pozycji prążków dla gwiazd w zakresie magnitudo 4 ≤ V ≤ 17. Ten duży zakres dynamiki zapewnia filtr o neutralnej gęstości, który zmniejsza wielkość jasnych gwiazd o 5 mag. Niefiltrowany zakres wynosi 8,5 ≤ V ≤ 17. HST może uzyskać dokładne paralaksy dla układów podwójnych, których składowe są oddzielone 0,03 < ? < 1,0 . Prawie jednoczesne skanowanie prążków i pomiary śledzące pozwalają określić położenie komponentów względem gwiazd odniesienia, co jest niezbędne do określenia środka masy układu, a tym samym mas poszczególnych składników. Wreszcie istnieje terminowość wyników. Nie trzeba już czekać od trzech do sześciu lat na paralaksę obiektów interesujących astrofizycznie. Odległość do wystarczająco interesującego i ważnego obiektu można uzyskać w tej samej skali czasu, co inne informacje astrofizyczne. Jeśli obiekt lub klasa obiektów jest teraz interesująca, można teraz przetestować teorię.

Wyniki nauki

Cele naukowe obejmowały pobliskie gwiazdy używane jako sondy do poszukiwań planet pozasłonecznych; gwiazdy, których astrofizyka byłaby w dużym stopniu wspomagana przez dokładne odległości; gwiazdy podwójne o małej masie w celu zdefiniowania relacji masy do jasności dla niższego ciągu głównego; członkowie gromady Hiady, klucz do skali odległości; obiekty pozagalaktyczne (QSO) zapewniające inercyjny układ odniesienia dla Hipparcosa; oraz uosobienie zatłoczonych pól, gromada pozagalaktyczna R136 w Wielkim Obłoku Magellana. Po raz kolejny dzielimy według techniki, omawiając reprezentatywne wyniki pierwszego skanowania prążków, a następnie śledzenia prążków.

Skanowanie prążków i gwiazdy podwójne

Nauka o skanowaniu prążków opiera się na dekonwolucji i założeniu, że wszystkie obiekty w polu są źródłami punktowymi. W poszukiwaniu najnowszych wyników naukowych zwracamy się do układu podwójnego Wolf 1062 = Gl 748 o małej masie, zaobserwowanego na poparcie projektu dotyczącego masy i jasności o niższej sekwencji głównej. Ponieważ każdy obserwowany prążek jest liniową superpozycją dwóch prążków (po jednym dla każdej gwiazdy składowej układu podwójnego), modeluje się go z dwoma identycznymi prążkami pojedynczej gwiazdy. Ich rozmieszczenie wzdłuż osi i względne amplitudy zapewniają różnice w separacji i jasności. Względna separacja wzdłuż dwóch osi dostarcza informacji o kącie położenia. Średnia bezwzględna różnica między zaobserwowaną i obliczoną odległością wynosi tylko 1,1 mas i tylko 0,77° w kącie położenia. Rysowane są wektory resztkowe dla wszystkich punktów danych, ale są one mniejsze niż punkty. Być może jeszcze bardziej imponujące będzie uświadomienie sobie, że przedstawione pudełko ma rozmiar zaledwie 0,6, więc dobre widzenie z ziemi dałoby obraz gwiazdy wielkości całej postaci. Połączenie obserwacji skanowania prążków i śledzenia prążków dla układu podwójnego L722-22 o małej masie dało względną paralaksę π = 0,1656 ±0,0008 i masy składników 0,179 i 0,112 M z formalnymi błędami losowymi dla tak małej masy jako 1,5%.

Śledzenie prążków: pozycje w ramce odniesienia

Nauka o śledzeniu prążków polega przede wszystkim na powiązaniu położenia celu z pozycjami gwiazd wyznaczającymi układ odniesienia. Tutaj omawiamy program paralaksy Hyadesa i podstawowy projekt astrometryczny z udziałem HIPPARCOS. Trygonometryczne obserwacje paralaksy uzyskano dla siedmiu członków Hyades w sześciu polach widzenia. Zostały one przeanalizowane wraz z ich właściwymi ruchami w celu określenia odległości do gromady. Niepewność formalna poszczególnych paralaks wynosi średnio 1 mas. Ten stosunkowo duży błąd wynika zarówno ze złego rozmieszczenia przestrzennego, jak i małej liczby gwiazd odniesienia w każdym polu. Znajomość punktu zbieżności i średniego ruchu właściwego Hiad ma kluczowe znaczenie dla obliczenia odległości do środka gromady. W zależności od wyboru układu ruchu własnego uzyskana odległość od środka gromady różni się o 9%. Dlatego pełne wykorzystanie paralaks HST FGS oczekuje na ustanowienie dokładnego i spójnego systemu ruchu właściwego. Obserwacje separacji gwiazd Hipparcosa od obiektów pozagalaktycznych przeprowadzono w celu określenia rotacji układu instrumentalnego Hipparcosa względem układu odniesienia ICRS-VLBI. Ustalenie na podstawie 78 obserwacji daje dokładność rzędu 2 mas rms w przypadku przesunięć rotacji współrzędnych w pobliżu średniej epoki obserwacji HST i 2 mas rok-1 w szybkości rotacji współrzędnych. Głównymi źródłami błędów są błędy pomiaru HST i błędy prawidłowego ruchu wprowadzone przez trzyletnią różnicę czasu między średnimi epokami obserwacyjnymi Hipparcosa i HST.

Modelowanie danych

Nasze dwa przykłady to gwiazda podwójna do skanowania prążków i pole paralaksy do śledzenia prążków

Skanowanie brzegowe

Uważamy, że gwiazda podwójna jest najprostszym obiektem wymagającym skanowania prążków. Zakładamy, że prążek wytwarzany przez gwiazdę podwójną jest liniową superpozycją prążków wytwarzanych przez dwie pojedyncze gwiazdy. Odpowiedź interferometru na rzeczywistą gwiazdę podwójną pokazano na rysunku 2. Jeśli F(x) jest prążkiem wytwarzanym przez pojedynczą gwiazdę na osi x, gwiazdę podwójną należy opisać wzorem

D(x) = A × F(x + zx) + B × F(x + x + Sx) (1)

gdzie A i B są względnymi intensywnościami dwóch składników (ograniczając A + B = 1). Przesunięcie punktu zerowego zx i separacja komponentów Sx uzupełniają model, przy czym podobne wyrażenie istnieje dla prążków utworzonych wzdłuż osi y. Sy i Sx dają separację binarną i, po przekształceniu na współrzędne równikowe, kąt położenia. Otrzymujemy różnicę wielkości z

Δm = ?2,5 × log(A/B). (2)

Jeśli w trybie śledzenia prążków zostanie zaobserwowany układ binarny, FGS zablokuje się w błędnej pozycji przejścia przez zero, która jest generowana przez dwie ściśle nakładające się krzywe s. Obserwacja w trybie skanowania prążków podaje względne położenie dwóch składników. Położenia względne można wyznaczyć jednorazowo z dokładnością i precyzją do 1 mas prążki obu gwiazd ulegają dekonwolucji.

Śledzenie marginesów

Za przykład śledzenia prążków uważamy typowy cel paralaksy i powiązane z nim gwiazdy odniesienia. Główny cel naukowy jest idealnie otoczony przez pięć do dziesięciu innych gwiazd używanych jako układ odniesienia, względem którego określamy położenie i ruch. Astrometria śledząca prążki jest na ogół procesem dwuetapowym. Najpierw określamy charakterystykę układu odniesienia. Jako płytę ograniczającą wybiera się jedną z epok obserwacji. Z tych danych możemy określić skalę i obrót względem płyty ograniczającej dla każdego zestawu obserwacji w obrębie jednej orbity. Ponieważ w przypadku wielu naszych obiektów obserwacje obejmują okres ponad dwóch lat, uwzględniliśmy także efekty paralaksy gwiazdy odniesienia (π) i ruchu własnego (&mi;)

ξ = ax + by + c ? (Px ? π + μx ? t) (3) η = dx + ey + f ? (Py ? π + μy ? t). (4) Orientację względem sfery niebieskiej uzyskuje się z astrometrii naziemnej. Niepewność orientacji pola wynosi zazwyczaj 0,03° < !εθ < 0,09°. Współczynniki paralaksy Px i Py uzyskujemy z predyktora orbity Ziemi JPL. Wreszcie, dθa wystarczająco bogatego pola odniesienia (n > cztery gwiazdki) ograniczamy Σπ = 0 i Σ&piu;= 0 dla całego układu odniesienia. Drugi krok polega na zastosowaniu stałych płytki do pomiarów celu naukowego. Współczynniki płyty a, b, ..., f są stosowane jako stałe, podczas gdy w powyższych równaniach rozwiązujemy cel naukowy μ i π.

Astrometr

Projektowanie


FGS 3 jest interferometrem. Interferencja zachodzi w pryzmacie, który został przecięty na pół i pokryty ćwierćfalową powłoką opóźniającą, a następnie ponownie złożony. Rysunek 4 przedstawia jeden z tych pryzmatów Koestera. Większość FGS składa się z optyki pomocniczej służącej do zasilania pryzmatów Koestera . W szczególności selektory gwiazd poruszają się po chwilowym polu widzenia w całym polu interferometru . Sygnał wyjściowy każdej ściany (powierzchni A i B) jest mierzony przez PMT. Sygnały te są łączone

S = A - B/A + B (5)

tworząc sygnał S, który ma wartość zero dla fal padających dokładnie pionowo na przednią powierzchnię pryzmatu Koestera. Pochylanie czoła fali do przodu i do tyłu (równoważne skierowaniu teleskopu nieco w bok, następnie na cel, a następnie nieco w drugą stronę) generuje wzór prążków. Idealny instrument wygenerowałby idealnie symetryczny wzór prążków. Znacząca aberracja sferyczna zwierciadła głównego HST powykonawczego, w obecności wewnętrznych niewspółosiowości FGS, tworzy na prążkach sygnaturę imitującą komę. Koma powoduje zmniejszoną modulację oraz liczne szczyty i doliny na obrzeżach. FGS 3 tworzy najmniej skomplikowane prążki na najszerszym obszarze pola obserwacji. Zamienny FGS zainstalowany w 1997 r. zawiera przegubowe, składane na płasko lusterko, które usuwa większość wewnętrznych niewspółosiowości. Ten FGS (FGS 1r) wytwarza prawie idealne prążki i powinien co najmniej dawać doskonałe wyniki w przypadku gwiazd podwójnych. FGS 3 pozostanie w służbie do czasu pełnej kalibracji FGS 1r w roku 2000.

Tryby pracy FGS

Omawiamy strategie pozyskiwania danych najwyższej możliwej jakości. Nasz cel, precyzja astrometrii małego pola wynosząca 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. Należą do nich mechanicznie zaszumione środowisko na orbicie, samokalibracja FGS 3 i znaczące zmiany czasowe w naszym instrumencie. Rozwiązania obejmują gęstszy zestaw gwiazd kontroli dryfu dla każdej obserwacji naukowej, precyzyjne dostrajanie czasów ekspozycji, nakładające się obserwacje terenowe i analizy do kalibracji, a także ciągłą serię obserwacji monitorujących trendy. Największy wpływ na jakość danych ma traktowanie wszystkich danych uzyskanych na tej samej orbicie jako obserwacji jednostkowej, np. talerz'.

Skanowanie brzegowe

Cel umieszcza się w środku "marynaty", a selektory gwiazd otrzymują polecenie przesunięcia chwilowego pola widzenia na obraz docelowej gwiazdy. Ta akcja tworzy grzywkę. W praktyce uzyskuje się 10-30 skanów w układzie posuwisto-zwrotnym do przodu i do tyłu w poprzek gwiazdy. Ostateczny prążek wynika z procesu odwrócenia, przesunięcia i dodania. Mamy dowody na to, że w trakcie orbity pozycje gwiazd przewodników podawane przez FGS 1 i FGS 2 zmieniają się. Powoduje to dryftowy ruch astrometru FGS 3. Dryft może przekroczyć 30 mas w ciągu 36 minut. Szybkości dryfu x i y są na ogół odmienne, a dryft nie jest stały. Ponieważ jednak pojedynczy skan obiektu naukowego zajmuje około 1 minuty, dryft na skan zmniejsza się do mniej niż 1 mas. Strategia akwizycji danych z ruchem posuwisto-zwrotnym prawie samokompensuje dryf.

Śledzenie marginesów

W celu śledzenia prążków elektronika pokładowa lokalizuje przejście przez zero pomiędzy najwyższym dodatnim i najniższym pikiem prążków ujemnych. Położenie tego przejścia przez zero jest określane z częstotliwością 40 Hz w czasie obserwacji w zakresie od 10 < t < 300 s. Mediana >2400 przejść przez zero zapewnia solidne oszacowanie pozycji. Selektory gwiazd służą do przesuwania chwilowego pola widzenia z jednej gwiazdy na drugą w polu widzenia FGS. Dryf można skorygować, ale powoduje to dodatkowy narzut, skracając czas dostępny na orbicie na obserwację celu naukowego . Zestaw obserwacji astrometrycznych musi zawierać wizyty do jednej lub większej liczby gwiazd odniesienia, wielokrotne podczas każdej sekwencji obserwacji. Zakładając brak ruchu charakterystycznego dla wszystkich gwiazd odniesienia i gwiazd docelowych w okresie 40 minut, określa się dryft i koryguje układ odniesienia i gwiazdę docelową pod kątem tego dryfu. W rezultacie zmniejszamy udział budżetu błędu z dryftu do mniej niż 1 mas. Na ryc. 1 cel naukowy można obserwować trzy razy podczas sesji obserwacyjnej (pojedyncza orbita), a każdą gwiazdę odniesienia dwukrotnie.

Kalibracja astrometryczna

Kalibracja trybu skanowania prążków ma na celu określenie różnic separacji i wielkości pomiędzy składnikami gwiazd podwójnych. Jak omówiono wcześniej, wszystkie prążkowe cele skanowania są obserwowane w pobliżu środka zamarynowania. Dla kontrastu śledzenie prążków odbywa się na całym polu widzenia. Wymagania kalibracyjne dla tych dwóch trybów pracy są zupełnie inne.

Kalibracja skanowania prążków

Najbardziej podstawową kalibracją każdego instrumentu astrometrycznego jest określenie skali w jednostkach sfery niebieskiej. Skala FGS pochodzi z pomiarów kilku kalibracyjnych gwiazd podwójnych, często obserwowanych za pomocą interferometrii plamkowej za pomocą teleskopów klasy 4 m. Na podstawie tych pomiarów plamkowych uzyskano niezwykle dobrze określone elementy orbitalne. Te orbity gwiazd podwójnych dają, dla dowolnej daty obserwacji HST FGS, dokładne separacje kątowe układu podwójnego, a tym samym skalę. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych.

Kalibracja śledzenia prążków

Zespół teleskopu optycznego (OTA) HST to aplanatyczny TELESKOP CASSEGRAINA konstrukcji Ritchey-Chretien. Naszym początkowym problemem było mapowanie i usuwanie zniekształceń optycznych, których wpływ na mierzone pozycje przekraczał 0,5. Nie istniało żadne pole gwiazdowe ze skatalogowaną astrometrią o precyzji 1 mas, co stanowiło nasz pożądany cel w zakresie wydajności, do wykorzystania jako siatka odniesienia. Naszym rozwiązaniem było użycie FGS 3 do samodzielnej kalibracji. W wyniku tej aktywności zniekształcenia zmniejszają się do wartości lepszych niż 2 mas na większości pola widzenia FGS 3 (rysunek 1). Model ten nazywany jest kalibracją zniekształceń kąta pola optycznego (OFAD). Do opisu tych zniekształceń przyjęliśmy a funkcjonalna forma przed wprowadzeniem na rynek, pierwotnie opracowana przez konstruktora instrumentu, firmę Perkin-Elmer Corporation. Zniekształcenia te można opisać (i zamodelować do poziomu jednej milisekundy łuku) za pomocą dwuwymiarowych wielomianów piątego rzędu




gdzie x, y to obserwowane pozycje w polu widzenia FGS, x , y to skorygowane pozycje, a wartości liczbowe współczynników aij i bij wyznaczane są poprzez kalibrację. Do wstępnego oszacowania OFAD wykorzystano ślady promieni. Wymagane uwolnienie grawitacyjne, odgazowanie struktur grafitowo-epoksydowych w FGS i regulacja zwierciadła wtórnego HST po wystrzeleniu aby ostatecznego określenia współczynników OFAD aij i bij dokonano w drodze kalibracji na orbicie. Jako pole kalibracyjne wybrano M35. Ponieważ naziemne pozycje naszych docelowych gwiazd kalibracyjnych były znane tylko z dokładnością do 23 milisekund łuku, pozycje gwiazd oszacowano jednocześnie z parametrami zniekształceń. Dokonano tego podczas kalibracji maratonu przeprowadzonej 10 stycznia 1993 r. w FGS 3. Całą sekwencję 19 orbit pokazano na rycinie 6. GaussFit został wykorzystany do jednoczesnego oszacowania względnych pozycji gwiazd, kierunku i obrotu teleskopu podczas każdego orbity ( kwaternionami), powiększenie teleskopu, współczynniki wielomianu OFAD i cztery parametry opisujące optykę selektora gwiazd wewnątrz FGS.

Inne kalibracje śledzenia prążków

Ponieważ każdy FGS zawiera elementy załamujące światło, możliwe jest, że zmierzone położenie gwiazdy może zależeć od jej wewnętrznego koloru. Zmiany pozycji będą zależeć od koloru gwiazdy, ale oczekuje się, że kierunek przesunięcia będzie stały w stosunku do osi FGS. To boczne przesunięcie koloru byłoby nieistotne, o ile gwiazdy docelowe i referencyjne mają podobny kolor. Jednak z pewnością nie dotyczy to wielu obiektów naukowych (np. bardzo czerwonych gwiazd, takich jak Proxima Centauri i gwiazda Barnarda). Wreszcie, aby zapewnić duży zakres dynamiki, przed pryzmatem Koestera można umieścić filtr o neutralnej gęstości. W rezultacie nastąpi niewielkie, ale dające się skalibrować przesunięcie pozycji (z powodu klina filtra) podczas porównywania pozycji jasnej gwiazdy ze słabym układem odniesienia. Przesunięcie jest stałe pod względem kierunku (w stosunku do FGS 3) i wielkości, ponieważ filtr nie obraca się w swoim uchwycie. Utrzymanie kalibracji śledzenia prążków Przewidywano, że grafitowo-epoksydowy stół optyczny FGS 3 będzie wydzielał gaz przez pewien czas po wystrzeleniu HST. Przewidywano, że odgazowanie zmieni względne położenie elementów optycznych na stole optycznym. Rezultatem wszelkich zachodzących zmian była zmiana skali. Wielkość zmiany skali była o wiele za duża, aby wynikała ze zmian rzeczywistego powiększenia w zespole optycznym HST. Dwa z parametrów opisujących optykę selektora gwiazd powodują zmianę przypominającą skalę, jeśli pozwoli się im zmieniać się w czasie. Rozwiązaniem było okresowe odwiedzanie pola kalibracyjnego M35 w celu monitorowania zmian przypominających skalę i innych wolno zmieniających się nieliniowości. Ponowne wizyty będą konieczne, jeśli pożądane będzie wykonanie astrometrii z dokładnością do 1 mas za pomocą dowolnego FGS. Wynik tej czynności ocenia ważność bieżących współczynników OFAD i ostrzega o konieczności ponownej kalibracji. Dzięki tym danym usuwamy powoli zmieniającą się składową OFAD, tak że nieskorygowane zniekształcenia pozostają poniżej 2 mas dla środka FGS 3. Charakter tych zmian jest generalnie monotoniczny z gwałtownymi skokami w połączeniu z misjami serwisowymi HST.

Astrometria: historia

Chociaż termin "astrometria" powstał dopiero w XIX wieku, mierzenie położenia i odległości kątowej gwiazd i planet stanowi jedno z najstarszych zajęć astronoma. Do czasów HIPPARCHUSA (fl 126 p.n.e.) w klasycznej Grecji ustalono już pomiary pozycji astronomicznych w stosunku do koła 360°, natomiast starożytni Babilończycy z roku 1750 p.n.e. pozostawili nieinstrumentalne obserwacje zachodniego i wschodniego wydłużenia Wenus względem Słońca, co można słusznie uznać za astrometryczne. Od czasów greckich po dzień dzisiejszy astronomowie zajmujący się astrometrią używali instrumentów wykorzystujących skalę 360°. Ze swej natury astrometria polega na ustalaniu i udoskonalaniu współrzędnych fizycznych na niebie, na podstawie których można określić ilościowo ruchy ciał. Hipparch, Klaudiusz PTOLEMUSZ i inni Grecy uznali, że ekliptyka stanowi naturalny i dość oczywisty podstawowy układ współrzędnych astronomicznych, ponieważ wysokości Słońca w środku lata i w środku zimy powodują przesilenia, równonoce i bieguny zodiaku. Co więcej, te współrzędne zodiaku można powiązać z innym zestawem współrzędnych, opartym na równiku ziemskim (lub równiku) i biegunach ziemskich; w czasach Ptolemeusza odległość między nimi wynosiła 23° 51′ 20 cali, a obecnie wynosi 23° 26′ 21". Geometryczne punkty na niebie, w których przecinają się płaszczyzny ekliptyki i równika, równonoce, tworzą współrzędne pochodzenia naturalnego, a przecięcie wiosenne w marcu zostało wykorzystane przez Ptolemeusza i innych klasycznych astronomów do wyznaczenia początku dnia gwiazdowego. Ponad dwa tysiące lat temu punkt ten znajdował się w konstelacji Barana, co dało początek określeniu "PIERWSZY PUNKT BARANA", który do dziś jest używany jako punkt zerowy długości geograficznej niebieskiej (lub rektascencji) na mapach astronomicznych. Jednak już w starożytności uznano, że ten pierwszy punkt nie jest ustalony (jak w rzeczywistości jest kilka punktów na niebie, jeśli ma się wystarczająco dużo czasu), ale powraca sam do siebie, czyli "precesuje". Ptolemeusz określił tę precesję jako 1° na każde stulecie, chociaż uzyskał tę wielkość poprzez zaokrąglenie liczb dla pierwszego punktu, które wyprowadził z obserwacji obejmujących około 400 lat do roku 150 ne. Używając znacznie lepszych instrumentów i wykorzystując je do ciągłego udoskonalania i udoskonalania -zdefiniuj swoją liczbę pomiędzy 1675 a 1715 rokiem, JOHN FLAMSTEED w Anglii otrzymywał 1° co 72 lata, czyli 50" rok-1 dla stałej precesji, co jest bardzo korzystne w porównaniu z przyjętym dzisiaj 50,290 966&Primne; rok-1. Ustalenie pierwszego punktu Barana i ilościowe określenie jego błędnego ruchu po niebie jest jednym z podstawowych osiągnięć astrometrii i nadal stanowi sedno pomiarów położenia gwiazd, wymagające konstruowania wykresów i tabel w sposób zapewniający określonej "epoce" cyklu precesyjnego, takiej jak rok 1900 lub 2000 n.e. Praktyczny pomiar dokładnego położenia tego wolno poruszającego się kawałka pustej przestrzeni na niebie umożliwił przez wieki była próbą pomysłowości, gdyż nieuchronnie nie jest zajmowana przez żadną konkretną gwiazdę. W II wieku naszej ery Ptolemeusz w swoim Almagestie opisał technikę wykorzystującą księżyc w nowiu jako pośrednika. W dniu lub w okolicach równonocy wiosennej, w latach, w których w czasie równonocy przypadał dogodny nów księżyca, Ptolemeusz mierzył odległość kątową zachodzącego Słońca od Księżyca. Gdy Słońce znalazło się poniżej horyzontu, zalecił zmierzenie położenia Księżyca na podstawie sąsiednich gwiazd, gdy staną się widoczne. Na podstawie tych pozycji gwiazd można było ustalić pozycję Słońca i określić w ten sposób (na podstawie zdobytej kilka miesięcy wcześniej wiedzy o gwiazdach w tym obszarze nieba), która jasna gwiazda znajduje się najbliżej pierwszego punktu Barana. Uznając, że ruch Księżyca sam w sobie może być źródłem błędów w mniej więcej godzinie, gdy Słońce chowa się pod horyzontem, TYCHO BRAHE w Danii od 1582 r. powtórzył technikę Ptolemeusza, wykorzystując jako pośrednika znacznie wolniej poruszającą się planetę Wenus, i obliczyli dla tej epoki, że pierwszy punkt Barana znajdował się w odległości 26° 0″ 30″ od gwiazdy α Arietis, co znajdowało się w odległości 15" od tej samej wartości obliczonej dla roku 1585 przez Dreyera w latach 90. XIX wieku. Sukces prac astrometrycznych Tycho, a większa dokładność, jaką osiągnął w porównaniu ze średniowiecznymi Arabami, takimi jak Ulugh Beigh i Al Sufi, oraz starożytnymi greckimi astronomami, którzy prowadzili obserwacje tysiąclecie wcześniej, zależała od ulepszeń techniki, obejmujących fundamentalne innowacje w konstrukcji instrumentów, wyrafinowane krzyżowe sprawdzanie procedur i rosnąca świadomość na temat refrakcji atmosferycznej. Ogromny postęp, jaki astrometria poczyniła w ciągu ostatnich czterech stuleci, wynika z rosnącej świadomości czynników uznawanych przez Tycho za ważne: innowacji w instrumentach, udoskonalonych technik i czujności na potencjalne źródła błędów. Jednak błyskawiczny rozwój astrometrii od 1580 roku nastąpił jedynie w odpowiedzi na intelektualne problemy astronomii i kosmologii, z których pierwszym była hipoteza Kopernika. W XVI wieku uznano, że jeśli Ziemia rzeczywiście porusza się w przestrzeni, to rozmiary kątowe figur konstelacji powinny wykazywać niewielkie wahania sezonowe, w miarę zbliżania się lub oddalania obserwatora naziemnego od pozycji z czerwca i grudnia. Sam Tycho próbował wykryć takie wahania sezonowe. Jednakże wraz z rozwojem koncepcji nieskończonego wszechświata w XVII wieku, tę kopernikańską paralaksę gwiazdową uznano za najbardziej prawdopodobną do wykrycia podczas sześciomiesięcznego przemieszczenia kątowego gwiazd pierwszej wielkości, takich jak Syriusz, przy założeniu że gdyby wszystkie gwiazdy miały podobną jasność wewnętrzną, to gwiazdy pierwszej wielkości były najbliżej Ziemi, a zatem powinny wykazywać największe paralaksy. Rozwój w XVII i XVIII wieku podziałek o większej skali na kwadrantach astronomicznych, celownikach teleskopowych, mikrometrach i noniuszach oraz podobnych technik instrumentalnych był silnie napędzany chęcią astronomów do wykrycia tej nieuchwytnej paralaksy gwiazdowej. W miarę jak pojemność astrometryczna epoki wzrosła z 1′ Tycho Brahe′a do 25″ Heweliusza, a następnie do 10" Flamsteeda, a paralaksy w dalszym ciągu nie stwierdzono, astronomowie w całej Europie zdali sobie sprawę z dwóch rzeczy: po pierwsze, trójwymiarowy wszechświat gwiezdny musi być niewiarygodnie jest ogromna, a po drugie, nadzieja na jej pomyślne zgłębienie musi wiązać się z ciągłym doskonaleniem konstrukcji precyzyjnych instrumentów, połączonym z równoległym rozwojem wyrafinowanych technik ich użycia. Co więcej, uznanie to było credo astrometru przez ostatnie cztery stulecia, od Uraniborga Tycho po satelitę kosmicznego Hipparcos Europejskiej Agencji Kosmicznej. Poszukiwania paralaksy gwiazdowej, choć zakończone sukcesem dopiero w 1838 r., stały się tak pilne i inspirujące dla astronomów, że po drodze zrodziły się z nich liczne inne odkrycia i kierunki badań. To właśnie CHRISTIAAN HUYGENS w latach pięćdziesiątych XVII wieku stwierdził, że skale stopniowane nie są dostatecznie wyrafinowane, aby wykryć paralaksę, co w istocie doprowadziło do początków fotometrii gwiazdowej. Próbując porównać jasność Syriusza ze światłem emitowanym z obszaru powierzchni Słońca wielkości otworka (zakładając, że Słońce, Syriusz i wszystkie gwiazdy mają tę samą wewnętrzną jasność), Huygens obliczył, że Syriusz był oddalony o 27 664 jednostek astronomicznych od układ Słoneczny. Technika Huygensa zachęciła Sir Johna Herschela do badań fotoastrometrycznych w 1836 roku, podczas których obliczył, że Vega jest 40 razy jaśniejsza od Słońca i Arcturusa 200, a zatem odpowiednio oddalona od Układu Słonecznego. Następnie, w następstwie pomyślnego zastosowania spektroskopii i fotografii w astrometrii w latach sześćdziesiątych XIX wieku, fotometria rozpoczęła niezależny rozwój jako podstawowe narzędzie astrofizyki. Poszukiwania paralaksy gwiazdowej miały także doprowadzić ROBERTA HOOKE (1669), Johna Flamsteeda (1698-1702), a zwłaszcza JAMESA BRADLEYA (1727-1728), do wynalezienia i rozwoju sektora zenitalnego (teleskop o długim ogniskowym zawieszony w punkcie dokładnie w zenicie) jako sposób na wykrycie paralaksy gwiazdowej, obecnie uznawanej za mającą nie więcej niż kilka sekund łuku, na pozbawionym refrakcji atmosferycznej niebie zenitu. Zarówno Hooke, jak i Flamsteed uzyskali podejrzanie duże paralaksy: Hooke określił paralaksy gwiazdy - Draconis na około 27 cali, a Flamsteed dla Polaris 40″, chociaż doskonałe instrumentarium i procedury obserwacyjne Bradleya doprowadziły do jego uznania w 1728 r., że Nowy znaleziony ruch gwiazd stałych, który sam w sobie był produktem obrotu Ziemi wokół Słońca, miał roczne przemieszczenie wynoszące 20,00-20,25′. To była aberracja. Jego wykrycie i oznaczenie ilościowe było triumfem wyrafinowanej astrometrii XVIII wieku i choć nadal nie ujawniło paralaksy, dostarczyło jednak fizycznego dowodu ruchu Ziemi w przestrzeni. Bradley twierdził, że jego sektor zenitowy był w stanie wykryć kąt 0,5 cala, a w 1748 roku wykorzystał niewielki ruch kiwający - Draconisa do wykrycia niewielkiej okresowej zmiany nachylenia osi obrotu Ziemi względem ekliptyki. Jednym z założeń koncepcji nieskończonego wszechświata był możliwy niezależny ruch samych gwiazd, zwłaszcza w następstwie teorii powszechnego ciążenia Sir ISAACA NEWTONA po 1687 r. Od niepamiętnych czasów zakładano, że gwiazdy są nieruchome w swoje miejsca, chociaż w 1718 roku EDMOND HALLEY opublikował artykuł, który wykazał, że gwiazdy pierwszej wielkości Aldebaran (Palilicium), Syriusz i Arcturus wykazywały niezależny lub "właściwy ruch" w stosunku do sąsiednich, słabszych gwiazd. Było to wynikiem pomysłowych badań historycznych, podczas których Halley wykrył systematyczne przemieszczanie się szerokości geograficznej tych gwiazd, jak odnotowali Hipparch, Ptolemeusz, Tycho i współcześni astronomowie. Rzeczywiście obliczył, że Syriusz zmienił swoje położenie wzdłużne o 2 stopy w ciągu 120 lat od Tycho. Sugerowało to nie tylko, że te gwiazdy mogą poruszać się w przestrzeni, ale że nasza pozycja obserwacyjna w Układzie Słonecznym również może się poruszać. William Herschel w 1783 roku jako pierwszy zastosował ruchy właściwe do wyznaczenia wierzchołka Słońca, punktu na niebie, w stronę którego zmierza Układ Słoneczny (patrz RODZINA HERSCHELA). O szybkim postępie w astrometrii i jej instrumentarium mówi coś fakt, że w latach 1838-1840 astronomowie stosujący trzy różne techniki obserwacji odkryli nie mniej niż trzy paralaksy gwiazdowe. Co więcej, żadna z tych paralaks nie zostałaby zmierzona, gdyby nie odkrycie i coraz dokładniejsze określenie ilościowe ruchów własnych gwiazd, ponieważ były to duże ruchy własne wykazywane przez 61 Cygni (5,2 roku-1) i α Centauri (3″ .7), co sugerowało ich względną bliskość Układu Słonecznego, a tym samym przydatność do pomiaru paralaksy. Chociaż Vega (α Lyrae) wykazuje znacznie mniejszy (ale wyraźny) ruch własny, została również uznana za odpowiedniego kandydata do pomiaru paralaksy. Gwiazdy te zmierzyli odpowiednio FRIEDRICH WILHELM BESSEL w Königsburgu za pomocą heliometru, THOMAS HENDERSON na Przylądku Dobrej Nadziei za pomocą koła ściennego i Friedrich Georg WILHELM STRUVE w Dorpacie za pomocą mikrometru filarowego na 24-centymetrowym refraktorze Fraunhofera . Chociaż ich dane zostały nieco zmienione przez późniejszych obserwatorów na podstawie większych serii obserwacji, ich paralaksy pozostają zasadniczo prawidłowe: 61 Cygni, 0,3483; α Centauri, 0,913; Vega, 0,261. Pod wieloma względami te paralaksy stanowiły punkt krytyczny w astrometrii, dzięki czemu na długotrwałe pytanie astronomiczne udało się odpowiedzieć poprzez połączone zastosowanie wyższej teorii matematycznej i wyjątkowo dokładnych obserwacji dokonanych za pomocą nowego rodzaju teleskopów Na początku i w połowie XIX w. nastała era astrometrii manualnej (w której astronom pracował oczami, rękami i uszami, bez pomocy elektromagnetycznych i fotograficznych).Astronomia ta miała na celu nie tylko ostateczne ustalenie szeregu stałych astronomicznych, lecz na dostarczaniu stale aktualizowanego i udoskonalanego zbioru danych, na podstawie których można kontynuować oryginalne badania mechaniki niebieskiej. Co więcej, zaczęły one zależeć od zintegrowanego wykorzystania anglo-niemieckich technik w oprzyrządowaniu i francuskiej matematyki Badania gwiazd podwójnych i potrójnych, których pionierem był w dużej mierze William Herschel w 1802 r., wykazały, że grawitacja Newtona, której działanie dotychczas wykazano jedynie w Układzie Słonecznym, była w oczywisty sposób uniwersalna. Bessel, Struve, Sir James South i inni w całej północnej Europie próbowali określić ilościowo elementy orbit układu podwójnego, aby wyodrębnić elementy grawitacyjne z ξ Ursae Majoris i innych układów gwiezdnych, a to Felix Savary, Johann Encke i Johna Herschela w latach 1830-1832, któremu się to udało. Prace nad gwiazdami podwójnymi wymagały najwyższej dokładności instrumentalnej, ponieważ refraktory montowane równikowo, z achromatyczną optyką Josefa Fraunhofera, Roberta Aglaé Cauchoix i innych, wykorzystujące funkcje mikrometru lub heliometru z największą delikatnością, udostępniły do 1830 roku wiarygodne dane astrometryczne, które byłyby niewyobrażalne w 1780 r. Do 1833 r. John Herschel opublikował osiowe składowe orbit sześciu gwiazd podwójnych z dokładnością do czterech miejsc po przecinku jednej sekundy łukowej i chociaż wiele setnych i tysięcznych sekundy łukowej zostało później zmodyfikowanych, ich dziesiąte, zgodnie z pierwotnym pomiarem, rzadko potrzebna korekta. Dopracowane badania astrometryczne przeprowadzone w połowie XIX wieku ujawniły obecność wielu systematycznych nieregularności gwiazdowych, z których wyłonił się bogaty zbiór odkryć fizycznych. Do roku 1840 wszystkie wielkie obserwatoria w Europie - w Königsburgu, Dorpacie, Berlinie, Bonn, Greenwich i innych - zajmowały się przede wszystkim pracami astrometrycznymi, które w tamtym czasie stanowiły najwyższy szczyt osiągnięć astronomicznych. Z jednej strony ich energię poświęcono pracom w oparciu o refraktor równikowy w astronomii gwiazd podwójnych, chociaż okrąg ścienny i tranzytowy ułatwiły również rutynowe pomiary pozycji południków z dokładnością do ułamka jednej sekundy łukowej. Ponieważ w ślad za przykładami Bessela, Struve′a, Enckego, Friedricha Wilhelma Augustusa Argelandera i George′a Biddella Airy′ego stawało się wymogiem, aby obserwatorium publikowało swoje prace tak szybko, jak to możliwe, szybko zgromadzono ogromny zbiór znakomitych danych astrometrycznych. staje się dostępny w Europie i Ameryce. To właśnie na podstawie opublikowanego astrometrycznego archiwum danych południkowych zarówno John Couch Adams, jak i Jean Joseph Urbain Le Verrier dokonali spektakularnych niezależnych odkryć Neptuna w 1846 roku. Również na podstawie stosunkowo długich serii wysokiej jakości danych astrometrycznych Bessel był w stanie określić ilościowo okresowe wahanie pozycji Syriusza, na podstawie którego był w stanie obliczyć obecność Syriusza B w 1844 r. Co więcej, po obu tych odkryciach, wyciągniętych z istniejących danych astrometrycznych, nastąpiło teleskopowe potwierdzenie, kiedy Johann Galle i Heinrich d′Arrest zaobserwował Neptuna z Berlina 23 września 1846 r. i kiedy Alvan Clark zobaczył Syriusza B z nową 18-stką w szkle przedmiotowym w Bostonie w 1862 r. Wynalazek fotografii w 1839 r. otworzył ogromny potencjał astrometrii. Oprócz możliwości zapewnienia znacznie większej dokładności, uwolnił astronoma od okularu teleskopu, umożliwiając wygodniejszy i spokojniejszy pomiar pozycji astrometrycznych z klisz fotograficznych. Jednak dopiero po 1881 roku, wraz z utworzeniem Carte du Ciel, astrometria fotograficzna naprawdę pokazała, co może zdziałać. Jednak w miarę jak astrofizyka zdominowała astronomię w XX wieku, podstawowa rola astrometrii w nauce spadła, ale rozwój interferometrii radiowej w latach pięćdziesiątych XX wieku wprowadził nową i ważną formę astrometrii, ponieważ anteny radiowe znajdowały się w odległości wielu kilometrów lub nawet do dokładnego położenia źródeł radiowych na niebie z dokładnością do kilku sekund łuku. Jednakże rozwój projektu HIPPARCOS Europejskiej Agencji Kosmicznej w 1989 r. ponownie przywrócił astrometrii optycznej centralną rolę. Satelita kosmiczny Hipparcos umożliwił wykonywanie doskonałych pomiarów astrometrycznych do 0,002 cala w praktycznie przemysłowy sposób, bez żadnych problemów atmosferycznych występujących w obserwatoriach naziemnych. Chociaż astrofizyka w dalszym ciągu w dużej mierze stanowi siłę napędową współczesnych badań astronomicznych, jej krytycznie dokładna dane astrometryczne, jakie umożliwił Hipparcos, są niezbędne, zwłaszcza do zrozumienia procesów fizycznych zachodzących w naszym własnym układzie gwiezdnym.Astrometria satelitarna jest w istocie wyraźnie postrzegana jako rozwiązanie przyszłości, jeśli chodzi o najbardziej krytyczne dokładności. Nadchodząca satelita NASA, FAME (Full Sky Astrometric Mapping Explorer), która ma zostać wystrzelona około 2004 roku, będzie mapować niewiarygodne 40 milionów pozycji gwiazd ze zwiększoną dokładnością od dwóch do dziesięciu (w zależności od wielkości) w porównaniu z poprzednimi satelitami, w ciągu przewidywanego 5-letniego okresu funkcjonowania ESA GAIA (Europejska Agencja Kosmiczna Global Astrometric Interferometer for Astrophysics) ponadto będzie miał także 5-letni okres działania, podczas którego oczekuje się, że zmapuje 500 razy więcej obiektów niż Hipparcos, 100 razy dokładniej. Można ponadto argumentować, że astrometria w jej działach fotograficznych, fotoelektrycznych, radiowych i satelitarnych nadal znajduje się w centrum badań astronomicznych, ponieważ sama astrofizyka opiera się na precyzyjnych pomiarach i interpretacji różnych form energii z kosmosu. To właśnie użycie instrumentów do pomiaru i ilościowego określenia energii docierającej do Ziemi z kosmosu czyni astronomię zdecydowanie najstarszą z nauk ścisłych.

Astrometria: teleskopy i techniki

Celem astrometrii jest określenie pozycji i ruchu ciał niebieskich, takich jak gwiazdy i planety, a także sztucznych satelitów. Astrometria jest najstarszą gałęzią astronomii i aż do XIX wieku cała profesjonalna astronomia była astrometrią. Jednym z głównych celów astrometrii jest pomiar odległości kątowych gwiazd i innych ciał niebieskich względem gwiazd odniesienia, które mają znane pozycje. Można to osiągnąć wykonując zdjęcia przez teleskop podobny do aparatu fotograficznego, czy to na emulsji fotograficznej , czy przy użyciu detektorów elektronicznych, takich jak URZĄDZENIE SPRZĘŻONE Z ŁADUNKIEM (CCD), stosowane obecnie w większości aparatów. Pozycje gwiazd referencyjnych ustalane są metodami astrometrii absolutnej. Katalog takich stanowisk i ruchów określa układ odniesienia. Większość pomiarów astrometrycznych przeprowadza się w dwóch wymiarach, na sferze niebieskiej, podobnych do szerokości i długości geograficznej. Trzeci wymiar, czyli odległość ciał niebieskich w przestrzeni, jest znacznie trudniejszy do zmierzenia i stanowi jedno z największych wyzwań astronomicznych. Tylko odległości w naszym Układzie Słonecznym można zmierzyć z dużą precyzją za pomocą technik radarowych i laserowych. Bardzo precyzyjne pomiary kątowe rzędu 1 milisekundy łukowej (mas) można dziś osiągnąć za pomocą naziemnych teleskopów optycznych, satelitów astrometrycznych i radioteleskopów. Kąt 1 mas jest tysięczną częścią sekundy łukowej, która z kolei jest 3600 częścią stopnia. Księżyc na niebie ma średnicę około pół stopnia lub 1800 sekund łukowych. Parę świec oddalonych od siebie o 10 cm dzieli 1 m, patrząc z odległości 20 000 km. Po niebie poruszają się nie tylko Słońce, Księżyc i planety. Jeśli przyjrzysz się wystarczająco uważnie, gwiazdy "stałe" również się poruszają, powoli krążąc wokół centrum naszej Galaktyki, Drogi Mlecznej. Nawet galaktyki poruszają się w gromadach galaktyk. Zatem dokładne pozycje astrometryczne zależą od czasu. Bez znajomości ruchów nie można dobrze przewidzieć pozycji na przyszłość. Po stuleciach powolnych ulepszeń, w ciągu ostatnich dwóch dekad osiągnięto dramatyczny wzrost precyzji. W 1980 r. najnowocześniejszym stanem była pozycja absolutna wynosząca 100 mas, od 1995 r. było to około 1 mas, a obecnie projektowane misje kosmiczne obiecują 0,05-0,005 mas. Ten niesamowity postęp wynika z technologii, wykorzystania nowych technik i sprzętu.

Astrografy i koncepcja płaszczyzny stycznej

Jedną z podstawowych technik astrometrycznych jest wykorzystanie a kamera (astrograf) do mapowania fragmentu sfery niebieskiej na powierzchni obrazu. Aparatem tutaj może być także teleobiektyw, dedykowany teleskop soczewkowy (refraktor) lub teleskop lustrzany (reflektor). W idealnym przypadku powierzchnia obrazu jest płaszczyzną prostopadłą do osi optycznej kamery i styczną do kuli. Kamera (rysunek 1) jest skierowana na pozycję A na niebie, a gwiazda w S jest nanoszona na S′ w płaszczyźnie stycznej. Ogniskowa f określa skalę tego odwzorowania:

scale(arcsec mm-1) = 206 265/[f(mm)]

Podstawową ideą jest pomiar prostokątnych współrzędnych x, y w płaszczyźnie stycznej, następnie wykorzystanie znanej pozycji niektórych gwiazd odniesienia w polu w celu określenia parametrów mapowania i na koniec obliczenie współrzędnych sferycznych pozostałych mierzonych gwiazd pola. Szczegóły techniczne wyjaśniono poniżej.

Szerokie pole

Teleskop o wysokiej jakości, szerokim, kilkustopniowym POLU WIDZENIA wymaga złożonej konstrukcji optycznej, której nie da się uzyskać za pomocą refraktora dwusoczewkowego ani teleskopu z dwoma zwierciadłami. Astrografy wieloobiektywowe to klasyczne teleskopy w tej kategorii, podobne do teleobiektywów. W przypadku większych apertur (około 0,7 m i więcej) często stosuje się układy katadioptyczne, czyli teleskopy zwierciadlane z dodatkowymi soczewkami. Przykładami są TELESKOP SCHMIDT i duże reflektory z "korektorami pola". Te teleskopy szerokokątne są wykorzystywane w astrometrii głównie do zagęszczania istniejących układów odniesienia. Pozycje wielu słabszych gwiazd są określane w odniesieniu do kilku jasnych gwiazd odniesienia o znanych pozycjach. Duże pole widzenia pozwala na jednoczesną obserwację odpowiednio dużej liczby gwiazd odniesienia w danym polu. Najważniejszymi przykładami astrografów są astrografy z Katalogu Astrograficznego (AC), zbudowane około 1900 roku o ogniskowej 3,7 m, instrumenty z serii 2 i 3 Astronomische Gesellschaft Katalog (AGK) o ogniskowej 2 m, pięciosoczewkowa konstrukcja z 1975 r. Astrograf hamburski, bliźniaczy astrograf US NAVAL OBSERVATORY (USNO) z czerwoną soczewką zaprojektowaną w 1990 roku oraz astrografy Lick i Yale o aperturze 0,5 m. Astrografy Lick i Yale wykorzystują odległe galaktyki jako stałe punkty odniesienia i zestaw ekspozycji wykonanych w odstępie około 20-30 lat (różnica epok) w celu określenia bezwzględnych WŁAŚCIWYCH RUCHÓW gwiazd odpowiednio w programach ruchu własnego Północy i Południa (NPM, SPM). NPM jest już ukończony, natomiast trwają obserwacje drugiej epoki SPM w Argentynie. Projekt USNO CCD Astrograph Catalog (UCAC) rozpoczął się w 1998 roku w CERRO TOLOLO INTERAMERICAN OBSERVATORY i ostatecznie obejmie całe niebo do jasności około 16mag. Pozycje gwiazd w zakresie 10-14 mag są podawane z dokładnością do około 20 mas. Właściwe wnioski zostaną uzyskane poprzez wykorzystanie nowych miar danych NPM i SPM z wczesnej epoki.

Wąskie pole

Refraktory o długiej ogniskowej (≈ 10-15 m) i duże reflektory zapewniają pole widzenia od kilku minut kątowych do 1° przy dużym powiększeniu, co pozwala na rozpoznanie niewielkich przemieszczeń obrazów gwiazd. Teleskopy te są używane głównie w astrometrii do wyznaczania paralaks trygonometrycznych, co jest najbardziej bezpośrednią, podstawową techniką określania odległości poza Układem Słonecznym. Niewielkie przesunięcia położenia stosunkowo bliskiej gwiazdy docelowej są mierzone w stosunku do odległych gwiazd, które są wybierane na podstawie właściwości widmowych i fotometrycznych. Tutaj również zastosowano koncepcję płaszczyzny stycznej; jednakże nie są potrzebne żadne dokładne (absolutne) położenia gwiazd referencyjnych. Obserwacje danego pola prowadzone są przez kilka lat, a następnie mapowane na siebie, przy założeniu średniej wartości stałych gwiazd tła. Rysunek 2 wyjaśnia zasadę trygonometrycznych obserwacji paralaksy. Podczas gdy Ziemia okrąża Słońce, pozycja pobliskiej gwiazdy zmienia się nieznacznie (kolejność 0,5 sekundy łukowej lub mniej). Największe przesunięcia obserwuje się dla pozycji 1 i 2, w odstępie około pół roku. Na ognisku na płaszczyźnie pozycje pobliskiej gwiazdy docelowej i niektórych odległych gwiazd tła są wykreślane na przestrzeni roku (pomijając ruchy właściwe). Głównym problemem jest oszacowanie odległości (paralaks) gwiazd tła. W idealnym przypadku powinny być nieskończenie daleko, czyli w stałym położeniu, czyli w środku elips. W takim przypadku zaobserwowana zmiana położenia docelowej gwiazdy względem gwiazd tła bezpośrednio dałaby jej prawdziwą, absolutną paralaksę . W rzeczywistości pomiar ujawnia względną paralaksę w odniesieniu do średniej paralaksy gwiazd tła. Przykładami są refraktory YERKES OBSERVATORY i ALLEGHENY OBSERVATORY, a także reflektor 1,55 m Strand Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, najbardziej precyzyjny i produktywny instrument w tej kategorii. Wyniki wszystkich znaczących paralaks trygonometrycznych i związanych z nimi obserwacji ruchu własnego są zestawiane w katalogach wydawanych przez Uniwersytet Yale. Aby uzyskać bardzo precyzyjne położenie słabych obiektów, takich jak zwarte, pozagalaktyczne źródła radiowej ramki odniesienia, przyjęto procedurę wieloetapową. Teleskop szerokokątny służy do wyznaczania pozycji drugorzędnych gwiazd odniesienia w układzie głównych gwiazd odniesienia. Instrumenty o długim ogniskowaniu podążają w stronę słabszych, granicznych wielkości magnitudo i zagęszczają sieć gwiazd odniesienia

Detektory

Obecnie w optycznych programach astrometrycznych ważne są trzy typy detektorów: CCD, fotometr z modulacją siatki i emulsje fotograficzne. Detektor CCD w teleskopie jest najważniejszym detektorem szeroko stosowanym w akwizycji danych astronomicznych. Wysoka wydajność kwantowa i stabilność geometryczna sprawiają, że jest to bardzo odpowiednie urządzenie do astrometrii. Jedynym poważnym problemem matrycy CCD jest jej stosunkowo mały rozmiar w porównaniu z kliszą fotograficzną. Typowy CCD ma dziś 30-50 mm z boku, podczas gdy typowa płyta fotograficzna może mieć powierzchnię 100 razy większą. Mozaika matryc CCD może pokrywać duży obszar w płaszczyźnie ogniskowej; jednakże pomiędzy chipami pozostają przerwy i, co ważniejsze dla precyzyjnej astrometrii, potrzebne są dodatkowe parametry w modelu mapowania dla każdego pojedynczego chipa CCD. Może to stanowić poważny problem, gdy gęstość gwiazd odniesienia jest niska. Technikę modulacji siatki zastosowano w wielokanałowym fotometrze astrometrycznym (MAP) w Obserwatorium Allegheny. Mierzy względne położenie gwiazd w płaszczyźnie ogniskowej za pomocą ruchomej linijki ronchi. Instrument ten jest bardzo precyzyjny (dokładność 3 mas na noc na jasnym celu); jednakże w danym momencie można mierzyć tylko jedno źródło docelowe w odniesieniu do kilku gwiazd odniesienia. Zasada modulacji siatki jest również stosowana w misji kosmicznej HIPPARCOS i została wyjaśniona na rysunku 3. Pomiary fotometryczne z dużą rozdzielczością czasową przeprowadzane są za siatką w płaszczyźnie ogniskowej. Gwiazdy (lub siatka) poruszają się, a różnica faz między sygnałami z dwóch gwiazd określa ich dokładne względne położenie w ułamkach stałej siatki. Wymagana jest wiedza a priori dotycząca całkowitej liczby kroków siatki, w których gwiazdy są od siebie oddzielone. Emulsje fotograficzne na kliszy lub płytkach szklanych wymagają maszyny pomiarowej w celu wyodrębnienia informacji x, y o pozycjach obrazu gwiazd. Emulsje fotograficzne nie są już używane w żadnym większym programie astrometrycznym. Dane przechowywane w archiwach płytowych są jednak nadal cenne, a ich ekstrakcja nie została jeszcze zakończona.

Maszyny pomiarowe

W przeszłości ludzie obsługiwali ręcznie jedno- i dwuosiowe maszyny do pomiaru płytek, centrując obrazy gwiazd na krzyżykach mikroskopu i kółkach odczytujących. Techniki dysektora obrazu mogą automatycznie wyśrodkować obraz gwiazdy, wykorzystując właściwość symetrii profilu obrazu. Pełna digitalizacja (skanowanie) klisz fotograficznych wykonywana jest na nowoczesnych maszynach. W tym przypadku pomiar fotometryczny (przezroczystość lub gęstość) jest rejestrowany jako funkcja położenia x, y detektora skanującego. Można to osiągnąć za pomocą mikrodensytometru, matrycy CCD lub urządzenia skanującego liniowo. We wszystkich przypadkach dokładny pomiar położenia detektora względem płytki wzdłuż dwóch osi ma kluczowe znaczenie, a większość maszyn korzysta z metrologii laserowej lub precyzyjnych enkoderów zapewniających powtarzalność około 0,1 μm. Dokładność ograniczają błędy systematyczne procesu pomiarowego oraz stabilność geometryczna nośnika fotograficznego, która w zależności od rodzaju emulsji jest rzędu 0,4-1,0 μm. Przykładami są maszyny mikrodensytometryczne PDS, które były dostępne na rynku, maszyna GALAXY z byłego ROYAL OBSERVATORY, GREENWICH, APM w Cambridge w Wielkiej Brytanii, APS w Minneapolis, MAMA w OBSERVATOIRE DE PARIS, PMM z Obserwatorium Marynarki Wojennej USA, HAM1 w Hamburger Sternwarte i SuperCosmos w KRÓLEWSKIM OBSERWATORIUM W EDYNBURGU.

Koło tranzytowe i astrometria absolutna

Koło tranzytowe (TC) to teleskop zamontowany na stałej osi wschód-zachód, dzięki czemu może poruszać się tylko wzdłuż lokalnego południka. Południk to wielkie koło przechodzące przez bieguny niebieskie i zenit, prostopadłe do horyzontu. TC dokonuje dwóch niezależnych obserwacji: czasu, w którym obiekt docelowy przecina południk (tranzyt) i kąta, odległości od zenitu, którą odczytuje się z okręgów przymocowanych do osi wschód-zachód teleskopu. Kierunek zenitu wyznacza się w praktyce, patrząc w przeciwnym kierunku (nadir) w dół, na powierzchnię zwierciadła rtęciowego, która reprezentuje lokalną płaszczyznę horyzontu ze względu na grawitację Ziemi. W celu sprawdzenia stabilności azymutu instrumentalnego obserwuje się skolimowane znaki odniesienia położone w pewnej odległości w kierunku północnym i południowym. W ubiegłych stuleciach obserwacje tranzytów prowadzono metodą "oko i ucho", obserwując gwiazdę przechodzącą przez drut mikrometryczny przez okular teleskopu i słuchając sygnałów czasu w celu oszacowania ułamka sekundy. Nowoczesne instrumenty wykorzystują detektory fotoelektryczne i podążają za gwiazdą przez pewien czas w płaszczyźnie ogniskowej, aby uzyskać wiele pomiarów dla pojedynczego tranzytu. Najlepszy współtwórca może przeprowadzać względne obserwacje; jednakże jest również w stanie wykonać astrometrię absolutną (fundamentalną), co oznacza, że może określić położenie ciał niebieskich bez apriorycznej wiedzy o pozycjach innych gwiazd. W ten sposób teleskopy TC przez stulecia zapewniały główne katalogi gwiazd odniesienia (katalogi podstawowe). Do najważniejszych należą serie FK3, FK4 i FK5 z tego stulecia, opublikowane przez Astronomisches Recheninstitut w Heidelbergu w Niemczech. Ostatnio podstawowa praca z teleskopami TC została zastąpiona dokładniejszymi technikami, takimi jak misja kosmiczna Hipparcos i obserwacje radiowe VLBI. Na obserwacje Najlepszych Współtwórców wpływa wiele czynników. Niedoskonałości instrumentalne, takie jak wygięcie tubusu teleskopu, można określić poprzez odpowiednie modelowanie serii obserwacji. Krytyczna jest stabilność instrumentu, umożliwiająca powtarzalne podążanie za tym samym wzorcem w danym przedziale czasu. Ruch biegunowy, wędrówka osi Ziemi względem powierzchni Ziemi i inne zmiany lokalnego układu współrzędnych wchodzą w zakres obserwacji TC i wymagają rozwiązania. Co więcej, oś obrotu Ziemi nie jest ustalona w przestrzeni inercyjnej. Układ współrzędnych związany z równikiem Ziemi porusza się względem gwiazd (precesja i nutacja). Skończona prędkość światła powoduje aberrację astronomiczną, czyli przesunięcie kątowe obserwowanej trajektorii w stosunku do rzeczywistej pozycji. Wszystkie te efekty wchodzą w pełnym zakresie do obserwacji absolutnych TC, podczas gdy obserwacje różnicowe (względne) mają do czynienia jedynie ze zmianami tych efektów w polu widzenia. Szczególną troską w przypadku obserwacji TC jest załamanie światła w atmosferze ziemskiej. Obserwacje zarówno dolnego, jak i górnego tranzytu gwiazd w pobliżu bieguna pomagają w określeniu modelu refrakcji. Niemniej jednak załamanie zmienia się w zależności od warunków atmosferycznych, takich jak temperatura. Turbulencje atmosfery ostatecznie ograniczają bezwzględne obserwacje TC poprzez niemodelowane systematyczne wkłady i przypadkowy szum. Przykładami instrumentów TC są CARLSBERG MERIDIAN TELESCOPE i południk w OBSERVATOIRE DES SCIENCES DE L′UNIVERS DE BORDEAUX oraz i 7 w teleskopach Obserwatorium Marynarki Wojennej Stanów Zjednoczonych.

Technika skanowania TDI

Najnowszą innowacją w astrometrii jest zastosowanie przetworników CCD w płaszczyźnie ogniskowej teleskopów typu TC. Przetwornik CCD może pracować w trybie integracji z opóźnieniem czasowym (TDI), w którym transfer ładunku do odczytu CCD jest zsynchronizowany z ruchem gwiazdy w chipie. Działa to jednak dobrze tylko w przypadku gwiazd poruszających się po wielkim okręgu (równiku) i przy małej szerokości skanowanego paska. We wszystkich pozostałych przypadkach gwiazdy w różnych lokalizacjach na matrycy CCD poruszają się po znacznie nieliniowych ścieżkach, co powoduje rozmazanie obrazu. Pionierskim instrumentem tego typu jest Astrometryczny Skaningowy Teleskop Tranzytowy Flagstaff (FASTT). Carlsberg Meridian Telescope (CMC, La Palma i Cambridge, Wielka Brytania) oraz Bordeaux TC wykorzystały technikę skanowania TDI do katalogów strefowych. Część obrazowania projektu SLOAN DIGITAL SKY SURVEY (SDSS) również wykorzystuje tę samą technikę. Jednakże teleskop SDSS może podążać za dowolnymi wielkimi kręgami na niebie, aktywnie sterując teleskopem i jednocześnie obracając płaszczyznę detektora.

Astrolabium

ASTROLABIUM jest przykładem instrumentu równej wysokości, mierzącego czas przejścia gwiazdy przez mały okrąg o stałej wysokości lub odległości od zenitu (często 30° lub 45°). Osiąga się to poprzez konfigurację lustra-pryzmatu przed zamontowanym poziomo teleskop. Bezpośrednie i odbite obrazy docelowej gwiazdy są odwzorowywane na płaszczyźnie ogniskowej. Pozorne ruchy obu obrazów są w przeciwnych kierunkach i krzyżują się, gdy gwiazda osiągnie ustaloną odległość od zenitu, dla której instrument został zaprojektowany. Pozycje gwiazd można wywnioskować z obserwacji przejść w kierunku wschodnim i zachodnim. Astrolabium ma dwie główne zalety w porównaniu z TC. Wszystkie gwiazdy są obserwowane w stałej odległości od zenitu, co upraszcza korekcję refrakcji, a konfiguracja instrumentalna jest bardziej stabilna i pozwala uniknąć problemów z zginaniem. Główną wadą astrolabium jest jego ograniczone pokrycie nieba w deklinacji δ φ - z < δ < φ + z, gdzie φ to szerokość geograficzna, a z to stała odległość zenitu instrumentu. Podobnie jak w przypadku TC, zdolność astrolabium do tworzenia podstawowego katalogu i monitorowania rotacji Ziemi ma obecnie wyłącznie znaczenie historyczne ze względu na wyjątkową dokładność VLBI i technik astrometrii kosmicznej. Fotograficzny teleskop zenitowy (PZT) PZT jest teleskopem montowanym pionowo, z soczewką na obrotowym stoliku u góry i lustrem u dołu. Za pomocą PZT obserwuje się względne położenie lokalnego zenitu względem gwiazd. Przez dziesięciolecia PZT był używany do określania orientacji Ziemi. Ponieważ techniki VLBI są obecnie znacznie dokładniejsze, PZT są przestarzałe.

Interferometria

Interferometria jest najdokładniejszą znaną obecnie techniką astrometryczną, wykorzystującą falową naturę spójnego światła (lub ogólnie promieniowania elektromagnetycznego) do pomiarów kątowych. Powszechnie stosowany jest interferometr Michelsona. Jego podstawową zasadę przedstawiono na rysunku 5. Dwa stałe teleskopy (sidereostaty) A i B obserwują tę samą gwiazdę. Wiązka z co najmniej jednego z teleskopów musi przejść przez linię opóźniającą o zmiennej długości, aby jednocześnie (spójnie) obserwować ten sam czoło fali przychodzącej i w ten sposób uzyskać wzór interferencyjny (prążki) na sumatorze wiązek. W zależności od położenia gwiazdy względem linii bazowej (kąt ?), opóźnienie (d) jest różne i należy je odpowiednio dostosować. Podstawowym pomiarem interferometrycznym jest długość opóźnienia w funkcji czasu, przy jednoczesnym zachowaniu maksymalnego kontrastu prążków (widoczności)

cos γ = d/b Przy znanej linii bazowej b daje to miarę γ. Wielokrotne obserwacje kilku gwiazd w ciągu nocy pozwalają nam określić położenie gwiazd i parametry orientacji Ziemi. Aby sterować linią opóźnienia i uzyskać prążki, wymagana jest aprioryczna informacja o przybliżonych pozycjach gwiazd. Następnie interferometr określa d w ułamku długości fali, podczas gdy długość linii bazowej jest monitorowana za pomocą dodatkowej metrologii. Dzięki tej technice można uzyskać globalną dokładność rzędu kilku mas, a pomiary względne (gwiazdy podwójne, ciemnienie kończyn gwiazd) są co najmniej 10 razy dokładniejsze. Podobnie jak w przypadku kręgów tranzytowych, właściwości atmosfery obecnie ograniczają dokładność. Mark I (MOUNT WILSON OBSERVATORY) był pierwszym interferometrem gwiazdowym zgodnym fazowo, a następnie Mark II i Mark III (około 1990 r.). Przykładami operacyjnych interferometrów optycznych są COAST (Cambridge, Wielka Brytania), SUSI (Australia), GI2T (Francja), PTI (PALOMAR OBSERVATORY) i prototypowy interferometr optyczny Marynarki Wojennej (NPOI). Tylko COAST i NPOI mają trzy lub więcej sidereostatów i regularnie mogą wykonywać obrazowanie. Instrument CHARA rozpoczął pracę na Mt Wilson. Projekt SPACE INTERFEROMETRY MISSION (SIM) (zatwierdzony przez NASA do wystrzelenia w 2009 r.) opiera się na tej samej technice. Podobne techniki stosuje się na częstotliwościach radiowych. Sygnały IA i IB z dwóch radioteleskopów są podawane do korelatora. Produkt korelatora, C,



osiąga maksimum, gdy τ = d/c, gdzie c jest prędkością światła, a d opóźnieniem. Interferometria bardzo długiej linii bazowej (VLBI) jest najdokładniejszą techniką radioastrometryczną. Tutaj poszczególne teleskopy są zwykle daleko od siebie na różnych kontynentach i nie są już bezpośrednio połączone. Zamiast tego sygnał na każdej stacji jest modulowany za pomocą bardzo precyzyjnego wzorca częstotliwości (zegar atomowy, maser), digitalizowany i zapisywany na specjalnych taśmach. Taśmy ze wszystkich stacji są później przetwarzane w centrum korelatora, a opóźnienia i współczynniki opóźnień są wyodrębniane jako podstawowe informacje. Zdolność rozdzielcza R interferometru nie jest już równa zdolności rozdzielczej jego poszczególnych apertur; zamiast tego kryterium Rayleigha

R(rad) = 1.22Λ/b

dotyczy separacji dwóch połączonych teleskopów o długości bazowej b. Jest to szczególnie ważne w przypadku fal radiowych λ, które są bardzo długie (od milimetra do metra) w porównaniu z długościami fal optycznych. Interferometry optyczne, a także VLBI mają możliwość astrometrii absolutnej. VLBI ma obecnie najwyższą dokładność ze wszystkich technik astrometrycznych szerokiego pola. Parametry orientacji Ziemi są rutynowo uzyskiwane na poziomie submasowym, a Międzynarodowy Niebiański System Odniesienia (ICRS) jest definiowany na podstawie pozycji 212 pozagalaktycznych, kompaktowych źródeł radiowych obserwowanych za pomocą VLBI.

Interferometria plamkowa

Interferometria plamkowa to technika pozwalająca przezwyciężyć ograniczenia widzenia naziemnych teleskopów optycznych-IR w zastosowaniach o bardzo małym polu, takich jak obserwacje gwiazd podwójnych. Jeśli apertura teleskopu jest duża w porównaniu z parametrem Frieda (r0 ? 0,15 m, patrz OPTYKA ADAPTACYJNA), podczas fotografowania gwiazdy przy dużym powiększeniu na dysku widzenia widać dużą liczbę pojedynczych plamek. Wykonywanie pojedynczych zdjęć z krótkimi czasami integracji (≈1/30 s) pozwala na rozróżnienie plamek. Rozmiar plamek zależy od apertury teleskopu. Autokorelacja A,

A(u) = ∫l(x+u)l(x)dx

nad obszarem zdjęcia ukazuje kąt separacji i orientacji (z niejednoznacznością 180°) gwiazdy podwójnej z rozdzielczością zbliżoną do teoretycznej zdolności rozdzielczej teleskopu bez wpływu atmosfery. Bardziej złożoną strukturę obiektu można analizować za pomocą technik transformacji Fouriera. Interferometria plamkowa działa tylko w obrębie plamki izoplanatycznej i dlatego jest ograniczona do pola widzenia około 5 sekund łukowych.

Astrometria kosmiczna

Kosmiczny Teleskop Hubble′a (HST) wyposażony jest w dwa instrumenty do obserwacji astrometrycznych: precyzyjne czujniki naprowadzania (FGS) oraz kamerę szerokokątną i planetarną (WFPC). FGS umożliwia dwuwymiarowe określanie względnego położenia obiektów w pierścieniowym polu widzenia o wymiarach ?13′ na 4′, obserwując jeden cel na raz. Druga kamera szerokokątna i planetarna (WFPC2) firmy HST wykorzystuje cztery detektory CCD do bezpośredniego obrazowania w pasmach od UV do IR. Informacje astrometryczne można uzyskać, stosując koncepcję płaszczyzny stycznej opisaną w pierwszej części. Zniekształcenia kąta pola optycznego określono za pomocą gęstych pól kalibracyjnych (klaster kulisty), redukując liczbę parametrów wymaganych w modelu mapowania dla zastosowań użytkownika. Pole widzenia wynosi tylko około 75 cali w przypadku trzech chipów CCD Wide Field i około 34 cali w przypadku matrycy CCD Planetary Camera. Optyka korekcyjna jest zintegrowana z drugim WFPC2, który został zainstalowany w grudniu 1993. Instrument nadaje się do astrometrii bardzo słabych źródeł (do ?26 mag); jednakże obrazy są niedostatecznie próbkowane, a do precyzyjnego centrowania stosowane są techniki ditheringu. Hipparcos, satelita zbierający paralaksy o wysokiej precyzji, był pierwszą misją kosmiczną poświęconą astrometrii. Wystrzelony w 1989 roku, obserwował całe niebo przez 3,5 roku, tworząc katalog 118 000 gwiazd z pozycjami absolutnymi, ruchami właściwymi i paralaksami trygonometrycznymi z dokładnością do 1 mas. Dzięki podzielonemu zwierciadłu dwa pola na niebie oddzielone o ?58° zostały zmapowane na tę samą płaszczyznę ogniskową. Satelita obracał się w sposób ciągły, a światło gwiazd przecinających pola było modulowane za pomocą dobrze skalibrowanej siatki. Korzystając z katalogu wejściowego, wybrane punkty w płaszczyźnie ogniskowej były wychwytywane przez detektor fotoelektryczny. Surowe dane obejmują stały strumień pomiarów natężenia światła w funkcji czasu. Tylko jeden wymiar (wzdłuż skanu) obserwowano z dużą precyzją. Oś obrotu satelity powoli ulegała precesji, aby umożliwić globalne pokrycie nieba. Każdy punkt na niebie został przeskanowany około 120 razy w różnych kierunkach w celu ustalenia obu współrzędnych. Dane odciętych, czyli kąty mierzone wzdłuż kierunku skanowania, wszystkich skanów wielkiego koła zostały później połączone w jedną dużą redukcję (rekonstrukcja sfery), aby jednocześnie określić parametry astrometryczne gwiazd i parametry instrumentalne. W rezultacie ustalono sztywny, samospójny, instrumentalny układ współrzędnych. Zewnętrzną orientację osi (trzy pozycje i trzy właściwe parametry ruchu) wykonano w połączeniu z obserwacjami naziemnymi, łącząc układ Hipparcosa z ICRS. Wszystkie gwiazdy do około 7mag zaobserwowano w dwóch przejściach pasmowych, podobnie jak B i V, a także większość gwiazd do 8,5mag, a niektóre wybrane do 12,5mag. Dane z mapy gwiazd uzyskane z misji Hipparcos zostały wykorzystane do zbadania wszystkich gwiazd do około 11mag w ramach projektu Tycho. Ponowna ocena danych z Tycho, zakończona w 1999 r., pozwoliła na utworzenie katalogu Tycho-2 zawierającego 2,5 miliona gwiazd (fotometria i położenie), uzupełnionego właściwymi wnioskami w powiązaniu z katalogami naziemnymi. Dokładność pozycji Tycho jest rzędu 10-70 mas, w zależności od wielkości. W 1999 r. NASA wybrała misję kosmiczną Full-Sky Astrometric Mapping Explorer (FAME) z planowanym wystrzeleniem w 2004 r. Podobnie jak Hipparcos, satelita ten będzie skanował całe niebo w ciągu 5 lat misji, aby określić pozycje, ruchy właściwe i paralaksy wynoszące 40 milionów gwiazd z dokładnością od 0,5 mas do 50 ?as, w zależności od wielkości. W przeciwieństwie do Hipparcos, FAME wykorzystuje szereg matryc CCD w trybie skanowania TDI.

Globalne spojrzenie na techniki astrometryczne

Techniki kosmiczne a techniki naziemne

Zasadniczo istnieją trzy różnice w astrometrii kosmicznej w porównaniu z astrometrią naziemną.

1. Atmosfera. Brak atmosfery ziemskiej pozwala na uzyskanie ostrzejszych zdjęć, niezakłóconych przez turbulentne medium. Wyższa zdolność rozdzielcza bezpośrednio prowadzi do lepszego stosunku sygnału do szumu i słabszych wielkości granicznych. Brak turbulencji oznacza także znaczną redukcję szumu losowego przy pomiarze odległości kątowych. Atmosferyczny błąd losowy jest w przybliżeniu

σatm ≈ kt-1/2F1/3(cos z)-1 z czasem ekspozycji t w sekundach, polem widzenia F w minutach kątowych, odległością od zenitu z i parametrem k w zakresie 10-70 mas, w zależności od warunków atmosferycznych. Dostępność większego widma częstotliwości (w tym UV i IR) do obserwacji kosmicznych nie miała dotychczas większego znaczenia dla astrometrii.
2. Grawitacja. Grawitacja bliska zeru dla instrumentów kosmicznych bezpośrednio prowadzi do większej stabilności i niezależności niektórych błędów od kierunku wskazywania. Jednakże efekty termiczne (satelita w świetle słonecznym lub w cieniu) powodują inne problemy, a kontrola temperatury do poziomu 1/100 K jest często wymagana w astrometrycznych misjach kosmicznych. Gradient grawitacyjny instrumentów naziemnych zapewnia wygodną metodę definiowania jednej osi układu współrzędnych. Opcja ta nie jest już dostępna w misjach kosmicznych.
3. Orientacja. Niezależność Ziemi oznacza brak problemów z rotacją Ziemi i nieregularnościami lokalnych ziemskich układów współrzędnych. Oznacza to także brak dostępnej definicji północy lub podobnej orientacji zewnętrznej. Równik nie ma żadnego znaczenia dla misji kosmicznych, a płaszczyzna ekliptyki jedynie słabo wchodzi w zakres aberracji świetlnej.

Technika redukcji płaszczyzny stycznej

Niech ξ, η będą prostokątnymi współrzędnymi kartezjańskimi zdefiniowanymi jako punkt zerowy na przecięciu osi optycznej z płaszczyzną styczną (A′), ξ skierowany na wschód i η na północ. Rzut gnomoniczny podaje współrzędne styczne jako



gdzie α, δ oznacza rektascencję i deklinację S oraz α0, δ0 deklinacji A. W tym punkcie jednostką ξ, η są radiany. Zmierzone współrzędne x, y są wówczas dokładnie równoległe do ξ, η

x = fξ y = fη gdzie f jest ogniskową, a x, y w tych samych jednostkach co f, np. milimetry. Równanie jest w rzeczywistości najprostszym modelem fizycznym pomiędzy czysto matematycznymi ξ, η i obserwowalnymi w świecie rzeczywistym x, y. Przykładem bardziej realistycznego modelu płyty jest



przy czym P1 do P9 to parametry, które należy oszacować w procesie regulacji przy użyciu gwiazd odniesienia o znanych pozycjach (ξ, η), a r2 = x2 + y2. Parametry od 1 do 4 reprezentują model ortogonalny, który jest zwykle najprostszym modelem praktycznym. Pozwala na punkt zerowy, skalę i obrót (wyrównanie) pomiędzy x, y i ξ, η. Uwzględnienie składników P5 i P6 daje pełny model liniowy. Parametry 7 i 8 reprezentują nachylenie płaszczyzny ogniskowej w stosunku do idealnej płaszczyzny stycznej, a P9 to składnik zniekształcenia optycznego trzeciego rzędu, istotny w większości prawdziwych teleskopów. Po oszacowaniu parametrów funkcja modelu, taka jak równanie, podaje współrzędne ξ, η ze zmierzonych x, y dowolnej gwiazdy o wcześniej nieznanym położeniu. Następnie poprzez rozwiązanie otrzymuje się jego współrzędne sferyczne α, δ



Zaawansowane tematy i metody redukcji

Systematyczne błędy pozycji w zależności od wielkości (zwane równaniem wielkości) są częstym problemem w wielu tradycyjnych technikach astrometrycznych, szczególnie w astrometrii fotograficznej. Z wyjątkiem porównań zewnętrznych, te błędy systematyczne można określić obserwując obrazy tej samej gwiazdy przy różnych poziomach ekspozycji. Oczywiście można to osiągnąć, biorąc te same pola o różnych czasach ekspozycji. Inną możliwością jest zastosowanie SIATKI DYFRAKCYJNEJ przed aperturą (w pobliżu źrenicy wejściowej). Oprócz centralnego obrazu zerowego rzędu siatka tworzy znacznie słabsze obrazy wyższego rzędu, rozmieszczone symetrycznie wokół obrazu centralnego. Te obrazy to w zasadzie widma; jednakże, w zależności od stałej siatki i pasma pasmowego, można je wykonać prawie kołowo. Instrumentalne równania wielkości można również zredukować, łącząc dane zebrane za pomocą instrumentu w położeniu normalnym i odwróconym. Jednakże równań wielkości wywołanych błędem prowadzenia nie można zredukować za pomocą tej techniki. W przypadku detektorów liniowych, takich jak CCD, w zasadzie nie oczekuje się już równań wielkości. Niemniej jednak przy niedoskonałej wydajności transferu ładunku błąd systematyczny przypominający komę może być znaczący w danych CCD. Techniki regulacji blokowej (BA) w obserwacjach astrograficznych umożliwiają uzyskanie szerokokątnych (aż do globalnych) wyników astrometrycznych przy użyciu jedynie obserwacji różnicowych w wąskim polu. Wymagane są nakładające się pola. Zamiast rozwiązywania każdego pola osobno, stosuje się schemat redukcji, aby rozwiązać wszystkie parametry płyty i wszystkie pozycje gwiazd jednocześnie, wykorzystując fakt, że dana gwiazda ma unikalną pozycję na wszystkich zdjęciach lub klatkach CCD, na których się znajduje. Technikę tę wprowadzono do astronomii w 1960 roku; jednakże nie był on wykorzystywany aż do lat 70. XX wieku z powodu braku mocy komputerowej. Metoda jest bardzo wrażliwa na błędy systematyczne, które nie są odzwierciedlone w danych, a jeśli nie zostanie właściwie zastosowana, może dać gorsze wyniki niż tradycyjna redukcja. Proces rekonstrukcji sfery projektu Hipparcos jest w rzeczywistości bardzo podobny do procesu BA. Ze względu na większą liczbę obserwacji na gwiazdę i jednoczesną obserwację dwóch szeroko odległych pól, dane Hipparcosa są lepiej uwarunkowane w celu uzyskania rozwiązania globalnego niż nakładające się płyty.

Najnowocześniejsze dokładności i ograniczenia

Obecnie najdokładniejsze pozycje uzyskuje się na podstawie obserwacji radiowych VLBI dla kilkuset kompaktowych źródeł pozagalaktycznych. Uważa się, że pozycje niektórych źródeł są podawane z dokładnością do 0,1 mas. Poważnym problemem jest struktura źródła, właściwości atmosferyczne i jonosferyczne oraz stabilność stacji naziemnych (modelowanie efektów krótkookresowych). VLBI jest również techniką bardzo kosztowną w utrzymaniu i jest stosowana głównie w pracach związanych z orientacją Ziemi i geodezją, a na marginesie można uzyskać dobrą astrometrię. Techniki interferometryczne mają w zasadzie większy potencjał w zakresie najwyższej dokładności pozycjonowania niż inne metody. Jednak obserwacja jest powolna, jeden obiekt na raz. Najwyższe rozdzielczości kątowe i najdokładniejszą astrometrię bliskich gwiazd podwójnych uzyskuje się za pomocą interferometrów optycznych (NPOI, 70 μas). Paralaksy na poziomie 0,5 mas osiągane są dla dobrze obserwowanych gwiazd przez tradycyjne naziemne teleskopy długoogniskowe wyposażone w matryce CCD, działające równie dobrze jak najlepsze instrumenty kosmiczne, z FGS HST (0,4 mas). Jednak technika naziemna osiągnęła już swój teoretyczny limit wyznaczony przez atmosferę i misje kosmiczne nowej generacji prawdopodobnie poprawią ten wynik 10-krotnie. Katalog Hipparcosa jest obecnie najdokładniejszą realizacją optycznego układu odniesienia, podającą pozycje 118 000 gwiazd na poziomie 1 mas. Przy właściwym błędzie ruchu wynoszącym około 1 mas rok-1 i średniej epoce 1991,25 błędy pozycji dla epoki 2000 są już rzędu 10 mas. Najdokładniejsze pozycje dla większości gwiazd o jasności 9-12 mag podaje obecnie katalog Tycho-2 (20-70 mas). Naziemne astrografy szerokokątne są już w stanie to ulepszyć, obniżając 20 mas do 14 mag (projekt UCAC). Ograniczeniem tutaj ponownie jest atmosfera w połączeniu z dostępnym czasem integracji ze względu na zaplanowany czas trwania projektu i ograniczone pole widzenia. Udana misja kosmiczna FAME prawdopodobnie sprawi, że przyszłe badania astrograficzne typu astrograficznego staną się przestarzałe, aż do granicznej wielkości 15mag. Zejście do słabszych magnitudo pozostanie domeną naziemnych teleskopów astrometrycznych przez co najmniej dekadę ze względu na ich efektywność kosztową. USNO A2.0 i GSC-2 (Space Telescope Science Institute) dostarczają obecnie jedyne pozycje całego nieba (w przybliżeniu 0,2 sekundy łukowej) słabych gwiazd do 20mag. Pochodzą one z płytek pomiarowych Schmidta, mierzone za pomocą PMM. W przypadku nawet słabszych gwiazd zaobserwowano dotychczas jedynie małe, wybrane obszary. Interferometry kosmiczne, takie jak SIM, zwiększą dokładność astrometryczną do kilku mikrosekund łukowych; jednak tylko dla kilku wybranych źródeł. Ostatecznie możliwa do osiągnięcia dokładność pozycjonowania będzie zależała od stosunku sygnału do szumu, a co za tym idzie liczby zebranych fotonów oraz powodzenia w kontrolowaniu błędów systematycznych, co pozostanie najważniejszym wyzwaniem technicznym dla projektów astrometrycznych. Uzyskanie precyzyjnych ruchów własnych jest obecnie problematyczne, a pełne wykorzystanie danych fotograficznych sprzed dziesięciu lub stu lat jest aktywnym zadaniem współczesnej astrometrii. Prawdopodobnie zmieni się to w przyszłości, kiedy udana astrometryczna misja kosmiczna nowej generacji obejmie wszystkie wielkości danych z epoki.

Zeszyty obserwacji astronomicznych dla amatorów

Astronom obserwacyjny musi przede wszystkim być systematyczny. Błędna obserwacja jest gorsza niż bezużyteczna, może łatwo zmylić wszelkie późniejsze analizy. Niezbędne jest prowadzenie starannej i dokładnej dokumentacji. Historia może być tu istotna, chociaż może być apokryficzna; było to cytowane nie raz. W 1781 roku William Herschel odkrył planetę Uran i przeglądając stare zapisy, okazało się, że Uran był widziany kilkakrotnie, chociaż zawsze był mylony z gwiazdą. Według tej historii francuski astronom Le Monnier (patrz LE MONNIER) widział ją nie mniej niż sześć razy i gdyby porównał swoje obserwacje, nie mógłby nie dokonać odkrycia, mimo że Uran znajdował się w tym czasie w pobliżu jednego ze swoich stacjonarnych zwrotnica. Le Monnier tego nie sprawdził i jedna z jego obserwacji została później odnaleziona na odwrocie papierowej torby, w której kiedyś znajdowały się perfumy do włosów. Do każdej obserwacji - wizualnej, fotograficznej czy elektronicznej - należy dołączyć kilka niezbędnych notatek. Jeśli którykolwiek z nich zostanie pominięty, obserwacja szybko traci dużą część lub całość swojej wartości. Zasadniczo główne wymagania to

imię obserwatora
data
czas, GMT (nigdy nie używaj wariantów takich jak czas letni w Wielkiej Brytanii lub stref czasowych w innych krajach)
używany sprzęt (dla teleskopu, typ, apertura, powiększenie; dla aparatu, typu, filmu, czasu naświetlania)
widzenie warunków
oraz wszelkie inne dane, które wydają się istotne.

Oczywiście rodzaj użytego notatnika zależy całkowicie od charakteru dokonywanych obserwacji. "Staromodny" obserwator planet prowadziłby oddzielną księgę dla każdego obiektu - jedną dla Jowisza, drugą dla Marsa i tak dalej. Podczas tworzenia szkicu planety lub obiektu księżycowego wiele zależy od umiejętności artystycznych obserwatora. Niektórzy są w stanie wykonać "gotowe" rysunki, siedząc bezpośrednio przy teleskopie; inni wykonują wstępne szkice, idą do biurka, aby wykonać ostateczne kopie, a następnie ponownie sprawdzają przy teleskopie. Czasami może pojawić się pokusa, aby odłożyć wykonanie ostatecznych kopii na następny dzień. Zawsze należy się temu przeciwstawić; Wkradanie się błędów jest praktycznie pewne. Obserwatorzy planet często korzystają ze skali widzenia opracowanej dawno temu przez E M ANTONIADI. Istnieje pięć stopni, od 1 (idealne warunki przejrzystości i stałości) do 5 (warunki tak złe, że nie ma sensu obserwować niczego poza śledzeniem jakiegoś zjawiska, które się nie powtórzy). W praktyce Antoniadi 1 jest bardzo rzadko spotykany, przynajmniej w krajach takich jak Wielka Brytania. Podczas rysowania Jowisza lub Marsa pomocne jest użycie przygotowanego krążka, aby uwzględnić spłaszczenie w przypadku Jowisza lub fazę w przypadku Marsa; nie jest to takie proste w przypadku Saturna, gdzie odręczne szkicowanie jest tak naprawdę jedyną odpowiedzią. Zdjęcia należy bardzo starannie segregować, z podaniem dat i godzin oraz innych niezbędnych danych. To samo dotyczy zapisów elektronicznych. Wielu amatorów obecnie systematycznie poluje na nowe, komety, supernowe w galaktykach zewnętrznych (patrz INASTRONOMIA WSPÓŁPRACY AMATORSKO-PROFESJONALNEJ), a przy tych zapisach najważniejszy jest czas, szczególnie jeśli dokonuje się odkrycia, a obserwator nie może się doczekać priorytet. W sumie sposób prowadzenia notatnika astronomicznego jest kwestią zdrowego rozsądku. Nigdy nie nagrywaj niczego, czego nie jesteś całkowicie pewien; jeżeli pojawi się cień wątpliwości, zanotuj go obok obserwacji. Pamiętaj też, że zbyt łatwo jest "zobaczyć" to, czego oczekuje połowa. Zostało to bardzo wyraźnie pokazane podczas obserwacji Marsa przed i po przesłaniu pierwszych zdjęć przez sondy kosmiczne. Do tego czasu wielu całkowicie uczciwych obserwatorów pokazywało skomplikowaną sieć kanałów. Gdy tylko stało się jasne, że kanały nie istnieją, zniknęły one z notatek obserwatorów. Warto w tym miejscu poczynić jeszcze jedną uwagę. Noobserwacja nabierze naprawdę pożytku, jeśli zostanie pozostawiona odłogiem w notatniku; jeśli jest potrzebny do analizy, należy go wysłać do organizacji takiej jak BRYTYJSKIE STOWARZYSZENIE ASTRONOMICZNE lub AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH. Jednakże odesłanie oryginalnego notesu jest szczytem szaleństwa; prawdopodobnie zostanie gdzieś zagubiony i być może zaginie na poczcie. Zanim wyślesz obserwację, czy to rysunek, czy zapis, upewnij się, że masz doskonałą kopię. To prawda, wymaga to czasu, ale warto.

Fotografia astronomiczna amatorów z teleskopami

Współczesny astronom-amator jest w stanie wykonać piękne zdjęcia nocnego nieba, często przy użyciu zaskakująco skromnego sprzętu. Jednym z najlepszych sposobów na rozpoczęcie jest umieszczenie lustrzanki jednoobiektywowej (SLR) na solidnym statywie, otwarcie przysłony obiektywu tak szeroko, jak to możliwe, i wykonanie 10-minutowego naświetlania. Spowoduje to zarejestrowanie gwiazd jako śladów ze względu na obrót Ziemi i jest dobrym sposobem na pokazanie różnych kolorów gwiazd. Krótsze ekspozycje (zwykle 1-2 minuty) pozwolą zarejestrować gwiazdy jako punkty i są dobrym sposobem na pokazanie różnych konstelacji. W ten sposób można również fotografować zdarzenia przejściowe, takie jak zorze polarne i jasne komety. Niestety, nowoczesne lustrzanki jednoobiektywowe nie nadają się do astrofotografii, ponieważ do utrzymania otwartej migawki wykorzystują baterie. Ekspozycja astrofotograficzna może być dość długa (do 1 godziny), co bardzo szybko wyczerpuje baterie aparatu. Najlepszym typem aparatu do tej pracy są te, które zostały wyprodukowane pod koniec lat 70. XX wieku, takie jak Nikon, Pentax i Canon. Są to wytrzymałe, ręczne aparaty, które można kupić po rozsądnych cenach w większości sklepów z używanymi aparatami. Ważny jest także wybór soczewek. Obiektywy szerokokątne i standardowe doskonale nadają się do wykonywania zdjęć konstelacji i Drogi Mlecznej. Małe teleobiektywy (135 mm) dobrze nadają się do zdjęć większych gromad gwiazd i obiektów głębokiego nieba, podobnie jak teleobiektywy o długiej ogniskowej (200-500 mm), ale te drugie można stosować do zaćmień i komet. W przypadku długich ekspozycji konieczne jest umieszczenie aparatu na napędzanym montażu paralaktycznym. W ten sposób kamera może śledzić ruch nieba i tworzyć dokładne obrazy gwiazd. Po dokładnym ustawieniu mocowania na biegun możliwe jest wykonywanie ekspozycji do 30 minut bez konieczności dokonywania jakichkolwiek korekt napędu. Przydatnym elementem wyposażenia w tego typu astrofotografii jest przegub kulowy, który mieści się pomiędzy aparatem a uchwytem i umożliwia skierowanie aparatu w praktycznie dowolnym kierunku. Kolejnym bardzo przydatnym wyposażeniem jest linka blokująca, która utrzymuje migawkę otwartą przez dłuższy czas. Przymknięcie przysłony obiektywu o jeden f/stop (tj. f/2 do f/2.8) radykalnie poprawia jakość zdjęć gwiazd, szczególnie w okolicach brzegów kadru. Podłączenie aparatu do nowoczesnego teleskopu pozwala na szczegółowe fotografowanie, ale wymaga większej precyzji układu napędowego. Aparat mocuje się zwykle poprzez umieszczenie adaptera pomiędzy tylną komorą wyciągu teleskopu a korpusem aparatu. Dobrymi celami fotograficznymi jest Księżyc (patrz KSIĘŻYC, MAPY KSIĘŻYCA) i jest to prawdopodobnie najłatwiejsza forma fotografii teleskopowej, ponieważ ze względu na jasność Księżyca czasy ekspozycji mogą być dość krótkie. Uchwycenie sekwencji zmieniających się faz Księżyca może być satysfakcjonujące, podobnie jak niesamowity spektakl całkowitego zaćmienia Księżyca. W przypadku wszystkich rodzajów fotografii astronomicznej dobrym pomysłem jest stosowanie naświetlań w nawiasie. Oznacza to, że stosuje się szereg różnych czasów ekspozycji w okolicach prawdopodobnego prawidłowego czasu ekspozycji. W ten sposób zazwyczaj zostanie osiągnięta prawidłowa ekspozycja, a zanotowanie czasu ekspozycji, który daje najlepszy wynik, pozwoli na trafniejsze przypuszczenie następnym razem, gdy podobny obiekt będzie fotografowany w podobnych warunkach. Słońce jest także dobrym celem fotograficznym, lecz należy zachować szczególną ostrożność podczas obserwacji Słońca, gdyż nawet spojrzenie na Słońce na niebie może spowodować uszkodzenie oczu. Należy także zachować ostrożność w przypadku sprzętu, ponieważ ciepło słoneczne może uszkodzić soczewki, jeśli są one skierowane bezpośrednio na Słońce przez zbyt długi czas. Najłatwiejszą i najbezpieczniejszą metodą fotografii słonecznej jest rzutowanie obrazu Słońca na białą kartkę i fotografowanie obrazu bezpośrednio na karcie. W ten sposób możliwe jest codzienne fotografowanie plam słonecznych. Filtry słoneczne o pełnej aperturze i poza osią zapewniają dobrą widoczność plam słonecznych. Zaawansowani amatorzy używają również filtrów wodorowych alfa do fotografowania Słońca przy bardzo określonej długości fali, wybranej tak, aby ukazać dramatyczne protuberancje widoczne na krawędziach Słońca. Chociaż są drogie, filtry te dają oszałamiające rezultaty, zwłaszcza gdy Słońce znajduje się w fazie aktywnej. Duża ilość światła emitowanego przez Słońce oznacza, że ekspozycja fotograficzna może być krótka. Aby sfotografować planety, które mają bardzo małe średnice kątowe, można skorzystać z projekcji okularowej. Polega to na umieszczeniu okularu pomiędzy teleskopem a aparatem w celu wyświetlenia na kliszy bardzo powiększonego obrazu planety. Chociaż jest w stanie dawać dobre wyniki, zwykle jest dość trudny ze względu na niestabilność atmosfery ziemskiej (słabe widzenie) i trudność w skupieniu się na tak słabym obrazie. Fotografowanie galaktyk i mgławic głębokiego nieba daje satysfakcję, ale wymaga bardzo dobrego śledzenia z napędu równikowego ustawionego na biegun. Chociaż większość współczesnych teleskopów wyposażona jest w dokładne napędy. Podczas dłuższych ekspozycji konieczne jest dokonanie drobnych poprawek w śledzeniu teleskopu. Tradycyjnie robi się to na jeden z dwóch sposobów. Do montażu można przymocować oddzielny teleskop i używać go jako lunety do monitorowania wszelkich odchyleń od doskonałej wydajności śledzenia. Ta metoda działa dobrze, ponieważ jasne gwiazdy, które nadają się do naprowadzania, są zwykle łatwe do znalezienia. Lunetę należy zamocować sztywno, w przeciwnym razie może wystąpić wygięcie, które pogorszy prowadzenie. Druga metoda polega na zastosowaniu guidera pozaosiowego, mocowanego pomiędzy teleskopem a kamerą, który odwraca światło gwiazdy prowadzącej za pomocą małego pryzmatu lub zwierciadła. Działają one dobrze, ponieważ prowadzenie odbywa się poprzez główną optykę teleskopu, więc nie występuje żadne ugięcie, ale w praktyce może być trudne, ponieważ wybór odpowiednich gwiazd prowadzących jest poważnie ograniczony. Nowoczesną opcją jest użycie autoguidera ze sprzężeniem ładunkowym z guidoskopem, ponieważ zapewni to najlepsze śledzenie ze wszystkich i eliminuje potrzebę patrzenia przez obserwatora przez teleskop prowadzący podczas długich ekspozycje. Ustawianie ostrości na obiektach głębokiego nieba jest dość wymagające i najlepiej jest je osiągnąć, używając średnio jasnej gwiazdy i przesuwając ostrość w tę i z powrotem, aż do uzyskania dobrej ostrości. Jeśli używany aparat posiada możliwość zmiany matówki, dobrym rozwiązaniem jest zamontowanie matówki o wysokiej transmisji, np. firmy Beattie. Charakteryzują się bardzo jasnym obrazem i minimalnym bałaganem, ponieważ nie są potrzebne żadne pomoce do ustawiania ostrości w ciągu dnia (podzielony obraz). Tradycyjnie do astrofotografii głębokiego nieba używano szybkich filmów (zwykle 400-1600 ISO), ale jednym z najlepszych filmów do tego rodzaju fotografii jest slajd Kodak EliteChrome 200 ISO. Kilka cech, takich jak drobne ziarno i dobra czułość na czerwień, czyni go doskonałym wykonawcą. Również cyfrowa manipulacja astrofotografami jest bardzo popularna wśród współczesnych astrofotografów. Film można zeskanować i ulepszyć cyfrowo w celu usunięcia zanieczyszczeń świetlnych, śladów samolotów i satelitarnych, a także wzmocnienia kontrastu i koloru w rzeczywistości cyfrowej ciemni.

Towarzystwa i publikacje astronomiczne

Pierwsze nowoczesne obserwatoria finansowane ze środków publicznych powstały, aby służyć potrzebom nawigacji i pomiaru czasu, a ich pierwsze publikacje miały odpowiednio formę almanachów, efemeryd i tym podobnych. Wcześniej na scenie pojawiły się La Connoissance des Temps (Obserwatorium Paryskie, 1679) i Almanachy Nautyczne (Obserwatorium w Greenwich, 1767; Obserwatorium San Fernando (Hiszpania), 1792; Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, 1855). Tworzenie danych kalendarzowych i nawigacyjnych odpowiednich dla określonych lokalizacji i języków było również główną funkcją znacznie liczniejszych obserwatoriów w XIX wieku. Stowarzyszenia zawodowe (i publikacje) służą walidacji społeczności naukowej i jej wspólnego zasobu wiedzy, zwyczajów i doświadczeń. Jednak pierwsze towarzystwo naukowe - Royal Society of London, założone w 1660 roku - było w dużej mierze amatorskie. Jej Transakcje Filozoficzne, zapoczątkowane w 1665 roku, po raz pierwszy umożliwiły szybkie upowszechnienie nowych odkryć naukowych, a także zapewniły forum do ich krytyki. Pierwszym stowarzyszeniem o charakterze astronomicznym było Londyńskie Towarzystwo Astronomiczne (wkrótce przekształcone w KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE (RAS)), założone w 1820 r. przez Johna Herschela i innych (patrz RODZINA HERSCHEL), aby zaspokoić potrzebę, której Towarzystwo Królewskie nie zaspokajało . Nazwiska żydowskie pojawiają się na wczesnych listach członkowskich, na długo przed przyjęciem Żydów na angielskie uniwersytety, a kobieta, Caroline Herschel, otrzymała medal w 1828 r.; drugą była Wiera Rubin w 1996 r. Wydawanie Pamiętników Towarzystwa rozpoczęło się w 1821 r. i początkowo składały się z artykułów prezentowanych w krótkiej formie na comiesięcznych spotkaniach. Wkrótce redakcja musiała zwrócić uwagę, że podziękowanie prelegentowi za jego wystąpienie niekoniecznie oznaczało bezwarunkową akceptację lub gwarancję miejsca we Wspomnieniach. Mała komisja od czasu do czasu przeglądała teksty i rekomendowała Radzie Towarzystwa, które z nich powinny zostać opublikowane. Tym samym Pamiętniki mogą być zarówno pierwszą publikacją specyficznie astronomiczną, jak i pierwszą tego typu publikacją, która została zrecenzowana. Jednakże w pamiętnikach nie przewidziano mniej istotnych pozycji, takich jak wcześniejsze powiadomienia o spotkaniach, krótkie notatki na temat zjawisk astronomicznych i raporty z obserwatoriów, dlatego w 1827 roku Towarzystwo ustanowiło swoje miesięczne zawiadomienia. To rozwinęło się i ostatecznie zwiększyło częstotliwość; obecnie ukazuje się trzy razy w miesiącu i jest wiodącym czasopismem w tej dziedzinie. Wspomnienia stały się narzędziem publikacji bardzo długich artykułów i zestawień danych, a w 1977 r. uległy samozniszczeniu na rzecz mikrofisz w Monthly Notices. Wczesne wydania obu czasopism sporadycznie ukazywały się w języku francuskim, ale przez większość swoich historii były monoglotyczne. Druga publikacja astronomiczna, która ukazała się w latach dwudziestych XIX wieku, Astronomische Nachrichten, była owocem entuzjazmu jednego człowieka, Heinricha Christiana Schumachera, dyrektora obserwatorium w Altonie od 1823 roku aż do jego śmierć w 1850 r. Astronomische Nachrichten nadal był wydawany w Altonie, najpierw przez CA Petersona, a następnie, od 1855 r. przez CAF Petersa. W 1872 roku obserwatorium Altona zostało przeniesione do Kilonii, gdzie czasopismo redagowano aż do lat trzydziestych XX wieku, kiedy to przeniesiono je do Berlina. Schumacher zaproponował publikację artykułów w "dowolnym języku europejskim"; Od początku powszechne były publikacje w języku francuskim i angielskim, a obecnie prawie wszystkie artykuły są w języku angielskim. W USA ukazała się kolejna publikacja będąca dziełem jednej osoby: Astronomical Journal, założony przez BENJAMINA APTHORPA GOULDA w 1849 roku na zamierzonej imitacji pisma niemieckiego. Jej strony były otwarte zarówno dla profesjonalistów, jak i amatorów z całego świata. Publikację przerwała wojna secesyjna, ale Gould wznowił ją w 1886 r. Astronomical Journal wydawany jest obecnie przez AMERICAN ASTRONOMICAL SOCIETY. Osobliwością wśród publikacji astronomicznych jest The Observatory, założone w 1877 roku i do dziś będące zbiorową własnością obecnych redaktorów. Oprócz krótkich artykułów naukowych zawiera sprawozdania ze spotkań, recenzje i wesołe artykuły. Francja wydawała szeroką gamę czasopism, począwszy od 1884 r. wraz z Bulletin Astronomique publikowanym w Obserwatorium Paryskim, ale nie ograniczającym się do prac tam wykonanych. Société Astronomique de France i jego Biuletyn zostały założone w 1887 r., a Journal des Observateurs założono w 1915 r. W 1969 r. to i Bulletin Astronomique zostały połączone w Astronomy i Astrophysics , wraz z Annales d′Astrophysique, Zeitschrift für Astrophysik i Biuletynem Instytutu Astronomicznego Holandii, który został założony w 1921 roku przez pięć holenderskich obserwatoriów i instytutów, które wcześniej wydawały własne publikacje. W 1863 roku niemieccy astronomowie założyli społeczeństwo, ASTRONOMISCHE GESELLSCHAFT, w kontekście stopniowego zjednoczenia kraju; Wkrótce potem rozpoczął własne publikacje, a pod koniec stulecia przejął odpowiedzialność za Astronomische Nachrichten. Inne stowarzyszenia narodowe założone w XIX wieku to Societ? Astronomica Italiana (którego Memorie ukazało się od 1872 r.), Société Royale Belge d′Astronomie (Ciel et Terre od 1880 r., Biuletyn od 1895 r.), Królewskie Towarzystwo Astronomiczne Kanady (założone w 1868 r.) i Amerykańskie Towarzystwo Astronomiczne (1899).

Literatura periodyczna końca XIX i XX wieku

Rozwój "astrofizyki" w późniejszych dekadach XIX wieku doprowadził do zaangażowania w "nową" astronomię naukowców z szerokiego zakresu dyscyplin, co czasami prowadziło do napięć między nimi a "starymi" (pozycyjnymi) astronomami . W Wielkiej Brytanii RAS i jego publikacje zdołały wchłonąć nowe tematy. Społeczność amerykańska uległa częściowemu rozłamowi wraz z założeniem czasopisma Astrophysical Journal (ApJ) w 1895 roku przez George′a Ellery′ego Hale′a i jego współpracowników. Początkowo publikował głównie wyniki spektroskopowe z obserwatoriów Yerkes, a wkrótce potem z obserwatoriów Mount Wilson, przy pewnym oporze ze strony astronomów z innych lokalizacji. Ostatecznie rozprzestrzeniło się na cały kraj (a później na świat) i objęło wszystkie aspekty astronomii, chociaż zdarzały się chwile, gdy redaktorzy uważali za konieczne wyraźnie powiedzieć, że z radością przyjmą artykuły z zakresu radioastronomii i przyrządów astronomicznych, co było zaproszeniem, którego nie wszyscy uznano za przekonujące. ApJ, pierwotnie należący do Yerkes Observatory, jest obecnie wydawany przez University of Chicago Press, ale pod kierownictwem Amerykańskiego Towarzystwa Astronomicznego. Od początku było to całkowicie monoglotyczne. Społeczności niemieckie i francuskie również uległy fragmentacji w miarę rozwoju, wraz z założeniem Zeitschrift für Astrophysik w 1930 r. i Annales d′Astrophysique w 1938 r., obie pierwotnie monojęzyczne, ale z licznymi artykułami w języku angielskim, zanim zostały wchłonięte przez astronomię i astrofizykę w 1969 r. Wydaje się, że żadna inna wspólnota narodowa nie była wystarczająco duża, aby utrzymać dwie profesjonalne publikacje, a astrofizycy w innych krajach zwrócili się ku materiałom akademickim i czasopismom fizycznym w swoich krajach lub, coraz częściej, do ApJ. Dalsza fragmentacja literatury astronomicznej jest zjawiskiem stosunkowo późnym, z wyjątkiem specjalistycznych publikacji z zakresu meteorytyki (od 1935 r. w USA i 1941 r. w ZSRR) i selenografii, obu powiązanych z wyspecjalizowanymi towarzystwami. Publikacje dotyczące Słońca i Układu Słonecznego oraz równoległych oddziałów Amerykańskiego Towarzystwa Astronomicznego i niektórych innych towarzystw zawodowych ukazały się po drugiej wojnie światowej. W drugiej połowie XX wieku istniały dwa główne czynniki powstawania nowych towarzystw i publikacji. W bardziej zaawansowanych krajach rozwijających się oraz w krajach powstałych w wyniku rozpadu ZSRR, Jugosławii i Czechosłowacji astronomowie często zakładali własne, zazwyczaj dość małe, stowarzyszenia. Kraje o jeszcze mniejszej populacji zawodowych astronomów zwykle przystępują do MIĘDZYNARODOWEJ UNII Astronomicznej za pośrednictwem komitetu krajowego pod auspicjami Narodowej Akademii Nauk. Nowe czasopisma wydawane są głównie przez wydawców komercyjnych, czasami za zachętą ze strony członków społeczności astronomicznej, którzy uważali, że starsze publikacje nie są w wystarczającym stopniu obsługiwane. Żaden z nich nie jest obecnie poważnym konkurentem w tym sensie, że jest zarówno duży, jak i wysoko ceniony. W rzeczywistości, jak zobaczymy, dominującą tendencją była dalsza koncentracja ważnych artykułów w największych recenzowanych czasopismach, z których wszystkie są obecnie publikowane niemal wyłącznie w języku angielskim. Czas pokaże, w jakim stopniu publikacje elektroniczne zmienią obecne wzorce. Już w XIX wieku niektórzy astronomowie zauważyli, że literatura staje się zbyt obszerna, aby każdy mógł ją całą prześledzić. Próba stworzenia Bibliographica Astronomica trwała zaledwie rok lub dwa (około 1895). Bardziej udany był Astronomischer Jahresbericht, zapoczątkowany przez Astronomische Gesellschaft w 1899 r., zawierający początkowo wszystkie streszczenia w języku niemieckim (ale tytuły artykułów zwykle w języku oryginalnym). Przetrwał obie wojny światowe (choć w drugiej z niepełnym pokryciem literatury) i w 1969 roku został przekazany komercyjnemu wydawcy i wydał tekst w języku angielskim, jako Astronomy and Astrophysics Abstracts.

Amatorzy astronomii

Od chwili założenia Królewskie Towarzystwo Astronomiczne zapraszało astronomów pracujących w pełnym i niepełnym wymiarze godzin, płatnych i ochotniczych, astronomów zawodowych i amatorów. Jednakże w miarę jak jego działalność i publikacje skupiały się w coraz większym stopniu na zainteresowaniach i produktach pełnoetatowego, płatnego sektora zawodowego, nieuchronnie zaczęły powstawać amatorskie towarzystwa astronomiczne. Spośród tych, które przetrwały, pierwszym było Leeds (1859), drugim Liverpool (1881), a w 1890 r. pojawiło się szerzej zakrojone Brytyjskie Stowarzyszenie Astronomiczne. ukazała się w tym samym roku i nadal kwitnie. W USA pierwsze stowarzyszenia amatorskie pojawiły się w Chicago (1863) i Baltimore (1881) jeszcze przed założeniem Amerykańskiego Towarzystwa Astronomicznego w 1899 roku. Towarzystwo Astronomiczne Pacyfiku i jego publikacje pochodzą z 1889 r. Od samego początku (w związku z koordynacją obserwacji zaćmienia słońca widocznego z Kalifornii) organizacją "pro/am" i taką pozostała, choć ostatecznie odrębna seria wydawnicza konieczne stało się Publikacje służące płatnym profesjonalistom oraz seria Ulotek (1925-71), a ostatnio czasopismo Mercury skierowane do amatorów. AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH, założone w 1911 r., jest zdominowaną przez amatorów wspólną organizacją, której wkład w badania astronomiczne jest osiągany jedynie przez nieco podobne Stowarzyszenie Française des Observateurs d′Étoiles Variables (1921), a w tamtych czasach przez Korporacja Obserwacyjna Towarzystwa Astronomów Amatorów w Moskwie, której Biuletyn (1925-1937) został później włączony jako jedno z wydawnictw Akademii Nauk ZSRR.

Współpraca międzynarodowa

Międzynarodowa współpraca astronomiczna rozpoczęła się w XVIII wieku współpracą przy wyprawach mających na celu obserwację tranzytów Wenus, a w 1800 roku w Lilienthal zorganizowano korpus 24 "policji niebieskiej", aby monitorować ekliptykę w poszukiwaniu planety pomiędzy Marsem a Jowiszem, zgodnie z przewidywaniami przez prawo Bodego. Projekty, w wyniku których powstał masywny Bonner Durchmusterung (gwiazd), rozpoczęty w 1859 r., i jego południowe przedłużenie, Cordoba Durchmusterung, miały w dużej mierze charakter zaściankowy, ale doprowadziły do porozumienia między 17 obserwatoriami w sprawie zapewnienia bardzo dokładnych pozycji gwiazd Durchmusterung aż do dziewiąta wielkość. Jednak prace postępowały powoli i zostały wyprzedzone przez pojawienie się płyt fotograficznych na sucho emulsji. Udane fotografowanie obiektów astronomicznych w wielu obserwatoriach skłoniło dyrektora w Paryżu, admirała EB Moucheza, przy wsparciu Davida Gilla na Przylądku Dobrej Nadziei, do podjęcia od 1885 r. próby koordynacji międzynarodowej Carte du Ciel, opartej na fotografii mapy nieba oraz towarzyszący mu katalog pozycji i wielkości do 11 m. Stały Komitet Międzynarodowy i jego Biuletyn (1892-1915) działał aż do wybuchu pierwszej wojny światowej, organizując regularne konferencje, zachęcając do postępu wśród około 20 obserwatoriów i organizując publikację części Carte w miarę udostępniania materiałów. Prace zakończono właściwie dopiero w 1964 roku, ale wcześniejsze płyty stanowią cenne źródło do określenia ruchów właściwych w długim okresie. Początkowo odnosząca sukcesy, ale także ofiara I wojny światowej, odniosła sukces Międzynarodowa Unia Współpracy w Badań nad Energią Słoneczną (Transakcje publikowane od 1906 do 1914), której głównym inicjatorem był Hale. Unia podjęła na przykład próbę standaryzacji pomiarów rotacji Słońca, aby można było zidentyfikować rzeczywiste różnice w zależności od szerokości geograficznej i czasu. Ostatnim na przedwojennej scenie był plan Jacobusa Kapteyna dla wybranych obszarów (aby pomiary jasności gwiazd, koloru, ruchu własnego, prędkości radialnej itd. Galaktyka). W 1919 r. przedstawiciele 16 zwycięskich narodów zebrali się w Brukseli, aby utworzyć Międzynarodową Radę ds. Badań (obecnie Międzynarodowa Rada Związków Naukowych, ICSU), do której zaproszono do współpracy narody neutralne. W tym samym czasie odbyło się spotkanie organizacyjne Międzynarodowej Unii Astronomicznej. W ciągu następnych kilku lat dodatkowych 16 krajów uznano za kwalifikujące się do członkostwa w IRC, co stanowiło istotne ograniczenie dla IAU, ponieważ żaden kraj nie mógł do niej przystąpić (ani początkowo nawet wysyłać ludzi na jej spotkania) bez uprzedniego uzyskania członkostwa w IRC. Pierwsze oficjalne Zgromadzenie Ogólne IAU odbyło się w Rzymie w 1922 r. i wzięło w nim udział dziewięć krajów (Belgia, Kanada, Francja, Wielka Brytania, Grecja, Włochy, Japonia, Meksyk i Stany Zjednoczone). Do drugiego Zgromadzenia liczba ta wzrosła do 22. Chiny i Związek Radziecki były ważnymi dodatkami w okresie międzywojennym, ale Niemcy, Austria, Węgry, Bułgaria i Turcja były nadal niemile widziane aż do roku 1945. IAU ostatecznie przejęła odpowiedzialność za obie Carte du Ciel i Wybrane Obszary, choć z pewnymi trudnościami, ponieważ w obu przypadkach Niemcy były w dużym stopniu zaangażowane. Po drugiej wojnie światowej zajmowała się gromadzeniem i rozpowszechnianiem (telegramem, a ostatnio pocztą elektroniczną) szybko aktualnych wiadomości astronomicznych. Liczba członków IAU, licząca około 150 astronomów u jej podstaw, wzrosła obecnie do około 8000 w 81 krajach. Od samego początku IAU wydawała własną serię publikacji, początkowo po prostu sprawozdania z odbywających się co trzy lata Zgromadzeń Ogólnych, ale obecnie obejmującą materiały z specjalistycznych sympozjów i kolokwiów sponsorowanych lub zatwierdzony przez IAU. Unia staje się coraz bardziej aktywna w promowaniu edukacji i badań astronomicznych w krajach rozwijających się i pozostaje wyjątkowa wśród międzynarodowych związków naukowych ze względu na to, że posiada zarówno indywidualnych członków, jak i kraje przystępujące

Wzory publikacji

Czołowy astronom XIX wieku mógłby równie dobrze opublikować połowę lub więcej swoich artykułów w czasopismach nieastronomicznych, a prawie wszystkie wydały książki rejestrujące ich bardziej zaawansowane wysiłki. Sto lat później astronom lub astrofizyk prawdopodobnie opublikuje wszystkie swoje prace pozakonferencyjne w tym czy innym z nielicznych specjalistycznych, prestiżowych czasopism i opublikuje monografie jedynie w formie podręczników lub książek branżowych, jeśli w ogóle. Zmiany, jakie zaszły w pierwszej połowie XX wieku, ukazuje analiza objętości Astronomischer Jahresbericht dla lat 1900, 1925 i 1955 (te ostatnie daty wybrano w celu uniknięcia zniekształcenia przez wojny światowe). Pierwszą i najbardziej oczywistą tendencją jest rozwój tej dziedziny: nie tylko wzrasta liczba artykułów, ale także ogromnie wzrosła ich średnia długość. Drugim jest stopniowe przejście od obserwacji do teorii, które niewątpliwie trwa w ostatnich dziesięcioleciach, chociaż wiele dzisiejszych "obserwacji" (takich jak obfitość pierwiastka w gwieździe obliczona na podstawie jej widma) można by uznać za teorię w roku 1925. (i czary w 1900 r.). Po trzecie, okres rozkwitu publikacji obserwacyjnych nastąpił w okresie międzywojennym, kiedy istniało ich ponad 200, a zawierały one około jednej szóstej czasopism w porównaniu z jedną dziesiątą w 1900 i 1955 r.; odsetek ten spadł obecnie znacznie niżej. Czwarty trend dotyczy zmian w równowadze między narodami, w szczególności wzrostu składek ze Stanów Zjednoczonych. Wreszcie, co jest jeszcze bardziej oczywiste, jeśli spojrzymy na czasy późniejsze, stopniowa koncentracja "władzy wydawniczej" w kilku rękach redakcyjnych. W 1997 r. w Astronomical Journal ukazało się 5272 stron, 9136 w Monthly Notices, 17 141 w serii Astronomy and Astrophysics i jego suplementach oraz 22 948 w Astrophysical Journal, jego Letters and Suplements. Nic innego (z wyjątkiem być może materiałów konferencyjnych i abstraktów) nie może w najmniejszym stopniu konkurować pod względem wielkości i poziomu jakości w postrzeganiu społeczności astronomicznej.

Spektroskopia astronomiczna

Jako nauka pasywna, astronomia czerpie większość informacji z przychodzącego PROMIENIOWANIA z nieba. Taka analiza byłaby aż nazbyt prosta, gdyby nie kwantowa natura materii i promieniowania. Elektrony są związane na skwantowanych orbitach wokół swoich jąder i muszą emitować promieniowanie o dyskretnych długościach fal, które są dokładnie określone przez przejścia pomiędzy dyskretnymi stanami energetycznymi. Powstałe linie widmowe są niezwykle ważnymi narzędziami do identyfikacji i charakteryzowania źródła emitującego.

Sygnatury widmowe

Pierwszą koncepcję spektroskopii wywodzi się od Newtona, który jako pierwszy zauważył, że rozproszenie światła słonecznego na różne kolory przez pryzmat odzwierciedla właściwości samego światła słonecznego. Co więcej, niezwykłe jest to, że około 200 lat później, pod koniec XIX wieku, kiedy Balmer rozpoznał szereg wodorowy w liniach absorpcyjnych widma słonecznego, dostrzeżonych po raz pierwszy przez Fraunhofera, nastąpiło to przed odkryciem elektronu, teorią kwantową czy tezą Bohra. atom. Ta wskazówka z niebios, że materia będzie absorbować światło w bardzo grzeczny sposób, z widmem, które można modelować jako szereg wodorowy i które można zastosować do innych rodzajów atomów, stała się motywacją do rozwoju współczesnej fizyki. Dziś wiemy oczywiście, że skwantowane stany energetyczne elektronu krążącego wokół atomu zależą od masy jądra i ładunku jądrowego. Dlatego każdy izotop każdego gatunku atomowego ma charakterystyczny zestaw poziomów elektronowych. Stąd powstałe przejścia tworzą unikalny i jednoznaczny podpis umożliwiający identyfikację.

Pomiar ruchów na dużą skalę

Być może najważniejszą cechą widm atomowych jest częstotliwość spoczynkowa lub długość fali przejść. Są one bardzo dokładnie znane, albo poprzez obliczenia mechaniki kwantowej, albo pomiary laboratoryjne, z typową dokładnością większą niż jedna część na miliard. Ta wysoka dokładność umożliwia pomiar dowolnego przesunięcia długości fali spoczynkowej w wyniku ruchu źródła emitującego. Przesunięcia Dopplera mierzone za pomocą precyzyjnej spektroskopii są kamieniem węgielnym współczesnej astronomii. Tak różnorodne zjawiska, jak ruchy orbitalne gwiazd podwójnych, krzywe rotacji galaktyk i ruchy promieniowe wokół masywnych czarnych dziur to tylko kilka przykładów ważnych ruchów kinematycznych ujawnionych za pomocą spektroskopii. Być może najważniejszym ze wszystkich pomiarów było rozpoznanie przepływu galaktyk przez Hubble′a. Systematyczne PRZESUNIĘCIE CZERWONEJ widm galaktyk, rozpoznanie ich kosmologicznej natury i stale rosnącej wielkości ruchów wraz z odległością stanowią podstawę modelu rozszerzającego się wszechświata. Wynik ten ma ogromne znaczenie, że światło, które obserwujemy przy różnych przesunięciach ku czerwieni, pochodzi z różnych odległości. Ze względu na skończoną prędkość światła oznacza to, że mamy środki do badania historii wszechświata w funkcji czasu, próbkując jedynie w naszej własnej epoce. W ostatniej dekadzie przesunięte ku czerwieni ruchy Dopplera galaktyk wykorzystano do mapowania przestrzennego rozkładu materii w bardzo dużych skalach, co sugeruje powstawanie struktur we wczesnym Wszechświecie. Badanie galaktyk i KWASARÓW przy bardzo dużych przesunięciach ku czerwieni stało się jednym z podstawowych problemów współczesnej astrofizyki

Pomiar ruchów lokalnych

Ze względu na dyskretny charakter stanów energii elektronów, następujące przejścia mają nie tylko precyzyjnie określoną częstotliwość przejść, ale także wewnętrznie wąskie szerokości linii, zazwyczaj zdominowane przez ruchy Dopplera w systemach emitujących. Kiedy spektrometry stały się wystarczająco mocne, a detektory wystarczająco czułe, zaczęto rozpoznawać profile linii. Stwierdzono, że zmierzone profile widmowe niosą ważne informacje na temat lokalnej kinematyki. Na przykład niezwykle szerokie profile linii widoczne w kierunku GALAKTYK SEYFERTA zinterpretowano jako materię wypływającą z obszarów jądrowych, ponieważ na podstawie wielkości ruchów nie wydaje się, aby były one powiązane grawitacyjnie. Za dowód wypływających wiatrów uznano profile linii P Cygni w otoczkach gwiazdowych, z emisją przesuniętą ku czerwieni i absorpcją z przesunięciem ku błękitowi. Wynika to z założenia, że materię znajdującą się przed gwiazdą można zidentyfikować na podstawie jej absorpcji w stosunku do gwiazdy, podczas gdy jej widma mogą być przesunięte w kierunku błękitu w wyniku ruchu wypływającego w naszą stronę. Z tego samego argumentu odwrotne profile P Cygni, w których ruchy widm emisji i absorpcji są odwrócone, zinterpretowano jako skrócenie. W jeszcze innych źródłach asymetryczne profile linii ze znacznymi ulepszeniami po jednej stronie profilu linii były dowodem kinematycznym na obecność gazu w szoku. Stało się to jeszcze bardziej przekonujące w połączeniu z argumentami pobudzającymi. Stwierdzono, że w pobliskich układach zaobserwowane ruchy Dopplera w kierunku promieniowym są zgodne z wykrywalnymi WŁAŚCIWYMI RUCHAMI w linii wzroku. Jest to zgodne z naszymi oczekiwaniami, że Ziemia nie jest wyjątkowym punktem obserwacyjnym. Po usunięciu ruchów systematycznych widma często nadal wykazują ruchy nietermiczne. Oznacza to, że profile linii są szersze, niż można to wytłumaczyć samymi ruchami termicznymi. Doprowadziło to do badań turbulencji, zwłaszcza w odniesieniu do roli pól magnetycznych.

Pomiar wzbudzenia

Różne poziomy energii w atomie zostaną określone w zależności od warunków otoczenia, takich jak temperatura, gęstość cząstek i pole promieniowania. Próbkując odpowiedni zestaw przejść, możemy skonstruować rozkład populacji, a tym samym zmierzyć wzbudzenie źródła emitującego. W szczególności łatwo zauważyć, że sukcesywnie wyższe stany jonizacji będą wymagały większego wzbudzenia, ponieważ elektrony będą widzieć słabiej osłonięte jądro (patrz WZBUDZENIE I JONIZACJA). Zatem jeśli w wykrytym promieniowaniu dominują linie pochodzące od silnie zjonizowanych atomów, możemy wywnioskować, że obszar emitujący musi być zjonizowany przez energetyczne fotony. Względne siły różnych linii atomowych są zatem środkiem do identyfikacji typu widmowego gwiazdy, oprócz jej kolorów. Względne intensywności linii określają również twardość promieniowania. Pozwoliło nam to rozróżnić normalne jądra galaktyczne, których jonizację można łatwo wytłumaczyć promieniowaniem młodych gwiazd, od LINERSÓW i Seyfertów, których pole promieniowania musi być stopniowo zmniejszane., trudniej. Innym przykładem potęgi spektroskopii była identyfikacja obiektów HERBIG-HARO jako obszarów wzbudzenia uderzeniowego. Choć kiedyś uważano, że źródła te są miejscami młodych gwiazd, spektroskopia wykazała coś innego. Wraz z właściwymi ruchami i pomiarami prędkości Dopplera oraz profilami linii względne intensywności różnych zjonizowanych linii były zgodne z modelami wstrząsów.

Pomiar obfitości

Wykrycie licznych przejść atomowych pozwala na ocenę liczebności pierwiastków. Dzięki zwiększonej czułości można mierzyć ich liczebność nie tylko na Słońcu i innych gwiazdach, ale także w chmurach i galaktykach zewnętrznych. Dane takie mają kluczowe znaczenie dla sprawdzenia modeli NUKLEOSYNTEZY, zrozumienia obfitości metali w funkcji czasu i miernika ewolucji. Na przykład gwiazdy POPULACJA I i POPULACJA II można rozróżnić na podstawie ich metaliczności. To, czy CHMURY O DUŻEJ PRĘDKOŚCI w Galaktyce mają charakter pierwotny, czy pochodzą z dysku Galaktyki, można również określić, mierząc względną obfitość metali. Szczegółowe pomiary różnych pierwiastków w wyrzutach SUPERNOVA można również wykorzystać do sklasyfikowania rodzaju zdarzenia supernowego, a także do sprawdzenia mechanizmów wytwarzania pierwiastków.

Ważne linie atomowe

Istnieje wiele linii atomowych, które są szczególnie interesujące. Należą do nich linie Balmera w zakresie optycznym, linie Bracketta w bliskiej podczerwieni, linie rekombinacji radiowej, linia wodoru atomowego o długości 21 cm i linia zjonizowanego węgla w dalekiej podczerwieni. Ogólnie rzecz biorąc, linie widmowe zjonizowanego wodoru są ważne dla śledzenia REGIONÓW H II. W szczególności linie podczerwone i radiowe są przydatne do badania głęboko osadzonych źródeł.

Linie optyczne

Szereg Lymana wodoru, który składa się z linii rekombinacji kończących się w stanie n = 1 (gdzie n jest całkowitą liczbą kwantową orbit Bohra - Sommerfelda), występuje w zakresie fal ultrafioletowych. Szereg Balmera, którego linie kończą się w stanie n = 2, znajduje się w optyce. Linie wodoru wraz z liniami innych pierwiastków wykorzystano do klasyfikacji typów widmowych gwiazd. Temperatura w fotosferze, wywnioskowana z rodzaju wzbudzonych linii, jest ważną częścią diagramu HERTZSPRUNGA - RUSSELLA dotyczącego ewolucji gwiazd. Linia Hα przy 6563 Å, czyli linia Balmera n = 3-2, jest jedną z najbardziej przydatnych linii w pracach optycznych, śledzących obszary, które zostały fotojonizowane przez pobliską gwiazdę. Jest to szczególnie ważne w przypadku galaktyk zewnętrznych, ponieważ obszary jądrowe są często silnie zjonizowane przez koncentrację masywnych gwiazd lub aktywne jądro zasilane przez CZARNĄ DZIURĘ. Jasną emisję jądrową w linii Hα można wykorzystać do pomiaru jasności jonizującej, bezwzględnego ruchu gazu od jego przesunięcia ku czerwieni, co z kolei pozwala określić odległość na podstawie zależności Hubble′a, a co być może najważniejsze, charakteru jądra na podstawie obserwowanej szerokości linii. Pojawienie się SPECTROGRAPHÓW o wysokiej rozdzielczości pozwala astronomowi rozróżnić wąskie linie linii zgodne z rotacją galaktyki od znacznie szerszych linii, które mogą reprezentować wiatry wychodzące z obszaru jądrowego. W przypadku aktywnych jąder zasilanych procesami nietermicznymi promieniowanie ma twardsze widmo niż zwykłe światło gwiazd. Dlatego linie pochodzące z wyższych stanów wzbudzenia wodoru lub rzadszych pierwiastków stają się wykrywalne, a czasami nawet silniejsze. W ostatniej dekadzie spektroskopia optyczna poczyniła ogromne postępy dzięki budowie instrumentów o dużej aperturze, takich jak teleskopy Kecka i wystrzeleniu teleskopu Hubble′a. Większy obszar zbierania oznacza, że wykrywane są systemy o coraz większym przesunięciu ku czerwieni. Teleskop Hubble′a ze swoimi znakomitymi możliwościami obrazowania nad atmosferą oznacza, że spektroskopię można wykonywać z rozdzielczością poniżej 0,1. Niektóre z najlepszych dowodów na istnienie masywnych czarnych dziur w jądrach galaktyk pochodzą z pomiarów Hubble′a bardzo dużych ruchów obrotowych w środkowych kilku dziesiątych sekundy łukowej (patrz rysunek 1). W przypadku prac gwiazd jednym z najważniejszych osiągnięć było opracowanie spektrografów o ogromnych zdolnościach rozdzielczych. Spektrografy Eschelle′a są obecnie w stanie rozróżnić linię z rozdzielczością lepszą niż 100 000. Dopasowując wiele linii widmowych jednocześnie, można wykryć ruchy Dopplera rzędu kilku metrów na sekundę. Umożliwiło to rozwój badań planet pozasłonecznych, w przypadku których planety krążące po orbitach wokół pobliskich gwiazd można wywnioskować na podstawie wzajemnych ruchów gwiazd spowodowanych przyciąganiem grawitacyjnym ciała wtórnego. Z ruchów Dopplera tych chwiejących się gwiazd wywnioskowano obecnie około 20 planet.

Linie ultrafioletowe

Ponieważ seria Lymana leży w ultrafiolecie, do czasu udostępnienia teleskopów kosmicznych poczyniono niewielkie postępy. Za pomocą spektrografu o wysokiej rozdzielczości Goddarda na Teleskopie Hubble′a można zmierzyć linie absorpcyjne dla wielu gatunków atomowych i molekularnych. Umożliwiło to pomiar obfitości pierwiastków w źródłach galaktycznych i pozagalaktycznych. W szczególności zawartość metali jest ważna dla ustalenia, czy materia ma charakter pierwotny lub została już przetworzona w procesie powstawania gwiazd. Obfitość pierwiastków w obłokach międzygwiazdowych mierzona w fazie gazowej można porównać z liczebnością kosmiczną, aby wywnioskować, jaka część różnych pierwiastków jest zamknięta w ziarnach pyłu. Pomiar linii Lymana z deuteru można porównać z odpowiednimi liniami wodoru w celu oszacowania frakcji deuteru. Jest to oczywiście sprawdzenie syntezy pierwiastków we wczesnym Wszechświecie, ponieważ deuter nie powstaje w wyniku nukleosyntezy gwiazdowej. Frakcja deuteru zależy od pierwotnej gęstości barionów w ciągu pierwszych kilku minut Wielkiego Wybuchu. Wyższa gęstość barionów spowodowałaby szybsze tempo tworzenia helu 4, co prowadziłoby do zubożenia deuteru. Linie Ly α są również badane pod kątem absorpcji w stosunku do kwazarów. Ponieważ w drodze do odległych kwazarów znajduje się dużo wodoru, wszystkie linie absorpcyjne Lymana tworzą pasmo absorpcji po niebieskiej stronie linii Lymana, które jest nieodłączną częścią układu kwazara. Tak zwany LYMAN ALPHA FOREST stał się ważnym narzędziem do badania ośrodka międzygalaktycznego.



Chociaż linia Hα i inne linie optyczne są bardzo przydatne, są one podatne na efekty ekstynkcji pyłu. Jest to szczególnie uciążliwe w przypadku rdzeni obłoków molekularnych, w których młode gwiazdy są głęboko osadzone, lub w przypadku dysków jądrowych położonych krawędziowo, gdzie ekstynkcja w linii wzroku może mieć wiele wielkości w zakresie długości fal optycznych. Można porównać intensywność linii Hα i Hβ celu oszacowania skutków ekstynkcji. Jednak w praktyce jest to zawodne, jeśli obie linie są poważnie wymierane. Co więcej, jeśli ekstynkcja jest wystarczająco wysoka, linia Hα może w ogóle nie być wykrywalna. W bliskiej podczerwieni ekstynkcja spowodowana pyłem jest znacznie zmniejszona. W rezultacie linie wodoru Bracketta przy 2 &mmu;m i 4 μm okazały się bardzo przydatne do badania źródeł wbudowanych zarówno w Galaktyce, jak i w układach zewnętrznych. W średniej podczerwieni występują również linie o drobnej strukturze wynikające z interakcji spin-orbita elektronów, gdzie występuje różnica energii w zależności od tego, czy spin elektronu jest zgodny z orbitalnym wektorem pędu elektronu. Na przykład szczególnie przydatne przejście wynika z linii 2P3/2-2P1/2 dla Ne II przy 12,8 μm. Linię tę z powodzeniem wykorzystano do badania eegionów H II, mgławic planetarnych, jąder pozagalaktycznych i najsłynniejszych strumieni zjonizowanego gazu wokół Centrum Galaktyki. Wykryto, że zjonizowany gaz nie tylko ma postać strumieni krążących wokół centrum Galaktyki, ale także kinematykę określa się na podstawie profili linii Ne II. Orbity dopasowane do ruchów zjonizowanego gazu sugerują centralny, masywny obiekt o masie około trzech milionów mas Słońca. Wraz z rozwojem coraz bardziej czułych detektorów i teleskopów kosmicznych, okno bliskiej podczerwieni staje się bardzo ważnym narzędziem diagnostycznym dla galaktyk zewnętrznych. Obserwatorium Kosmiczne w Podczerwieni było w stanie wykryć i zmierzyć wiele linii atomowych w bliskiej i średniej podczerwieni w kierunku wielu systemów. Dostarczają one informacji na temat obfitości substancji chemicznych i wzbudzenia , a także ruchu tych galaktyk. Informacje te okazały się bardzo przydatne do zrozumienia, czy galaktyki świecące w podczerwieni mogą być napędzane samymi procesami formowania się gwiazd.

Neutralny wodór atomowy

Ponieważ 90% wszechświata ma postać wodoru, jest on niewątpliwie najważniejszym atomem. Podczas gdy pierwotna identyfikacja serii Balmera koniecznie dotyczyła światła optycznego, seria Lymana dotyczy ultrafioletu, podczas gdy serie Aschen, Brackett i późniejsze - podczerwieni. Wszystkie te linie wymagają dużej ilości energii do wzbudzenia, co czyni je dobrymi znacznikami w środowiskach gwiazdowych i otaczających je zjonizowanych obszarach. Dla niższych obszarów wzbudzenia istnieje linia odwrócenia spinu o długości 21 cm. Linia ta powstaje w wyniku oddziaływania spinów elektronu i protonu. Atom wodoru ma nieco więcej energii, gdy spiny są równoległe i antyrównoległe. Powstały foton po odwzbudzeniu emitowany jest przy długości fali 21 cm. Wymagane wzbudzenie jest tak małe, że linię tę można wykryć w całej Galaktyce i łatwo w galaktykach zewnętrznych. Co więcej, w odróżnieniu od linek optycznych, linka o długości 21 cm jest odporna na efekty ekstynkcji. Stąd informacje kinematyczne z profili linii można prześledzić w całej Galaktyce, nawet jeśli obserwujemy krawędź systemu na dysku i wewnątrz dysku. Jednym z pierwszych wyników 21 cm była identyfikacja szeregu RAMION SPIRALNYCH w Galaktyce, wcześniej niewidzianych. Ta 21-centymetrowa linka stała się najważniejsza narzędzie do badania dynamiki galaktycznej, oddziałujących galaktyk, środowiska gromad i przesunięć ku czerwieni w pobliskim wszechświecie. Jedną z ważnych cech linii wodoru jest to, że może ona istnieć tam, gdzie nie ma materii gwiazdowej. Stąd daleko w Galaktyce, gdzie materia nie jest już wystarczająco gęsta, aby tworzyć gwiazdy, wciąż możemy prześledzić MATERIĘ MIĘDZYGWIAZDOWĄ. Badania w odległości 21 cm wykazały, że często galaktyki zawierają kilka razy więcej wodoru atomowego niż ich zasięg optyczny. Stwierdzono dwa niezwykle ważne efekty. Najpierw w GALAKTYKACH SPIRALNYCH, gdzie możemy zobaczyć ruchy rotacyjnych gwiazd i gazu odkryto, że krzywa rotacji galaktyki prześledzona w wodorze atomowym wydaje się płaska na tyle, na ile jesteśmy w stanie wykryć wodór. Sugeruje to, że w zewnętrznych częściach galaktyki znajduje się mnóstwo materii. W przeciwnym razie krzywa rotacji będzie opadać wraz ze wzrostem promienia ze względu na malejące działanie grawitacyjne zamkniętej masy wraz ze wzrostem odległości. To jeden z kluczowych wyników sugerujących istnienie CIEMNEJ MATERII. Jeśli jest tam wystarczająca ilość ciemnej materii, może to mieć wpływ na pytanie, czy Wszechświat jest otwarty, czy zamknięty, tj. czy jest wystarczająco dużo materii, aby ograniczyć ekspansję Wszechświata Hubble′a. Drugim ważnym rezultatem było wykrycie osobliwych ruchów i struktur w zewnętrznych częściach galaktyk, które można przypisać interakcjom z pobliskimi układami . Takich interakcji zwykle nie widać w układzie optycznym, który śledzi wewnętrzne części galaktyki. Ma to konsekwencje dla dynamicznej natury powstawania i ewolucji galaktyk, a także dla powstawania i zasilania masywnych czarnych dziur, zwłaszcza w oddziałujących układach. Linie radiowe i linie dalekiej podczerwieni W przypadku wodoru wyższe linie rekombinacji, kończące się na wyższych stanach n, występują w zakresie fal radiowych. Główną zaletą tych linii jest brak ekstynkcji pyłu na falach radiowych, co sprawia, że intensywność tych linii jest bardzo dokładną miarą całkowitej jasności jonizującej. Główną wadę badań radiowych, czyli grubą rozdzielczość kątową, przezwyciężono dzięki opracowaniu INTERFEROMETRÓW RADIOWYCH. Podczas gdy linie rekombinacji na długościach fal centymetrowych mogą podlegać efektom nietermicznego wzbudzenia, linie na falach milimetrowych są na ogół wolne od takich efektów i mają siłę linii prawie równą emisji kontinuum radiowego z obszarów H II. W dalekiej podczerwieni istnieje wiele ważnych linii. Jedną z interesujących linii jest linia drobnej struktury C II 2P3/2-2P1/2


Linie molekularne

Chociaż za pomocą optycznych linii absorpcyjnych wykryto kilka cząsteczek, takich jak CN, wrota do astronomii molekularnej otworzyły się dopiero pod koniec lat sześćdziesiątych. Było to częściowo spowodowane koniecznością oczekiwania na rozwój technologii detektorów. Jednak istniał również wielki sceptycyzm, czy cząsteczki w ogóle mogą istnieć w ośrodku międzygwiazdowym. Pesymizm ten opierał się częściowo na niskiej gęstości gazu związanej z atomowymi chmurami wodoru, co sugerowało, że cząsteczki ulegną dysocjacji pod wpływem pól promieniowania otoczenia. Z perspektywy czasu możemy teraz stwierdzić, że skoro gwiazdy powstają z gazu, gaz musi przejść przez gęstą fazę, która jest znacznie gęstsza niż faza atomowa. Taka gęsta faza zapewniałaby oczywiście osłonę przed promieniowaniem międzygwiazdowym i umożliwiałaby tworzenie się cząsteczek. Jednak w latach sześćdziesiątych XX wieku nie istniały żadne teoretyczne podstawy dotyczące FORMOWANIA GWIAZD, CHEMII MIĘDZYGWIAZDOWEJ ani ewolucji CHMUR MIĘDZYGWIAZDOWYCH. Wytrwałość kilku radioastronomów doprowadziła do odkrycia OH, H2O, NH3, CO i wielu innych cząsteczek.

Cząsteczki

Podczas gdy przejścia atomowe zazwyczaj mieszczą się w zakresie długości fal optycznych lub bliskiej podczerwieni, przejścia molekularne zazwyczaj zachodzą przy znacznie dłuższych falach. Dzieje się tak dlatego, że w przypadku cząsteczek możliwe są również ruchy obrotowe i wibracyjne atomów w cząsteczce. Zapewniają one nowe zestawy skwantowanych stanów energetycznych. Przejścia między stanami rotacyjnymi zazwyczaj przypadają na długości fal radiowych, a przejścia wibracyjne zazwyczaj na podczerwień. Podczas gdy przejścia atomowe charakteryzują się temperaturami rzędu tysięcy kelwinów, przejścia molekularne wymagają temperatur od dziesiątek do setek kelwinów. Cząsteczki te są zatem dobrymi sondami dla większości Wszechświata, który jest chłodny przy temperaturach bliskich 10 K. Od wczesnego wykrycia kluczowych cząsteczek H2O i NH3 pod koniec lat 60. XX wieku oraz CO na początku lat 70. XX w. zidentyfikowano ponad 110 gatunków molekularnych zostały obecnie zidentyfikowane w ośrodku międzygwiazdowym. Dostępność przejść molekularnych o różnych wymaganiach dotyczących wzbudzenia umożliwia badanie ośrodka międzygwiazdowego w szerokiej kombinacji temperatur i gęstości. W szczególności przejścia o wysokich momentach dipolowych z powodzeniem wykorzystano do badania bardzo gęstych obszarów obłoków molekularnych, w których powstają gwiazdy. Dzięki ogromnemu udoskonaleniu technologii detektorów na falach radiowych i budowie teleskopów o dużej aperturze, cząsteczki są obecnie łatwo wykrywane w galaktykach zewnętrznych. Być może najważniejszymi wynikami było odkrycie i uświadomienie sobie, że obłoki molekularne są dominującym składnikiem ośrodka międzygwiazdowego, że linie molekularne wraz z pyłem są ważnymi czynnikami chłodzącymi dla fazy gazowej oraz że cząsteczki mogą śledzić masę, temperaturę, gęstość i ruchy ośrodka międzygwiazdowego.

Rozwój oprzyrządowania

Postęp w dziedzinie spektroskopii atomów i cząsteczek w astronomii nastąpił dzięki szeregowi innowacji technologicznych. Opracowano spektroskopię siatkową o coraz większej rozdzielczości. Podczas gdy spektroskopia długich szczelin może uzyskać widma wycinka nieba, obecnie panuje trend w kierunku spektroskopii wielowłóknowej. W tym schemacie setki włókien optycznych jest rozmieszczonych jednocześnie na wcześniej określonych źródłach docelowych w płaszczyźnie ogniskowej. Włókna są następnie podawane do spektrometru w celu pomiaru widm dla setek źródeł jednocześnie. W przypadku fal radiowych interferometria ze spektroskopią jest jeszcze skuteczniejsza, ponieważ jednocześnie obrazowana jest cała wiązka główna jednego z elementów teleskopu układu. Dzięki opracowaniu potężnych cyfrowych KORELATORÓW można analizować duże szerokości widma dla każdego piksela wiązki pierwotnej. Duże postępy osiąga się także w zakresie kompensacji skutków atmosferycznych. Platformy kosmiczne, wysoko latające samoloty i balony otworzyły nowe okna widmowe. OPTYKA ADAPTACYJNA na falach optycznych i techniki samokalibracji na falach radiowych skutecznie kompensują atmosferyczne efekty WIDZENIA. Oznacza to, że możliwa jest spektroskopia słabszych źródeł. Oczywiście technologia detektorów uległa poprawie dla wszystkich długości fal, podczas gdy budowane są coraz większe teleskopy. Wysiłki te przyniosły ogromną poprawę czułości.

Astronomia i astrofizyka w Indiach

Rozwój astronomii i astrofizyki w Indiach nastąpił głównie od czasu uzyskania przez kraj niepodległości w 1947 r. Obecne prace są prowadzone w kilku wybranych instytutach badawczych i na niektórych wydziałach uniwersyteckich. Indyjskie Towarzystwo Astronomiczne zrzesza około 300 pracujących naukowców z A&A oraz kolejnych 50-60 absolwentów.

Udogodnienia

W sektorze instytucjonalnym do najważniejszych obiektów należą Teleskop Optyczny Vainu Bappu o średnicy 2,3 m i 1-metrowy teleskop w Kavalur w południowych Indiach, pod kierownictwem Indyjskiego Instytutu Astrofizyki (IIA) w Bangalore, 1-metrowy teleskop w Obserwatorium Stanowe Uttar Pradesh (UPSO) w Naini Tal u podnóża Himalajów oraz 1-metrowy teleskop na podczerwień w Gurushikhar w południowym Radżastanie pod kierownictwem Laboratorium Badań Fizycznych (PRL) w Ahmedabadzie. Teleskopy słoneczne istnieją w Kodaikanal w południowych Indiach, w UPSO w Naini Tal i w Udaipur, pierwszy zarządzany jest przez IIA, a trzeci przez PRL. W latach sześćdziesiątych XX wieku radioastronomia wkroczyła na szeroką skalę wraz z paraboliczną, cylindryczną anteną o długości 550 m, ustawioną na północno-południowym zboczu wzgórza w pobliżu południowego kurortu w Ooty, przy czym oś cylindra była równoległa do osi Ziemi. Teleskop ten jest obsługiwany przez TATA INSTITUTE OF FUNDAMENTAL RESEARCH (TIFR) w Bombaju, który właśnie zakończył jeszcze bardziej ambitny projekt znany jako Giant Metrewave Radio Telescope (GMRT) w Khodad, około 90 km od Pune. System ten, kontrolowany i obsługiwany przez KRAJOWE CENTRUM ASTROFIZYKI RADIOWEJ (NCRA) w Pune, składa się z 30 anten, każda o średnicy 45 m, rozmieszczonych na układzie ramion w kształcie litery Y o długości około 14 km. Działa optymalnie w zakresie długości fal metrowych. Przy niższych częstotliwościach (34,5 MHz) w Gauribidnur niedaleko Bangalore znajduje się układ radiowy w kształcie litery T, obsługiwany wspólnie przez IIA i Instytut Badań Ramana (RRI) w Bangalore. Indyjscy astronomowie zbudowali podobną tablicę na wyspie Mauritius. W swojej siedzibie w Bangalore RRI posiada również 10-metrową antenę do astronomii fal milimetrowych. Astronomia kosmiczna w Indiach rozpoczęła się od badań promieni kosmicznych pod kierunkiem HJ Bhabha w TIFR, a później pod kierunkiem VA Sarabhai w PRL. Krajowa placówka balonowa w Hyderabad obsługuje różne eksperymenty z balonami. Działalność ta przekształciła się w pełnoprawny program kosmiczny, który obecnie rutynowo wysyła satelity i przygotowuje ładunki o charakterze komercyjnym i naukowym. Jej siedziba znajduje się w Indyjskiej Organizacji Badań Kosmicznych w Bangalore. W sektorze uniwersyteckim jedynym znaczącym działającym obiektem jest 1,2-metrowy teleskop w Obserwatorium Japal Rangapur pod kontrolą Uniwersytetu Osmania w Hyderabadzie. Jednakże główne źródło zasobów dla uniwersytetów zostało utworzone w 1988 r. przez Komisję ds. stypendiów uniwersyteckich (UGC) w New Delhi w Pune. Centrum to, znane jako Międzyuczelniane Centrum Astronomii i Astrofizyki (IUCAA), zapewnia doskonałą bibliotekę zasobów A&A, zaawansowane centrum komputerowe z oprogramowaniem związanym z A&A, centrum danych i laboratorium oprzyrządowania. Z obiektów tych mogą korzystać odwiedzający pracownicy naukowi i studenci uniwersytetów, których podróże pokrywane są z dotacji zapewnianych przez UGC w IUCAA. IUCAA pomaga także pracownikom naukowym uniwersytetów w korzystaniu z obiektów obserwacyjnych w Indiach i za granicą w ramach różnych programów obserwacji gościnnych. Na różnych etapach budowy znajdują się trzy nowe teleskopy optyczne. IUCAA będzie miała 2-metrowy teleskop w pobliżu Giravali, około 70 km od Pune, podczas gdy IIA zbudowała niedawno 2-metrowy teleskop w Han Le, na wysokości 4000 m w pobliżu Ladakhu w północnych Himalajach. UPSO i TIFR wspólnie planują instalację 3-metrowego teleskopu w Devasthal, niedaleko Naini Tal.

Obszary badawcze

INDYJSKA ASTRONOMIA tradycyjnie zajmuje się astronomią i spektroskopią gwiazd, astronomią słoneczną i planetarną. Jednak w ciągu ostatnich trzech dekad XX wieku rozszerzyła swój zakres o fizykę Słońca, w tym oscylacje Słońca, astronomię i modelowanie pulsarów, problemy promieni kosmicznych i astrofizykę wysokich energii, soczewkowanie grawitacyjne, zjawiska pozagalaktyczne astronomia i kosmologia. Teleskop Ooty był odpowiedzialny za szeroko zakrojone badanie rozmiarów kątowych źródeł radiowych metodą zakrycia Księżyca. Kosmologia teoretyczna rozciąga się od abstrakcyjnych modeli matematycznych w ogólnej teorii względności (ponieważ Indie zawsze miały silną szkołę w zakresie ogólnej teorii względności) po dopasowanie modeli do obserwacji dyskretnych populacji źródeł pozagalaktycznych. Dzięki mniej sztywnemu spojrzeniu na alternatywy dla idei głównego nurtu, rozkwitły one w Indiach bardziej niż na Zachodzie. Indyjska astronomia dała o sobie znać na arenie międzynarodowej. Nieżyjący już Vainu BAPPU był prezesem Międzynarodowej Unii Astronomicznej, natomiast kilku indyjskich astronomów zajmowało stanowiska przewodniczących różnych komisji IAU.

Astrofizyczne granice właściwości cząstek

Odkąd NEWTON zaproponował, że Księżyc na swojej orbicie podlega tym samym prawom ruchu, co jabłko spadające z drzewa, niebo stało się ulubionym laboratorium do testowania podstawowych praw fizyki, zwłaszcza teorii grawitacji Newtona i EINSTEINA. Niedawno astrofizyka i kosmologia stały się kluczowymi poligonami doświadczalnymi dla mikrokosmosu cząstek elementarnych. Ten obszar badań naukowych jest częścią dyscypliny często nazywanej fizyką astrocząstek lub astrofizyką cząstek. Istnieje kilka ważnych przypadków, w których niewyjaśnione zjawiska astrofizyczne można przypisać nowym cząstkom elementarnym lub nowym właściwościom znanych cząstek; Dobrymi przykładami są deficyt neutrin słonecznych i problem ciemnej materii. W tym miejscu omówiona zostanie inna szeroko rozpowszechniona metoda, w której wykorzystuje się ustalone właściwości gwiazd, a nawet całego wszechświata, aby ograniczyć możliwe modyfikacje spowodowane nowymi właściwościami cząstek elementarnych.

Masy neutrin

Jednym z najwcześniejszych astrofizycznych ograniczeń cząstek jest kosmologiczne powiązanie z masami trzech znanych NEUTRINO, elektronu, mionu i neutrina taonowego ?e, ?μ i ?τ. Główną ideą jest to, że cząstki te, pomimo swoich słabych interakcji, musiały zostać wytworzone termicznie w gorącym i gęstym wczesnym Wszechświecie, tworząc w ten sposób "kosmiczne morze neutrin", podobnie jak kosmiczne mikrofalowe promieniowanie tła 3K. Szczegółowe obliczenia ujawniają, że obecna gęstość neutrin i antyneutrin wynosi około 113 cm-3 dla każdego z trzech "smaków" ve, vμ i v?τ, co można porównać z fotonami mikrofalowymi o powierzchni około 400 cm-3. Masy wszystkich neutrin muszą odpowiadać mv 40 eV, w przeciwnym razie ich działanie grawitacyjne spowolniłoby ekspansję Wszechświata poniżej obserwowanego tempa. To odkrycie ?μ w 1962 r. wraz z odkryciem kosmicznego mikrofalowego tła w 1963 r. zainspirowało S. S. Gershteina i Ya B. ZELDOVICHA do wysunięcia tej tezy w 1966 r. Bezpośrednie eksperymentalne granice m? są znacznie mniej restrykcyjne niż granice kosmologiczne, z wyjątkiem ?e i nie wiadomo, czy neutrina w ogóle mają masę. Jednakże wiele dowodów na "oscylacje smaku neutrin" zgromadzono na podstawie pomiarów neutrin atmosferycznych i słonecznych, co sugeruje, że mają one masy, a różnice mas między nimi są niezwykle małe, mniejsze niż około 0,1 eV. W każdym razie masy neutrin wydają się być znacznie mniejsze niż masy innych podstawowych fermionów, elektronu i jego dwóch cięższych braci (mionu i tau), a także sześciu kwarków . Pochodzenie tego widma masowego pozostaje tajemnicą fizyki cząstek elementarnych. Kosmologiczna granica m? stanowi standardowy argument ograniczający właściwości wszelkich teoretycznie proponowanych nowych cząstek, takich jak monopole, aksiony lub cząstki supersymetryczne. Ich udział w kosmicznej gęstości masy musi być zgodny z wiekiem i tempem ekspansji współczesnego wszechświata. Zwykle ich gęstość reliktowa, czyli gęstość cząstek, która przetrwała z wczesnego Wszechświata, jest trudniejsza do oszacowania niż w przypadku neutrin, gdzie po prostu skaluje się wraz z gęstością kosmicznych fotonów mikrofalowych. Ogólnie rzecz biorąc, należy martwić się szczegółowym mechanizmem pierwotnej produkcji i szybkością anihilacji nowych cząstek. Zupełnie inna astrofizyczna metoda ograniczania mas neutrin opiera się na czasie przelotu ze źródła impulsowego. Neutrina o masie m?, wyemitowane ze źródła w odległości D w czasie t = 0, ale o różnych energiach E?, docierają do

t = D / c√1 - (m?c2/Ee)2

gdzie Ev ≥ mvc2 to całkowita energia łącznie z masą spoczynkową, a c to prędkość światła. Są opóźnione, ponieważ poruszają się wolniej niż c. Mierzenie czasów ich przybycia i energii pozwala w zasadzie wyodrębnić mv . Supernowa typu II (SN), czyli zapadnięcie się masywnej gwiazdy, powoduje powstanie ogromnego wybuchu neutrin trwającego kilka sekund. Zdarzenie takie zostało zmierzone raz 23 lutego 1987 roku, kiedy antyneutrina elektronowe z SN 1987A w DUŻYM CHMURZE MAGELLANIC (D ≈ 50 kpc = 163 000 lat świetlnych) zostały zarejestrowane w trzech działających wówczas detektorach neutrin . Sygnał jest kompatybilny z oczekiwanym wewnętrznym czasem trwania wybuchu, bez dowodów na rozproszenie w czasie przelotu, co prowadzi do limitu m?e 20 eV. Supernowe w naszej galaktyce lub w jej pobliżu są rzadkie, być może kilka na stulecie. Jeśli jednak ktoś miał szczęście i zaobserwował kolejny wybuch neutrina z jednym z nich, znacznie większym z dostępnych obecnie detektorów, można by je poprawić, nawet w przypadku ?? i ??, które są trudniejsze do wykrycia. Dzięki nadchodzącym dużym "teleskopom neutrinowym" być może będzie można mierzyć impulsy neutrin z bardziej spekulacyjnych źródeł, takich jak rozbłyski gamma, z potencjalnie znacznie lepszą czułością m?.

Nukleosynteza Wielkiego Wybuchu

Inny standardowy argument kosmologiczny opiera się na tempie ekspansji wczesnego Wszechświata w epoce pierwotnej NUKLEOSYNTEZY, około 3 minuty po Wielkim Wybuchu. Gęstość promieniowania w tym czasie determinuje szybkość ekspansji, co z kolei wpływa na zawartość pierwotnego helu, która, jak się szacuje, wynosi 22-25% masowych, resztę stanowi wodór oraz śladowe ilości deuteru, helu-3 i litu-7. Niezależnie od niepewności, zaobserwowane pierwotne liczebności pierwiastków świetlnych implikują gęstość promieniowania odpowiadającą dwóm do czterech rodzin neutrin, ładnie obejmując w nawiasie trzy znane rodzaje ve, vμ i vτ. Są to jedyne możliwe rodziny, ponieważ dodatkowe rodziny przyczyniłyby się do szerokości rozpadu bozonu cechowania Z0, który jest precyzyjnie mierzony od około 1990 r. Jednakże metodę nukleosyntezy Wielkiego Wybuchu, polegającą na liczeniu rodzin neutrin, można zastosować do bardziej egzotycznych cząstek, które są nie objęte argumentem szerokości zaniku Z0. Każda forma promieniowania, która została wzbudzona termicznie we wczesnym Wszechświecie, przyczynia się do tempa ekspansji. Dlatego siła interakcji i masy wszelkich proponowanych nowych cząstek muszą przejść test, czy nie prowadzą one do nadmiernej kosmicznej gęstości masy i energii w epoce nukleosyntezy. Masa fotonów W przeciwieństwie do neutrin, od których oczekuje się masy, fotony powinny być całkowicie bezmasowe, co jest teoretycznym założeniem wymagającym weryfikacji eksperymentalnej. Limity czasu przelotu sygnału radiowego pulsarów nie są dużo lepsze niż około 10-11 eV, czyli częstotliwość plazmy ośrodka międzygwiazdowego imitująca masę fotonu. Badania laboratoryjne prawa Coulomba dają mγ 10-14 eV; nie znikający mγ zmodyfikowałby zachowanie odwrotne kwadratowe. Podobnie zmienność przestrzenna wyższych wielobiegunowych składników wielkoskalowych pól magnetycznych daje 0,6 × 10-15 eV i 0,8 × 10-15 eV odpowiednio z pola magnetycznego Jowisza i Ziemi. Najbardziej restrykcyjna granica 10?27 eV opiera się na równowadze magneto-grawitacyjnej gazu w MAŁYM OBŁOKU MAGELLANA, która wymaga, aby zasięg oddziaływania przekraczał charakterystyczną skalę pola wynoszącą około 3 kpc. Ta granica jest zaskakująco bliska 10-33 eV, gdzie długość fali fotonu Comptona przekraczałaby promień obserwowalnego Wszechświata i tym samym przestałaby mieć jakiekolwiek zauważalne konsekwencje.

Gwiezdna utrata energii

Szczególnie udany astrofizyczny argument przemawiający za ograniczeniem właściwości słabo oddziałujących cząstek o małej masie, zwłaszcza neutrin, wywodzi się od J. Bernsteina, M. Rudermana i G. Feinberga (1963). Argumentowali, że przypuszczalny magnetyczny moment dipolowy neutrina prowadziłby do niedopuszczalnie dużej utraty energii w gwiazdach w wyniku procesu plazmowego ,



który jest kinematycznie dozwolony, ponieważ częstotliwość plazmy we wnętrzu gwiazdy nadaje fotonom efektywną masę. Ten kanał utraty energii przyczyniłby się do emisji neutrin z wnętrz gwiazd w standardowych procesach. Niestandardowy kanał strat energii, spowodowany emisją neutrin z niestandardowymi sprzężeniami lub emisją hipotetycznych cząstek, takich jak aksiony, może powodować różnorodne obserwowalne efekty. Pozostałości gwiazd (BIAŁE KARLERY, GWIAZDY NEUTRONOWE) schładzałyby się szybciej. Normalne gwiazdy zużywałyby paliwo jądrowe szybciej, a tym samym spalałyby się wcześniej. Czas życia gwiazd o gałęziach poziomych spalających hel, mierzony liczbą gromad kulistych, jest szczególnie precyzyjnym miernikiem nowych kanałów utraty energii. Podobnie możliwe opóźnienie zapłonu helu w wyniku chłodzenia cząstek rdzeni czerwonego olbrzyma może być dobrze ograniczone przez obserwowaną granicę jasności wierzchołka gałęzi czerwonego olbrzyma w gromadach kulistych. Nawet nasze Słońce zapewnia interesujące ograniczenia. Zwiększona szybkość spalania spowodowałaby, że byłby on bardziej rozwinięty niż odpowiada jego wiekowi, powodując zauważalne przesunięcia jego precyzyjnie zmierzonych częstotliwości oscylacji pmod, co jest dziedziną badań znaną jako heliosejsmologia. Argumenty tego rodzaju stosowano do najróżniejszych przypadków; być może najbardziej użytecznym ograniczeniem jest ograniczenie μ? ≾ 3×10-12μB na magnetycznym momencie dipolowym dowolnego neutrina. Tutaj μB = eh/2me, gdzie e jest ładunkiem elektronu, a ja masą elektronu, jest magnetonem Bohra odpowiadającym momentowi magnetycznemu elektronu, który jest zwykle stosowany jako miara możliwych momentów magnetycznych neutrin. Eksperymenty laboratoryjne dają znacznie słabsze limity. Podobnie można wyprowadzić granicę hipotetycznego ładunku elektrycznego neutrina, ev ≾ 2 × 10-14e, mającą zastosowanie do wszystkich smaków. W przypadku zmierzonych antyneutrin elektronowych z SN 1987A galaktyczne pole magnetyczne spowodowałoby odchylenie zależne od energii, a tym samym rozproszenie sygnału w czasie przelotu; wynikowa granica wynosi e?e ≤? 3 × 10-17e. Granica laboratoryjna, oparta na zachowaniu ładunku w rozpadzie β, wynosi e?e ≾ 3 × 10-21e. Jeśli neutrina mają masę, mogą ulec rozkładowi; jednym z możliwych kanałów jest emisja fotonu. Brak anomalnych strumieni promieniowania X lub gamma ze Słońca lub w połączeniu z wybuchem neutrina SN 1987A, a także ograniczenia dotyczące deformacji widmowej natury ciała doskonale czarnego w kosmicznym mikrofalowym tle ograniczają ten kanał rozpadu radiacyjnego. Jednakże element matrycy tego procesu zależy od momentu przejścia elektromagnetycznego, który podlega powyższemu ograniczeniu utraty energii gwiazdowej; jest bardziej restrykcyjny dla m? 1 eV niż bezpośrednie ograniczenia rozpadu fotonów.

Supernowa 1987A

Sygnał neutrina SUPERNOVA 1987A umożliwił szczególnie przydatne zastosowanie argumentu dotyczącego utraty energii gwiazdowej. Powstająca gwiazda neutronowa, która powstała po zapadnięciu się, ochładza się w wyniku emisji neutrin w ciągu kilku sekund, a skala czasu jest wyznaczona przez szybkość dyfuzji neutrin; gwiazda protoneutronowa jest tak gorąca i gęsta, że nawet neutrina nie mogą swobodnie uciec. Konkurujący kanał chłodzący ze słabiej oddziałującymi cząstkami, które nie są uwięzione, skróciłby i osłabił sygnał neutrina, ponieważ całkowita ilość energii, czyli energia wiązania grawitacyjnego gwiazdy neutronowej, jest stała. Ten prosty argument był stosowany w wielu przypadkach, ale być może najciekawszy jest ten dotyczący aksjonów, hipotetycznych cząstek o małej masie, które pierwotnie zaproponowano w kontekście chromodynamiki kwantowej, teorii silnego oddziaływania między kwarkami. Później odkryto, że aksjony są również dobrymi kandydatami na cząstki ciemnej materii wszechświata. Modele Axion zasadniczo charakteryzują się jednym dowolnym parametrem, którym można wybrać masę ma. Wymóg, aby osie nie przenosiły większości energii SN 1987A, przekłada się na granicę ma ≲ 10-2 eV. Z drugiej strony wymóg, aby ich kosmiczna gęstość masy nie była zbyt duża, prowadzi do ma ≳ 10-5 eV, w przeciwieństwie do powyższego przypadku neutrin, dla których kosmologia zapewnia górną granicę masy. W pozostałym zakresie mas mogą istnieć osie, które dostarczają większość lub całość kosmicznej ciemnej materii.

Dziwne gwiazdy

Podstawowymi składnikami materii jądrowej są kwarki, a nie protony i neutrony, i można się zastanawiać, czy gwiazdy neutronowe nie przechodzą przejścia fazowego do ośrodka składającego się z wolnych kwarków. Nawet dziwny kwark jest stosunkowo lekki, więc można spekulować, że "gwiazdy neutronowe", pozostałość masywnych gwiazd po zapadnięciu się supernowej typu II, są w rzeczywistości "dziwnymi gwiazdami" składającymi się z silnie oddziałującego ośrodka up (u), kwarki dolne (d) i dziwne (s). Zaskakująco trudno jest rozróżnić te dwa przypadki obserwacyjnie. Uważa się, że dziwne gwiazdy mogą obracać się szybciej, zanim się rozpadną, więc pulsary submilisekundowe, jeśli kiedykolwiek zostaną wykryte, mogłyby być może rozwiązać kwestię stanu podstawowego materii jądrowej. Podsumowując, astrofizyka i kosmologia zapewniają ważne ograniczenia dotyczące właściwości i interakcji cząstek elementarnych, które często uzupełniają się z tym, co można zmierzyć w eksperymentach laboratoryjnych.

Dżety astrofizyczne

W astronomii istnieje wiele sytuacji, w których stwierdza się, że gaz krąży wokół centralnej masy grawitacyjnej. Dzieje się tak w GWIAZDACH PODWÓJNYCH, gdzie jednym ze składników jest zwarty obiekt - biały karzeł, gwiazda neutronowa lub czarna dziura - a masa jest przenoszona od normalnego gwiezdnego towarzysza. Dzieje się tak w jądrach galaktyk, gdzie obiektem grawitacyjnym jest masywna czarna dziura, a także ma to miejsce podczas najwcześniejszej fazy ewolucji protogwiazdy. Te przepływy gazu nazywane są DYSKAMI AKRECJI i często towarzyszą im szybkie wypływy, uruchamiane w kierunkach przeciwnych, mniej więcej prostopadle do dysków. Wypływy są zwykle nazywane strumieniami i w tym artykule opisano część tego, co o nich wiemy. Pierwszy przykład astrofizycznego dżetu odkrył HEBER CURTIS w 1918 roku przy użyciu Obserwatorium Licka w Kalifornii. Obserwował galaktykę znaną jako M87 w gromadzie galaktyk w Pannie, a kiedy zbadał jądro, znalazł "ciekawy promień prosty". . . najwyraźniej połączony z jądrem cienką linią materii. Była to niezwykła obserwacja (dokonana przez wybitnego astronoma), a dżet w M87 jest nadal jednym z najdokładniej zbadanych obiektów tej klasy. To, co obserwujemy bezpośrednio w M87, to dość prosty obiekt o długości około 2 kpc. Można go dostrzec od długich fal radiowych po wysokoenergetyczne promieniowanie rentgenowskie i stwierdzono, że na całej swojej długości wykazuje około ośmiu obszarów o dużej intensywności, zwanych "węzłami". Dżet można prześledzić w skali rzędu 0,01 pc, która jest mniejsza niż 10-5 razy jego całkowita długość i mniej niż 100 razy promień czarnej dziury, która, jak stwierdzono, znajduje się w jądrze M87 i której masa jest mierzona na około 3 miliardy mas Słońca (patrz M87: JĄDRO I STRUMIEŃ. Wiemy, że gaz wypływa z czarnej dziury w M87, ponieważ możemy użyć bardzo długiej interferometrii bazowej do pomiaru jego prędkości. Odkryto, że że niektóre części dżetu wydają się poruszać na zewnątrz z prędkością, która wydaje się być aż sześciokrotnie większa od prędkości światła. W rzeczywistości jest to dość powszechne zjawisko zwane ekspansją nadświetlną. Nie narusza to szczególnej teorii względności (co stanowi, że wszelki ruch materialny zachodzi wolniej niż prędkość światła). Zamiast tego nadświetlna ekspansja jest iluzją, która wymaga jedynie, aby gaz w strumieniu poruszał się w naszą stronę z prędkością bliską prędkości światła. Z tego powodu dżety jak które w M87 są często stylizowane na dżety relatywistyczne. To całkiem naturalne, że te strumienie poruszają się z prędkością bliską prędkości światła; w końcu jest to prędkość ucieczki z centralnej czarnej dziury. Dżet w M87 wykazuje inną wspólną cechę tych obiektów, a mianowicie, że jego przeciwrównoległy dżet, którego obecność oczekuje się, nie został jeszcze wykryty. To jest ilustracja efektu zwanego ABERRACJĄ. Kiedy źródło promieniowania porusza się z prędkością bliską prędkości światła, wydaje się, że emituje emisję wzdłuż kierunku swojego ruchu. W rezultacie, jeśli źródło się do nas zbliży, będzie wyglądało na bardzo jasne, natomiast jeśli źródło się od nas oddali, będzie wydawało się słabe. To wyjaśnia, dlaczego jesteśmy w stanie wykryć tylko jeden dżet w M87 i dlaczego duża część najjaśniejszych źródeł, które widzimy, wykazuje RUCH NADŚWIETLNY. Przejdźmy teraz do węzłów. Uważa się, że są to fale uderzeniowe powstające w wypływających strumieniach, gdy na przykład prędkość strumienia u źródła wzrasta o wartość większą niż prędkość dźwięku w strumieniu, a zatem jest większa niż prędkość, z jaką informacja może być przekazywana przez strumień. poruszający się płyn strumieniowy. W przepływie musi w końcu powstać silna nieciągłość uderzeniowa, co okazuje się doskonałym miejscem do przyspieszania wysokoenergetycznych, relatywistycznych elektronów o energiach do 100 TeV. Elektrony te promieniują, wirując spiralnie w polu magnetycznym przenikającym dżet - proces znany jako PROMIENIOWANIE SYNCHROTRONOWE - i uważa się, że to właśnie jest odpowiedzialne za całą emisję promieniowania radiowego w zakresie rentgenowskim. Dżet M87 jest stosunkowo słaby. Wiemy o nim tak dużo, ponieważ jest tak blisko. W przeszłości niemal na pewno był zaopatrywany w paliwo gazowe w znacznie większym tempie niż obecnie. Zostałby wówczas sklasyfikowany jako KWASAR. Kwazary to nadpobudliwe jądra bardzo odległych galaktyk, które w zakresie fal optycznych mogą przyćmić swoje gwiezdne gospodarze. Emitują potężnie w całym spektrum elektromagnetycznym. Kwazary często wykazują gigantyczne, podwójne źródła radiowe - dwa "płaty" intensywnej emisji radiowej zlokalizowane po przeciwnych stronach galaktyki. Historycznie rzecz biorąc, tak to wyglądało w którym pierwotnie zidentyfikowano kwazary. Przez długi czas pozostawało tajemnicą, w jaki sposób te płatki radiowe mogą powstawać i utrzymywać się. Wraz z odkryciem dżetów relatywistycznych zagadka została rozwiązana. Źródłem ich mocy jest centralna czarna dziura i otaczający ją dysk akrecyjny. Tworzy to relatywistyczne cząstki i pole magnetyczne, które wypływają na zewnątrz, wzdłuż dwóch przeciwrównoległych kierunków, aby uzupełnić płatki radiowe i wypchnąć je z galaktyki, podobnie jak spaliny kojarzone z samochodami i samolotami odrzutowymi. W pewnym sensie dżety przenoszą produkty przemiany materii na czarną dziurę. Znamy tysiące takich podwójnych źródeł radiowych i udokumentowaliśmy ich właściwości, dzięki czemu zaczynamy rozumieć, w jaki sposób pasują one do sekwencji ewolucyjnej. Najpotężniejsze dżety relatywistyczne, które są wysyłane niemal bezpośrednio na nas, nazywane są czasami BLAZARSAMI i powszechnie obserwuje się je jako źródła promieniowania ?. Fotony o energiach sięgających kilku GeV powstają, gdy foton promieniowania rentgenowskiego jest rozpraszany przez relatywistyczny elektron - proces znany jako odwrotne rozpraszanie Comptona. (W kilku lokalnych przykładach udało się wykryć bardzo wysokoenergetyczne promienie ? o energiach TeV, które prawdopodobnie powstają w pobliżu centralnej czarnej dziury.) Zaskakująco duże natężenie tych dżetów promieniowania ? mówi nam, że w wielu W niektórych przypadkach odprowadzają one dużą część całkowitej mocy generowanej przez silniki centralnych czarnych dziur. Nie wszystkie dżety są powiązane z odległymi galaktykami. W naszej Galaktyce i pobliskich galaktykach odkryto wiele czarnych dziur wielkości gwiazd. Kiedy mają one gwiezdnych towarzyszy, którzy mogą utracić gaz, gaz zostanie przyciągnięty przez czarną dziurę i może również utworzyć dysk akrecyjny. Wczesnym przykładem było źródło SS433, w którym odkryto dwa poprzedzające je antyrównoległe dżety poruszające się z prędkością nieco ponad jedną czwartą prędkości światła. W niektórych przypadkach źródła te wytwarzają również dżety relatywistyczne, czyli mniejsze wersje pozagalaktycznych źródeł radiowych. Wykazują gigantyczne wybuchy, ekspansję nadświetlną i promienie, w związku z czym czasami nazywane są "mikrokwazarami". Są one szczególnie dobre do badania, ponieważ astronomowie mogą obserwować wiele cykli zmian w czasie potrzebnym na zmianę kwazara. Odkryto także, że dżety są powiązane z nowo powstałymi gwiazdami. Tutaj ponownie znajduje się krążący dysk zbudowany z gazu, który nie osiadł jeszcze na gwieździe (ani nie skondensował się w planety). Te "MŁODE OBIEKTY GWIAZDOWE" obserwuje się głównie w liniach emisyjnych w świetle optycznym i podczerwieni, a dżet porusza się z prędkościami kilku stu km na sekundę, co jest porównywalne z prędkością ucieczki z centralnej protogwiazdy. Dżety te czasami wykazują również poruszające się fale uderzeniowe, zwane obiektami Herbiga-Haro (rysunek 2), które rozprzestrzeniają się wzdłuż dżetów. (Ponieważ prędkości strumieni są znacznie mniejsze niż prędkość światła, w tym przypadku nie ma ani ruchu nadświetlnego, ani aberracji.) Jest prawie prawdopodobne, że tutaj również zachodzą podobne podstawowe procesy fizyczne. Te "dżety protogwiazdowe" są szczególnie dobre do badania, ponieważ prędkości przepływu można dokładnie zmierzyć za pomocą linii widmowych. Charakter mechanizmu powstawania i kolimacji dżetów jest nadal przedmiotem kontrowersji. Wielu astronomów uważa, że w dysku akrecyjnym generowane są silne pola magnetyczne, które są odpowiedzialne za uruchomienie i skupienie wypływu. Większość energii dżetu pochodzi prawdopodobnie z obiektu znajdującego się blisko centralnego obiektu, czarnej dziury, gwiazdy neutronowej, białego karła lub protogwiazdy, również za pośrednictwem pola magnetycznego. Symulacje komputerowe przepływów namagnesowanego gazu wokół centralnych ciał grawitacyjnych zaczynają dawać pewien wgląd w to, w jaki sposób i dlaczego dżety są tak częstym towarzyszem dysków akrecyjnych.

Astrofizyka do 1900 roku

W praktyce nie ma wyraźnej linii podziału między astrofizyką a astronomią. Pierwszą z nich definiuje się zwykle jako badanie właściwości fizycznych ciał niebieskich, drugą zaś z ich położeniem i ruchem. Jednakże te dwa rodzaje pomiarów są często ze sobą powiązane. Na przykład masę gwiazd - właściwość fizyczną - zwykle mierzy się obserwując orbity dwóch gwiazd wokół siebie. Jednakże od początku było oczywiste, że używany sprzęt i wiedza wymagana w przypadku tych dwóch rodzajów działalności były różne. W drugiej połowie XIX wieku, gdy przedmiot ten zaczął się szybko rozwijać, uznano go za odrębny kierunek studiów, chociaż minęło trochę czasu, zanim "astrofizyka" stała się akceptowaną nazwą. W tamtym czasie pomiary astrofizyczne opisywano równie często w kategoriach "chemii nieba", jak i "fizyki nieba". Ponieważ obserwacje te różniły się od tradycyjnych pomiarów pozycyjnych, astrofizykę czasami nazywano "nową astronomią". (Aby zwiększyć zamieszanie, badania ruchu nazywano czasami "astronomią fizyczną"). Te współczesne terminy zostaną tutaj zignorowane: odpowiednie prace będą po prostu nazywane "astrofizycznymi".

Wczesne obserwacje astrofizyczne

Niektóre właściwości fizyczne ciał niebieskich można określić poprzez bezpośrednią obserwację przez teleskop. Z tego punktu widzenia obserwacje o znaczeniu astrofizycznym sięgają wynalezienia teleskopu na początku XVII wieku. Wcześniej spekulowano - na przykład, że gwiazdy są ciałami podobnymi do Słońca - ale nie było to żadnych solidnych dowodów. Kilka obserwacji Galileusza przeprowadzonych w 1610 roku za pomocą nowo wynalezionego teleskopu astronomicznego okazało się mieć implikacje fizyczne. Jednym z nich było odkrycie, że topografia Księżyca jest w pewnym stopniu podobna do ziemskiej (pierwszy krok w kierunku księżycowej geologii ery kosmicznej). Najważniejszymi jego obserwacjami dla późniejszej astrofizyki było odkrycie PUNKTÓW SŁOŃCOWYCH. Oprócz rejestrowania złożonej i zmieniającej się natury plam słonecznych Galileusz wykorzystał je także do pokazania, że Słońce, podobnie jak Ziemia, obraca się wokół własnej osi. Później, w XVII wieku, kolejne odkrycie Galileusza - księżyce Jowisza (patrz Jowisz: SATELITY) - doprowadziło do pierwszego określenia prędkości światła. R?MER pracujący w nowo powstałym Obserwatorium Paryskim odkrył, że godziny pojawiania się i znikania księżyców za Jowiszem wydają się systematycznie zmieniać. Przypisał to zmianom odległości Ziemia-Jowisz oraz skończonej prędkości światła. Pomiary R?mera stanowią wczesny przykład faktu, że choć badania astrofizyki polegają głównie na tym, że astronomowie opierają się na rozwoju fizyki, czasami byli w stanie wnieść coś w zamian. W drugiej połowie XVII wieku NEWTON zbadał, w jaki sposób światło słoneczne po przejściu przez pryzmat rozkłada się na kolory składowe. Takie obserwacje spektroskopowe miały stać się najważniejszą częścią astrofizyki, ale dopiero z pewnym opóźnieniem. W 1800 roku WHerschel w Anglii powtórzył eksperyment Newtona (patrz RODZINA HERSCHEL), ale z nowym celem pomiaru mocy grzewczej różnych części widma słonecznego. Termometr, którego użył, zarejestrował istnienie znacznego ogrzewania poza czerwonym końcem widma widzialnego. Była to pierwsza identyfikacja promieniowania podczerwonego (choć, jak to często bywa w przypadku ważnych osiągnięć, Herschel zinterpretował to inaczej). Równolegle do tego w następnym roku doszło po raz pierwszy wykrycie promieniowania ultrafioletowego. Ritter w Niemczech, zainspirowany pracą Herschela, badał działanie widma słonecznego na chlorek srebra. Odkrył, że maksymalny rozkład substancji chemicznej nastąpił poza fioletowym końcem widma widzialnego. (Był to wczesny krok na drodze do fotografii). Jeszcze rok później, w 1802 roku, Wollaston, który również badał widmo słoneczne w Anglii, odkrył, że jest ono przecięte kilkoma ciemnymi liniami. Uważał, że reprezentują one po prostu punkty rozgraniczenia, w których zaczynają się i kończą różne kolory widmowe. Dziesięć lat później Fraunhofer w Niemczech odkrył, że całe widmo słoneczne przecinają ciemne linie. Wykrył ich prawie 600; nic więc dziwnego, że zaczęto je nazywać LINIAMI FRAUNHOFERA.

Widmo słoneczne

Jak sugeruje ten zalew odkryć, to zainteresowanie Słońcem, a w szczególności jego widmem, spowodowało rozwój astrofizyki w XIX wieku. Powody tego zainteresowania były różne. Jednym z nich było to, że Słońce jest doskonałym źródłem światła. W porównaniu z innymi źródłami światła, czy to niebieskimi, czy laboratoryjnymi, Słońce wytwarzało obfite ilości światła. W rezultacie nawet bardzo nieefektywny sprzęt optyczny może dać rezultaty. Innym powodem było szczególne zainteresowanie naukowców z początku XIX wieku zjawiskami koloru. Najłatwiejszym sposobem ich badania było widmo słoneczne. Badania laboratoryjne wykazały, że różne substancje wytwarzają różne zestawy linii widmowych. Dlatego też od początku istniała tendencja do przypuszczeń, że linie Fraunhofera mogą być powiązane z substancjami chemicznymi występującymi na Ziemi. Przypuszczenie to zostało jednak w pełni potwierdzone dopiero w drugiej połowie XIX wieku. Najpierw należało rozwiązać wiele problemów. Na przykład stwierdzono, że niektóre linie Fraunhofera nie pochodziły w ogóle na Słońcu, ale byli pod wrażeniem światła słonecznego podczas jego przejścia przez atmosferę ziemską. Mówiąc bardziej zasadniczo, widma laboratoryjne składały się z jasnych, a nie ciemnych linii. Jak połączono tę dwójkę? W 1849 roku FOUCAULTowi w końcu udało się wykazać tożsamość linii pojawiających się w emisji i absorpcji. Aby to zrobić, eksperymentował z parą linii w widmie słonecznym, które Fraunhofer oznaczył jako "D", ponieważ były szczególnie intensywne. Jednakże te same linie były również odpowiedzialne za opóźnianie prób interpretacji widm. Trudność polegała na tym, że linie D wydawały się być wszechobecne w laboratorium. Bez względu na to, jaką substancję badano, zawsze zdawała się ona pojawiać. Dopiero w latach pięćdziesiątych XIX wieku w pełni rozpoznano powszechne zanieczyszczenie chemikaliów laboratoryjnych solą, co doprowadziło do pojawienia się linii D sodu. Całe to oczyszczenie ziemi musiało nastąpić, zanim widmo słoneczne mogło zostać właściwie zinterpretowane. Ostatni krok w tym procesie można uznać za kluczowe wydarzenie w podstawach astrofizyki. Zrobił je KIRCHHOFF we współpracy ze swoim kolegą z Heidelbergu, Bunsenem, około 1860 roku. Ich badania rozpoczęły się w laboratorium wraz z wynalezieniem palnika Bunsena. Bunsen zamierzał zastosować powstały w ten sposób nieświecący płomień do badania kolorów emitowanych przez różne pierwiastki podczas ich spalania. W tym celu zaproponował zastosowanie zestawu filtrów barwnych. Kirchhoff zasugerował, że Bunsen powinien zamiast tego użyć pryzmatu, co doprowadziło do porównania ze widmem słonecznym. Kirchhoff ustalił dwie podstawowe zasady analizy widm. Po pierwsze, żarzące się ciała stałe lub ciecze dają widmo ciągłe, natomiast gazy tworzą linie lub pasma (których położenie zależy od konkretnego obecnego gazu). Po drugie, gdy źródło widma ciągłego ogląda się przez chłodniejszy gaz, długości fali, przy których zachodzi absorpcja, odpowiadają tym, przy których następuje emisja podczas ogrzewania gazu. Bezpośrednie konsekwencje dla Słońca były podobnie dwojakie. Po pierwsze, ciało Słońca musi składać się z gorącej, gęstej materii, aby wytworzyć obserwowane widmo ciągłe. Po drugie, linie absorpcyjne powstające w chłodniejszej atmosferze słonecznej można wykorzystać do badania składu chemicznego Słońca. Chociaż było to badanie linii atmosferycznych, które zdominowało późniejszą astrofizykę XIX wieku, wnioski Kirchhoffa dotyczące ciała Słońca wywarły natychmiastowy wpływ na współczesną myśl. Powszechnie rozpowszechniony w pierwszej połowie XIX wieku obraz Słońca przedstawiał plamy słoneczne jako dziury w świetlistej chmurze, przez które można było oglądać zimniejsze wnętrze. W istocie W. Herschel spekulował, że wnętrze Słońca, wyobrażane jako posiadające stałą powierzchnię, może być nawet zamieszkane. Analiza widma Kirchhoffa wykazała, że taki obraz jest niemożliwy.

Inne badania słoneczne

W tym czasie pojawił się kolejny problem dotyczący Słońca. W pierwszej połowie XIX wieku podjęto pierwsze znaczące próby pomiaru ilości ciepła docierającego do nas ze Słońca. Takie pomiary tego, co zaczęto nazywać "STAŁĄ SŁONECZNĄ", dostarczyły ilościowego oszacowania ogromnej ilości istoty energetycznej emitowane przez Słońce. Mniej więcej w tym samym czasie zaczęła się kształtować idea oszczędzania energii. Pojawiło się więc pytanie - skąd Słońce czerpie energię? Było jasne, że źródła chemiczne zapewnią świecenie Słońca jedynie przez bardzo krótki czas, więc potrzebne było źródło fizyczne. Rozwiązanie, które zyskało szeroką akceptację w drugiej połowie XIX wieku, zaproponował HELMHOLTZ w 1854 roku. Zasugerował on, że Słońce uzyskuje ciepło w wyniku skurczu grawitacyjnego. Wymagana szybkość była znacznie niższa od granicy obserwacyjnej, a proces był w stanie utrzymać energię słoneczną przez kilka milionów lat. Naukowcom zajmującym się fizyką ten czas życia wydawał się rozsądny, ale spotykał się z coraz większym atakiem ze strony geologów i biologów. Myśleli - jak się okazało słusznie - że ewolucja powierzchni Ziemi i jej mieszkańców wymagała znacznie dłuższego okresu czasu. W połowie XIX wieku zwrócono uwagę na jeszcze jedną cechę Słońca. To była jego zmieniająca się działalność. Na początku lat czterdziestych XIX wieku SCHWABE, niemiecki astronom amator, na podstawie obliczeń plam słonecznych odkrył, że liczba widocznych na dysku słonecznym zmienia się okresowo w czasie. Jego wnioski zostały opublikowane kilka lat później przez HUMBOLDTA, w czasie, gdy prowadzono szereg badań nad fluktuacjami pola magnetycznego Ziemi. W 1852 roku SABINE z Anglii zauważyła, że te fluktuacje magnetyczne zmieniają się w okresie pokrywającym się z cyklem plam słonecznych. Wniosek ten został wkrótce potwierdzony i rozszerzony przez innych, co doprowadziło do ciągłego zainteresowania . Stosunki słoneczno-ziemskie w drugiej połowie XIX wieku. Główne cechy atmosfery Słońca zostały już dostrzeżone, zanim Kirchhoff zainteresował się widmem słonecznym. Ponieważ atmosfera słoneczna była zbyt słaba, aby można ją było dostrzec w pełnym świetle słonecznym, należało zbadać jej właściwości podczas zaćmień słońca. Wyprawy na zaćmienia w latach 1842 i 1851 pokazały, że powierzchnię Słońca zwieńcza CHROMOSFERA (tzw. ze względu na jej czerwony kolor). Powyżej rozciągała się znacznie cieńsza KORONA. Z chromosfery rozciągały się duże "płomienie" (później zwane "występami"). Wyjaśnienie widma słonecznego przez Kirchhoffa otworzyło teraz drogę do bardziej szczegółowego badania struktury atmosfery. Pierwszy postęp astrofizyczny nastąpił w 1868 roku. W tym samym roku z Indii można było zobaczyć zaćmienie słońca i jeden z obserwatorów - Francuz JANSSEN - przyglądał się widmom protuberancji. On i inni znaleźli jasne linie, które wskazywały, że protuberancje to chmury gazu. Janssen doszedł do wniosku, że linie są tak jasne, że powinny być widoczne podczas zaćmienia. Następnie przeskanował kończynę słoneczną i wykazał, że rzeczywiście tak było. W tym samym czasie LOCKYER w Anglii przeprowadził obserwacje spektroskopowe Słońca i zaobserwował te same linie. Oznaczało to, że zarówno chromosferę, jak i protuberancje można było odwzorować na krańcu Słońca, bez konieczności zaćmienia. Ponieważ korona była tak słaba, w XIX wieku nadal można ją było obserwować tylko podczas zaćmień. Podczas zaćmienia w 1869 roku odkryto pierwszą jasną linię koronalną. Teraz stało się oczywiste, że linie emisyjne zarówno chromosfery, jak i korony znacznie różnią się od widma absorpcyjnego Słońca. Z pracy Kirchhoffa oznaczało to, że żadne z nich nie mogło być źródłem linii Fraunhofera. Podczas zaćmienia w 1870 roku amerykański astronom YOUNG wykazał, że linie absorpcyjne w rzeczywistości powstały w ograniczonym obszarze - zwanym "warstwą odwracającą" - pomiędzy chromosferą a pozorną powierzchnią Słońca. Wyjaśnienie jasnej powierzchni Słońca również rozwinęło się dalej w latach sześćdziesiątych XIX wieku. Pod koniec tej dekady Andrews w Anglii wykazał, że gazów o wystarczająco wysokiej temperaturze nie można skroplić. Potwierdziło to to, co już podejrzewano: że ciało Słońca musi składać się z gazu pod wysokim ciśnieniem, a nie z cieczy, jak przypuszczał Kirchhoff. To zrodziło nowe pytanie - dlaczego Słońce w ogóle wydawało się mieć wyraźnie określoną powierzchnię (oznaczoną jako fotosfera)? Powszechnie uznano, że fotosfera musi reprezentować poziom na Słońcu, przy którym gazy stały się wystarczająco chłodne, aby mogły nastąpić skroplenie materiałów ogniotrwałych. Odnowiona wiara w zachmurzoną powierzchnię Słońca pozostawała w modzie aż do początków XX wieku. Zatem w ciągu kilku lat obserwacje spektroskopowe dostarczyły w miarę wyraźny obraz atmosfery Słońca. Następnych kilka dekad poświęcono na wyjaśnianie niektórych niejasności tego obrazu. Jeden związany ze składem chemicznym. Następny Kirchhoffa wielu obserwatorów porównało widma ziemskie z widmem słonecznym, próbując określić skład chemiczny Słońca. Stwierdzono, że prawie wszystkie pierwiastki, które można było wykryć, to metale (chociaż wodór odnotowano wcześnie). Jednak nie udało się zidentyfikować jednej bardzo jasnej linii w widmie chromosferycznym. Lockyer zasugerował, że tak wytwarzany przez nowy pierwiastek, zwany w związku z tym "helem", którego nie znaleziono jeszcze na Ziemi. Sugestia ta została mocno zakwestionowana, ale Lockyer został potwierdzony w latach 90. XIX wieku, kiedy Ramsay odkrył gaz w skałach lądowych, poprzez jego widmo. Podobnie stwierdzono, że niemożliwe jest zidentyfikowanie linii koronalnych. Dlatego też wysunięto równoległą sugestię, że są one spowodowane nowym pierwiastkiem, oznaczonym jako "koronium". W tym przypadku nigdy nie znaleziono żadnego odpowiadającego elementu. (Dopiero w połowie XX wieku wykazano, że linie koronalne powstają w wyniku znanych pierwiastków w stanach silnie zjonizowanych.)

Astrofizyka gwiazd

W początkach astrofizyki Słońce było tak popularnym celem obserwacji, że cały temat nazywano czasem po prostu "fizyką Słońca". Pominęło to fakt, że odkrycia Kirchhoffa zostały natychmiast zastosowane do obserwacji widm gwiazd. Wkrótce stało się jasne, że widma gwiazd mogą znacznie się od siebie różnić. Zatem oprócz badania składu chemicznego gwiazd konieczne było również zbadanie możliwości klasyfikowania gwiazd w grupy. Zajmował się tym w latach sześćdziesiątych XIX wieku przede wszystkim jezuicki astronom SECCHI. Po zbadaniu kilku tysięcy gwiazd doszedł do wniosku, że można je wszystkie podzielić na cztery grupy, w zależności od wyglądu ich widm. Zauważono, że te typy widmowe były skorelowane z kolorami gwiazd - białym, żółtym lub czerwonym. W tym samym okresie projekt HUGGINS w Anglii wykorzystał widma o większym rozproszeniu do poszukiwania składników chemicznych. Pomimo różnic pomiędzy widmami odkrył, że wiele linii można utożsamić z pierwiastkami występującymi na Ziemi i Słońcu. W tych wczesnych dniach widma gwiazd - podobnie jak widmo Słońca - były obserwowane wizualnie. Podczas gdy Słońce wytwarzało odpowiednią ilość światła, nie dotyczyło to gwiazd. Oczywistą odpowiedzią było użycie fotografii, ale modny w latach sześćdziesiątych XIX wieku proces "mokrej płyty" był niewystarczająco czuły. Fotografowanie widm gwiazd stało się możliwe dopiero pod koniec lat 70. XIX wieku, kiedy dostępna stała się metoda "suchej płyty". Wkrótce nastąpiły nowe odkrycia. Ważna z nich wynikała z faktu, że klisze fotograficzne były bardziej czułe na ultrafiolet niż ludzkie oko, w wyniku czego w tym obszarze wykryto wiele nowych linii. Huggins w Anglii i VOGEL w Niemczech znaleźli tam linie, które ich zdaniem przedłużały sekwencję linii wodoru występujących w widzialnym. Badanie długości fal tych linii doprowadziło Szwajcara BALMERA do ogłoszenia wzoru numerycznego na długości fal linii wodorowych, nazywanych obecnie jego imieniem. Jego sukces ugruntował pogląd, że linie widmowe powstają w wyniku powiązanych sekwencji wibracji atomowych. Fotograficzna rejestracja widm gwiazd umożliwiła także pierwszy w miarę dokładny pomiar prędkości radialnych. Doprowadziło to do odkrycia spektroskopowych układów podwójnych: pierwszy znaleziony - Mizar - został odkryty przez pannę Maury na Harvardzie pod koniec lat osiemdziesiątych XIX wieku.

Gwiazdy i mgławice

Fotografia ostatecznie pomogła także w innym rodzaju pomiarów astrofizycznych - jasności gwiazd. W latach osiemdziesiątych XIX wieku E C PICKERING na Harvardzie i Pritchard na Oksfordzie stworzyli katalogi fotometryczne jaśniejszych gwiazd na półkuli północnej w oparciu o wizualne szacunki jasności. Zostały one rozszerzone na gwiazdy półkuli południowej na początku lat 90. XIX wieku przez Baileya obserwującego w Peru. Powszechnie panowało już wówczas przekonanie, że przyszłością będzie fotometria fotograficzna. Niestety, trudno było osiągnąć porozumienie co do tego, jak zredukować obrazy fotograficzne do równoważnych wielkości (dopiero powoli zdano sobie sprawę, że wielkość fotograficzna i wizualna mogą znacznie się różnić w zależności od koloru gwiazdy). W rezultacie fotometria fotograficzna do końca XIX wieku przyczyniła się jedynie w niewielkim stopniu. Pod koniec stulecia hotografia - zwłaszcza prace badawcze na Harvardzie - okazała się cenną metodą wykrywania gwiazd zmiennych. Zainteresowanie wizualną obserwacją zmiennych, na które pierwotnie zwracał uwagę Argelander w Niemczech, wzrosło od połowy stulecia. System oznaczania gwiazd zmiennych za pomocą liter alfabetu obowiązywał już w latach osiemdziesiątych XIX wieku, a pod koniec stulecia badano przykłady głównych typów zmiennych. Największą uwagę przykuły NOVAE (supernowe wyodrębniono jako odrębną kategorię dopiero w XX wieku). Hug ins w 1866 roku jako pierwszy zbadał widmo nowej. Odkrył, że składa się ono ze zwykłego widma absorpcyjnego gwiazd z nałożonymi na siebie jasnymi liniami. Dlatego zarówno to, jak i późniejsze widma nowych zostały zinterpretowane jako wskazujące na eksplozję chmury gazu z ciała gwiazdowego. W latach sześćdziesiątych XIX wieku Huggins przeprowadził przegląd widm jasnych mgławic. (W XIX wieku "mgławica" oznaczała dowolną rozległą plamę światła w porównaniu z gwiazdami, które były źródłami punktowymi). Od czasów WHerschela toczyła się debata na temat natury mgławic. Czy były to jakieś ciecze, czy też gwiazdy skupione tak blisko siebie, że nie dało się ich rozróżnić? Pierwszym obiektem zbadanym przez Hugginsa była Mgławica Planetarna. Pokazał jasne widmo liniowe, co natychmiast zinterpretowano jako oznaczające, że mgławice są obłokami gazu. Problem polegał na tym, że niektórych linii widmowych nie można było powiązać z żadnymi znanymi elementami ziemskimi. Dlatego zasugerowano, analogicznie do helu, że obecny jest nowy pierwiastek - "mgławica". Chociaż pomysł pozostawał w użyciu przez resztę stulecia, mgławica, podobnie jak korona, ostatecznie okazała się fałszywa. W XX wieku wykazano, że jasne linie wynikają z obecności tlenu w stanie rozrzedzonym. W miarę obserwowania większej liczby widm mgławic początkowe wnioski dotyczące ich natury stawały się coraz bardziej wątpliwe. Mgławice planetarne i tak zwane mgławice "nieregularne" (których najlepszym przykładem była mgławica Oriona) zawsze dawały linie emisyjne. Jednakże inne mgławice (kluczowym przykładem jest mgławica Andromeda) dały widma, które wydawały się być ciągłe, bez ciemnych i jasnych linii. Interpretacja tego rodzaju widma była przedmiotem sporu przez resztę stulecia. Pierwsza wskazówka dotycząca dalszych działań pojawiła się dopiero w 1899 r., kiedy SCHEINER w Niemczech odkrył słabe ślady linii absorpcyjnych na fotografii widma mgławicy Andromedy z długim czasem naświetlania. Do tego czasu bezpośrednie zdjęcia dostarczyły dalszych informacji na temat tego ostatniego typu mgławic. LordROSSE, obserwując w Irlandii w latach czterdziestych XIX wieku, zauważył wizualnie, że kilka mgławic wydawało się mieć strukturę spiralną. Kiedy pod koniec stulecia dostępne stały się czułe klisze fotograficzne, wykazano - zwłaszcza KEELER w Stanach Zjednoczonych - że istnieje znacznie więcej mgławic spiralnych. Naturalnym było przypuszczenie, że niezwykłe widmo i niezwykły kształt takich mgławic są ze sobą powiązane. Pod koniec XVIII wieku francuski matematyk LAPLACE zasugerował sposób, w jaki mógł powstać Układ Słoneczny. Wyobraził sobie kurczącą się mgławicę, która w miarę kurczenia się wirowała szybciej. Szybkość wirowania w końcu osiągnęła punkt, w którym materiał został wyrzucony w pierścieniach wokół równika. Materia ta następnie skondensowała się, tworząc planety, a końcowa centralna kondensacja utworzyła Słońce. Obraz nakreślony przez tę "hipotezę mgławicy" sugerował, że kurcząca się materia będzie wyglądać bardzo podobnie do mgławicy spiralnej. Dlatego zaczęto sądzić, że takie mgławice są po prostu pobliskimi układami planetarnymi w procesie formowania. W 1885 roku zamieszanie pogłębiło pojawienie się nowej gwiazdy - właściwie supernowej - w mgławicy Andromedy. Można to oczywiście porównać z innymi nowymi gwiazdami - zwykłymi gwiazdami nowymi - obserwowanymi w Drodze Mlecznej w XIX wieku. Odpowiednie błędne oszacowanie odległości sugerowało, że mgławica Andromedy była częścią naszej własnej Galaktyki. Innym czynnikiem mającym wpływ na to było rozmieszczenie mgławic spiralnych. Stało się jasne, że nie miały one miejsca w pobliżu płaszczyzny Drogi Mlecznej (tzw. "strefa unikania"). Chociaż przyczyna nie była znana (później stwierdzono, że jest to zasłaniający pył w Drodze Mlecznej), rozkład ten sugerował, że mgławice są powiązane z naszą Galaktyką. Na początku stulecia szeroko dyskutowano pogląd, że wiele mgławic to gromady gwiazd, niektóre pod względem wielkości dorównujące naszej Drodze Mlecznej. Pod koniec stulecia większość uważała, że Wszechświat jest zdominowany przez Drogę Mleczną.

Ewolucja gwiazd

W tym czasie rozwinęło się żywe zainteresowanie ewolucją gwiazd. Po ustaleniu różnych kategorii gwiazd nieuniknione było pytanie, w jaki sposób grupy są ze sobą powiązane. Współczesne zainteresowanie ewolucją w geologii i biologii w naturalny sposób zachęcało do poszukiwania zależności o charakterze ewolucyjnym. Pierwszym szeroko rozpowszechnionym poglądem, opracowanym szczególnie przez Zöllnera i Vogela w Niemczech, było to, że gwiazdy tworzą pojedynczą sekwencję ewolucyjną. Urodziły się gorące i białe. W miarę rozpraszania ciepła stawały się kolejno żółte, a następnie czerwone. Wystąpił problem. Jedynym znanym mechanizmem fizycznym napędzającym zmiany było kurczenie się. Zarówno Lane w USA, jak i Ritter w Niemczech wykazali, że kurcząca się kula w rzeczywistości nagrzewa się, a nie chłodzi. Jednak ich wyniki zakładały, że gwiazda jest kulą gazu doskonałego. Nikt wówczas nie przypuszczał, że taki model może reprezentować prawdziwą gwiazdę. Pod koniec stulecia zaczęły gromadzić się dowody na to, że gwiazdy tego samego koloru mogą znacznie różnić się innymi cechami, takimi jak rozmiar. Najbardziej radykalna rewizja XIX-wiecznego obrazu ewolucji gwiazd - "hipoteza meteorytyczna" Lockyera zaproponowana w latach osiemdziesiątych XIX wieku - zakładała, że tak właśnie było. Lockyer zasugerował, że gwiazdy powstają z mgławic składających się z obłoków meteorytów (popularnych obiektów badań w drugiej połowie stulecia). Kurczenie się mgławicy doprowadziło do zwiększonej szybkości zderzeń pomiędzy wchodzącymi w jej skład meteorytami, a tym samym podniosło jej temperaturę. Mgławica, widoczna teraz jako gwiazda, stopniowo zmieniała swój kolor z czerwonego, przez żółty, aż do białego. Zanim osiągnięto ten ostatni punkt, wszystkie meteoryty wyparowały. Dlatego też biała gwiazda teraz ostygła i stała się mniejsza w miarę powracania do sekwencji z żółtej na czerwoną. W przeciwieństwie do innych schematów, hipoteza Lockyera zakładała zatem, że czerwone gwiazdy można podzielić na dwie kategorie - albo bardzo duże, albo bardzo małe.

Interpretacja widm

Lockyer oparł swoje argumenty na porównaniu widm meteorytów w laboratorium z widmami szerokiego zakresu gwiazd. Niektóre z tych prac zostały zaatakowane, a jego hipoteza nie zyskała szerokiego wsparcia. Niemniej jednak szczegółowe badania widm gwiazd stawały się coraz bardziej tematem zainteresowania. W połowie lat osiemdziesiątych XIX wieku EC Pickering z Harvardu zainicjował zakrojone na szeroką skalę badania spektroskopii i fotometrii gwiazd. Pierwsze wyniki pojawiły się w latach 90. XIX wieku jako pamiątkowy katalog widm gwiazd Drapera. (Draper był pionierem amerykańskiego astrofizyka, którego rodzina przekazała pieniądze na projekt po jego śmierci.) W katalogu wprowadzono alfabetyczną klasyfikację widm gwiazd, która jest nadal używana. Widma użyte do klasyfikacji na Harvardzie były zbyt małe, aby je szczegółowo zbadać, ale panna Maury zbadała bardziej szczegółowo podzbiór gwiazd. Odkryła, że gwiazdy tego samego koloru mogą nadal wykazywać subtelne różnice w wyglądzie swoich widm. Spekulowała, że mogą one mieć wpływ na ewolucję gwiazd. (W istocie jej prace doprowadziły do rozróżnienia dokonanego przez Hertzsprunga na gwiazdy olbrzymy i karły na początku XX wieku). Podstawowy problem polegał na tym, że teoretyczne rozumienie widm pozostawało przez cały XIX wiek dość prymitywne. Trudność polegała na tym, że widma nie tylko same w sobie były często złożone, ale co gorsza, mogły się zmieniać w zależności od źródła światła. Na przykład widmo laboratoryjne pierwiastka wytworzonego za pomocą łuku elektrycznego może mieć pewne linie różniące się od widma tego samego pierwiastka wytworzonego za pomocą iskry elektrycznej. Jedno z proponowanych wyjaśnień było takie, że elementy można rozbić w stopniu zróżnicowanym w zależności od warunków, jakim były poddawane. Sugestia ta spotkała się ze znacznym sprzeciwem, między innymi dlatego, że podstawową zasadą XIX-wiecznej nauki było przekonanie, że atomy są niezniszczalne. Niestety Lockyer, który był najsilniejszy zwolennik tego argumentu, początkowo miał błędne wyobrażenie o tym, co się dzieje. Już wcześniej zauważono, że w widmach laboratoryjnych różnych pierwiastków niektóre linie często pokrywały się w swoich pozycjach. Locker nazwał je liniami "podstawowymi" i uważał, że ujawniają one obecność wspólnego produktu rozpadu z pierwiastków początkowych. Gdy stały się dostępne spektroskopy o wyższej dyspersji, odkryto, że te podstawowe linie po prostu znajdowały się blisko siebie, a nie pokrywały się. W związku z tym nie miały one żadnego zasadniczego znaczenia. Pod koniec stulecia Lockyer pod wpływem swojego asystenta, FOWLERA, zmienił swoje poglądy na temat rozkładu pierwiastków. Zwrócono teraz uwagę na inną grupę wersetów - oznaczonych jako "udoskonalone" - które różniły się w zależności od źródła. Linie te rzeczywiście były powiązane z tym, co obecnie nazwalibyśmy zjonizowanymi atomami. Jednak współcześni Lockyerowi byli w większości tak zdezorientowani jego reinterpretacją, że nowy pomysł nie wzbudził początkowej uwagi. Do tego czasu - końca stulecia - dowody zaczynały się gromadzić, tak że atomy mogły zostać rozbite. Kluczowym tego przykładem jest praca JJ Thomsona nad elektronem. Szczegółowe zrozumienie widm astronomicznych musiało poczekać na rozwój teorii kwantowej w XX wieku. Próbując zinterpretować widma, Słońce pozostawało głównym źródłem danych porównawczych przez cały XIX wiek. Na przykład odkryto, że widma plam słonecznych mają pasma podobne do widm czerwonych gwiazd. Ponieważ uważano, że plamy słoneczne są chłodniejsze od Słońca jako całości, zgadzało się to z oczekiwaniami dotyczącymi temperatur gwiazd. Problem polegał na tym, aby faktycznie przedstawić liczbę związaną z temperaturami. Biała gwiazda może być gorętsza niż czerwona, ale o ile gorętsza? Ponownie spodziewano się, że najpierw uda się odpowiedzieć na to pytanie w odniesieniu do Słońca. W połowie XIX wieku możliwości powiązania temperatury ciała z emitowanym przez nie promieniowaniem były ograniczone. Opierały się one głównie albo na prawie Newtona, albo na prawie Dulonga i Petita, ale dawały one bardzo różne wyniki. Na przykład jedno oszacowanie z 1860 r. sugerowało, że powierzchnia Słońca ma temperaturę około 7 000 000 ?C, podczas gdy inne z 1872 r. sugerowało 1400 ?C. Spośród różnych proponowanych poprawek, ta, która ostatecznie okazała się najbardziej użyteczna, została wysunięta przez Stefana w 1879 roku. Jego sugestia dotycząca zależności od czwartej potęgi temperatury nie miała oparcia teoretycznego aż do rozwoju teorii kwantowej. Dlatego w XIX wieku traktowano go z pewną rezerwą.

Rozwój astrofizyki

W 1859 roku po raz pierwszy zaobserwowano rozbłysk słoneczny. Było ono na tyle intensywne, że było widoczne w białym świetle na tle tarczy Słońca, a towarzyszyła mu potężna burza magnetyczna i rozległe zorze polarne na Ziemi. Trudność polegała na tym, że takie zdarzenia były zwykle niewidoczne, ponieważ ograniczenia instrumentalne oznaczały, że większość obserwacji Słońca prowadzono na żywo. Zmieniło się to w latach 90. XIX wieku, kiedy HALE w USA (a także DESLANDRES we Francji) wprowadzili pomysł oglądania całego Słońca w świetle pojedynczej linii, umożliwiając w ten sposób skanowanie aktywności słonecznej na całym dysku. Rozwój ten dobrze ilustruje ciągły związek między nowymi badaniami astrofizycznymi a lepszym instrumentarium. Pod koniec stulecia na końcach teleskopów zawieszano nie tylko coraz większą różnorodność sprzętu: same teleskopy przechodziły zmiany. Zatem fakt, że klisze fotograficzne były wrażliwe na inny obszar widma niż ludzkie oko, oznaczał, że teleskopy refrakcyjne do zastosowań fotograficznych musiały być specjalnie zaprojektowane i dostosowane. Co więcej, potrzeba maksymalnego uchwycenia światła doprowadziła do rosnącego zainteresowania wykorzystaniem teleskopów zwierciadlanych w badaniach astrofizycznych. W początkach swojej działalności wielu astronomów uważało astrofizykę za słabszy dodatek do astronomii klasycznej. Było mniej rygorystyczne i nie wymagało podstaw matematycznych niezbędnych w astronomii klasycznej. Pomimo prób powiązania aktywności słonecznej z ziemską pogodą, przyniosło to mniej praktyczne skutki niż klasyczna astronomia, która stanowiła tradycyjną podstawę ziemskiego pomiaru czasu i położenia. Przede wszystkim nie istniała zadowalająca teoria, która umożliwiłaby zintegrowanie tego wszystkiego w jedną całość. Nic dziwnego, że wielu pionierów strofizyków było amatorami lub wywodziło się z innych dyscyplin. Jednak w ciągu kilku dziesięcioleci astrofizyka stała się odrębnym tematem: w latach 90. XIX wieku poświęcono jej już główne czasopismo - Astrophysical Journal (patrz ASTRONOMICAL TOWARZYSTWA I PUBLIKACJE). Co istotne, rozwiązanie to wprowadzono w Stanach Zjednoczonych. Ameryka Północna odegrała jedynie niewielką rolę w rozwoju astronomii klasycznej. Wraz z nastaniem nowego stulecia w świecie astronomicznym powszechnie przyjęto, że odegra on znacznie większą rolę w rozwoju astrofizyki.

Atom

Najmniejsza cząsteczka pierwiastka chemicznego, która zachowuje właściwości tego pierwiastka. Każdy atom składa się ze zwartego jądra, w którym znajduje się cała jego całkowita masa z wyjątkiem niewielkiej części, otoczonego chmurą elektronów - lekkich cząstek o ujemnym ładunku elektrycznym. Typowe jądro atomowe ma promień około 10-14 m; całkowity promień atomu (czyli promień jego chmury elektronów) jest około 10 000 razy większy (około 10?10 m). Jądro składa się z pewnej liczby protonów (masywnych cząstek o dodatnim ładunku elektrycznym) wraz z pewną liczbą neutronów (cząstek o masie podobnej do protonu, ale o zerowym ładunku elektrycznym), przy czym wszystkie te cząstki są powiązane ze sobą silnym oddziaływaniem jądrowym. Otaczająca chmura ujemnie naładowanych elektronów jest utrzymywana wokół dodatnio naładowanego jądra dzięki sile elektromagnetycznej. Kompletny (neutralny) atom zawiera taką samą liczbę protonów jak elektrony, a ponieważ ma taką samą liczbę cząstek naładowanych dodatnio i ujemnie, ma zerowy ładunek wypadkowy. Atom, który utracił jeden lub więcej elektronów i dlatego ma ładunek dodatni, nazywany jest jonem dodatnim. Atom, który pozyskał jeden lub więcej dodatkowych elektronów i w związku z tym ma ładunek ujemny, nazywany jest jonem ujemnym. Każdemu pierwiastkowi przypisany jest symbol chemiczny w formie litery lub pary liter; na przykład wodór oznacza się H, hel He i tak dalej. Atom charakteryzuje się liczbą atomową (oznaczoną symbolem Z), która oznacza liczbę protonów w jego jądrze, oraz liczbą masową (A), która oznacza całkowitą liczbę protonów i neutronów zawartych w jego jądrze. Tradycyjnie pierwiastek jest oznaczony jego symbolem chemicznym, poprzedzonym liczbą masową jako indeksem górnym i liczbą atomową jako indeksem dolnym. Zatem pierwiastek X o liczbie atomowej Z i liczbie masowej A można zapisać jako A ZX. Na przykład normalny atom wodoru z jednym protonem i bez neutronów w jądrze (Z = 1; A = 1) byłby oznaczony przez 11 H; jądro helu z dwoma protonami (Z = 2) i dwoma neutronami (A = 2 + 2 = 4) byłoby oznaczone jako 42 He i tak dalej. Liczba atomowa określa pierwiastek chemiczny, którego przykładem jest dany atom. Zatem na przykład każdy atom wodoru ma Z = 1, każdy atom helu ma Z = 2 i tak dalej. Jądra tego samego pierwiastka chemicznego mogą jednak zawierać różną liczbę neutronów. Atomy, które mają tę samą liczbę protonów, ale różną liczbę neutronów w swoich jądrach, a zatem mają tę samą liczbę atomową, ale różną liczbę masową, nazywane są izotopami. Na przykład "ciężki wodór" lub deuter, oznaczony jako 21H (lub 2D), to izotop wodoru, który w swoim jądrze ma jeden proton i jeden neutron, a nie tylko jeden proton. Hel występuje w dwóch postaciach, hel-4 (42 He) i hel-3 (32 He), lżejszy izotop z dwoma protonami, ale tylko jednym neutronem w jądrze. Średnia liczba różnych naturalnie występujących izotopów danego pierwiastka, ważona według ich względnej liczebności, jest masą atomową tego pierwiastka. Chociaż mechanika kwantowa wykazała, że elektronów w atomach nie można traktować ściśle jako punktów zlokalizowanych w przestrzeni i że chmury elektronów otaczające jądro reprezentują obszary, w których prawdopodobieństwo znalezienia elektronów jest największe, model atomu wodoru Bohra zaproponowany w 1913 r. autorstwa duńskiego fizyka Neilsa Bohra (1885-1962) w dalszym ciągu stanowi dobrą podstawę do opisu sposobu, w jaki atomy emitują i pochłaniają promieniowanie. Według tego modelu atom wodoru składa się z pojedynczego protonu, wokół którego pojedynczy elektron porusza się po jednej z szeregu dozwolonych orbit, z których każda odpowiada innemu poziomowi energii. Jeśli elektron spadnie z wyższego poziomu na niższy (dokonuje "przejścia w dół"), emituje foton (ilość energii promieniowania) o energii równej różnicy energii pomiędzy górnym i dolnym poziomem. Długość fali emitowanego promieniowania jest odwrotnie proporcjonalna do energii fotonu (im większa różnica poziomów energii, tym krótsza długość fali emitowanego promieniowania). I odwrotnie, jeśli elektron pochłonie ilość energii równą różnicy energii między niższym i wyższym poziomem, przeskoczy na wyższy poziom (dokonuje "przejścia w górę"). Emisja i absorpcja promieniowania, która zachodzi, gdy elektrony dokonują przejść w dół i w górę pomiędzy różnymi poziomami energii atomów wodoru, powoduje powstanie szeregu linii emisyjnych lub absorpcyjnych tworzących widmo wodoru. W przypadku masywnych atomów, które mają wiele elektronów ułożonych w koncentrycznych powłokach, zbiór poziomów energii i dozwolonych przejść jest bardziej złożony, ale obowiązuje ta sama ogólna zasada: przejścia w dół powodują emisję promieniowania, a przejścia w górę mają miejsce po absorpcji energii.

Zorza polarna

Zorza polarna to rozległe źródło światła o różnych formach i kolorach, które można zaobserwować na dużych, a czasami na średnich szerokościach geograficznych. Ich jasność może osiągnąć intensywność światła pełni księżyca. Owal zorzy polarnej (po jednej na każdej półkuli) to miejsce, w którym można zaobserwować większość zórz polarnych. Jest to pas otaczający każdą z Ziemi bieguny magnetyczne o maksymalnym zasięgu równoleżnikowym o północy magnetycznej. Zorze polarne (wewnątrz owalu) i zorze dzienne są zwykle słabe i rozproszone, natomiast w owalu są bardziej intensywne i zmienne w czasie. W obu przypadkach zorze powstają w wyniku interakcji cząstek pochodzenia słonecznego z atomami i cząsteczkami górnych warstw atmosfery ziemskiej w wyniku bezpośrednich zderzeń i reakcji chemicznych. Jednakże w przypadku owalu zorzy polarnej cząstki są przyspieszane przez pewne złożone procesy magnetosferyczne prowadzące do zjawisk o jaśniejszej intensywności i różnych formach, przy czym oba znaki są w dużym stopniu zależne od czasu. Zorze polarne obserwuje się zwykle na wysokości od 80 do 300 km, w zależności od charakterystyki wytrącających się cząstek (energii elektronów i protonów) oraz składu atmosfery, co prowadzi do widma zorzy składającego się z wielu linii atomowych i molekularnych obojętnych lub zjonizowanych. Występowanie i intensywność zorzy polarnej zależą od aktywności Słońca; na przykład w obserwacjach można znaleźć typowy 11-letni cykl słoneczny. Charakterystyka zorzy polarnej stanowi ostatni etap szeregu procesów rozpoczynających się w atmosferze słonecznej i biorących pod uwagę ziemską magnetosferę i fizykę atmosfery.

Krótkie tło historyczne

Obserwując nasze otoczenie, ujawniają się różne zjawiska. Występują regularne zjawiska, takie jak wschody i zachody słońca, ruchy gwiazd i planet. Występują także zjawiska występujące nieregularnie, o charakterze astronomicznym lub geofizycznym, takie jak tęcze, komety, aureole i zorze polarne. Zanim stały się przewidywalne, ich wystąpienie było powiązane z kilkoma ważnymi wydarzeniami. Dlatego właśnie zjawiska te zostały odnotowane w celach wróżbiarskich, a także prawdopodobnie dla ciekawości. W pierwszych wiekach naszej ery Chińczycy, Grecy i Rzymianie odnotowali zorze polarne. Jednak ludzie zamieszkujący obszary położone na dużych szerokościach geograficznych byli bardziej przyzwyczajeni do ich występowania i nazwali je Zorzą Polarną. Pierwsze współczesne obserwacje zorzy rozpoczęły się w drugiej połowie XVI wieku za sprawą Tycho Brahe z jego obserwatorium w Uraniborgu. Jakiś czas później występowanie zorzy zorzy zmniejszyło się, szczególnie na średnich szerokościach geograficznych. P. Gassendi opisał kilka zorzy obserwowanych na początku XVII wieku i zaproponował nazwę "aurora borealis". Po odkryciu plam słonecznych w 1609 roku, regularnie obserwowano Słońce. Występowanie plam słonecznych znacznie spadło od 1645 do 1715 roku, czyli do "minimum Maundera", podczas którego wystąpiło niewiele zorzy. Aktywność słoneczna została wznowiona na początku XVIII wieku, a na średnich szerokościach geograficznych (1716 i 1726) zaobserwowano kilka intensywnych zórz polarnych. E Halley, a później JJ Dortou de Mairan zostali poproszeni o zbadanie ich pochodzenia odpowiednio przez Towarzystwo Królewskie (Londyn) i Acad′emie Royale des Sciences (Paryż). Wcześniej wysunięto różne hipotezy wyjaśniające występowanie zorzy polarnej. Mairan zasugerował w 1733 roku, że światło zorzy zostało wygenerowane przez płyn słoneczny uderzający w ZIEMSKĄ SATMOSFERĘ. Choć była to hipoteza przybliżona, była to pierwsza hipoteza oparta na związku Słońca z Ziemią. W drugiej edycji swojego raportu Mairan stwierdził, że istnieje związek pomiędzy plamami słonecznymi i zorzą polarną, a także ich sezonowym występowaniem. Związek między występowaniem zorzy polarnej a zaburzeniami magnetycznymi został eksperymentalnie wykazany przez P. Hiortera w 1741 r., obserwując jednocześnie maleńkie zaburzenia doświadczane przez igłę kompasu (podawana w stopniach Celsjusza). Mairan podejrzewał, że zorze polarne mogą pojawiać się na półkuli południowej i skierował notatkę do Don Ulloa, hiszpańskiego oficera marynarki, który potwierdził obserwacje zorzy polarnej podczas okrążania Przylądka Horn w 1745 roku. J. Cook badający wysokie południowe szerokości geograficzne potwierdził występowanie " aurora australis" w 1770 r. W drugiej połowie XVIII wieku W. Wargentin (1717-1783) na podstawie różnych obserwacji wywnioskował, że zorze polarne można obserwować z różnych miejsc w tym samym czasie i rozciągają się poziomo jako pas otaczający Biegun Północny. Po odkryciu elektronu K. Birkeland zaproponował w 1896 r., że zorze polarne powstają w wyniku elektronów wyrzucanych ze Słońca i kierowanych przez ziemskie pole magnetyczne do regionów położonych na dużych szerokościach geograficznych. Poparł tę ideę eksperymentami laboratoryjnymi. Jednak ze względu na odpychanie elektrostatyczne konieczne było uwzględnienie PLAZMY wyrzuconej przez Słońce, a nie samych elektronów. S Chapman i V Ferraro wykazali, że poruszająca się plazma będzie oddziaływać z polem magnetycznym Ziemi, zamykając ją we wnęce. To były narodziny fizyki magnetosferycznej. Kilka ekspedycji pod koniec XIX wieku z dużą dokładnością zlokalizowało strefę zorzową. Zorze były przedmiotem wielu obserwacji (form, widma itp.) i opracowań teoretycznych.

Główne właściwości

Nowoczesnymi sposobami obserwacji zórz polarnych są spektrometry analizujące ich widmo, fotometry badające zachowanie jednej lub kilku linii emisyjnych, kamery rejestrujące formy zorzy w funkcji czasu oraz radar. Instrumentów tych można używać na ziemi lub z platform orbitujących, gdzie umożliwiają globalne badanie zórz polarnych. Jednak przed instrumentalnym badaniem zórz polarnych przeprowadzono obserwacje wizualne. Aby umożliwić porównania obserwacji dokonanych przez różnych autorów, na arenie międzynarodowej przyjęto nomenklaturę opisującą cechy zorzy polarnej (intensywność, forma i kolor). Jest nadal w użyciu.

Intensywność

Linia o największym natężeniu wynika z emisji tlenu atomowego przy 557,7 nm, często nazywana w literaturze naukowej "zieloną linią". Jasność zorzy polarnej jest skalowana do intensywności zielonej linii za pomocą Międzynarodowego Współczynnika Jasności (IBC), jak pokazano w tabeli .



Dla porównania podano równoważne źródła jasności. We współczesnych pomiarach intensywność emisji zorzy polarnej podaje się w Rayleighu. Jednakże w przypadku wykorzystywania starych zapisów do badań długoterminowych odniesienie do równoważnego natężenia źródła jest przydatne pomimo jego względnej niedokładności.

Formy i kolory

Obserwacje wizualne i obrazy zarejestrowane przez kamery ujawniają kilka typowych form, jak pokazano na przykład na rysunku 1. Są one dokładnie opisane jako łuki, pasma, promieniste lub nie, powierzchnia rozproszona lub pulsująca, korona i płomienie. Opis form zorzowych opiera się na nomenklaturze międzynarodowej Kolory zorzy są zwykle zielone, czerwone lub niebieskie, w zależności od gatunków atmosferycznych biorących udział w procesach wzbudzenia. Zorze o intensywności IBC I lub II wydają się bezbarwne. Żółte zorze powstają w wyniku zmieszania się czerwieni i czerwieni , zielone zorze. Intensywność zorzy jest funkcją czasu. Zmiana może być powolny, jak w przypadku powierzchni pulsującej (0,1 Hz), lub osiągać 10 Hz w przypadku niektórych form jednorodnych. Zmiany w czasie mogą być spowodowane podróżującymi formami, jak w przypadku zorzy typu płonącego, które wydają się poruszać w górę. Pozorne ruchy poziome występują w zorzach łukowych lub pasmowych o prędkościach sięgających 100 km na s-1. To oczywista prędkość generalnie wzrasta wraz z amplitudą burzy magnetycznej. Podczas obserwacji wizualnych takich zdarzeń, szybkość zmian w czasie jest z pewnością najbardziej uderzającą i spektakularną cechą zjawiska zorzy. Zdarzenia zorzowe są spowodowane wytrącaniem się cząstek w górnych warstwach atmosfery ziemskiej. Ich wzory są złożone i dlatego należy dokładnie zdefiniować opis zorzy polarnej. Na tej podstawie możliwa była klasyfikacja zdarzeń zorzowych i uzyskanie informacji o procesach ich powstawania.

Lokalizacja

Kiedy prowadzi się obserwacje naziemne w funkcji szerokości geograficznej, można określić średnią częstotliwość występowania. Umożliwia zdefiniowanie obszaru maksymalnego występowania, zwanego obecnie "strefą zorzową". Strefa zorzowa i owal zorzowy to dwa różne pojęcia, które zostaną wyjaśnione później. Zdjęcia owalu zorzy polarnej uzyskano z orbity za pomocą sondy kosmicznej DYNAMICS EXPLORER 1 (rysunek 2). Owalny środek zorzy polarnej jest przesunięty o około 3? od bieguna geomagnetycznego w kierunku ciemnej półkuli. Jego grubość jest maksymalna o północy magnetycznej. Owal zorzowy leży na około 70? szerokości magnetycznej i ma średnią szerokość około 5? w spokojnych warunkach. Kiedy zorze są obserwowane w tym samym czasie z dwóch magnetycznie sprzężonych miejsc (jednego na północy, a drugiego na południowym owalu zorzowym), tworzą się podobne wzory. Występowanie zórz polarnych jest większe w owalu zorzowym niż w jego środkowej części. Ten ostatni obszar nazywany jest CZAPKĄ POLARNĄ, a zorze polarne mają słabszą intensywność i mniejsze tempo zmian w czasie niż w owalu zorzowym. Czasami wewnątrz można zobaczyć niezwykłe pokazy zorzy polarnej. Na przykład łuk obserwowany w pobliżu zenitu pozostaje zgodny z kierunkiem Słońca. Zostało to odkryte przez D. Mawsona w 1913 roku na stacji Dumont d′Urville (Antarktyda). Łuk ten może rozciągać się aż do obu wewnętrznych krawędzi owalu zorzowego. Został nazwany theta aurora, ponieważ wyglądem przypomina grecką literę. Powyższe zorze obserwowane są w nocy. Inny rodzaj zorzy można zaobserwować w ciągu dnia. Zwykle są słabe i rozproszone.

Wysokość i zasięg przestrzenny

Najpierw mierzono wysokości metodą paralaktyczną z ziemi. Obecnie powszechnie stosuje się pomiary z rakiet i statków kosmicznych. Większość zórz polarnych ma miejsce na wysokościach od 80 do 120 km. Jednak dolna granica bardzo intensywnych zorzy może spaść do 70 km. Ich pionowy zasięg zależy od procesów wytwarzania i w przypadku niektórych zorzy może osiągnąć wysokość 300 km. Rozkład intensywności nie jest jednorodny wzdłuż pionu; jego pionowa konstrukcja zbudowana jest z elementów o grubości od setek metrów do kilku kilometrów. Zorze polarne pozostają w pasie szerokości geograficznej, którego grubość jest funkcją czasu magnetycznego (definiowanego jako lokalny czas słoneczny, ale liczony od południka zawierającego bieguny magnetyczne i geograficzne), jak widać na ryc. 2. W owalu zorzowym znajduje się spokojna łuki są przeważnie zorientowane wzdłuż owalu i mogą mieć długość 500 km. Częstotliwość występowania Dla danej stacji naziemnej w strefie zorzy polarnej, średnie roczne występowanie jest zgodne z 11-letnim cyklem słonecznym, jednakże z opóźnieniem od roku do dwóch lat. Korzystając z danych z kilku lat, posortowanych według średniej miesięcznej, pokazana jest zmienność półroczna z maksymalnym występowaniem zorzy w pobliżu równonocy. Podobnie można wskazać 27-dniową rotację Słońca. Występowanie czapy polarnej i zorzy dziennej nie przestrzega ściśle tych zasad, szczególnie w przypadku najbardziej intensywnych wydarzeń.

Związek z aktywnością magnetyczną

Słońce jest gwiazdą zmienną. Doświadcza zmian mniej lub bardziej cyklicznie, inne mają charakter bardziej chaotyczny. Jego zmienna aktywność powoduje wahania charakterystyki WIATR SŁONECZNEGO (prędkość, gęstość, temperatura jonów i elektronów oraz pole magnetyczne) o większym lub mniejszym znaczeniu. Powoduje to niewielkie wahania pola magnetycznego Ziemi, które są wykrywane przez magnetometry na ziemi. Ich amplitudy służą do określenia wskaźników aktywności magnetycznej. Zdarzenia te nazywane są burzami magnetycznymi. Występowanie i intensywność zorzy polarnej zbadano jako funkcję zaburzeń magnetycznych i określono odpowiadający im owal zorzy. Z typowego kształtu (ryc. 2), wraz ze wzrostem aktywności magnetycznej, owal przesuwa się nieco w kierunku równika i rozciąga się w kierunku biegunowym i równikowym. To wyjaśnia, dlaczego niektóre zorze można zaobserwować na średnich szerokościach geograficznych. Aktywność magnetyczna przebiega zgodnie z 11-letnim cyklem słonecznym. Jednakże, biorąc pod uwagę chaotyczną naturę Słońca, silne zjawiska magnetyczne mogą wystąpić nawet podczas niskiej aktywności słonecznej. Zorze elektronowe i protonowe Zorze powstają głównie w wyniku zderzeń pomiędzy substancjami atmosferycznymi a cząstkami, elektronami lub protonami. Większość właściwości omówionych powyżej dotyczy zórz elektronowych. Różnice między zorami elektronowymi i protonowymi wynikają z ich odmiennego sposobu propagacji w górnych warstwach atmosfery. Ze względu na masę protonu jego promień wirowania jest znacznie większy (200 m) niż elektronu. Co więcej, protony poruszające się w polu magnetycznym mogą zderzać się z niektórymi cząsteczkami i wychwytywać elektron. W efekcie atom wodoru porusza się po linii prostej, wolny od wpływu ziemskiego pola magnetycznego. Kolejna kolizja może później przywrócić początkowy proton. W rezultacie zorze protonowe mają słabą intensywność (maksymalna IBC I) i są rozproszone. Wysokość występowania wynosi około 100 km. Owal zorzy protonowej jest nieco przesunięty w stronę równika w stosunku do owalu zorzy elektronowej.

Widmo zorzy polarnej i mechanizmy emisji

Większość zórz polarnych ma kolor zielony ze względu na linię emisyjną O(1S) przy 557,7 nm. Istnieje jednak wiele innych linii pochodzących z atomów, cząsteczek lub gatunków zjonizowanych. Jest to superpozycja wielu linii z: O i N; O2, N2, NO i OH; O+, N+; i O+2, Nsup>+2. Kolor niebieski pochodzi z pasma Nsup>+2 przy 391,4 nm. Widmo zorzy polarnej powstaje w wyniku zderzeń elektronów/protonów z substancjami występującymi w atmosferze ziemskiej oraz reakcji fotochemicznych:

(a) Zderzenia z elektronami. Pierwotne elektrony z magnetosfery zderzają się z atomami (A) i cząsteczkami (M) atmosfery ziemskiej i ustawiają te gatunki w stany metastabilne (?), takie jak

A+e ? A? + e
M+e ? M? + e

z podobnymi reakcjami prowadzącymi do jonów. Elektrony po lewej stronie to elektrony pierwotne, a te po prawej stronie to elektrony wtórne, które również mogą zderzać się z innymi gatunkami i generować wzbudzone stany molekularne i atomowe, aż do ich pełnej termalizacji. Stany wzbudzone (?) są dezaktywowane albo przez wypromieniowanie fotonów, albo przez zderzenia z innymi substancjami przed emisją światła (wygaszenie). Ponieważ zagęszczenie gatunków neutralnych rośnie w dół, wygaszanie wyjaśnia, dlaczego na małych wysokościach (zwykle poniżej 70 km) nie obserwuje się zórz polarnych. (b) Pośrednie mechanizmy wzbudzenia. Dwa najważniejsze mechanizmy to:

(1) Rekombinacja dysocjacyjna; typowym przykładem jest O+2 + e ? O(1D lub 1S)+O.
(2) Transfer i hartowanie energii; typowym przykładem jest

O(1D)+N2 ? O(3P)+N2†.

Symbol † oznacza stan wzbudzony lub stan podstawowy. W pierwszym przypadku mamy do czynienia z transferem energii, w drugim zaś z dezaktywacją kolizyjną. Skuteczność hartowania jest funkcją wysokości i czasu życia stanu wzbudzonego zderzających się gatunków. (c) Zderzenia z protonami. Reakcje obejmują rotony i obojętny wodór zderzający się z cząsteczkami. Podczas tych zderzeń obojętny wodór może rozbić swój elektron, zjonizować cząsteczkę lub przekazać jej energię. Jeśli chodzi o proton, może on również jonizować cząsteczkę, przekazywać jej energię lub wychwytywać elektron. Aby obliczyć różne intensywności linii emisyjnych, konieczne jest pozbycie się widma energii elektronów pierwotnych. Zwykle mierzy się to na dużych wysokościach (zwykle 300 km). Obliczenia widma zorzy polarnej opierają się na widmie energii elektronów pierwotnych, przekroju poprzecznym atomów i cząsteczek oraz procesach zachodzących, gdy elektrony przenikają do atmosfery w kaskadzie kolejnych zderzeń. Problem jest dość trudny i obarczony jest również niepewnością wpływającą na przekroje poprzeczne. Obserwacje wizualne, a także instrumenty pokładowe rakiet i statków kosmicznych wykazały zależność intensywności emisji liniowej od wysokości. Rozważmy przypadek emisji tlenu atomowego przy długości fali 630 nm. Mechanizm emisji (rekombinacja dysocjacyjna i wzbudzenie przez zderzenie), pionowy rozkład cząstek obojętnych i widmo energii wytrącających elektronów pozwalają nam obliczyć szybkość wytwarzania stanu wzbudzonego (1D) w funkcji wysokości. Uwzględnienie dezaktywacji wzbudzonych atomów tlenu w wyniku zderzeń zapewnia profil szybkości emisji wraz z wysokością. W przypadku tej emisji czas życia stanu wzbudzonego 1D wynoszący 110 sekund tłumi całą emisję na małych wysokościach. Dlatego właśnie zorzę polarną obserwowaną przy 630 mil morskich można znaleźć na wysokości 250 km. Ten sam proces pozwala nam obliczyć profil wysokości zielonej linii stanu wzbudzonego tlenu atomowego 1S. Jego czas życia wynoszący 0,7 s pozwala uniknąć dezaktywacji na małych wysokościach, a emisję tę będzie można zaobserwować już na 80 km, w zależności od intensywności wytrącania elektronów. Dla danej linii emisyjnej, im silniejsze jest wytrącanie elektronów, tym niższa będzie zorza polarna.

Zorza polarna i magnetosfera Ziemi oraz inne powiązane zjawiska

Sugeruje się, aby czytelnik zapoznał się z rozdziałami poświęconymi magnetosferze ziemskiej, aby mieć na uwadze jej reprezentację oraz terminologię . Ponieważ Słońce jest gwiazdą zmienną, wiatr słoneczny charakteryzuje się różnymi reżimami, które wpływają na stan magnetosfery Ziemi. Międzyplanetarne pole magnetyczne (IMF) ulega zmianom w czasie. W stanie cichym MFW ma składową północną (tj. równoległą do ziemskiego pola magnetycznego), która podczas burz magnetycznych skręca na południe. Aby zbadać mechanizm emisji zorzy polarnej, podczas prezentacji zorzy zmierzono widmo wytrącających się cząstek. W przypadku zorzy dziennej i zorzy polarnej stwierdzono, że jest ona rzędu energii wiatru słonecznego. W związku z tym uważa się, że zorze dzienne powstają w wyniku przedostawania się cząstek wiatru słonecznego górne warstwy atmosfery poprzez północne i południowe wierzchołki dzienne, gdzie w magnetycznie spokojnych warunkach istnieje punkt neutralny (północny IMF). Zorze polarne powstają w wyniku cząstek wiatru słonecznego z ogona magnetycznego. W owalu zorzowym energia cząstek jest 50-krotnie lub więcej większa niż w wietrze słonecznym. W związku z tym zasadniczym pytaniem jest mechanizm przyspieszania cząstek. Kwestia ta jest wciąż przedmiotem dyskusji i nie można jej jeszcze uznać za całkowicie zrozumianą. Jednak najbardziej prawdopodobnym mechanizmem jest ponowne połączenie pola magnetycznego Ziemi z MFW. Ponowne połączenie następuje, gdy MFW ma składową południową (przeciwrównoległą do ziemskiego pola magnetycznego). W tym przypadku generuje neutralną osłonę, do której strumienie plazmy są wtryskiwane w górę i w dół od tego obszaru. Powoduje to rozrzedzenie arkusza plazmy i ruch cząstek do wewnątrz. Kurczenie się arkusza plazmy prowadzi do wzrostu energii cząstek. Proponowanych jest kilka procesów. Najbardziej prawdopodobna metoda opiera się na adiabatycznej kompresji pewnej ilości plazmy zamkniętej w sprężonej rurze strumienia magnetycznego podczas jej konwekcji do przodu, aż w końcu wytrąci się w górnych warstwach atmosfery ziemskiej w chwili, gdy system staje się niestabilny. Owal zorzowy jest wówczas przecięciem warstwy plazmy z górną atmosferą na wysokości 100-200 km. Owal zorzowy jest ustalony względem Słońca, ale stacja naziemna na szerokościach zorzowych obraca się poniżej, wokół bieguna geograficznego. W zależności od czasu może znajdować się w czapie polarnej, wewnątrz lub na zewnątrz owalu, doświadczając różnych reżimów występowania zorzy. Ich średnia określa strefę zorzową widzianą z ziemi. Kiedy magnetosfera jest umiarkowanie zakłócona z powodu niewielkich zmian IMF, odpowiednie zdarzenia nazywane są podburzami magnetycznymi i składają się z czterech odrębnych faz (ciszy, wzrostu, ekspansji i regeneracji) mających specyficzne cechy, takie jak typowe zmiany w polu magnetycznym Ziemi. Duże zdarzenia słoneczne, takie jak rozbłyski, generują burze magnetyczne, które są analizowane jako seria następujących po sobie burz. Podczas burzy magnetycznej poruszające się cząstki wytwarzają pole magnetyczne, które łączy się z polem ziemskim. Zmienna charakterystyka wytrącających się cząstek (prędkość, kierunek i gęstość liczbowa) oraz zderzenia z ziemską atmosferą są przyczyną złożoności zaburzeń pola magnetycznego. W związku z tym zorze stanowią wizualną ilustrację zaburzeń pola magnetycznego Ziemi. W niektórych przypadkach układ pola jest prosty, jak na przykład promienie, które pojawiają się jako prawie pionowe kolumny światła, wskazujące na duże nachylenie linii pola na szerokości geograficznej strefy zorzowej. Z zorzami wiąże się wiele innych zjawisk, takich jak elektroodrzutowy zorzowy krążący w obszarze E (na wysokości około 100 km), który jest podgrzewany przez rozpraszanie Joule′a i prąd pierścieniowy na niskich szerokościach geograficznych. Generowane są również promienie rentgenowskie i fale radiowe w zakresie od 40 do 500 MHz. Podczas zorzy powstają pola elektryczne, które oddziałują na ruch elektronów, protonów i jonów. Co więcej, wszystkie te gatunki poruszają się w neutralnej atmosferze, której siłą napędową są zderzenia z jonami. W rezultacie dynamika jest silnie powiązana z wydarzeniami zorzowymi, co ilustruje rozwój pionowych neutralnych wiatrów podczas burz.

Wykorzystanie obserwacji zorzowych

Na podstawie obserwacji statystycznie ustalono związek między występowaniem zorzy polarnej a aktywnością Słońca. Dlatego też do rekonstrukcji aktywności Słońca przed pierwszymi obserwacjami instrumentalnymi wykorzystano występowanie zórz polarnych. Długie okresy aktywności słonecznej stwierdzone w zmianach 14C zostały potwierdzone przez występowanie zórz polarnych. Mówiąc bardziej bezpośrednio, występowanie zorzy polarnej reprezentuje ostateczny etap różnych zjawisk zachodzących od wiatru słonecznego po atmosferę ziemską. Zrozumienie szczegółowych cech zorzy polarnej (występowanie, formy, widmo) gwarantuje zrozumienie całego procesu fizycznego. To samo dotyczy zorzy obserwowanej w atmosferze Jowisza i Saturna. Dane zorzowe pokazują, jak ważne w nauce są długie serie starannie wykonanych obserwacji.

Aurorae: obserwacja przez amatorów

Naukowcy-amatorzy od dawna interesują się niebem, dlatego obserwacje zorzy polarnej były amatorskie już od dawna, odkąd istnieją zapisy. W epoce nowożytnej amatorom przypisuje się znaczący wkład w badania zorzy polarnej, ponieważ postęp w wielu naukach zaczął się nasilać w XVIII wieku. Ponieważ zorza polarna jest zjawiskiem na dużą skalę i ma charakter globalny, wcześnie dostrzeżono wartość międzynarodowej współpracy obejmującej zarówno profesjonalistów, jak i amatorów. Jeden z najbardziej udanych pokazów takiej współpracy miał miejsce podczas Międzynarodowego Roku Geofizycznego (1957/58). Wraz z nadejściem ery kosmicznej badacze zaczęli w większym stopniu polegać na satelitach i wyrafinowanym naziemnym sprzęcie obserwacyjnym do monitorowania zorzy polarnej, ale nadal przywiązuje się dużą wagę do raportów wizualnych jako ich uzupełnienia. Ważnym celem obserwacji wizualnych jest kontynuacja pisemnych zapisów aktywności zórz polarnych, które zachowały się od czasów greckich przez kilka cywilizacji. Do przeprowadzenia użytecznych obserwacji wizualnych zorzy polarnej wymagane jest minimum sprzętu, a jedynym potrzebnym instrumentem optycznym jest nieuzbrojone oko. Do pewnego stopnia możliwe jest prognozowanie wystąpienia zorzy polarnej na podstawie ostatnich wydarzeń na Słońcu, dzięki czemu wysiłki obserwacyjne można zaplanować tak, aby pokrywały się z nocami, w których prawdopodobieństwo wystąpienia zorzy jest największe. Magnetometry i krótkofalówki mogą być również pomocne w ostrzeganiu obserwatora o obecności zorzy polarnej (chociaż nie zawsze ma to wizualny odpowiednik). Najczęściej jednak zobaczysz zorze polarne, jeśli będziesz wytrwale dokonywał regularnych inspekcji wzrokowych nieba na biegunie w ciągu nocy, między zachodem a świtem, gdy tylko pozwoli na to pogoda i światło księżyca. Amatorzy obserwatorzy mieszkający w miastach lub tam, gdzie występują częste zachmurzenia, mogą nie być w stanie zbyt często obserwować zorzy wizualnie, mogą jednak przedstawić obserwację, że aktywność zorzy została wykryta za pomocą magnetometru lub radia krótkofalowego. W tym wypadku obserwacja nie ogranicza się do godzin nocnych, jak w przypadku obserwatora czysto wizualnego. Do podstawowych obserwacji słuchowych nie jest potrzebny żaden specjalny sprzęt. Jednakże przydatne może być posiadanie instrumentu, takiego jak prosty teodolit lub alidada, do dokładnego określenia położenia i wysokości obiektów w zorzy polarnej. Jako dodatek do zapisu wizualnego, obserwatorzy-amatorzy czasami wykrywają subwidzialne szczegóły na obrazach zorzy polarnej za pomocą fotografii lub obrazowania za pomocą URZĄDZENIA CHARGE-COUPLED DEVICE (CCD). Fotografia to popularny sposób rejestrowania zorzy polarnej i idealny sposób na podzielenie się spektaklem pokazowym po wydarzeniu . Wystarczy dowolny aparat, który może wykonywać czas ekspozycji od kilku sekund do kilku minut, z obiektywem otwartym na najszerszą przysłonę - wielu fotografów wybiera szybki film kolorowy (taki jak ISO 400) i szybki, szerokokątny obiektywu (np. ogniskowa f/3 i ogniskowa 28 mm). Fotografie stanowią także trwały zapis położenia i struktury wyświetlacza, co może być przydatne w pracach triangulacyjnych. Dla osób zainteresowanych zastosowaniem innych technik w celu poszerzenia swoich obserwacji można również zastosować wideografię, obrazowanie CCD i spektroskopię. Aby wykryć obecność lub prognozować prawdopodobieństwo aktywności zorzy, obserwatorzy zainteresowani elektroniką mogą używać magnetometrów lub krótkofalowych urządzeń radiowych do wykrywania zaburzeń w polu geomagnetycznym lub jonosferze. Zachęcamy autorów do przesyłania obserwacji zorzy polarnej w formacie zalecanym na mocy umowy międzynarodowej, co zwiększa wartość obserwacji i także ocena zjawiska przez obserwatora. Zapis zawiera lokalizację obserwatora i warunki obserwacji, datę i godzinę zaobserwowania wyświetlacza, a także szczegóły dotyczące jasności, koloru, formy, aktywności, kierunków i wysokości obiektów oraz zachodzących zmian. Informacje te można zapisać w formie notatek lub diagramów, przedstawionych z różnym stopniem szczegółowości, w zależności od preferencji lub doświadczenia indywidualnego obserwatora. Do wszelkich zdjęć lub innych rodzajów obserwacji zorzy polarnej należy również dołączyć zapis zawierający co najmniej lokalizację, datę i godzinę, a także odpowiednie informacje techniczne, aby nadać im wartość naukową. To także zwiększa zainteresowanie i użyteczność zapisu dla innych obserwatorów. Aby jak najlepiej wykorzystać obserwacje, wyniki można przekazać jednej z kilku organizacji o ugruntowanej pozycji, które gromadzą, analizują i archiwizują raporty do wykorzystania w przyszłości. Wstępna analiza raportów zwykle obejmuje porównanie z prognozami i korelację zdarzenia zorzy z aktywnością na Słońcu i w polu geomagnetycznym Ziemi. W dłuższej perspektywie interesujące jest określenie częstotliwości pokazów obserwowanych z poszczególnych lokalizacji oraz ich częstotliwości w określonych warunkach lub w określonych porach roku lub cyklu plam słonecznych. Zorza odnotowana przez wielu obserwatorów z różnych lokalizacji pozwala opisać kształt, rozmiar, położenie, rozwój i czas trwania zorzy polarnej. Wyniki udostępniane organizacjom regionalnym i międzynarodowym umożliwiają sporządzenie wykresu całego zdarzenia zorzowego, poza granicami światła dziennego i pomiędzy półkulami, co pozwala na zbadanie globalnego wzorca aktywności zorzy polarnej. Obserwacje wizualne można ostatecznie porównać ze zdjęciami i innymi danymi dotyczącymi owalu zorzowego uzyskanymi z satelitów i profesjonalnych obserwatoriów. Brytyjskie Stowarzyszenie Astronomiczne (BAA) gromadzi obserwacje zorzy polarnej za pośrednictwem swojej Sekcji Aurorów i posiada sieć obserwatorów, w skład której wchodzą członkowie BAA lub innych towarzystw astronomicznych, obserwatorzy indywidualni, zawodowi meteorolodzy i oficerowie statków na morzu. BAA gromadzi i publikuje obserwacje, głównie zorzy burzowej na średnich szerokościach geograficznych, z Wysp Brytyjskich, Europy, Islandii, Kanady i Stanów Zjednoczonych Ameryki; są one również publikowane przez Brytyjskie Biuro Meteorologiczne. Na półkuli południowej obserwacje koordynuje Królewskie Towarzystwo Astronomiczne Nowej Zelandii (RASNZ), które otrzymuje i publikuje obserwacje z Nowej Zelandii i Australii. Istnieje ścisła współpraca i wymiana pomiędzy BAA i RASNZ. Raporty koordynowane przez BAA i RASNZ są następnie archiwizowane na Uniwersytecie Aberdeen w Szkocji, gdzie są udostępniane badaczom. Podobne archiwa istnieją w takich krajach jak Chiny, Korea i Japonia. Obserwacje radiowe zorzy polarnej koordynują Towarzystwo Radiowe Wielkiej Brytanii i Amerykańska Liga Przekaźników Radiowych w USA. Profesjonaliści korzystają z danych dostarczonych przez amatorów; na przykład wyniki amatorów pomogły odkryć procesy zachodzące w termosferze. Obserwatorzy-amatorzy również wnoszą istotny wkład w trwające badania nad złożoną korelacją między zorzą polarną a nocnymi obłokami. Procesy zorzowe i złożone interakcje, które je powodują, nie są jeszcze w pełni poznane, dlatego zorza jest nadal przedmiotem intensywnych badań. Ponieważ naukowcy nie rejestrują już zorzy wizualnej, jedynym źródłem takich obserwacji jest amatorska społeczność astronomiczna. Zapisy dotyczące wizualnej zorzy polarnej są przechowywane od setek lat i w przeszłości dostarczyły cennych informacji na temat aktywności Słońca i górnych warstw atmosfery Ziemi - istnieją jeszcze obszerne archiwa, które nie zostały jeszcze wykorzystane, a które mogą mieć podobne znaczenie w nowych badaniach w Ziemi przyszły. Niektóre obszary, w których można wykorzystać zapisy zorzy wizualnej, obejmują geomagnetyzm, magnetyzm słoneczny i międzyplanetarny, pogodę ziemską, górne warstwy atmosfery i pogodę kosmiczną.

Zorzowe promieniowanie kilometrowe

Ziemia jest potężnym naturalnym źródłem radiowym, które emituje jasną emisję na falach kilometrowych: zorzowe promieniowanie kilometrowe (AKR). Jak sama nazwa wskazuje, regiony źródłowe AKR znajdują się na dużych szerokościach geograficznych, na wysokościach wahających się zazwyczaj od 0,5 do 2 promieni Ziemi. Jego maksymalna częstotliwość (rzędu 700 kHz) jest mniejsza od częstotliwości odcięcia jonosfery i dlatego promieniowania tego nie można obserwować z ziemi. W ten sposób odkryto go i zbadano już po rozpoczęciu ery kosmicznej . AKR organizuje się w burze radiowe trwające kilka 10 minut i posiadające moc kilku megawatów. Ta sporadyczna aktywność jest skorelowana z okresami intensywnych opadów cząstek zorzy polarnej, podczas których obserwuje się energetyczne elektrony o typowych energiach kilku keV spływające wzdłuż linii pola magnetycznego zorzy i tworzące zorzę polarną (patrz AURORA). Te wytrącające się populacje elektronów wynikają ze złożonego łańcucha procesów fizycznych powiązanych z głównymi zakłóceniami ogona magnetosferycznego, znanymi jako podburze magnetosferyczne (patrz MAGNETOSFERA ZIEMI: SUBSTORY). AKR jest zatem bezpośrednio powiązany z globalną aktywnością magnetosferyczną i może nawet być uważany za wskaźnik tej aktywności. Jeśli chodzi o jego wewnętrzne właściwości, AKR charakteryzuje się ekstremalną temperaturą jasności (do 1020 K), która jest całkowicie niewytłumaczalna za pomocą klasycznych mechanizmów promieniujących (takich jak promieniowanie żyrosynchrotronowe). Aby wyjaśnić ich powstawanie, należy zatem przywołać spójne procesy związane z rozwojem mikroniestabilności plazmy. Oprócz tej ekstremalnej jasności, dobra teoria AKR musi również opisywać polaryzację emisji oraz jej silną organizację czasową i widmową. AKR sama w sobie nie jest szczególnie potężnym zjawiskiem. Jest to nawet do pominięcia w globalnym budżecie energetycznym aktywności magnetosferycznej. Jednakże budzi pewne zainteresowanie astrofizyczne, gdyż należy do szerokiej klasy emisji radiowych bezpośrednio związanych z rozwojem mechanizmów przyspieszania w bezkolizyjnych plazmach otaczających większość obiektów astrofizycznych. Rzeczywiście zaobserwowano emisje radiowe o charakterystyce porównywalnej z AKR, pochodzące z obiektów astrofizycznych tak różnych, jak inne namagnesowane planety Układu Słonecznego, Słońce, niektóre gwiazdy i układy podwójne. Ponieważ jego źródła mogą być bezpośrednio badane przez statki kosmiczne, AKR stanowi zatem bardzo interesujący przypadek zjawiska astrofizycznego, dla którego modele teoretyczne można sprawdzić za pomocą pomiarów in situ. Większość wspomnianych emisji radiowych prawdopodobnie pochodzi z samego miejsca przyspieszania cząstek, a ich analiza może służyć jako narzędzie diagnostyczne do badania uwalniania energii w środowiskach plazmy. W tym kontekście kluczowe jest zrozumienie mechanizmu generowania AKR. Poniższe obserwacje dotyczą tego szczególnie ważnego aspektu problemu.

Warunki fizyczne w źródłach AKR

Przykład precyzyjnych obserwacji fal przeprowadzonych w pobliżu i wewnątrz źródła AKR przedstawiono na rysunku 1. Pomiary te zostały wykonane przez szwedzką sondę kosmiczną - Viking - specjalnie zaprojektowaną do analizy mechanizmów przyspieszania i promieniowania zachodzących w zorzy polarnej. strefy MAGNETOSFERY ZIEMI. Kiedy dokonał tej obserwacji, Viking znajdował się na wysokości około 10 000 km, na szerokości magnetycznej bliskiej 70° szerokości geograficznej północnej, około północy czasu lokalnego i przeleciał przez obszar magnetycznie połączony z dyskretnym łukiem zorzowym. Na rysunku przedstawiono wykres czasowo-częstotliwościowy składowej elektrycznej fal elektromagnetycznych. Intensywność jest podawana za pomocą kodu kolorowego (od niebieskiego do czerwonego i białego w miarę wzrostu intensywności od mniej niż 10-8 V m-1 Hz-1/2 do ponad 10-5 V m-1 Hz-1/2) . Zakres częstotliwości wynosi 10 kHz-500 kHz i wyświetlanych jest 20 minut danych. Biała linia wskazuje częstotliwość żyroskopową elektronów (fce) zmierzoną przez sondę. AKR obserwuje się powyżej tej charakterystycznej częstotliwości (tutaj około 150 kHz), tworząc emisje w kształcie litery V. Jego niższe częstotliwości, które odpowiadają wyraźnemu odcięciu, mają minimum około 22,39 UT. W tym czasie częstotliwości AKR sięgają fce. Ten obszar częstotliwości minimalnych jest jednocześnie obszarem maksymalnego poziomu fal (biały kod intensywności). To jest źródło AKR. Kształt V widm dynamicznych AKR jest łatwo zrozumiany, jeśli założy się, że fale powstają w fce (a więc przy rosnących częstotliwościach w miarę zmniejszania się wysokości) w źródle wydłużonym wzdłuż pola magnetycznego, pod kątem ukośnym do linii pola magnetycznego oraz w kierunek w górę. Daleko od źródła (na przykład o 22:35 lub 22:45) wykrywane są jedynie fale generowane znacznie poniżej statku kosmicznego (a więc przy wysokich częstotliwościach). Gdy statek kosmiczny zbliża się do źródła, wykrywane są fale generowane coraz bliżej statku kosmicznego, a tym samym o coraz niższych częstotliwościach, aż statek kosmiczny przetnie źródło, co odpowiada maksymalnemu natężeniu i minimalnym częstotliwościom. Na tym spektrogramie można również zaobserwować systematyczną modulację AKR w całym zakresie częstotliwości w okresie 20 s. Modulacja ta jest powiązana z wirowaniem statku kosmicznego (anteny elektryczne znajdują się wówczas na przemian równolegle i prostopadle do pola magnetycznego) i jest oznaką silnej polaryzacji fal. Można to wykorzystać do zidentyfikowania sposobu propagacji AKR. Okazuje się, że jest to tak zwany mod X, elektromagnetyczny mod nadświetlny, który ma prawoskrętną polaryzację kołową (składnik elektryczny fal obraca się w płaszczyźnie prostopadłej do pola magnetycznego w tym samym sensie, co elektrony). W najniższej części spektogramu obserwuje się emisję szerokopasmową (syk zorzy). Górna częstotliwość odcięcia tej emisji (przejście z żółtego na zielony na spektrogramie) to lokalna częstotliwość plazmy. Jest rzędu 30 kHz, co wskazuje, że gęstość plazmy wynosi zazwyczaj około 10 cm-3. Tuż około godziny 22.39, podczas przeprawy przez źródło AKR, odcięcie to zanika. W rzeczywistości jest to poniżej pasma częstotliwości analizatora (10 kHz). Źródłem AKR jest wówczas obszar znacznego ubytku plazmy, typowa gęstość waha się od typowo 10 cm-3 do mniej niż 2 cm-3 na krótkim dystansie (kilka km). Źródła można wówczas postrzegać jako "kurtyny" zubożonej plazmy, z dość dużymi odcinkami pionowymi i ze wschodu na zachód, ale bardzo cienkimi (mniej niż 50 km) w kierunku północ-południe. Pomiary cząstek są ważne dla zrozumienia mechanizmu wytwarzania. Ze względu na wirowanie statku kosmicznego strumienie cząstek mierzone są pod różnymi kątami w stosunku do pola magnetycznego (ząb piły poniżej strumieni protonów). 0? odpowiada kierunkowi równoległemu do pola magnetycznego, skierowanemu w stronę Ziemi (wytrącające się cząstki). Ten przedział czasu odpowiada detekcji wiązek jonów, które rozchodzą się w górę z typowymi energiami rzędu 4 keV. Jednocześnie maksymalna energia elektronów spada z 8-10 keV (przed pierwszą strzałką i za drugą) do typowo 4 keV (pomiędzy strzałkami). Najprostszym wyjaśnieniem tych obserwacji jest to, że wchodząc do źródła AKR, sonda wchodzi również w obszar przyspieszeń cząstek, który odpowiada istnieniu spadku potencjału wzdłuż pola magnetycznego. Tuż przed lub po przejściu źródła ten spadek potencjału znajduje się całkowicie nad statkiem kosmicznym, dzięki czemu wykrywane są wytrącające się elektrony o maksymalnej energii. Wewnątrz źródła część potencjalnego spadku znajduje się teraz poniżej statku kosmicznego; energia elektronów maleje, ale obserwuje się pobudzenie jonów pochodzących z dołu. Stanowi to jedną z podstawowych obserwacji dotyczących AKR: źródłami tego promieniowania są jednocześnie miejsca przyspieszania cząstek . Zostało to niedawno potwierdzone przez obserwacje statku kosmicznego FAST. Dokładniejsze badanie strumieni cząstek może pomóc nam zrozumieć rodzaj funkcji rozkładu odpowiedzialnych za generowanie fal. Rozkłady te charakteryzują się rozszerzonymi stożkami strat (duża przerwa w strumieniu elektronów skierowanych w górę) i akumulacją elektronów przy dość dużych prędkościach prostopadłych i małych równoległych. Powstawanie takich rozkładów można wytłumaczyć powstaniem równoległego pola elektrycznego odpowiedzialnego za przyspieszenie cząstek. Odpowiada to również ewakuacji plazmy niskoenergetycznej i utworzeniu obszaru wyczerpania gęstości. Te dwie cechy funkcji rozkładu, akumulacja elektronów przy dużych prędkościach prostopadłych i niskich gęstościach, mają fundamentalne znaczenie dla najbardziej prawdopodobnego mechanizmu generacji AKR: niestabilności masera cyklotronowego.

Teoria masera cyklotronowego

W przeszłości zaproponowano wiele teorii wyjaśniających powstawanie AKR (liniowa konwersja elektrostatycznych górnych fal hybrydowych, nieliniowe dudnienie fal elektrostatycznych, promieniowanie z zapadających się kawitonów). Obecnie powszechnie przyjmuje się, że szczególna niestabilność mikroskopowa - niestabilność masera cyklotronowego (CMI; po raz pierwszy zaproponowana przez Wu i Lee (1979)) - adekwatnie opisuje to zjawisko. Teoria ta opiera się na rezonansowym oddziaływaniu pomiędzy polem elektrycznym fal a wirującymi elektronami i opisuje przeniesienie momentu pędu z populacji elektronów do falowego pola elektromagnetycznego. Sukces tej teorii tłumaczy się faktem, że uwzględnia ona niektóre z najważniejszych wyników eksperymentalnych zaprezentowanych wcześniej. Przeniesienie pędu jest szczególnie ważne, jeśli pole elektryczne podąża za ruchem elektronów, tj. Jeśli fale mają prawoskrętną polaryzację kołową (co ma miejsce w przypadku fal w trybie X). Co więcej, to przeniesienie jest korzystne dla fal, jeśli plazma wykazuje nadmiar momentu pędu w stosunku do równowagi termicznej. Taki nadmiar może odpowiadać istnieniu dodatnich zboczy ?f/?P? w pewnym obszarze przestrzeni faz pędu (gdzie P? jest składową pędu cząstki prostopadłą do pola magnetycznego), co dokładnie obserwuje się wewnątrz regiony źródłowe AKR. Ten mechanizm generowania jest zatem tylko szczególnym przykładem wzbudzenia fali przez plazmę poza równowagą, charakteryzującą się inwersją populacji w energii "prostopadłej". Mechanizm ten można opisać w sposób bardziej matematyczny za pomocą układu równań Maxwella - Własowa. Jeśli zachowa się tylko najważniejsze interakcje między falami i elektronami (czysty ruch cyklotronowy i oddziaływanie z jednorodnym polem elektrycznym, które wiruje we właściwym sensie z częstotliwością bliską częstotliwości żyroskopowej elektronów), układ można zapisać jako



Tutaj f0 to funkcja rozkładu tła, E1, J1, f1 to odpowiednio zaburzone pole elektryczne, prąd i funkcja rozkładu, indeksy dolne +, ? i || odnoszą się do składowych lewoskrętnych, prawoskrętnych i równoległych, θ to kąt Larmora elektronów, ich współczynnik Lorentza ((1?v2/c2)-1/2) a ωc elektronową częstotliwość żyroskopową. Z czasową transformatą Fouriera równania (1) otrzymuje się uproszczone równanie dyspersji:



Następnie można łatwo obliczyć tempo wzrostu fal. Jest proporcjonalna do całki ∂f0/∂P wzdłuż krzywej rezonansowej określonej przez Γω = ωc. Oznacza to, że maksymalne przeniesienie pędu następuje wtedy, gdy częstotliwość fali dokładnie odpowiada częstotliwości żyroelektronowej elektronów. Nieco bardziej złożone obliczenia dają dokładny warunek rezonansowy: ω ? k|| v ? ωc/Γ = 0. Dla ∂f0/∂P > 0 wzdłuż krzywej rezonansowej współczynniki absorpcji mogą stać się ujemne, prowadząc w ten sposób do niestabilności : tak zwany CMI. Dokładne i pełne obliczenia powodują, że równanie dyspersji jest bardziej złożone, ale nie zmienia jego fizycznego znaczenia. Za powstawanie nietermicznych cech ∂f0/∂P w funkcji rozkładu mogą być odpowiedzialne dwa procesy fizyczne: (1) jonosferyczna absorpcja elektronów, która wytwarza funkcje rozkładu stożka strat oraz (2) adiabatyczna ewolucja populacji elektronów przyspieszane w dół wzdłuż linii pola magnetycznego. Ze względu na siłę lustra ich energia prostopadła rzeczywiście stopniowo wzrasta kosztem ich energii równoległej, tak że może powstać lokalny nadmiar pędu prostopadłego. Obecność przyspieszającego pola elektrycznego sprzyja występowaniu niestabilności masera także w inny sposób: usuwa zimne elektrony, składnik plazmy, który zawsze przyczynia się do stabilizacji CMI. Aby mody X były niestabilne, w przybliżeniu konieczne jest, aby (ωpcc)2 = W/2mc2, gdzie ωpc to częstotliwość zimnej plazmy, a W typowa energia elektronów - o masie spoczynkowej m - dla której ∂f0/∂P . Chociaż obserwacje in situ dostarczają mocnych dowodów na to, że AKR jest generowany przez CMI, stopy wzrostu określone bezpośrednio za pomocą zmierzonych funkcji rozkładu niekoniecznie są zbyt znaczące. Dzieje się tak ze względu na wrażliwość niestabilności na różne niejednorodności występujące w plazmie i/lub jej szybkie nasycanie procesami nieliniowymi. Spośród różnych gradientów występujących w ośrodku magnetosferycznym, dwa z nich prawdopodobnie wpływają na generację AKR: (1) niejednorodność pola magnetycznego, która powoduje niewielkie modyfikacje częstotliwości żyroskopowej wraz z wysokością, tak że warunek rezonansowy nie może być spełniony na bardzo dużej odległości oraz (2) niejednorodność prostopadłą powiązaną z występowaniem ostrych gradientów gęstości, które ograniczają źródła AKR . Efekty te mogą mieć pewne znaczenie przy określaniu makroskopowych właściwości promieniowania (w szczególności kształtu listków emitujących). Jeśli chodzi o efekty nieliniowe, wzrost fal może zostać nasycony albo poprzez relaksację quasiliniową, albo przez proces nasycania typu pułapkowego, co jest nadal przedmiotem dyskusji. Nieliniowe nasycenie i efekty niejednorodności mogą być ważne dla wyjaśnienia powstawania niektórych drobnych struktur obserwowanych w widmach dynamicznych AKR.

Wniosek

AKR można uznać za stosunkowo dobrze poznane zjawisko magnetosferyczne. Zbadano źródła tego promieniowania, a teoria - CMI - daje dobre jakościowe wyjaśnienie jego powstawania. Jednakże nie ma pełnej teorii, która mogłaby wyjaśnić niektóre ilościowe aspekty promieniowania. Na przykład, wychodząc z danej niestabilnej funkcji rozkładu, przewidywanie końcowego natężenia fal i ich charakterystyk widmowych pozostaje kwestią otwartą. Jest to istotna kwestia, gdyż tylko w przypadku rozwiązań tego typu problemów fale radiowe mogłyby zostać wykorzystane jako precyzyjne narzędzia diagnostyczne.

Australijska astronomia

Astronomia jest jedną z głównych nauk w Australii od czasu pierwszego osadnictwa europejskiego ponad 200 lat temu. W epoce nowożytnej dostęp do bogatego południowego nieba i tradycja innowacji w oprzyrządowaniu podtrzymują aktywny i zróżnicowany program badawczy.

Wczesna historia

Głównym celem podróży kapitana Jamesa Cooka w 1769 r., podczas której odkrył i sporządził mapę wschodniego wybrzeża Australii, była obserwacja tranzytu Wenus znad Morza Południowego. Dokładny czas, w którym Wenus przeszła przez dysk Słońca, zapewnił dokładniejszą wartość odległości od Ziemi do Słońca, a nawet wielkości całego Układu Słonecznego, jak po raz pierwszy zasugerował Kepler. Kiedy w 1788 r. w Sydney Cove założono pierwszą europejską osadę, znaczenie nawigacji, badań geodezyjnych i pomiaru czasu było powodem założenia obserwatorium. Później założono oficjalne obserwatoria państwowe, z których pierwszym było Obserwatorium w Sydney w 1855 r. Zapewniało ono usługę pomiaru czasu dla statków w porcie w Sydney i przyczyniło się do ówczesnych badań astronomicznych, zwłaszcza astronomii pozycyjnej gwiazd. Ostatecznie wydano 53 tomy projektu Cart du Ciel (Międzynarodowy katalog astrograficzny). Obserwatoria państwowe utworzono także w Perth i Melbourne - to ostatnie stało się dobrze znane dzięki przejęciu Wielkiego Teleskopu Melbourne. Był to teleskop o średnicy 1,2 m (48 cali), a w chwili jego montażu w 1869 roku był największym w pełni sterowalnym teleskopem na świecie. Niektóre z wczesnych zdjęć Księżyca okrzyknięto najlepszymi jak dotąd, a obserwacje wizualne południowych mgławic zostały znacznie ulepszone w stosunku do tych wykonanych przez Sir Johna Herschela w jego pionierskiej pracy z Przylądka Dobrej Nadziei (patrz RODZINA HERSCHELA). Niemniej jednak problemy ze zwierciadłem wziernika i drgania wiatru, wynikające między innymi z zastosowania podnoszonego budynku, doprowadziły do tego, że teleskop wyszedł z użycia pod koniec stulecia. Problemy z Wielkim Teleskopem Melbourne opóźniły budowę dużych teleskopów o wiele lat, a kolejnym był Mount Wilson 60 cali (1,5 m) zbudowany w Kalifornii w 1908 roku i prawdopodobnie pierwszy z nowoczesnych teleskopów. Wielki Teleskop Melbourne został sprzedany Obserwatorium Mount Stromlo i w ostatnich latach (wraz z nową optyką) był używany w poszukiwaniach MACHO w zakresie soczewkowania grawitacyjnego przez gwiazdy. Dziś z byłych obserwatoriów kolonialnych jedynie Obserwatorium w Perth pełni rolę badawczą.

Rozwój powojenny

Nowoczesna era astronomii w Australii rozpoczęła się zaraz po II wojnie światowej. Wpływ rozwoju technicznego w czasie wojny był najbardziej zauważalny w nowej dziedzinie radioastronomii, gdzie wiedza specjalistyczna w zakresie systemów radarowych i nadmiar dostępnego sprzętu stanowiły idealną bazę. W Australii prace prowadzono w Laboratorium Radiofizyki CSIR (Rada ds. Badań Naukowych i Przemysłowych, później CSIRO). W tym czasie niewiele wiedziano o emisji radiowej spoza Ziemi: Karl Jansky odkrył fale radiowe z Galaktyki Drogi Mlecznej w 1932 roku, pracując nad źródłami hałasu w transmisjach radiowych, a inny Amerykanin, Grote Reber, zbudował antenę o długości 31 stóp antenę na własnym podwórku i wykonał pierwsze mapy emisji galaktycznej na szeroką skalę. Wreszcie wojenne dochodzenie w sprawie podejrzenia zakłócania radaru wykazało niezwykle intensywną emisję radiową ze Słońca. W takim klimacie rozpoczęły pracę grupy radioastronomiczne w Wielkiej Brytanii, Holandii i Australii. Prace radiofizyczne przeprowadzono w wielu stacjach terenowych w rejonie Sydney i szybko przyszły odkrycia: na przykład korelacja emisji słonecznej z liczbą plam słonecznych i wykazanie efektywnej temperatury około miliona kelwinów, znacznie powyżej powierzchni optycznej temperatura około 6000 K. Być może najbardziej znane prace przeprowadzono przy użyciu INTERFEROMETRA na szczycie klifu, który wykorzystano do odkrycia szeregu izolowanych źródeł radiowych i wykazania, że mają one bardzo mały rozmiar kątowy. Identyfikacja kilku z tych źródeł ze znanymi obiektami optycznymi, w tym Mgławicą Krab i galaktykami zewnętrznymi w konstelacjach Panny i Centaura, pokazała, że radioastronomia może nas wiele nauczyć o odległych obiektach. Kontynuowano rozwój interferometrii, aby przezwyciężyć grubą rozdzielczość kątową wczesnych radioteleskopów. Wykazano, że wczesna teoria "gwiazd radiowych" dotycząca natury dyskretnych źródeł radiowych jest błędna, ponieważ większość źródeł radiowych oddalonych od płaszczyzny Galaktyki Drogi Mlecznej ma rozmiary kątowe większe niż 1 minuta łuku. Stały się znane jako RADIO GALAXIE, ze względu na moc wyjściową radiową tysiące, a nawet miliony razy większą niż normalna galaktyka. Badania takich źródeł wykazały nadmiar źródeł słabych, jednak mniej wyraźny niż we wczesnych badaniach przeprowadzonych w Cambridge, które, jak wykazano, miały wpływ na "pomieszanie" wielu źródeł w obrębie szerokości wiązki instrumentalnej. Późniejsze obliczenia tych odległych źródeł pozagalaktycznych, zarówno z Cambridge, jak i Sydney, były zgodne i odegrały kluczową rolę w kontrowersjach kosmologicznych, w szczególności w upadku TEORII STANU STAŁEGO. Wydarzenia wojenne miały także wpływ na astronomię optyczną, choć była to już jedna z najstarszych nauk uznanych za granicą. Obserwatorium Słoneczne Wspólnoty Narodów w Mount Stromlo niedaleko Canberry zostało założone w 1924 roku, a podczas wojny zostało rozbudowane w celu produkcji celowników i innej amunicji optycznej. Po wojnie kierunek badań zmieniono na astronomię gwiazdową, a nazwę zmieniono na Commonwealth Observatory, a później na Mount Stromlo Observatory. Modernizacja oprzyrządowania, m.in. wprowadzenie technik fotoelektrycznych, przebiegała równolegle z licznymi programami badawczymi. CHMURKI MAGELLANIC są od dawna intensywnie badane na Górze Stromlo: te bliskie sąsiadom galaktyki mają tę wielką zaletę, że znajdują się w znanej odległości, a jednocześnie są na tyle blisko, że gromady gwiazd i jaśniejsze gwiazdy mogą być rozróżnione pojedynczo. W 1955 roku na górze Stromlo oddano do użytku 74-calowy (1,88 m) teleskop, który wraz z podobnym teleskopem w Pretorii był przez około 20 lat największym instrumentem optycznym na półkuli południowej. Pod wpływem rozwoju pobliskiego miasta Canberra dla przyszłych teleskopów wybrano miejsce w Siding Spring Mountain w pobliżu miasta Coonabarabran w Nowej Południowej Walii, a nazwę zmieniono na MOUNTSTROMLO AND SIDING SPRING OBSERVATORIES (MSSSO). Obserwatorium od wielu lat jest częścią Australijskiego Uniwersytetu Narodowego, a obecnie mieści się w Szkole Badawczej Astronomii i Astrofizyki. Era radiofizycznych stacji terenowych CSIRO dobiegła końca na początku lat sześćdziesiątych XX wieku wraz z decyzją, że rosnące zaawansowanie radioastronomii wymaga skoncentrowania zasobów w znacznie mniejszej liczbie głównych instrumentów. Były to w pełni sterowalny paraboloid o długości 210 stóp (64 m) w Parkes i Culgoora Radioheliograph. Teleskop Parkesa został ukończony w 1961 roku, kiedy jedynym innym teleskopem z dużą czaszą był Jodrell Bank (Wielka Brytania) 250 stóp (76 m). Godnym uwagi wczesnym rezultatem uzyskanym za pomocą teleskopu Parkesa była obserwacja zakrycia Księżyca, która określiła położenie 3C 73, umożliwiając identyfikację z obiektem gwiazdopodobnym, który jako pierwszy ujawnił duże optyczne przesunięcia ku czerwieni kwazarów. Teleskop wkrótce stał się dobrze znany ze swoich badań radiowych o wysokiej częstotliwości, które zaowocowały odkryciem wielu kwazarów, a także ze wsparcia w latach 60. i 70. XX w. misji NASA Apollo na Księżyc. Teleskop przez lata zajmował się wieloma innymi projektami, obejmującymi zarówno linię widmową, jak i kontinuum, źródła galaktyczne (w tym pulsary) i pozagalaktyczne, badania polaryzacji itp. Radioheliograf Culgoora składał się z 96 prostych czasz o średnicy 13 m, ułożonych w okrąg o średnicy 3 km na terenie niedaleko Narrabri w Nowej Południowej Walii. Zakończono go w 1967 roku. W erze, zanim zaczęto używać komputerów do tworzenia obrazów z surowych danych, używano genialnego sprzętu, aby umożliwić syntezę dwuwymiarowego obrazu Sunto co sekundę. Oddzielne zdjęcia w obu polaryzacjach ujawniły dalsze informacje na temat procesów emisji plazmy na dysku słonecznym i nad nim. Oryginalna częstotliwość robocza 80 MHz została później rozszerzona o możliwości w zakresie 43, 160 i 327 MHz. Radioheliograf zamknięto w 1984 roku, a miejsce to wykorzystano dla Australia Telescope Compact Array. W latach sześćdziesiątych XX wieku zbudowano także radioteleskop Molonglo Mills Cross o długości 1 mili, instrument tranzytowy przeznaczony do szybkiego badania nieba na częstotliwości 408 MHz. Obsługiwany przez Uniwersytet w Sydney, już wkrótce po odkryciu obiektów tej klasy w Cambridge, odniósł sukces w znajdowaniu wielu pulsarów. Krzyż Molonglo dokonał następnie przeglądu południowego nieba, a także licznych badań poszczególnych klas obiektów. W 1978 roku wstrzymano pracę w układzie krzyżowym, a ramię wschód-zachód przekonwertowano na syntezę aperturową przy 843 MHz, jako OBSERWATORYJNY TELESKOP SYNTEZY MOLONGLO (MOST). W tej formie ma lepszą czułość i zdolność tworzenia obrazu. Od tego czasu pole widzenia zostało jeszcze bardziej powiększone do prawie 2?, a teleskop przeprowadza przegląd "SUMSS" całego południowego nieba z rozdzielczością i czułością podobną do przeglądu północnego (i równikowego) NVSS. Innym projektem radioteleskopu z lat sześćdziesiątych XX wieku był Teleskop Syntezowy Fleurs, przerobiony przez Uniwersytet w Sydney z wcześniejszego instrumentu krzyżowego siatkowego CSIRO na operację syntezy aperturowej. Przez wiele lat zapewniał obrazowanie radiowe o najwyższej rozdzielczości kątowej na południu, ale został zastąpiony przez Teleskop Australijski i od tego czasu został zamknięty. Nowatorskim instrumentem z lat sześćdziesiątych XX wieku był interferometr intensywności gwiazdowej Narrabri (NSII). Zasada interferometrii intensywności została opracowana i przetestowana w kontekście radioastronomii i miała tę zaletę, że obserwacja przez turbulentny ośrodek nie miała na nią wpływu. W zastosowaniu do obserwacji optycznych umożliwiło to NSII obserwację średnic kątowych gwiazd aż do 0,0004 sekundy łuku. Instrument był obsługiwany przez Uniwersytet w Sydney i składał się z dwóch dużych (6,5 m) REFLEKTORÓW umieszczonych na okrągłym torze kolejowym o średnicy 188 m. Udało mu się zaobserwować rozmiary 32 gwiazd w granicach swojej czułości, określając w ten sposób rzeczywistą skalę temperatur gorących gwiazd. Następnie instrument zamknięto i rozpoczęto prace nad interferometrem gwiazdowym Uniwersytetu w Sydney (SUSI), "nowoczesnym instrumentem Michelsona", wykorzystującym interferencję dwóch wiązek światła z szeroko oddalonych siderostatów zamiast korelować wahania częstotliwości radiowej, jak w NSII. SUSI znajduje się w tym samym miejscu, co Australia Telescope Compact Array, a po całkowitym uruchomieniu będzie miał linie bazowe do 640 m, co zapewni najwyższą rozdzielczość kątową spośród wszystkich obecnych projektów interferometru optycznego. Oprócz rozszerzenia średnicy gwiazd, a tym samym efektywnych pomiarów temperatury na znacznie większy zakres gwiazd, kluczowym programem będzie bezpośrednia obserwacja promieniowej pulsacji zmiennych cefeid, co poprawi wykorzystanie tych gwiazd jako wskaźników odległości.

Instrumenty Krajowego Instrumentu

W latach sześćdziesiątych XX wieku było jasne, że potrzebny jest większy teleskop optyczny ogólnego przeznaczenia, zarówno w celu rozszerzenia istniejących prac gwiazdowych i galaktycznych, jak i w celu optycznej identyfikacji źródeł radiowych. Astronomowie w Wielkiej Brytanii również poczuli potrzebę większego instrumentu i osiągnięto porozumienie między rządami Australii i Wielkiej Brytanii, w wyniku którego zbudowano 150-calowy (3,9 m) instrument Teleskop Anglo-Australijski (AAT) na istniejącym terenie Siding Springs. Ukończony w 1974 roku, AAT obejmował innowacje w systemach serwonapędów, obsłudze lusterek, a zwłaszcza w sterowaniu komputerowym. Uzyskana w ten sposób precyzja wskazywania wynosząca kilka sekund łukowych była wówczas niespotykana i umożliwiała każdemu obserwatorowi łatwe zlokalizowanie nawet słabych obiektów. AAT jest obsługiwany przez powołaną w tym celu organizację ANGLOAUSTRALIAN OBSERVATORY (AAO). Wczesnym sukcesem AAT było wykrycie impulsów optycznych z pulsara Vela, wówczas najsłabszego obiektu, jaki kiedykolwiek zarejestrowano (24 mag). Chociaż lokalizacja w Siding Spring nie jest tak dobra, jak najlepsza na Hawajach czy w Chile, AAT jest teleskopem wysoce produktywnym, głównie dzięki silnemu wsparciu technicznemu i ciągłym inwestycjom w nowe instrumentarium. W obecnej erze teleskopów klasy 8-10 m, AAT w dalszym ciągu oferuje obrazowanie i spektroskopię ogólnego przeznaczenia, ale został przesunięty w stronę badań szerokokątnych. Szczególnie godny uwagi jest główny instrument o polu dwustopniowym (2dF), który zapewnia jednoczesną spektroskopię światłowodową 400 obiektów w polu o wielkości 2?. Głównym programem dla tego instrumentu jest badanie przesunięcia ku czerwieni 250 000 galaktyk, mające na celu znaczne poszerzenie wiedzy na temat struktur wielkoskalowych. Pod koniec lat siedemdziesiątych XX wieku było jasne, że Australia potrzebuje zwiększonych możliwości w zakresie obrazowania radiowego i spektroskopii o wysokiej rozdzielczości kątowej i wysokiej czułości. Potrzeba ta została zaspokojona poprzez budowę teleskopu Australia Telescope (AT), otwartego w 1988 roku. Głównym komponentem jest teleskop AT Compact Array w Culgoora. Jest to teleskop z syntezą apertury, składający się z sześciu anten o średnicy 22 m, które można przenosić do różnych stacji wzdłuż linii bazowej o długości 6 km ze wschodu na zachód. Zestaw jest obecnie modernizowany do działania na falach tak krótkich jak 3 mm, poprzez dodanie nowych odbiorników, ulepszonych powierzchni anten i toru odgałęzienia północnego. AT jest obsługiwany jako obiekt krajowy przez AUSTRALIA TELESCOPE NATIONAL FACILITY (ATNF), oddział CSIRO, który w tym celu został wydzielony z macierzystego oddziału radiofizyki. Podobna antena 22mantenna znajduje się również w Mopra niedaleko Coonabarabran, używana do VLBI lub do samodzielnych programów. Australijski przemysł zyskał cenne korzyści dzięki projektowi AT: firma, która skonstruowała anteny, zdobyła kontrakty na anteny do satelitarnych stacji naziemnych w Australii i Azji Południowo-Wschodniej. Dobrze znanym wcześniej produktem ubocznym, także z radioastronomii, był mikrofalowy system lądowania samolotu Interscan. ATNF obsługuje także teleskop z talerzem Parkesa o średnicy 64 m, który na przestrzeni lat był unowocześniany, aby zachować konkurencyjność. Niedawno rozpoczął pracę system wielowiązkowy z 13 jednoczesnymi źródłami zasilania na odległość 21 cm i jest używany do przeglądu H I całego południowego nieba z prędkością radialną 12 700 km na s-1.

Astronomia w różnych instytucjach

Inne obiekty radioastronomiczne obejmują 26-metrowy paraboloid Uniwersytetu Tasmanii zlokalizowany w Mt Pleasant niedaleko Hobart oraz 30-metrową antenę dawnej firmy Telstra w Ceduna w Australii Południowej. Obie anteny są używane głównie w VLBI, w połączeniu z AT Compact Array i teleskopami w Parkes i Mopra. Uniwersytet ten obsługuje także kilka teleskopów optycznych i kosmicznych. Szereg innych grup uniwersyteckich zajmuje się astronomią, korzystając z obiektów krajowych (np. uniwersytety w Melbourne i Western Sydney oraz Macquarie University) lub za pomocą własnych instrumentów (np. Uniwersytet w Adelajdzie zajmuje się wysokoenergetycznymi promieniami kosmicznymi, Uniwersytet Zachodni rozwój australijskich detektorów fal grawitacyjnych i teleskopów balonowych Australijskiej Akademii Sił Obronnych). Australijscy astronomowie w dużym stopniu korzystają także z zagranicznych obiektów i obserwatoriów satelitarnych, w tym z HST, a dzięki ścisłej współpracy międzynarodowej około 350 astronomów z zagranicy odwiedza Australię każdego roku. Najważniejszym nowym teleskopem optycznym lat 80. XX wieku jest teleskop o średnicy 2,3 m zbudowany przez MSSSO w Siding Spring. Podobnie jak praktycznie wszystkie nowoczesne duże teleskopy, wykorzystuje montaż alt-az, aby zmniejszyć koszty budowy obudowy. Wczesnym godnym uwagi rezultatem uzyskanym za pomocą tego teleskopu była demonstracja, że Mały Obłok Magellana jest podzielony wzdłuż linii wzroku na dwie części, prawdopodobnie w wyniku zderzenia z Wielkim Obłokiem Magellana około 300 milionów lat temu. Innym ważnym obiektem w Siding Spring Mountain jest teleskop Schmidta o średnicy 1,2 m, pierwotnie działający wyłącznie w Wielkiej Brytanii, ale od 1988 roku połączony z AAO. Teleskop ten jest dobrze znany z wysokiej jakości fotograficznych przeglądów południowego nieba. Oprócz kontynuowania dużych przeglądów i mniejszych projektów fotograficznych, teleskop jest również używany do spektroskopii wielowłóknowej w polu 6°.

Przyszłe możliwości

Australijscy astronomowie uznali potrzebę dostępu do teleskopu optycznego na podczerwień klasy 8 m, aby zachować konkurencyjność w obecnych warunkach. W rezultacie Australia dołączyła do międzynarodowego projektu Gemini jako partner na poziomie 5%. Zapewni to australijskim obserwatorom dostęp zarówno do półkuli północnej, jak i południowej, z różnorodnymi wysokiej jakości instrumentami optycznymi i podczerwonymi. Jednakże przy alokacji odpowiadającej 10% pojedynczego teleskopu, w porównaniu z 50% AAT w epoce, w której wiodły teleskopy klasy 4 m, dostęp do czasu 8 m będzie poważnie ograniczony. Dlatego niezwykle ważne będzie utrzymanie AAT przy wysokim standardzie konkurencyjnego oprzyrządowania. Na uwagę zasługuje kilka innych inicjatyw rozwojowych. Australijscy astronomowie aktywnie uczestniczą w rozwoju Antarktydy jako miejsca obserwacyjnego. Niskie temperatury i minimalna ilość pary wodnej w atmosferze stwarzają wyjątkowo dobre warunki do obserwacji w podczerwieni, w tym w zakresie długości fal, które normalnie nie są obserwowalne z ziemi. Istnieje również możliwość, że wysoki płaskowyż Antarktyczny będzie miał najlepszą WIDOCZNOŚĆ ze wszystkich miejsc naziemnych. Wspólne Australijskie Centrum Badań Astrofizycznych na Antarktydzie (JACARA) z siedzibą na Uniwersytecie Nowej Południowej Walii obsługuje już 60-centymetrowy teleskop na podczerwień na biegunie południowym. Planowane jest przeniesienie teleskopu w późniejszym terminie do jednego z prawdopodobnie lepszych (ale mniej dostępnych) miejsc na płaskowyżu. Jeśli chodzi o radioastronomię, Australia aktywnie uczestniczy w planowaniu i rozwoju układu kilometrów kwadratowych, międzynarodowego projektu mającego na celu zbudowanie radioteleskopu o długości fali cm o czułości 1-2 rzędów wielkości większej niż jakikolwiek obecny instrument. Jednym z głównych celów astrofizycznych byłoby wykrycie i zbadanie emisji 21 cm z obojętnego wodoru przy dużych przesunięciach ku czerwieni, w protogalaktykach i obszarach powstawania gwiazd. Podsekcje sieci rozciągałyby się na setki km, a jedną z najlepszych perspektyw na utworzenie wolnego od zakłóceń miejsca o wymaganej wielkości znajdują się zachodnie obszary pustynne Australii.

Organizacja

W 1989 roku raport dotyczący astronomii w Australii odnotował słabość astrofizyki teoretycznej. Obszar ten został wzmocniony na początku lat 90. XX wieku poprzez utworzenie Centrum Badawczego Astrofizyki Teoretycznej (RCfTA) na Uniwersytecie w Sydney, a później Australijskiego Uniwersytetu Astrofizycznego Teorii Centrum w Canberze. Obie grupy potrafią czerpać obopólne korzyści wynikające z bliskiego kontaktu teoretyków z obserwatorami. RCfTA utworzono przy wsparciu finansowym Australijskiej Rady ds. Badań Naukowych (ARC), która wypłaca fundusze rządowe w wielu obszarach nauki i technologii. Poprzez swoje programy stypendialne ARC wspiera także większość prac badawczych prowadzonych na australijskich uniwersytetach. Społeczność zawodowa astronomów w Australii składa się z około 200 stanowisk, z czego około 30 to stanowiska na czas określony. Na różnych uniwersytetach w całym kraju studiuje około 75 doktorantów, a każdego roku około 15 kończy studia. Głównym stowarzyszeniem astronomów zawodowych i studentów jest ASTRONOMICAL SOCIETY OFAUSTRALIA (ASA), zrzeszające około 300 członków. Do głównych działań ASA należy organizacja corocznych spotkań naukowych, zarządzanie publikacjami ASA oraz reprezentowanie interesów astronomów wobec rządu i ogółu społeczeństwa. Oficjalną współpracę z rządem zapewnia Narodowy Komitet Astronomii (NCA), który działa pod auspicjami Australijskiej Akademii Nauk. NCA zarządza stosunkami Australii z MIĘDZYNARODOWĄ UNIĄ Astronomiczną (IAU), a Australia liczy obecnie 190 członków IAU. Astronomia babilońska

Cywilizacje Mezopotamii pielęgnowały bogatą tradycję astronomiczną przez około dwa tysiące lat, od początków drugiego tysiąclecia p.n.e. - jeśli nie wcześniej - aż do I wieku naszej ery. Zachęceni wiarą, że wydarzenia widziane na niebie są zwiastunami przyszłych, ziemskich warunków, Babilończycy i Asyryjczycy rozwinęli skomplikowaną praktykę obserwowania wróżb, dzięki której poznali różnorodne zjawiska niebieskie i opracowali zasady przewidywania ich wystąpienia. Od VII wieku p.n.e. w Babilonie prowadzono zapisy obserwacji Księżyca, pięciu widzialnych planet i Słońca. Babilończycy odkryli nie tylko okresowy charakter wielu obserwowanych przez siebie zjawisk, ale także to, że pewne zjawiska obejmowały kilka okresowych elementów, co im się udało, izolowanie, mierzenie i wreszcie naśladowanie za pomocą ciągów arytmetycznych. W ten sposób powstała astronomia matematyczna, która działała na zupełnie innych zasadach niż modele geometryczne ASTRONOMII greckiej i średniowiecznej. Pomimo tej rozbieżności w metodach wpływ astronomii babilońskiej na jej grecką odpowiedniczkę był głęboki, a niektóre elementy pochodzenia babilońskiego przetrwały w żywych tradycjach astronomicznych w całej Eurazji od średniowiecza do czasów współczesnych.

Źródła

Prawie wszystko, co wiemy o astronomii babilońskiej, pochodzi ze współczesnych dokumentów spisanych w języku akadyjskim pismem klinowym na glinianych tabliczkach. Tablice klinowe odnaleziono obficie podczas wykopalisk w połowie XIX wieku, a wkrótce potem rozszyfrowano pismo. Teksty związane z astronomią liczą się w tysiącach. Duża i wciąż rosnąca ich część dostępna jest w wydaniach i tłumaczeniach na języki nowożytne, jednakże nadal istnieje wiele niepublikowanych tabliczek, zwłaszcza wśród tekstów omenowych i zapisów obserwacyjnych. Tabliczki przechowywane we współczesnych muzeach i innych kolekcjach tylko częściowo uzyskano w wyniku wykopalisk naukowych, które dostarczyły informacji o ich pochodzeniu, a resztę zakupiono od handlarzy. niemniej jednak większość tablic astronomicznych można odnaleźć w trzech miejscach: w bibliotece królewskiej i archiwum stolicy Asyrii, Niniwie, najważniejszym źródle tekstów odnoszących się do niebiańskich wróżb, datowanych głównie na pierwszą połowę VII wieku p.n.e., tabliczkach z niepewne lokalizacje w Babilonie, prawie jedyne źródło zapisów obserwacyjnych, a także bogate w astronomię matematyczną, oraz archiwum świątynne z południowo-babilońskiego miasta Uruk, które jest źródłem pozostałej części tekstów matematycznych. Przed współczesnym rozszyfrowaniem pisma klinowego praktycznie jedyne dostępne informacje na temat astronomii w Mezopotamii składały się z rozproszonych wypowiedzi klasycznych autorów greckich i łacińskich. Obejmują one od ewidentnie absurdalnych twierdzeń pochodzących z tysięcy lat obserwacji po konkretne dane techniczne, które zostały triumfalnie potwierdzone na tablicach babilońskich. Rozprzestrzenianie się babilońskich metod i koncepcji można obecnie pełniej prześledzić w greckich i egipskich fragmentach papirusów astronomicznych z rzymskiego Egiptu oraz w niektórych indyjskich tekstach astronomicznych.

Astronomia w tradycji omenów Mezopotamii

Niebiańskie wróżby stanowiły dużą część szerokiego repertuaru wydarzeń uznawanych przez Mezopotamczyków za złowieszcze. Wiara w znaki była zasadniczo religijna: przypuszczano, że bogowie informują ludzi o ich nastroju i zamiarach za pomocą widocznych znaków, których interpretacja była zadaniem doświadczonych wróżbitów. teksty omenowe, zwykle wyrażane jako zdania warunkowe łączące zapowiedź z przewidywanym rezultatem (np. "Jeśli księżyc w chwili swego pojawienia się prześlizgnie się przez chmury: nadejdzie powódź"), zostały zebrane w kompendiach, takich jak seria niebiańskich wróżb En?uma Anu Enlil (" kiedy bogowie Anu i Enlil", od słów początkowych), która składała się z około 70 tablic. En?uma Anu Enlil przetrwał we fragmentarycznych kopiach z VII wieku p.n.e. i późniejszych, lecz niektóre niebiańskie wróżby, zarówno zawarte w tym zbiorze, jak i zachowane poza nim, pochodzą z pierwszej połowy drugiego tysiąclecia p.n.e., a niewielka liczba odnosi się do wydarzeń historycznych trzecie tysiąclecie. Wróżby Enumy Anu Enlila są w najszerszym znaczeniu "wróżbami nieba", obejmującymi zjawiska meteorologiczne, a także obserwacje Księżyca, Słońca, pięciu planet i gwiazd stałych. Nawet w przypadku obserwacji ciała niebieskiego kolor i jasność, aureole i towarzysząca im pogoda są traktowane na równi z czasami, datami i pozycjami. Nazywanie obserwacyjnego elementu tego wróżenia astronomią byłoby mylące, ale kryje się w nim wiele z astronomii. Zatem aspekty zaćmienia Księżyca, które pomogły określić jego złowieszcze znaczenie - zazwyczaj śmierć króla - obejmowały datę i przybliżoną porę dnia, kierunki, z których dysk Księżyca był zasłonięty na początku i na końcu zaćmienia, a czasami także konstelacja, w której miało miejsce zaćmienie. W archiwach królów asyryjskich w Niniwie, obecnie w British Museum, zachowały się liczne listy i raporty adresowane do królów Asarhaddona (680-669 p.n.e.) i Asurbanipala (668-627 p.n.e.) przez sieć obserwatorów wróżb z Niniwy i innych asyryjskich i miasta babilońskie. W tej fascynującej korespondencji widać, że czujne obserwowanie Księżyca, Słońca i planet było sprawą najwyższej wagi politycznej, wpływającej na decyzje dotyczące wszelkich poczynań króla. Uczeni, na których polegał król, mieli najlepsze motywy, aby z wyprzedzeniem dowiedzieć się, kiedy można spodziewać się lub wykluczyć złowieszcze zjawiska: koledzy byli zawsze gotowi wskazać królowi błędne lub spóźnione obserwacje. Prognozy, które często pojawiają się w korespondencji królewskiej, dotyczą głównie zaćmień Księżyca i Słońca oraz pierwszych widzialności planet. Typowe prognozy są albo z pewnością negatywne ("zaćmienie nie nastąpi w tym miesiącu" lub "pojawienie się określonej planety nie jest bliskie"), albo warunkowo potwierdzające ("jeśli zaćmienie nastąpi w tym miesiącu, powinniśmy go wypatrywać w określonym czasie dnia lub nocy"). Oprócz metod wróżbiarskich, na których trudno było polegać, obserwatorzy omenów najwyraźniej polegali na wiedzy o przybliżonych możliwych odstępach czasu pomiędzy zaćmieniami oraz pomiędzy kolejnymi pojawianiami się i znikaniem planet. Nie wiadomo, czy korzystali również z dłuższych okresów. MUL.APIN ("Gwiazda Pługowa") to najważniejszy z nielicznych tekstów z II i początków I tysiąclecia p.n.e., które dotyczą przede wszystkim autentycznych tematów astronomicznych. Najdłuższą część tego zestawienia stanowią wykazy konstelacji i gwiazd, noszące mniej lub bardziej obrazowe nazwy, takie jak "wóz", "liść Eru" i "najemnik". Gwiazdy wschodzące i zachodzące są pogrupowane w trzy "ścieżki", najwyraźniej według części wschodniego horyzontu, w których wschodzą, ale nie podejmuje się dalszych prób opisania ich układu ani położenia. Podano testy astronomiczne w celu ustalenia, kiedy należy wstawić miesiąc przestępny do kalendarza księżycowego, aby był on zgodny z porami roku. MUL.APIN zawiera niewiele astronomii księżycowej, a omówienie planet ogranicza się do przybliżonych szacunków odstępów czasu między pojawianiem się i znikaniem. Drugim tekstem cieszącym się dużym zainteresowaniem jest czternasta tablica Enuma Anu Enlil, która w odróżnieniu od reszty kompilacji nie jest zbiorem tekstów omenowych, lecz zbiorem tablic liczbowych. Jedna z tych tabel przedstawia zmienny czas trwania nocnej widoczności Księżyca w ciągu miesiąca synodycznego, przy założeniu, że długość nocy jest maksymalna, tj. blisko przesilenia zimowego, a druga tabela przedstawia miesiąc po miesiącu w sposób schematyczny rok słoneczny, dzienna zmiana czasu trwania nocnej widoczności Księżyca. Z wyjątkiem początku i końca pierwszej tabeli, gdzie zastosowano ciekawy wzór stałych drugich różnic, liczby rosną do maksimum, a następnie ponownie maleją w wyniku stałych różnic, co jest rodzajem sekwencji, którą współcześni autorzy nazywają (od jej wyglądu na wykresie) liniową funkcję zygzakowatą. Proste funkcje zygzakowate składające się z małych liczb całkowitych są oczywistym sposobem opisu okresowo zmieniającej się wielkości, a najstarszym znanym przykładem jest przybliżona tabela przedstawiająca zmieniającą się długość światła dziennego w ciągu roku na papirusie z drugiego tysiąclecia p.n.e. z Egiptu, kraju nienotowanego dla swojej astronomii matematycznej. Godne uwagi jest to, że około 1000 roku p.n.e. astronomowie mezopotamscy próbowali wyizolować i przedstawić modele matematyczne dwóch niezależnych pierwiastków okresowych w zjawisku, które oscyluje w złożony sposób.

Dzienniki i teksty dotyczące roku docelowego

Nie wiadomo, w jakim stopniu obserwatorzy omenów prowadzili zapisy tego, co widzieli na niebie. W co najmniej jednym mieście, Babilonie, grupa skrybów, którzy być może lub nie byli obserwatorami omenów, zaczęła już w połowie VII wieku zapisywać niezwykłą różnorodność datowanych zjawisk na tablicach, które obecnie nazywamy Dziennikami. Zachowało się wiele setek fragmentów tabliczek Dziennika z Babilonu, obejmujących lata od 652 do 61 p.n.e., przy czym większość z nich pochodzi z ostatnich trzech wieków p.n.e. Zazwyczaj tabliczka Dziennika obejmowała pół roku księżycowego, czyli sześć lub siedem miesięcy księżycowych. Dla każdego miesiąca, noc po nocy i dzień po dniu, Dziennik odnotowuje obserwacje ciał niebieskich i pogody, a każdy miesiąc kończy się zapisami cen towarów, poziomu rzeki Eufrat i bieżących wydarzeń. Najbardziej rzucającym się w oczy obiektem w Dziennikach jest Księżyc. Co miesiąc mierzono sześć przedziałów czasowych ("księżycowa szóstka") w jednostkach zwanych us lub "stopniami czasu", tak że 360 stopni czasu równa się jednemu (średniemu) dniu od zachodu do zachodu słońca:

1. od zachodu słońca do zachodu księżyca wieczorem pierwszej widoczności Księżyca;
2. od zachodu Księżyca do wschodu słońca rano przed pełnią Księżyca;
3. wschód i zachód Księżyca wieczorem przed pełnią Księżyca;
4. wschód słońca do zachodu księżyca rano po pełni księżyca;
5. zachód słońca do wschodu księżyca wieczorem po pełni księżyca;
6. wschód księżyca do wschodu słońca rankiem ostatniej widoczności Księżyca.

Jest to rozwinięcie zainteresowania księżycową widocznością w nocy, ujawnionego na tabliczce 14 Enuma Anu Enlil. W Dziennikach z dużą częstotliwością rejestrowane są również przejścia Księżyca przez około 30 jasnych gwiazd w pobliżu EKLIPTYKI, znanych jako gwiazdy normalne. Okoliczności zaćmień Księżyca i Słońca podano szczegółowo. W przypadku planet Pamiętniki rejestrują przejścia Gwiazd Normalnych i bliskie wzajemne zbliżenia, a także pewne wydarzenia w ich cyklach synodycznych. Opisywane zjawiska synodyczne Saturna, Jowisza i Marsa to ich pierwsze widzialności i zaginięcia, stacje i wschody akronychalne (zachody słońca). Pierwsze widzialności i zaginięcia gwiazd porannych i wieczornych odnotowano dla Wenus i Merkurego. Położenie planet w ich zjawiskach synodycznych jest określone, jeśli w ogóle, tylko w przybliżeniu w odniesieniu do konstelacji lub, w późniejszych Dziennikach, przez znak zodiaku zajmowany przez planetę. Wydaje się, że przejście od konstelacji do konwencjonalnych znaków zodiaku obejmujących równe dwunaste ekliptyki miało miejsce około połowy V wieku p.n.e. Wiele wpisów w Dziennikach nie ma charakteru obserwacji. Przewidywane lub skorygowane dane są rejestrowane w przypadku, gdy pogoda opóźnia lub utrudnia obserwację, czemu często towarzyszy uwaga "Nie oglądałem". Źródła wielu z tych przewidywań nie zostały ustalone poza dyskusją. Ważną metodą prognozowania zjawisk planetarnych i księżycowych było z pewnością zastosowanie "okresów Roku Docelowego". Były to okresy od zaledwie 8 lat dla Wenus do aż 83 lat dla Jowisza, po których następuje przybliżona powtarzalność zjawisk (zdarzenia synodyczne lub normalne przejścia gwiazd). Wszystkie okresy planetarne są liczbami całkowitymi lat słonecznych. Ważną okresowością dla Księżyca był tak zwany "SAROS", okres zaćmień obejmujący 223 miesiące synodyczne (około 18 lat), który obejmuje również prawie całą liczbę okresów anomalii księżycowych i szerokości geograficznej Księżyca. Na tabliczkach zwanych Tekstami Roku Celu gromadzone są raporty z obserwacji wydobyte z Dzienników jeden Rok Celu wstecz, aby zapewnić podstawę do przewidywań na nadchodzący rok. Aby dokonać rzeczywistych przewidywań, należałoby zastosować poprawki, aby uwzględnić niedokładność okresowości. Produktem tego procesu będą prawdopodobnie tabliczki znane jako Almanachy i Almanachy Normal Star, zawierające przewidywania pewnych kategorii zjawisk typu Pamiętnika na dany rok.

Astronomia matematyczna

Podstawowym celem babilońskiej astronomii matematycznej było obliczenie niektórych zjawisk odnotowanych w Dziennikach. Obejmowały one daty i długości geograficzne zjawisk synodycznych planet, przedziały czasowe "Księżycowej Szóstki" i zaćmienia. Przewidywania realizowano za pomocą ciągów liczb generowanych arytmetycznie według zasad, tak aby każdy ciąg powtarzał się z dokładnie taką częstotliwością, jaka jest wymagana dla danej składowej ruchu ciała niebieskiego. Modele predykcyjne można podzielić na dwie kategorie. Modele, w których wśród sekwencji dominują liniowe funkcje zygzakowate, nazywane są modelami systemu B. Te, w których liczby odpowiadają "funkcjom schodkowym" zależnym numerycznie od położenia ciała niebieskiego w przegrodach ekliptyki, nazywane są modelami systemu A. Modele systemu A i systemu B były używane jednocześnie w Babilonie i Uruk. Modele planetarne wykorzystują "łuki synodyczne", czyli liczbę stopni, o jakie planeta przechodzi przez ekliptykę od jednego wystąpienia zjawiska synodycznego do następnego wystąpienia tego samego zjawiska, oraz "czasy synodyczne", czyli liczbę miesięcy i dni od jednego wydarzenia do drugiego. Rzeczywiste długości geograficzne (stopnie w obrębie znaków zodiaku) i daty zjawisk są uzyskiwane jako suma bieżąca łuków synodycznych i czasów, które są generowane jako sekwencje okresowe. Okresowość można wyrazić równaniem występowanie = Z obrotów ekliptyki = Y yr gdzie , Z i Y są liczbami całkowitymi, a i Z są względnie pierwsze. Zatem w tabeli zjawisk planetarnych przewidywanych według modelu babilońskiego, po liniach długość geograficzna powróci dokładnie do swojej pierwotnej wartości. W modelach planet Układu A zasady równoważne następującym założeniom: (1) ekliptyka jest podzielona na dwie lub więcej stref o ustalonych granicach, (2) wystąpienia zjawiska w pełnym okresie Y roku są rozmieszczone wzdłuż ekliptyki w taki sposób że są one rozmieszczone w równych odstępach wewnątrz każdej ze stref oraz (3) postęp od jednego wystąpienia do następnego to odstępy Z. Babiloński zapis wartości miejsca o podstawie 60 dla liczb wprowadza pewne nieastronomiczne ograniczenia do modelu, ponieważ zawsze chce się, aby obliczenia prowadziły do liczb kończących się po małej liczbie miejsc ułamkowych, zwykle dwóch. Niemniej jednak sekwencję łuków synodycznych można kształtować poprzez odpowiedni dobór parametrów, tak aby z powodzeniem odtworzyć rzeczywiste zachowanie planety, co ilustruje rysunek 1, na którym przebieg łuków synodycznych pomiędzy pierwszymi stacjonarnymi punktami Marsa obliczony przez system Model porównuje się z tymi samymi przedziałami obliczonymi przez współczesną teorię. System B, według którego łuki synodyczne i czasy są funkcjami zygzakowatymi, jest modelem bardziej restrykcyjnym i mniej skutecznym w odtwarzaniu zjawisk. Pełna tabela obliczonych zjawisk planety może zawierać kolumny podające daty i długości geograficzne pełnego cyklu zjawisk synodycznych, na przykład pierwsza widoczność Marsa, wschody akronychalne pierwszej stacji, stacja druga i zniknięcie. Długości geograficzne w datach pośrednich można uzyskać poprzez ekstrapolację lub interpolację między tabelarycznymi parami data-długość geograficzna. Babilońskie modele księżycowe są bardziej niezwykłym osiągnięciem niż modele planetarne. Na zaćmienia i czas widoczności Księżyca wpływa kilka niezależnych składników okresowych, których wyizolowanie i zmierzenie nie było łatwe. W modelach systemu A i systemu B występują co najmniej cztery okresy: rok (najwyraźniej nie wprowadzono rozróżnienia na lata gwiezdne, tropikalne i anomalistyczne), miesiąc synodyczny oraz okresy anomalii i szerokości geograficznej Księżyca. Do zilustrowania podejścia może posłużyć obliczenie dokładnego czasu koniunkcji. Zakłada się, że odstęp między poprzednią a obecną koniunkcją wynosi 29 dni plus dwa zmienne składniki (wyrażone w stopniach czasu), zwane J i G. G zmienia się w zależności od anomalistycznego okresu Księżyca. W systemie B jest to funkcja liniowa zygzakowata, natomiast w systemie Ait jest to funkcja zygzakowata "wciągnięta" w sinusoidalny kształt w jej skrajnych ciągach arytmetycznych drugiego rzędu. J ma rok słoneczny za swój okres. Modeluje się ją w systemieA za pomocą funkcji krokowej zależnej od długości geograficznej Słońca, natomiast w systemBit jest to gładka sekwencja sinusoidalna otrzymana jako suma liniowa funkcji zygzakowatej. Rysunek 2 przedstawia serię wartości G, J i ich sumę z tabletu systemu B. Błędy w obliczonych czasach, które mogą sięgać nawet 2 godzin, wynikają częściowo z zastosowania dość prostych funkcji arytmetycznych, a częściowo z nieodłącznej niedokładności przedstawiania prawdziwego miesiąca synodycznego jako sumy dwóch niezależnych funkcji okresowych. Okresowości, szczególnie te z teorii księżycowej układu B, są bardzo dokładne. Ostatnimi tabliczkami astronomii Mezopotamii są almanachy z lat 70. XX w. n.e. Jednak do tego czasu metody babilońskiej astronomii matematycznej rozprzestrzeniły się na świat greckojęzyczny, gdzie zapewniły podstawę obliczeniową ASTROLOGII grecko-rzymskiej, dopóki w późnej starożytności nie zostały zastąpione tablicami Ptolemeusza. HIPPARCHUS i PTOLEMEUSZ korzystali z babilońskich raportów obserwacyjnych i okresowości teorii księżycowej układu B, a na ich prace mogły mieć mniej bezpośredni wpływ inne aspekty modeli matematycznych.

Bariogeneza (geneza barionu lub asymetria materii / antymaterii)

Z każdym typem cząstki związana jest cząstka ANTYMATERIA o przeciwnych liczbach kwantowych. Na przykład pozyton (ładunek +1) jest antycząstką elektronu (ładunek -1), a antyproton (ładunek -1, liczba barionowa -1) jest antycząstką protonu (ładunek +1, liczba barionowa +1 ). Cząstki mogą anihilować wraz ze swoimi antycząstkami w promieniowanie, a pary cząstka-antycząstka mogą powstawać w próżni. Obserwacje wydają się sugerować, że wszechświat składa się z materii, bez żadnych znaczących ilości antymaterii. Domeny galaktyk antymaterii i gromad galaktyk antymaterii, jeśli istnieją, muszą być znacznie od siebie oddzielone. Najprostszym wyjaśnieniem jest to, że we wszechświecie występuje asymetria antymaterii: obecnie wszechświat składa się wyłącznie z cząstek bez dużych układów antymaterii. Asymetrię materii i antymaterii zwykle wyraża się w postaci bezwymiarowej liczby znanej jako "liczba barionowa wszechświata". Jeśli barionom (neutronom, protonom i masywniejszym rezonansom barionowym) przypisuje się liczbę barionową +1, a antybarionom liczbę barionową -1, to z powodu braku dużych ilości antymaterii obecna gęstość liczby barionowej ( gęstość liczby barionowej minus gęstość liczby antybarionowej) można wyrazić w kategoriach całkowitej gęstości masy Wszechświata. Liczba barionowa to stosunek gęstości liczby barionowej do gęstości entropii Wszechświata. Przy niepewności wynoszącej od trzech do pięciu liczba barionowa Wszechświata wynosi około 10-10. Dopóki liczba barionowa jest zachowana w każdej indywidualnej reakcji, a ekspansja wszechświata jest izentropowa (zachowująca entropię), liczba barionowa wszechświata jest zachowana w historii wszechświata. Chociaż obecnie we wszechświecie nie ma antymaterii, gdyby temperatura wszechświata była kiedykolwiek wyższa niż około 1013 K, a tym samym jego energia cieplna przekraczałaby energię spoczynkową protonu, wówczas antymateria istniałaby w ogromnych ilościach. Wcześniej niż około milisekundę po WIELKIM WYBUCHU Wszechświat powinien być wystarczająco gorący, aby promieniowanie mogło utworzyć pary cząstka-antycząstka. Jeśli liczba barionowa jest zachowana, to w wystarczająco wysokiej temperaturze liczba barionowa wynosząca 10-10 oznacza, że we wszechświecie było mniej więcej tyle samo barionów i antybarionów, ale na każde 10 miliardów antybarionów przypadało 10 miliardów i jeden barion. Gdy Wszechświat ostygł poniżej temperatury wymaganej do wytworzenia par proton-antyproton z promieniowania, wszystkie antybariony uległy anihilacji, pozostawiając nadmiarową liczbę barionową wynoszącą 1 część na 10 miliardów. Chociaż tak niewielka asymetria pomiędzy liczbą barionów i antybarionów może wydawać się nieistotna, bez asymetrii wszystkie bariony i antybariony uległyby anihilacji, w wyniku czego powstałby wszechświat pozbawiony materii (lub antymaterii) niezbędnej do powstania galaktyk, gwiazd i planety. Chociaż obecna liczba barionowa Wszechświata może po prostu odzwierciedlać początkowy stan Wielkiego Wybuchu, bardziej naturalne wydaje się, że wszechświat o zerowej liczbie barionowej, co by nastąpiło, gdyby wszechświat przeszedł okres "INFLACJA", ewoluował we wszechświat z mała liczba barionowa. W 1967 roku rosyjski fizyk Andriej Sacharow nakreślił trzy "składniki" niezbędne do wygenerowania asymetrii barionowej z początkowo symetrycznych warunków. Pierwszym wymaganiem jest to, że niektóre reakcje cząstek muszą naruszać liczbę barionową. Drugim warunkiem jest naruszenie symetrii CP (parzystość razy koniugacja ładunku). Wreszcie bariogeneza wymaga odejścia od lokalnej równowagi termodynamicznej. Te trzy składniki Sacharowa mogły występować we wczesnym wszechświecie. Ekspansja wszechświata może prowadzić do warunków nierównowagowych. Naruszenie CP zostało odkryte w 1964 roku przez Jamesa Cronina i Val Fitcha w reakcjach z udziałem cząstek znanych jako kaony. Chociaż nigdy nie zaobserwowano naruszenia liczby barionowej, w kilku teoriach przewiduje się, że nastąpi to. Różne możliwości naruszenia liczby barionowej zaowocowały opracowaniem różnych scenariuszy bariogenezy. W teoriach unifikacji oddziaływania silnego, słabego i elektromagnetycznego w WIELKĄ ZJEDNOCZONĄ TEORIĘ (GUT) przewiduje się, że liczba barionowa zostanie naruszona w wyniku rozpadu supermasywnych cząstek o masie aż 1016 mas protonu. W najprostszych wersjach bariogenezy GUT supermasywne cząstki były obecne w promieniowaniu cieplnym, a gdy temperatura Wszechświata spadła poniżej równoważnej masy supermasywnej cząstki, preferencyjnie rozpadały się na bariony. W scenariuszu GUT bariogeneza nastąpiła 10-35 sekund po wybuchu. Ujednolicenie oddziaływań elektromagnetycznych i słabych polega na złamaniu symetrii elektrosłabej, w której pole Higgsa przyjmuje wartość oczekiwaną próżni. Choć dziś zepsuta, to przy odpowiednio wysokich temperaturach symetria powinna zostać przywrócona. Oczekuje się, że przemiana fazowa związana z naruszeniem symetrii elektrosłabej, gdy temperatura Wszechświata spadnie poniżej około 1015 K. Przewiduje się, że powyżej przejścia fazowego będą działać nieperturbacyjne procesy naruszające liczbę barionową. Opracowano scenariusz bariogenezy elektrosłabej, w którym asymetria barionowa jest generowana w czasie przejścia fazowego elektrosłabego, około 10-12 sekund po wybuchu. Teorie SUPERSYMETRY mają bozonowych partnerów dla kwarków i leptonów. Cząstki te, zwane skwarkami i spaniami, są bozonami i mogą osiągać wartości oczekiwane podciśnienia. Jakakolwiek zmiana wartości oczekiwanej próżni pola kwadratowego powoduje naruszenie liczby barionowej. W tym scenariuszu nie określono wieku Wszechświata w trakcie bariogenezy. Inne scenariusze bariogenezy obejmują odmiany lub kombinacje trzech powyższych scenariuszy. Chociaż dokładny mechanizm bariogenezy jest nadal przedmiotem intensywnych spekulacji, oczekuje się, że we wczesnym Wielkim Wybuchu obecne będą trzy składniki Sacharowa: w przyrodzie zaobserwowano naruszenie CP, ekspansja wszechświata w naturalny sposób prowadzi do odstępstw od równowagi, a barion Oczekuje się, że naruszenie liczby -number będzie miało miejsce na różne sposoby. Chociaż szczegóły bariogenezy nie są znane, eksperymenty laboratoryjne mogą pomóc w rozwikłaniu zagadki. Badanie naruszenia CP z udziałem kwarków dolnych może doprowadzić do głębszego zrozumienia tego składnika. Znajomość masy elektrosłabego Higgsa jest ważna dla bariogenezy elektrosłabej. Odkrycie supersymetrii niskoenergetycznej miałoby ważne implikacje dla bariogenezy elektrosłabej, a także scenariuszy obejmujących wartości oczekiwane kwadratu. Wreszcie obserwacja rozpadu protonów lub inny bezpośredni dowód wielkiej unifikacji byłaby ważna dla scenariuszy bariogenezy GUT.





[ 678 ]