We are searching data for your request:
Upon completion, a link will appear to access the found materials.
Gizmodos Astronomen entdecken ein mysteriöses, 10 Millionen Lichtjahre langes Magnetfeld, das zwei Galaxienhaufen verbindet, zeigt das Bild unten, und Space.coms A Weird 'Radio Bridge' 10 Millionen Lichtjahre lange Links kollidierende Galaxienhaufen diskutiert dies ebenfalls.
Beide verweisen auf das neue Papier in Science A Radio Ridge, das zwei Galaxienhaufen in einem Filament des kosmischen Netzes (auch arXiv) verbindet.
Was ich bisher gesammelt habe, ist, dass zwischen zwei bekannten und charakterisierten Galaxienhaufen eine Region mit etwas überschüssiger Kontinuums-Radioleistung bei 140 MHz und etwas überschüssiger Kontinuum-Röntgenstrahlungsleistung zu sehen ist.
Keines davon sind spektrale Merkmale, daher können ihre Entfernungen nicht durch Dopplerverschiebung mit den galaktischen Haufen in Verbindung gebracht werden.
Frage: Woher wissen sie, dass das Röntgen- und das Radiokontinuum beide wirklich aus dem Raum zwischen diesen beiden Galaxienhaufen kommen und nicht davor oder dahinter?
"Bonuspunkte" Wie passt Plancks "y-Parameter" zu dieser Mischung?
„Ein Radiokamm, der zwei Galaxienhaufen in einem Filament des kosmischen Netzes verbindet“, F. Govoni et al. 2019, Wissenschaft. Optisch: DSS und Pan STAARS (Einschübe) - Rot, Röntgen: XMM-Newton - Gelb, y-Parameter: Planck-Satellit - Blau, Funk 140 MHz: LOFAR. Bildnachweis: M. Murgia - INAF
Die beiden Galaxienhaufen und der dazwischen liegende Radiokamm. Bild: DSS und Pan-STARRS1 (Optisch), XMM-Newton (Röntgen) PLANCK-Satellit (y-Parameter), F. Govoni, M. Murgia, INAF
Ich denke, die Antwort ist, dass es in erster Linie eine Frage der Assoziation am Himmel ist, obwohl es einige (schwache) zusätzliche Einschränkungen gibt.
Als erstes ist zu beachten, dass es drei Beobachtungen am Himmel: die Röntgenemission (die seit Mitte der 1990er Jahre bekannt ist), die neu entdeckte 140-MHz-LOFAR-Emission und Beweise für einen Sunyaev-Zel'dovich-Effekt in derselben Region, von Planck Daten (z. B. Bonjean et al. 2018). Aus der Bildunterschrift zu Abbildung 3 im neuen Papier: "Die Planck-Daten zeigen eine Gasbrücke zwischen dem Paar von Galaxienhaufen Abell 0399 - Abell 0401 an derselben Stelle wie der LOFAR-Rücken." und aus dem Haupttext: "Der Radiograt befindet sich entlang des Gasfadens, der Abell 0399 und Abell 0401 mit Planck (9, 10) verbindet."
(Die "Planck $y$-Parameter", auch bekannt als "Compton-Parameter", bezieht sich auf die Messung des Sunyaev-Zel'dovich-Effekts aufgrund der inversen Compton-Streuung von kosmischen Hintergrundstrahlungsphotonen, abgeleitet aus Planck-Satellitendaten. Ich glaube, er ist proportional zur Linie- Sichtintegral des Gasdrucks.)
Das Suzaku-Röntgenspektrum dieser Region (z. B. Abbildung 2 von Fujita et al. 2008; siehe unten) weist einige spektrale Merkmale auf, einschließlich der Fe-K-Emissionslinie. Aufgrund der geringen spektralen Auflösung schränken diese Merkmale die Rotverschiebung des Röntgenstrahlen emittierenden Gases nicht sehr stark ein (und ich denke, Fujita et al. haben die Rotverschiebung in ihrer Analyse auf den Mittelwert der beiden Cluster festgelegt), aber es ist wäre wahrscheinlich auffällig, wenn es sich um mehr als unterschied $sim 0.1$ in Rotverschiebung.
Aus Abbildung 2 von Fujita et al. (2008): Suzaku-Röntgenspektrum eines Teils der "Brückenregion" zwischen den beiden Clustern. Schwarz sind beobachtete Daten, Rot ist das kombinierte Modell, einschließlich galaktischem und extragalaktischem Hintergrund (blau gestrichelt) und Emission aus dem Inter-Cluster-Gas (grün).
Weltraumwetter-Glossar
Ein 3-stündlicher „Äquivalentamplituden“-Index der geomagnetischen Aktivität für eine bestimmte Station oder ein Netzwerk von Stationen (hier allgemein durch k dargestellt), der den Störungsbereich im horizontalen Magnetfeld ausdrückt. ”ak” wird aus dem 3-Stunden-Index K nach folgender Tabelle skaliert:
K | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
ak | 0 | 3 | 7 | 15 | 27 | 48 | 80 | 140 | 240 | 400 |
Bei NOAA werden diese Werte direkt für betriebliche Zwecke verwendet. Um die ak-Werte jedoch in Nanoteslas (nT) umzurechnen, muss ein lokaler (stationsabhängiger) Umrechnungsfaktor gefunden werden, indem die untere Grenze der Station für K=9 durch 250 geteilt wird. Zum Beispiel bei Boulder und Fredericksburg die untere Grenze für K= 9 ist 500 nT, also ist der Faktor 2, daher sind die ak-Werte für diese Stationen in Einheiten von 2 nT. (Um eine äquivalente Amplitude in Nanotesla für Boulder oder Fredericksburg zu erhalten, muss der Indexwert verdoppelt werden.)
Eine mittlere 3-stündliche ”Äquivalentamplitude” der magnetischen Aktivität basierend auf K-Index-Daten eines planetarischen Netzwerks von 11 magnetischen Observatorien der nördlichen und 2 südlichen Hemisphäre zwischen den geomagnetischen Breiten von 46° und 6° vom Institut für Geophysik in Göttingen, Deutschland p-Werte werden in Einheiten von 2 nT angegeben.
Ein Diagramm der beobachteten Breitengrade der sonnenaktiven Region im Vergleich zur Zeit. Dieses Diagramm, das einem Schmetterling ähnelt, zeigt, dass der durchschnittliche Breitengrad der Bildung aktiver Regionen während eines Sonnenfleckenzyklus von hohen zu niedrigen Breiten abdriftet.
Ein plötzlicher, minuten- bis stundenlanger Energieausbruch in der Sonnenatmosphäre, aus dem Strahlung und Partikel emittiert werden. Flares werden auf der Grundlage der Fläche zum Zeitpunkt der maximalen Helligkeit in H-Alpha und des Spitzenflusses von 1 Minute gemittelten GOES XRS 0,1 – 0,8 nm-Röntgenstrahlen klassifiziert. Informationen zur Klassifizierung von Röntgenstrahlung finden Sie in der Definition für die Klasse der Röntgenstrahlung. Die H-Alpha-Klassifizierungen sind hier angegeben.
Bedeutung 0 (Subflare): | <= 2,0 hemisphärische Quadratgrad |
Bedeutung 1: | 2,1-5,1 Quadratgrad |
Bedeutung 2: | 5,2-12,4 Quadratgrad |
Bedeutung 3: | 12,5-24,7 Quadratgrad |
Bedeutung 4: | >= 24,8 Quadratgrad |
[Ein Quadratgrad entspricht (1,214 x 10 4 km 2 ) = 48,5 Millionstel der sichtbaren Sonnenhemisphäre.] Ein Helligkeitskennzeichen F, N oder B wird im Allgemeinen an das Wichtigkeitszeichen angehängt, um schwach, normal oder brillant anzuzeigen ( zum Beispiel 2B).
Natürliche Variationen des geomagnetischen Feldes werden quantitativ in ruhige, unruhige, aktive und geomagnetische Stürme klassifiziert, entsprechend dem beobachteten a-Index:
Die Komponenten des Erdmagnetfeldes an der Erdoberfläche. Diese Elemente werden in der Literatur üblicherweise so bezeichnet:
X – die geografische Nordkomponente
Y – die geografische Ostkomponente
Z-die vertikale Komponente, positiv gerechnet nach unten
H – die horizontale Intensität der Größenordnung (X 2 + y 2 )1/2
F-die Gesamtintensität (H 2 + Z 2 )1/2
I-der Neigungs- (oder Neigungs-)Winkel, tan -1 (Z/H)
D-der Deklinationswinkel, gemessen von der geografischen Nordrichtung zur H-Komponentenrichtung, positiv in östlicher Richtung.
Im NOAA-Gebrauch werden jedoch die geomagnetischen nordwärts und geomagnetischen ostwärts gerichteten Komponenten als H- und D-Komponenten bezeichnet. Die Richtung der H-Achse wird durch die mittlere Richtung der horizontalen Komponente relativ zum geomagnetischen Norden unter Verwendung der Kleinwinkel-Approximation definiert. Somit ist die D-Komponente = H (die horizontale Intensität) multipliziert mit Delta D (dem Deklinationswinkel relativ zum geomagnetischen Norden, ausgedrückt im Bogenmaß).
Kp ist ein allgemeiner Index, der verwendet wird, um die Schwere der globalen magnetischen Störungen im erdnahen Raum anzuzeigen. Kp ist ein Index, der auf dem Durchschnitt der gewichteten K-Indizes an 13 Erdmagnetfeld-Observatorien basiert. Sie basiert auf der Bandbreite der Magnetfeldvariation innerhalb von 3-Stunden-Intervallen, die durch andere Phänomene als die Tagesvariation und die langfristigen Komponenten der Sturmzeitvariationen verursacht wird. Die Werte des Kp reichen von 0 (sehr leise) bis 9 (sehr gestört) in 28 diskreten Schritten, was zu Werten von 0, 0+, 1-, 1, 1+, 2-, 2, 2+ führt. 9.
Ein geschätzter Kp wird von NOAA nahezu in Echtzeit berechnet.
Der offizielle, nachträgliche 3-Stunden-Planetenindex der geomagnetischen Aktivität wird zweimal im Monat vom Deutschen GeoForschungsZentrum (GFZ) aus den K-Indizes berechnet, die an 13 Stationen hauptsächlich auf der Nordhalbkugel beobachtet wurden . Zur Ermittlung der ap-Indizes werden die Kp-Indizes aus dem Jahr 1932 verwendet.
Klassifizierung des magnetischen Charakters von Sonnenflecken nach den Regeln des Mount Wilson Observatory in Kalifornien.
Ein Klassifikationsschema in Kurzform wurde entwickelt, um der breiten Öffentlichkeit die komplexen und oft verwirrenden Störungen in der solar-terrestrischen Umgebung zu vermitteln. Drei typische Ereignisse werden dargestellt als: Geomagnetische Stürme (G), Sonnenstrahlungsstürme (S) und Funkausfälle (R). Dem Ereignistyp wird ein numerischer Qualifizierer hinzugefügt, um die Schwere der Störung anzugeben. Diese Qualifizierer sind wie folgt definiert:
1 | Geringer |
2 | Mäßig |
3 | Stark |
4 | Stark |
5 | Extrem |
Vollständige Beschreibungen der normalen Auswirkungen des terrestrischen Systems, der Schwellenwerte und der Ereignishäufigkeit finden Sie in Anhang A.
Emission der Sonne in Radiowellenlängen von Zentimetern bis Dekametern, sowohl unter ruhigen als auch unter gestörten Bedingungen. Einige Muster, die verschiedentlich als Rauschstürme, Bursts und Sweeps bekannt sind, werden wie unten beschrieben identifiziert. Diese Emissionsarten werden subjektiv auf einer Wichtigkeitsskala von 1 bis 3 bewertet, wobei 3 die stärkste ist.
Typ I. Ein Rauschsturm, der aus vielen kurzen, schmalbandigen Bursts im Meter-Wellenlängenbereich (300-50 MHz) mit extrem variabler Intensität besteht. Der Sturm kann mehrere Stunden bis mehrere Tage dauern.
Geben Sie ll ein. Schmalbandige Emission, die im Meterbereich (300 MHz) beginnt und langsam (zehn Minuten) in Richtung Dekameter-Wellenlängen (10 MHz) überstreicht. Emissionen vom Typ II treten in lockerer Verbindung mit großen Flares auf und weisen auf eine Stoßwelle hin, die sich durch die Sonnenatmosphäre bewegt.
Typ III. Schmalbandige Bursts, die schnell (Sekunden) von Dezimeter- bis Dekameter-Wellenlängen (500-0,5 MHz) durchlaufen. Sie treten oft in Gruppen auf und sind ein gelegentliches Merkmal komplexer solaraktiver Regionen.
Typ IV. Ein glattes Kontinuum breitbandiger Bursts hauptsächlich im Meterbereich (300-30 MHz). Diese Ausbrüche treten bei einigen größeren Flare-Ereignissen auf. Sie beginnen 10 bis 20 Minuten nach dem Flare-Maximum und können Stunden dauern.
Typ V. Kontinuumsrauschen von kurzer Dauer (einige Minuten) im Dekameter-Bereich, das normalerweise mit Bursts des Typs III verbunden ist.
Sehr niedrige Röntgenereignisse weniger als C-Klasse.
Mäßig - isolierte (ein bis 4) Röntgenereignisse der M-Klasse.
Hoch - mehrere (5 oder mehr) M5 oder größere Röntgenereignisse.
Spezifikationen für einen Standort auf der Sonnenoberfläche. Die Lage eines bestimmten Merkmals auf der Sonne (zum Beispiel eines Sonnenflecks) wird durch die Tatsache erschwert, dass zwischen der Ekliptikebene und der Sonnenäquatorialebene eine Neigung von 7,25 Grad sowie ein echtes Wackeln der Sonnenrotationsachse besteht. (Nur zweimal im Jahr werden der Sonnennordpol und der Himmelsnordpol ausgerichtet.) Um einen Ort auf der Sonnenoberfläche anzugeben, sind folglich drei Koordinaten (P, B, L) erforderlich, um ein Gitter zu definieren. Tageswerte für die Koordinaten in koordinierter Weltzeit (UTC) sind in The Astronomical Almanac aufgeführt, das jährlich vom U.S. Naval Observatory veröffentlicht wird. Die für die Koordinaten verwendeten Begriffe sind wie folgt definiert:
P-Winkel: Der Positionswinkel zwischen dem geozentrischen Nordpol und dem Sonnenrotationsnordpol, gemessen vom geozentrischen Norden nach Osten. Der Bereich in P beträgt plus oder minus 26,31°.
Bo: Heliographische Breite des Mittelpunkts der Sonnenscheibe, auch B-Winkel genannt. Der Bereich von B beträgt plus oder minus 7,23 ° und korrigiert die Neigung der Ekliptik in Bezug auf die Sonnenäquatorebene.
Beispiel: Wenn (P, B) = (-26,21°, -6,54°), beträgt die heliographische Breite des Mittelpunkts der Sonnenscheibe -6,54° (der Nordrotationspol ist nicht sichtbar) und der Winkel zwischen der Projektion auf die Scheibe des geozentrischen Nordpols und des solaren Nordrotationspols 26,21° nach Westen.
L: Heliographische Länge des Mittelpunkts der Sonnenscheibe. Der Längengrad wird unter Bezugnahme auf ein System fester Längengrade bestimmt, das sich auf der Sonne mit einer Geschwindigkeit von 13,2 Grad/Tag dreht (die mittlere Rotationsgeschwindigkeit, die bei Zentralmeridiandurchgängen von Sonnenflecken beobachtet wird). Der Standardmeridian auf der Sonne ist definiert als der Meridian, der am 1. Januar 1854 um 1200 UTC durch den aufsteigenden Knoten des Sonnenäquators ging und wird für den heutigen Tag unter Annahme einer einheitlichen Sternumlaufperiode von 25,38 Tagen berechnet. Sobald P, B und L bekannt sind, können der Breitengrad, der Mittelmeridianabstand und der Längengrad eines bestimmten Sonnenmerkmals wie folgt bestimmt werden:
Breite. Der Winkelabstand vom Sonnenäquator, gemessen nach Norden oder Süden entlang des Meridians.
Mittelmeridianabstand (CMD). Der Winkelabstand in Sonnenlänge gemessen vom Mittelmeridian. Diese Position ist relativ zur Ansicht von der Erde und ändert sich, wenn sich die Sonne dreht. Daher sollte diese Koordinate nicht mit heliographischen Positionen verwechselt werden, die in Bezug auf die Sonnenoberfläche fixiert sind.
Längengrad. Der Winkelabstand von einem Standardmeridian (0 Grad heliographischer Länge), gemessen von Osten nach Westen (0 bis 360 Grad) entlang des Sonnenäquators. Sie wird berechnet, indem CMD mit dem Längengrad des Mittelmeridians zum Zeitpunkt der Beobachtung kombiniert wird, wobei zwischen Ephemeridenwerten (für 0000 UT) interpoliert wird, indem die synodische Sonnenrotationsrate (27,2753 Tage, 13,2 Grad/Tag) verwendet wird.
Wie von McIntosh entwickelt, eine 3-Buchstaben-Bezeichnung der Weißlichteigenschaften einer Sonnenfleckengruppe. Die allgemeine Form der Bezeichnung ist Zpc. Aus jeder der folgenden drei Kategorien wird jeweils ein Buchstabe ausgewählt.
Rang eines Flares basierend auf seiner Röntgenenergieabgabe. Flares werden von der NOAA nach der Größenordnung der von Satelliten auf der Erde gemessenen Peak Burst-Intensität (I) im Bereich von 0,1 bis 0,8 nm wie folgt klassifiziert:
Einführung
Galaxienhaufen sind die größten gravitativ gebundenen Systeme im Universum mit typischen Massen von etwa 10 15 MSonneund Volumina von etwa 100 Mpc 3 . Der größte Teil der gravitierenden Materie in jedem Haufen liegt in Form von Dunkler Materie vor (∼80 %). Ein Teil der leuchtenden Materie befindet sich in Galaxien (∼3–5 %), der Rest befindet sich in diffusem heißem Gas (∼15–17 %), das im Röntgen durch seine thermische Bremsstrahlung nachgewiesen wird. Dieses thermische Plasma, das aus Teilchen mit Energien von mehreren keV besteht, wird allgemein als Intracluster Medium (ICM) bezeichnet. Die meisten detaillierten Kenntnisse über Galaxienhaufen wurden in den letzten Jahren aus dem Studium der ICM durch Röntgenastronomie gewonnen.
Cluster werden durch hierarchische Strukturbildungsprozesse gebildet. In diesem Szenario bildeten sich zunächst kleinere Einheiten (Galaxien, Gruppen und kleine Haufen) und verschmolzen im Laufe der Zeit unter Anziehungskraft zu immer größeren Einheiten. Clusterverschmelzungen sind der Mechanismus, durch den Cluster zusammengesetzt werden. Dichtere Regionen bilden im Universum eine filamentöse Struktur, und Cluster werden innerhalb von Filamenten, oft an deren Kreuzungspunkt, durch eine Kombination aus großen und kleinen Verschmelzungen gebildet. Große Cluster-Verschmelzungen gehören zu den energiereichsten Ereignissen im Universum seit dem Urknall (Sarazin 2002). Bei Fusionen werden Schocks in das ICM getrieben, mit anschließender Turbulenz. Die Verschmelzungsaktivität, die einen Großteil der Geschichte des Universums geprägt hat, scheint sich bis heute fortzusetzen und erklärt die relative Häufigkeit von Substruktur- und Temperaturgradienten, die in Galaxienhaufen durch optische und Röntgenbeobachtungen nachgewiesen wurden.
Schließlich erreichen die Haufen einen entspannten Zustand, der durch eine riesige Galaxie im Zentrum und einen erhöhten Helligkeitspeak der Röntgenoberfläche im Kern gekennzeichnet ist. Das heiße Gas in der Mitte hat eine hohe Dichte, was kurze Strahlungskühlzeiten impliziert, typischerweise eine oder zwei Größenordnungen kleiner als die Hubble-Zeit. Daher sind die Energieverluste aufgrund der Röntgenstrahlung dramatisch und erzeugen einen Temperaturabfall zum Zentrum hin. Früher wurde vorgeschlagen, dass das ICM-Plasma im Clusterkern unter diesen Bedingungen abkühlen und kondensieren sollte, was zu einer stetigen, druckgetriebenen Einströmung führt, die durch die Kompression des heißen umgebenden Gases verursacht wird. Relaxierte Cluster wurden dann als „Cooling Flow“-Cluster klassifiziert (Fabian 1994), mit vorhergesagten Gasmassendepositionsraten im Clusterzentrum von bis zu 1000 MSonne Jahr -1 . Dieses Modell war Gegenstand vieler Debatten, als XMM-Newton-Spektralergebnisse die Linien und Merkmale nicht bestätigten, die als Produkt einer stationären Kühlströmung erwartet wurden (Peterson et al. 2001 Peterson und Fabian 2006). Röntgen- und optische Studien zeigten, dass die Gaskühlraten um eine Größenordnung oder mehr überschätzt wurden (McNamara et al. 2006). Das klassische „Cooling-Flow“-Modell wurde endgültig durch das Paradigma des „Cool-Core“ abgelöst. Beobachtet kühle Kerne zeichnen sich durch einen starken Peak in der Oberflächenhelligkeit, einen deutlichen Temperaturabfall und einen Peak in der Metallverteilung aus (z. B. De Grandi und Molendi 2001). Die Kühlzeit ist oft viel kürzer als 1 Gyr, daher ist eine Heizquelle erforderlich, um die Strahlungsverluste auszugleichen. Gegenwärtig wird allgemein akzeptiert, dass die Quelle der Erwärmung in Kaltkernhaufen die AGN-Aktivität der hellsten Haufengalaxie im Zentrum ist (siehe McNamara und Nulsen 2007, Böhringer und Werner 2010 für aktuelle Übersichten).
Galaxienhaufen sind auch durch Emission im Radioband gekennzeichnet. Offensichtliche Radioquellen sind die einzelnen Galaxien, deren Emission in den letzten Jahrzehnten mit empfindlichen Radioteleskopen beobachtet wurde. Es erstreckt sich oft weit über die optischen Grenzen der Galaxie hinaus auf Hunderte von Kiloparsec, und daher wird erwartet, dass die radioemittierenden Regionen mit dem ICM interagieren. Diese Wechselwirkung wird in der Tat in Radiogalaxien mit Schwanz und Radioquellen beobachtet, die Röntgenhohlräume im Zentrum von Cool-Core-Clustern füllen (McNamara und Nulsen 2007, Feretti und Giovannini 2008).
Rätselhafter sind diffuse ausgedehnte Radioquellen, die nicht eindeutig einzelnen Galaxien zugeschrieben werden können, sondern dem ICM zugeordnet werden. Diese Radioemission stellt ein markantes Merkmal von Clustern dar, da sie zeigt, dass das thermische ICM-Plasma mit nicht-thermischen Komponenten vermischt wird. Solche Komponenten sind großräumige Magnetfelder mit einer Population relativistischer Elektronen im Clustervolumen. Ein weiterer Nachweis der Existenz von Magnetfeldern in der ICM wird durch Untersuchungen der Faraday-Rotation von polarisierten Radiogalaxien, die im Hintergrund liegen oder in das magnetisierte Intracluster-Medium eingebettet sind, erhalten.
Die Anzahldichte relativistischer Teilchen liegt in der Größenordnung von 10 −10 cm −3 , während ihre Lorentzfaktoren γ1000. Die Magnetfeldstärken liegen bei around0.1–1 μG, und die Energiedichte des relativistischen Plasmas beträgt global ≲1 % der des thermischen Gases. Nicht-thermische Komponenten sind dennoch wichtig für eine umfassende physikalische Beschreibung des Intracluster-Mediums in Galaxienhaufen und spielen eine wichtige Rolle bei der Entwicklung großräumiger Strukturen im Universum. Sie können dynamische und thermodynamische Effekte haben: Magnetfelder beeinflussen die Wärmeleitung in der ICM und die Gasdynamik, relativistische Partikel sind Quellen für zusätzlichen Druck und unterliegen Beschleunigungsvorgängen, die den Heizprozess der ICM im Detail verändern können.Realistische kosmologische Simulationen der Galaxienhaufenbildung umfassen auch nicht-thermische Komponenten, daher ist ein tiefes Wissen über die Eigenschaften dieser Komponenten und ihr Zusammenspiel mit dem thermischen Gas erforderlich, um das Szenario der großräumigen Strukturbildung richtig einzuschränken. Die Entdeckung der diffusen Radioemission von Haufen war ein wichtiger Schritt zum Verständnis der physikalischen Prozesse in Galaxienhaufen. Diffuse Synchrotronquellen reagieren empfindlich auf Turbulenzen und Schockstrukturen großräumiger Umgebungen und bieten eine wesentliche Ergänzung zu Studien in anderen Wellenbereichen. Studien im Radiobereich werden wesentliche Lücken sowohl in der Cluster-Astrophysik als auch im Strukturwachstum des Universums schließen, insbesondere dort, wo die Signaturen von Schocks und Turbulenzen oder sogar das thermische Plasma selbst sonst nicht nachweisbar sind.
Ziel dieser Übersichtsarbeit ist es, die in den letzten Jahren gewonnenen Beobachtungsergebnisse im Radiobereich in Bezug auf die diffusen Radioquellen darzustellen, um einen Überblick über den aktuellen Wissensstand zu nichtthermischen Clusterkomponenten zu geben. Wir werden zeigen, wie die Radioeigenschaften mit den Röntgeneigenschaften und dem Evolutionszustand des Clusters verknüpft werden können, und die physikalischen Implikationen diskutieren.
Im harten Röntgenbereich wird aufgrund der Streuung der kosmischen Mikrowellen-Hintergrundphotonen durch die relativistischen Elektronen des Synchrotrons eine nichtthermische Clusteremission mit inversem Compton (IC)-Ursprung erwartet (Sarazin 1999). Bis heute wird in der Literatur über den Nachweis eines nichtthermischen Hardtails im Röntgenspektrum von Galaxienhaufen berichtet (zB Fusco-Femiano et al. 1999, 2004, 2005, 2007, 2011 Rephaeli und Gruber 2002 Wik et al., 2009, 2011) und wird teilweise noch diskutiert. Das Vorhandensein einer hochfrequenten nicht-thermischen Emission wird im Ophiuchus-Cluster eindeutig bestätigt (Murgia et al. 2010b Eckert 2011). Die Diskussion dieses Themas würde den Rahmen dieser Rezension sprengen, die sich auf die Ergebnisse im Radioband konzentriert.
Die Gliederung dieser Arbeit ist wie folgt: In Abschn. 2 werden die allgemeinen Eigenschaften diffuser Cluster-Radioquellen und deren Klassifizierung in Abschn. 3 werden die Probleme im Zusammenhang mit der Detektion diffuser Emission skizziert Abschn. 4, 5, 6 geben die Beobachtungseigenschaften von Radiohalos, Relikten bzw. Mini-Halos wieder. In Abschn. 7 werden die aktuellen Ergebnisse zu Magnetfeldern präsentiert. Abschnitt 8 präsentiert die Beweise für Radioemission und Magnetfelder jenseits von Galaxienhaufen. Abschnitt 9 fasst die aktuellen Modelle kurz zusammen und Abschn. 10 zeigt die Zukunftsaussichten.
Die in dieser Arbeit zitierten intrinsischen Parameter werden berechnet mit ΛCDM-Kosmologie mit H 0=71 km s −1 Mpc −1 , Ω ich=0,27, und Ω Λ=0,73. Aus der Literatur entnommene Werte wurden auf diese Kosmologie skaliert.
Menschliches Biofeld
Der menschliche Körper emittiert schwaches Licht, Wärme und akustische Energie hat elektrische und magnetische Eigenschaften und kann auch Energie umwandeln, die durch Physik und Chemie nicht einfach definiert werden kann. Alle diese Emissionen sind Teil des menschlichen Energiefeldes, auch biologisches Feld oder Biofeld genannt. Über die Definition des Biofeldes wurde jedoch in der wissenschaftlichen Gemeinschaft keine Einigkeit erzielt. Verschiedene Ansätze wurden von diesem Autor (Rubik, 1993, 1997, 2002b) und anderen Autoren [Popp (1996) Tiller (1993) Welch (1992) Welch and Smith (1990) und Zhang (1995, 1996)] vorgelegt. Die meisten Forschungen haben sich auf elektromagnetische Aspekte des Biofelds konzentriert. Wir beschränken den Rest dieses Kapitels auf den elektromagnetischen Teil des menschlichen Biofelds, wo der wissenschaftliche Schwerpunkt lag.
Die Biologie beschäftigt sich mit ihrer molekularen Revolution, die sich auf Struktur-Funktions-Beziehungen in der Biochemie konzentriert. Diese Bemühungen gipfelten im Human Genome Project, bei dem Wissenschaftlerteams aus der ganzen Welt alle Gene der menschlichen Desoxyribonukleinsäure kartierten. Der größte Teil des wissenschaftlichen Aufwands und der Finanzierung verbleibt in der Molekularbiologie. Im Gegensatz dazu haben weltweit nur wenige Wissenschaftler daran gearbeitet, die Energiefelder des menschlichen Körpers zu verstehen. Darüber hinaus sind die Messung des Biofelds und das Verständnis seiner Rolle im Leben schwieriger als das Studium greifbarerer Phänomene, und die Mittel dafür waren äußerst knapp. Daher gab es nur wenige wissenschaftliche Fortschritte in der Biofeldforschung, und die Biofeldwissenschaft bleibt ein Grenzgebiet, das für die Erforschung reif ist.
"Wenn wir versuchen, etwas selbst herauszusuchen, finden wir es mit allem anderen im Universum verbunden"
Das Biofeld ist auch schwer fassbar. Wir können es nicht isolieren oder umfassend analysieren. Wie John Muir schrieb: "Wenn wir versuchen, etwas selbst herauszusuchen, finden wir es an alles andere im Universum gebunden" (Muir, 1911). Für ein Feld gilt diese Verbindung besonders, da es unabhängig von seiner Quelle nach außen ins Unendliche reist, durch Überlagerung mit anderen Feldern interagiert und auf dem Weg mit Materie interagiert. Darüber hinaus können Phänomene wie Resonanz auftreten, die eine energetische Kopplung oder Schwingung von Materie beinhalten. Die Felder des menschlichen Körpers können auch von den Feldern benachbarter Organismen, der Biosphäre und sogar der Erde und des Kosmos beeinflusst werden, insbesondere geokosmische Rhythmen. Aus theoretischer Sicht können wir das menschliche Biofeld wegen seiner dynamischen Aspekte und enormen Komplexität nicht aus ersten Prinzipien berechnen. Dennoch können wir mit neuartigen Technologien bestimmte Aspekte des Biofelds messen und seine Fußabdrücke beobachten.
Das menschliche Biofeld kann neue Informationen von diagnostischem und prädiktivem Wert für die Medizin enthalten. Daher sollten neue technologische Entwicklungen und methodische Verbesserungen bei der Messung des Biofeldes ein zentrales Ziel der gesundheitsbezogenen Forschung sein. Durch die Messung verschiedener Aspekte des Biofelds können wir möglicherweise bereits im Vorfeld von Krankheiten oder Symptomen Funktionsstörungen von Organen und Geweben erkennen und diese entsprechend behandeln, um sie auszurotten. Möglicherweise können wir auch Biofeldmessungen verwenden, um vorherzusagen, ob die Wirkung einer bestimmten Therapie wirksam oder unwirksam ist, je nachdem, ob sie das Biofeld verbessert oder vereitelt. Diese Möglichkeit gilt insbesondere für die CAM-Therapien, die im Prinzip oft eine Verschiebung als Reaktion auf kleinste Reize hervorrufen, die harmonisch mit der natürlichen Dynamik des menschlichen Körpers arbeiten, um das Gleichgewicht wiederherzustellen.
Radiogalaxien
Radiogalaxien sind eine Art von AGN-Galaxie, die bei Radiowellenlängen zwischen 10 MHz und 100 GHz sehr hell ist. Die Radioemission ist auf den Synchrotronprozess zurückzuführen, der aus seiner sehr glatten, breitbandigen Natur und starken Polarisation abgeleitet wird.
Synchrotronstrahlung ist nicht auf Radiowellenlängen beschränkt. Wenn die Radioquelle Teilchen auf ausreichend hohe Energien beschleunigen kann, können Merkmale, die im Radioband detektiert werden, auch im Infrarot-, optischen, Ultraviolett- und Röntgenband gesehen werden, jedoch nicht in Gammastrahlen.
Links ist ein zusammengesetztes Bild von Centaurus A zu sehen, einer nahegelegenen "Radio"-Galaxie im Sternbild Centaurus. Die orangefarbenen "lobes" sind Radioemissionen, die an ihren Extremen etwa eine Million Lichtjahre vom zentralen Schwarzen Loch entfernt sind. Die blauen Pixel stammen von einem Röntgenbild, das von der Raumsonde Chandra aufgenommen wurde. Die Sterne und die Akkretionsscheibe werden von einem Normallichtteleskop in Echtfarben dargestellt. Centaurus A ist die der Erde am nächsten gelegene Galaxie, die ein supermassives Schwarzes Loch enthält, das einen Jet "aktiv" antreibt. Das supermassive Schwarze Loch hat ein Gewicht von etwa 55 Millionen Sonnenmassen.
Radiogalaxien zeigen eine Vielzahl von Strukturen, die das Schwarze Loch umgeben. Die Kollision von Schwarzen-Loch-Jets mit galaktischem Gas und Staub erzeugt Stoßwellen, die zu sichtbaren Keulen führen. Dies sind doppelte, ziemlich symmetrische, ungefähr elliptische Strukturen in einem angemessenen Abstand auf beiden Seiten einer Akkretionsscheibe. (In anderen Radiobildern haben einige Radioquellen mit geringerer Leuchtkraft Strukturen, die Plumes genannt werden, die viel länger und unregelmäßiger sind.)
Das blau-rote Bild links ist eine Nahaufnahme des obigen Centaurus A-Jets, die die innersten 4.000 Lichtjahre zeigt. Dies ist ein zusammengesetztes Bild mit Chandra-Röntgenstrahlen in Blau und VLA (Very Large Array)-Radiobeobachtungen in Rot. Die hellvioletten Regionen zeigen sowohl Radiowellen als auch Röntgenstrahlen vermischt.
Das supermassive Schwarze Loch befindet sich im unteren rechten Teil des Bildes. Durch Radiobeobachtungen des Jets im Abstand von einem Jahrzehnt haben Astrophysiker festgestellt, dass sich die nahen Teile des Jets mit etwa der halben Lichtgeschwindigkeit bewegen.
Die meisten Röntgenstrahlen des Jets werden weiter draußen erzeugt, wo der Jet langsamer wird, während er durch das äußere Gas der Galaxie pflügt.
Die Röntgenstruktur des Jets unterscheidet sich deutlich von der Radiostruktur. Außerdem ist der Röntgenstrahl viel ungleichmäßiger, als die Wissenschaftler ursprünglich erwartet hatten. Diese Ergebnisse haben einige der einfacheren Modelle dazu aufkommen lassen, wie hochenergetische Teilchen aus dem Kern ausgestoßen werden und sich entlang des Jets bewegen. oben
Alternde Sterne
Während der Post-Hauptsequenz-Entwicklung, wenn Sterne riesig werden, können sie aufgrund von Instabilitäten in den äußeren Schichten der Sternhülle auch ein- und ausschwingen. Zu diesen pulsierenden Sternen gehören die Cepheiden-Variablen, die bei der Messung von Entfernungen innerhalb der Milchstraße und zu nahegelegenen Galaxien verwendet werden.
Darüber hinaus sind massereiche Sterne in den letzten Lebensstadien die Quelle neuer Elemente. Die Fusion während der riesigen Phasen der Sternentwicklung erzeugt Elemente wie Kohlenstoff, Sauerstoff und Silizium, die in Richtung der äußeren Schichten des Sterns zirkulieren können. Bei den massereichsten Sternen bombardieren Neutronen aus der Fusion Atome im Stern, um noch mehr Elemente zu erzeugen, einschließlich Technetium, einem schnell zerfallenden Element, das auf der Erde natürlich nicht existiert. Die stabileren Atome des sterbenden Sterns erscheinen im Spektrum seines Lichts und werden beim Tod des Sterns in den interstellaren Raum abgegeben.
Wie wird festgestellt, dass die Röntgen- und Radiointensität von einer Magnetfeldbrücke zwischen zwei Galaxienhaufen stammt? - Astronomie
[ 37 ] Die Instrumente, die an Bord der HEAOs geflogen sind, haben es uns ermöglicht, die Strahlung von Sternen und Galaxien auf besondere Weise aufzuspalten oder zu analysieren. Durch die Verwendung sorgfältig ausgewählter Detektoren zur Untersuchung der verschiedenen Aspekte der hochenergetischen kosmischen Strahlung haben sie uns einen Einblick in die Hot Spots im Universum gegeben. Sie ermöglichen es uns, Regionen des Weltraums zu untersuchen, in denen Teilchen durch starke Magnetfelder, heftige Explosionen oder starke Schwerkraft auf sehr hohe Energien angehoben wurden.
Die HEAO I-Mission führte eine Reihe unabhängiger, aber sich ergänzender Experimente durch, die darauf ausgelegt waren, Röntgenquellen in der gesamten Himmelssphäre zu vermessen und zu kartieren. Die Instrumente waren in der Lage, Röntgenquellen zu lokalisieren und ihre zeitliche Variation und die Verteilung ihrer Strahlung mit Energie über einen weiten Bereich von Röntgenenergien zu untersuchen. HEAO 3 trug drei Instrumente, die den Himmel auf kosmische Quellen von Gammastrahlung absuchen und Proben der kosmischen Strahlung nehmen sollten, den hochenergetischen Teilchen, die die Erde von außerhalb des Sonnensystems erreichen. HEAO 2 war die komplexeste der Missionen. Es trug ein großes Röntgenteleskop, das die ersten detaillierten Röntgenbilder von Objekten außerhalb des Sonnensystems lieferte. Diese Bilder wurden durch austauschbare Instrumente in der Brennebene des Teleskops analysiert.
Ein Instrument für astronomische Beobachtungen zu bauen ist nie einfach, denn Astronomen treiben die Instrumententechnologie bis an ihre Grenzen, während sie versuchen, noch einen weiteren Tropfen Information aus einer entfernten Quelle an der düsteren Grenze der Beobachtbarkeit zu gewinnen. Wie Herb Friedman es ausdrückte: „Es gibt keinen besseren Weg, ein Instrument zu überprüfen als durch Astronomie. Ein Instrument für die Weltraumastronomie zu bauen ist dreifach schwierig , oder in einigen Fällen eine neue Technologie erfinden. Sie mussten mit dem Wissen arbeiten, dass das Raumfahrzeug nach dem Start verschwunden sein würde. Es gab keine Möglichkeit, das Raumschiff zurückzurufen, um die Fehler zu beheben. Es musste richtig gemacht werden Darüber hinaus mussten sie die Missionen mit einem knappen Budget zusammenstellen und einen engen Zeitplan einhalten, denn bei einem Projekt wie HEAO war Zeit Geld.“
All diese Faktoren machten HEAO, in den Worten von Tom Parnell, Projektwissenschaftler für HEAO 3, zu "einem Geschäft, das Geschwüre erzeugt". Zur Spannung kam noch die allgegenwärtige Möglichkeit der Absage. "Ich hatte immer das Gefühl, dass wir kurz vor dem Abbruch standen", sagte Claude Canizares vom MIT, Mitglied des Konsortiums von Wissenschaftlern, die an HEAO 2 arbeiteten, "entweder in Bezug auf ein [ 38 ] ganzes Projekt oder unser einzelnes Experiment." Laut Al Opp, NASA-Programmwissenschaftler für HEAO, waren Canizares' Gefühle nicht realistisch. „HEAO war immer ein Problem, weil es immer ein wenig unterfinanziert war. HEAO 2 mit seinem äußerst ausgeklügelten, äußerst komplizierten optischen System war das schwierigste. Es war eine größere und schwierigere Mission, als alle angenommen hatten Halten Sie die Kosten niedrig und halten Sie gleichzeitig die Mission intakt."
Die verständliche Besorgnis der NASA, das Budget einzuhalten, verursachte unter den Wissenschaftlern Besorgnis, dass die NASA ein paar Cent weise und Dollar dumm war. "Es gibt eine Kosteneffizienzschwelle", beobachtete Dan Schwartz vom Center for Astrophysics, der einer der Hauptforscher von HEAO 1 wurde. "Wenn man es nicht mit einer bestimmten Qualität macht, bekommt man nichts. Ich hatte das Gefühl, dass die NASA diese Schwelle immer überschreitet." Ein anderer Wissenschaftler nannte dies die Philosophie des Brückenbauers, nach der "Sie schienen die Ansicht zu haben, dass es eine Katastrophe wäre, eine Brücke einen Zentimeter zu kurz zu bauen, es aber dumm wäre, sie einen Fuß zu lang zu machen Wir haben uns sehr an die Mindestanforderungen gehalten, wenn ein kleines Extra einen erheblichen Qualitätsgewinn hätte bringen können." Andere Wissenschaftler schienen sich Sorgen zu machen, dass die NASA die Länge der "Brücke" falsch einschätzen könnte und buhlen damit um eine Katastrophe. Auf der anderen Seite vertraten viele den Standpunkt von Walter Lewin, der meinte, dass es nie ganz so schlimm werden würde, wenn die Hauptermittler ausreichend lautstark waren. „Die Verantwortung für die Integrität des Experiments liegt letztendlich auf den Schultern des Pl. Wenn er.
HEAO 1-Experimentkonfiguration.
HEAO A-1 Experiment, das großflächige Röntgenuntersuchungsexperiment. Das A-1-Experiment bestand aus sieben Modulen von Röntgenproportionalzählern mit dünnem Fenster, einer zentralen Elektronik, zwei stellaren Anordnungen und einem Gassystem. Der Hauptzweck des Experiments bestand darin, die Himmelssphäre für Röntgenquellen abzubilden und das Spektrum, die Intensität und die zeitlichen Variationen der Strahlung dieser Quellen zu bestimmen. Der Hauptforscher für A-l war Herbert Friedman vom Naval Research Laboratory (NRL). Die Hardware wurde von NRL mit Unterstützung der New Mexico State University, Las Cruces, hergestellt.
Das kosmische Röntgenexperiment, HEAO A -2. Das A-2-Experiment bestand aus sechs kollimierten Detektoren von Röntgenproportionalzählern mit dünnem Fenster, Elektronik und einem Gassystem. Der Hauptzweck des Experiments bestand darin, die Emission und Absorption von kosmischer Röntgenstrahlung im Energiebereich von 0,2 bis 60 Kiloelektronenvolt zu messen. Hauptermittler waren Elihu Boldt vom Goddard Space Flight Center und Gordon Garmire von der Pennsylvania State University. Hardware wurde von Goddard hergestellt. Andere, die das Programm unterstützten, waren die Bendix Corporation, die University of California und das California Institute of Technology.
. schreit laut genug, dann wird die NASA tun, was nötig ist.“ Jim Matteson von der University of California in San Diego, der an HEAO 1 mitgearbeitet hat, hatte das gleiche Gefühl. „Dick Halpern hat uns einmal gesagt, wir sollen es mit so wenig Geld wie möglich machen , aber nicht den Hof zu verkaufen. Ich wusste nie genau, was er damit meinte, aber ich habe es so verstanden, dass, wenn die Dinge verzweifelt werden, das zusätzliche Geld gefunden wird."
Ein Beispiel dafür war der Versuch, HEAO I so aufzurüsten, dass es Zeigefähigkeiten hat. Hale Bradt erkannte, dass HEAO I viel bessere Arbeit leisten könnte, wenn es nur die Möglichkeit hätte, auf bestimmte Quellen zu zeigen, anstatt sie nur zu überfliegen. Aber es würde mehr Geld kosten. Glücklicherweise erkannte Bradt mit guter Voraussicht schon früh im Programm die Bedeutung einer Pointing-Fähigkeit und konnte die NASA-Beamten, insbesondere Dick Halpern, von ihrem Wert überzeugen. Durch die Änderung des Budgets in anderen Bereichen schuf Halpern einen Reservefonds, um die zusätzlichen Kosten für die Installation der erforderlichen Gasdüsen zu decken, um HEAO I eine Zeigefähigkeit zu geben, die den Wert der Mission erheblich steigerte.
Der scannende Modulationskollimator, HEAO A-3. Das A-3-Experiment bestand aus zwei Abtastmodulationskollimatoren mit Proportionalzählern, Aspektsensoren und Elektronik. Der Hauptzweck dieses Experiments bestand darin, die Position ausgewählter kosmischer Röntgenquellen genau zu bestimmen und ihre Größe und Struktur zu untersuchen. Hauptforscher waren Herbert Gursky und Daniel Schwartz vom Smithsonian Astrophysical Observatory und Hale Brad t von MI T. Die Hardware wurde von American Science and Engineering, Inc. zur Verfügung gestellt.
Hartes Röntgen- und Niedrigenergie-Gammastrahlen-Experiment, HEAO A-4. Das A-4-Experiment bestand aus einer modularen Anordnung von Phoswich-Szintillator-Detektoren, Partikelmonitoren, einem digitalen Prozessor mit Leistungskonditionierung und Datenverarbeitungselektronik. Der Zweck des Experiments bestand darin, die Position, das Spektrum, die Zeitvariationen, die Intensität und andere Eigenschaften ausgewählter Röntgen- und Gammastrahlenquellen im Energiebereich von 10 bis 10000 Kiloelektronenvolt zu bestimmen. Principal Investigators waren Laurence Peterson von der University of California in San Diego (UCSD) und Walter Lewin vom MIT. Experimentelle Hardware wurde von UCSD und Time Zero Laboratories der Ball Brothers Research Corporation bereitgestellt.
[ 44 ] Alle Teilnehmer des Programms hatten das gleiche Ziel: drei Observatorien in die Umlaufbahn zu bringen, die die wissenschaftlichen Ziele des Vorschlags erfüllen konnten, und dies innerhalb der Kosten und des Zeitplans. Angesichts des knappen Budgets und der ehrgeizigen wissenschaftlichen Ziele ist es jedoch ziemlich sicher, dass dieses Ziel nicht erreicht worden wäre, wenn nicht jede Gruppe zu starken Verfechtern ihres eigenen Standpunkts und ihrer eigenen Verantwortung geworden wäre. Dies führte verständlicherweise zu Konflikten zwischen einer Gruppe von Wissenschaftlern und einer anderen, zwischen Wissenschaftlern und Subunternehmern, zwischen NASA und Subunternehmern und zwischen Wissenschaftlern und der NASA.
Der Brennpunkt eines Großteils dieses Konflikts war das Marshall Space Flight Center. Marshall war das NASA-Zentrum, das für HEAO zuständig war. Der Programmmanager bei Marshall war Fred Speer, ein Mann mit ganz klaren Vorstellungen, wie das Projekt gemanagt werden sollte. Viele Wissenschaftler, die an den informellen Stil kleiner Projekte gewöhnt waren, die den Flug eines Ballons oder einer Höhenforschungsrakete beinhalteten, waren auf Speers hochformalen Stil, der während seiner Erfahrungen mit dem bemannten Apollo-Raumfahrtprogramm entwickelt wurde, nicht vorbereitet. Halpern, immer knapp bei Kasse, wies Speer an, die großen, komplexen HEAO-Instrumente nur einmal zu bauen und dann alle auftretenden Probleme zu lösen, anstatt zwei oder drei Versionen davon zu bauen. Im Grunde war die Idee, dass das Konstruktionsmodell, der Prototyp und die Flugeinheit in einem gerollt werden.Dieses Konzept wurde "Protoflight" (Prototyp + Flug) genannt. Dies führte zu großen Kosteneinsparungen und einem starken Anstieg des Drucks, beim ersten Mal alles richtig zu machen und einen strengen Zeitplan einzuhalten.
Die meisten Wissenschaftler waren zwar nicht begeistert von der Idee, einen völlig neuen Instrumententyp bauen zu müssen, damit er beim ersten Versuch richtig funktionierte, waren sich aber einig, dass der Protoflight-Ansatz angesichts des begrenzten Budgets wahrscheinlich lebensnotwendig war. Allerdings sahen sie die von Marshall geforderte Dokumentation nicht im gleichen Licht. "Ich hasste den endlosen Papierkram", beschwerte sich ein Wissenschaftler. Noch ein anderer Wissenschaftler sagte
"Wenn wir alles getan hätten, was sie von uns verlangten, wäre das Ding immer noch nicht im Orbit." Wieder andere suchten Trost im Humor. Bob Farnsworth, ein Ingenieur an der University of California in San Diego, heiterte sich auf, wenn er in Dokumentationspflichten versunken war, indem er sich an den Rat seines Kollegen Mike Pelling erinnerte. "Nun, wenn alles vorbei ist", sagte Pelling, "denken Sie nur daran, wie viel besser es ihnen gehen wird." Tom Parnell, der in seinen Jahren bei Marshall alles schon einmal durchgemacht hatte, gab zu: „Es ist ein echter Schock für Leute, die es noch nicht erlebt haben Wir müssen uns auch um die Kosten kümmern. Der Papierkram erhöht die Kosten, aber er garantiert, dass wir beim Start alles tun können, um den Erfolg sicherzustellen. "
Ein weiterer Einwand, der mehr als einmal gehört wurde, war, dass Marshall sowohl in technischer als auch in finanzieller Hinsicht zu willkürlich sei, so dass geringfügige Änderungen in der.
Schema eines Gasproportionalzählers mit dünnem Fenster. Das Berylliumfenster ist zwischen einem tragenden "Sandwich" zementiert, das wiederum hermetisch mit der Kathode abgedichtet ist, um die Gasintegrität zu bewahren. Ein in den Zähler eintretendes Röntgenphoton erzeugt eine Wolke von Elektron-Ionen-Paaren im Gas. Die Elektronen driften zur Anode und erzeugen ein elektrisches Signal.
. ursprüngliche Pläne waren meist nicht erlaubt, obwohl sie insgesamt zu Kosteneinsparungen geführt hätten, weil sie die Analyse der Daten erleichtert hätten. Diese Frustration führte in mindestens einem Fall zu sub rosa Techniken. Elihu Boldt wollte eine Vorkehrung zur Überprüfung auf Bitfehler im Datensystem seines Instruments hinzufügen. (Ein Bitfehler ist ein Fehler, der bei der Übertragung von Daten von einem Ort zum anderen auftritt, in diesem Fall vom Raumfahrzeug zum Boden.) Ingenieure bei Marshall versicherten ihm, dass das Telemetriesystem so gut sei, dass die Anzahl der Bitfehler so niedrig sein, dass es nicht nötig war, nach ihnen zu suchen. „Aber Bitfehler treten tendenziell in Bursts auf und ähneln den Daten, die wir von einigen der interessanteren Röntgenquellen erhalten, bemerkenswert. Wir mussten eine Möglichkeit haben, zu erkennen, ob wir einen Bitfehler oder einen Röntgenburst sahen. Aber sie wollten es nicht zulassen. Also haben wir es unter einem anderen Namen eingefügt. Wir nannten es einen 'Block-Encoder', und sie haben es akzeptiert."
Andererseits waren auch die Beziehungen zwischen den Wissenschaftlern nicht immer auf Rosen gebettet. "Ich fand die Verhandlungen innerhalb des Wissenschaftlerkonsortiums viel schwieriger als bei Marshall", bemerkte ein Wissenschaftler. "Sie waren erschöpft, nicht so sehr wegen der beteiligten Persönlichkeiten, sondern weil die Probleme real waren und sie alle sehr ihren eigenen Ideen verpflichtet waren und sehr gut in der Lage waren, ihr eigenes Revier zu verteidigen." In Balance, .
Claude Canizares (Foto von Karen Tucker)
Links nach rechts. George Clark, Roger Doxsey und Hale Bradt. (Foto von Karen Tucker)
Dan Schwartz und Leon Van Speybroeck. (Foto von Karen Tucker)
. Die meisten Wissenschaftler waren jedoch angenehm überrascht, wie gut sie mit Kollegen zusammenarbeiten konnten, die oft auf entgegengesetzten Seiten lebhafter Rivalitäten standen, und viele nannten die Interaktion mit anderen Wissenschaftlern und Ingenieuren als einen der Höhepunkte des Projekts. Sie waren nicht ohne freundliche Worte für die Leute bei Marshall. Leon Van Speybroeck und andere hoben Jim Power hervor, einen Marshall-Manager/Ingenieur, der bei einem Flugzeugabsturz während seiner Tätigkeit bei HEAO ums Leben kam. "Jim hat das Programm sehr positiv beeinflusst. Er hat wirklich versucht, die Wissenschaft zu unterstützen und die vorhandenen Ressourcen sinnvoll einzusetzen." Hans Fichtner wurde von Hale Bradt und anderen als "sehr aufgeklärten Ingenieur" gelobt. Und alle schienen sich einig zu sein, dass Carroll Dailey und Joseph B. Jones viel mit dem Erfolg von HEAO zu tun hatten.
[ 48 ] "Sie hatten ein fantastisches Mitgefühl für die Experimentatoren", erinnert sich Jim Matteson. Fred Speer sagte im Rückblick auf die Erfahrung: "Ich hasste es, all die guten Leute zu verlieren, die mit dem Team verbunden sind. Es war ein trauriger Moment, sie gehen zu sehen." Er lobte auch den „gesamten Teamgeist, der das gesamte HEAO-Team motiviert hat“ als wichtigen Faktor für den Erfolg des Programms. "Dies wurde durch vollständige und offene Kommunikation erreicht."
Wie dachten die Wissenschaftler über Fred Speer, als alles vorbei war? "Fred Speer war ein sehr exzellenter Manager", sagte Frank McDonald, der HEAO-I-Projektwissenschaftler. Andere waren zurückhaltender, gaben aber zu, dass er ihren Respekt verdiente. "Fred Speer hat seinen Teil der Welt übernommen und ihn anders gestaltet", sagte Ray Jorgensen, technischer Leiter des Gammastrahlen-Spektrometers HEAO 3 am Jet Propulsion Laboratory in Pasadena, Kalifornien. "Obwohl das Management viel zu sehr nach Apollo-Manier war", sagt Walter Lewin, "verdient Speer einige wichtige Entscheidungen, insbesondere was die Kreisel betrifft, einiges an Anerkennung."
Die Gyroskope oder Gyroskope waren für die einzige Verschiebung des Zeitplans auf HEAO 1 verantwortlich. Gyroskope werden in Raumfahrzeugen verwendet, um die Rotationsgeschwindigkeiten des Raumfahrzeugs zu erfassen. Über elektronische Steuerungen liefern sie Daten über die Bewegung des Raumfahrzeugs. Diese Daten können von einem Bordcomputer verarbeitet werden, um Korrekturen der Fahrzeugsteuerung abzuleiten oder an den telemetrisch übermittelt werden.
Jim Matteson (Mitte) und Kollegen schauen sich das HEAO A-4-Experiment an.
13. August 1977. Der Start von HEAO 1.
Aufstiegsprofil Atlas-Centaur.
Ca. Zeit ab Abheben (Sek.)
Jettison Dämmplatten
Start des Treibgasabschlämmens
[51]. Boden, um detaillierte Informationen über die Bewegung des Raumfahrzeugs zu liefern. Nur wenige Monate vor dem Start von HEAO I begannen die Kreisel zu agieren. Sie würden im Vakuum kurzschließen oder falsche Messwerte liefern. Über einen Zeitraum von sechs Wochen traten mehr als dreißig solcher Störungen auf. Es blieb nichts anderes übrig, als den Start zu verschieben, bis das Kreiselproblem gelöst war. Wochen und dann Monate vergingen und das Problem bestand immer noch. Die Wissenschaftler, die Speers Engagement für die Einhaltung des Zeitplans kannten, begannen sich Sorgen zu machen, dass er die Raumsonde trotzdem starten würde, da sie wussten, dass es nur sechs Monate dauern würde, die Mindestzeit, um die Mission als Erfolg zu betrachten. "Unsere Sorge war sehr fehl am Platz", sagte Jim Matteson. "Wir haben erfahren, dass das Problem sehr effektiv gelöst wurde." Fred Wotjalik und andere Ingenieure machten Überstunden und führten zusätzliche Tests durch, um sich zu vergewissern, dass die Kreisel nach dem Start des Raumfahrzeugs funktionieren würden. Trotzdem wusste niemand genau, was die ursprünglichen Probleme verursacht hatte, also wussten sie nicht genau, ob sie im Orbit wiederkehren würden. Es musste entschieden werden, ob die Kreisel weiter fixiert oder geflogen werden sollten. Halpern und Speer beschlossen, sie zu fliegen. "Der Kreiseltest war qualvoll", erinnerte sich Herb Friedman. "Als wir endlich gingen, sagte mir Dick Halpern, es sei in Ordnung. Aber ich dachte, es sei immer noch ein Glücksspiel."
Der Start ist immer die angespannteste Zeit eines Weltraumprojekts, denn wenn dann etwas schief geht, ist alles vorbei. Es konnte keinen "sanften Ausfall" geben, weil es kein Ersatzraumfahrzeug gab. Alle versuchen, ruhig zu bleiben, aber niemand schafft es. Selbst ein Veteran wie Fred Speer findet den Countdown
Der hochauflösende Imager HEAO B-2. Der High Resolution Imager wurde entwickelt, um die Abbildungsfähigkeit des Röntgenteleskops zu nutzen, und verwendet fortschrittliche Festkörpertechniken, um die Bilder mit einer Auflösung von 1 bis 2 Bogensekunden aufzuzeichnen, der Grenze der Auflösungsfähigkeit des Teleskops selbst. Der Hauptermittler war Riccardo Giacconi. Hardware wurde von American Science and Engineering entwickelt.
Betrieb des hochauflösenden Imagers. Röntgenstrahlen dringen in die oben in der Abbildung gezeigten Mikrokanalplatten ein. Die Röntgenstrahlen erzeugen eine Kaskade von Photoelektronen, die aus einigen Röhren an der Oberfläche austreten. Die Elektronenladungswolke breitet sich über das gekreuzte Gitter aus sehr feinen Drähten aus. Dieses Drahtgitter erzeugt die elektrischen Signale, die dekodiert werden, um die Position des einfallenden Röntgenstrahls anzugeben.
Steve Murray demonstriert, wie der Prototyp des High Resolution Imager aufgebaut wurde. (Foto von Karen Tucker)
. "nervtötend." Für Bob Farnsworth war es "umwerfend. Sieben oder acht Jahre Ihres Lebens sitzen auf einer Rakete". Hale Bradt war "beeindruckt, wie dünn und zerbrechlich es aussah." Für Harvey Tananbaum, den wissenschaftlichen Programmmanager von HEAO 2 von Harvard-Smithsonian, war die Rakete "einfach schön", obwohl auch er fand, dass es "eine beängstigende Aussicht war, Millionen von Dollar und Jahre seines Lebens auf der Linie." Jim Mattesons Erfahrung war typisch. "Ich erinnere mich, dass ich versucht habe, eine Katastrophe auf dem Weg nach unten zu rationalisieren, und mir sagte: 'Nun, wenn es explodiert oder nicht in die Umlaufbahn geht, kann ich mit ft leben.' 30 Minuten vor dem Start brach das alles zusammen und mir wurde klar, dass alles andere als Erfolg eine emotionale Katastrophe sein würde.
Der bildgebende Proportionalzähler, HEAO B-4. Der bildgebende Proportionalzähler verwendete die gleichen grundlegenden Techniken wie die meisten Röntgendetektoren des HEAO 1, aber der Zähler war elektronisch in sehr kleine Bereiche unterteilt, so dass jeder einen kleinen Teil des Röntgenbildes registrierte. Das Ergebnis war ein Bild mit einer Auflösung von etwa 1 Bogenminute. Was dem Imaging Proportional Counter an Bildauflösung fehlte, machte er an Sichtweite wett als der High Resolution Imager. Die leitenden Wissenschaftler waren Herbert Gursky und Paul Gorenstein vom Smithsonian Astrophysical Observatory. Hardware wurde von American Science and Engineering entwickelt.
In der Nacht des Starts zog ein Gewitter auf das Gebiet von Cape Canaveral ein, und der für den 11. August 1977 kurz vor Mitternacht geplante Start wurde um eine Stunde verschoben. Der Computer der Raumsonde ging aus, und es wurde beschlossen, das Programm über Goddard zu laden, ein sehr kniffliges Manöver. In der Zwischenzeit war eine weitere Komplikation aufgetreten. Mehrere Fischerboote befanden sich in dem Gebiet, in dem die Rakete nach dem Start abgeworfen werden sollte. Versuche, sie per Funk zu erreichen und sie dazu zu bringen, das Gebiet zu räumen, waren fehlgeschlagen. Hubschrauber wurden entsandt, um Nachrichten auf ihren Decks abzulegen. Wegen des schlechten Wetters befanden sich die Besatzungen unter Deck und reagierten nicht. Der Start wurde um eine weitere Stunde verschoben, da der Launch Director darauf wartete, dass sowohl das Wetter als auch die Fischerboote klar wurden. Schließlich erreichte Skip [56] Mackey die Fischerboote über ein CB-Funkgerät, und sie wandten sich nach Süden. Auch das Wetter spielte mit und kurz nach 2 Uhr morgens startete HEAO I.
Etwas mehr als zwei Minuten lang hoben die Booster-Triebwerke die Rakete von der Erde weg und ins All. 253 Sekunden nach dem Abheben erfolgte die Trennung des Booster-Triebwerks vom Haupttriebwerk. Zehn Sekunden später begann die Hauptmaschine zu brennen. Es brannte 434 Sekunden lang und brachte die Raumsonde über 200 Meilen über die Erdoberfläche. Knapp 23 Minuten nach dem Start ist die.
Das Kristallebenenspektrometer HEAO B-3. Das Focal Plane Crystal Spectrometer nutzte die Röntgenbeugungseigenschaften bestimmter Kristalle, um die von Himmelszielen erzeugten Röntgenspektren im Detail zu untersuchen. Der Detektor für die gebeugten Strahlen war ein kleiner Proportionalzähler. Dieses Instrument könnte einzelne Röntgenemissionslinien detektieren, um Fragen über die chemische Zusammensetzung und andere Eigenschaften kosmischer Röntgenquellen zu klären. Der leitende Wissenschaftler war George Clark vom MIT. Hardware wurde vom MIT entwickelt.
Das Festkörperspektrometer HEAO B-5. Das Festkörperspektrometer musste mit festem Methan und Ammoniak kryogen gekühlt werden, damit sein Silizium-Germanium-Kristall richtig funktioniert. Sein Vorteil war, dass es das gesamte Spektrum gleichzeitig beobachten und die Energie jedes auf den Kristall treffenden Photons messen konnte, während das Focal Plane Crystal Spectrometer nur ein kleines Energieband bei jeder Einstellung der Kristallmelodien untersuchen konnte. Die beiden Spektrometer ergänzten sich in Empfindlichkeit und Energieauflösung. Der leitende Wissenschaftler war Elihu Boldt vom Goddard Space Flight Center. Hardware wurde von Goddard im Rahmen einer Intercenter-Vereinbarung entwickelt.
Der Monitor-Proportionalzähler, HEAO B-1. Der Monitor Proportional Counter wurde in der Nähe eines Endes des Observatoriums montiert und unabhängig vom Teleskop betrieben. Es beobachtete dieselbe Himmelsregion wie das Teleskop, jedoch über einen viel größeren Energiebereich. Es bot ein Mittel zur Korrelation von Beobachtungen, die von allen Brennebeneninstrumenten gemacht wurden. Der Hauptermittler war Riccardo Giacconi. Hardware wurde von American Science and Engineering entwickelt.
Schema des Crazing-Incidence-Röntgenteleskops. Die in das Teleskop einfallenden Röntgenstrahlen treffen unter einem streifenden Winkel auf die leicht gekrümmten Spiegel und werden in der Fokusebene konzentriert. Die vier konzentrischen Spiegel konzentrierten den Fluss der Röntgenstrahlen, sodass Objekte, die 1000-mal lichtschwächer als je zuvor entdeckt wurden, detailliert untersucht werden konnten. (Smithsonian Institution Foto Nr. 80-20240)
. Haupttriebwerk vom Raumfahrzeug getrennt. HEAO 1 befand sich im Orbit. Dick Halpern und Fred Speer verließen als letzte das Kontrollzentrum. Auf dem Weg in die Stadt fühlten sie sich beide so ausgelaugt, dass sie beschlossen, auf die Feier nach dem Start zu verzichten. Es war ein langer Weg zusammen gewesen. Einige Tage später wurden die Instrumente aktiviert und begannen, Daten zurückzugeben. Mehr als ein Jahrzehnt nach diesem ersten Treffen in Woods Hole war die erste HEAO Realität.
In der Zwischenzeit drängte das HEAO 2-Team darauf, seinen Starttermin im November 1978 einzuhalten, nur 15 Monate entfernt. HEAO 2 unterschied sich quantitativ von den anderen Missionen und von allem, was zuvor versucht worden war. Mit den unauffälligen Worten von Paul Gorenstein von Harvard Smithsonian: "Es war ein etwas gewagter Schritt, weil es keinen Prototyp für die Instrumente gab. Aber wir waren zuversichtlich, dass wir es schaffen würden." Das Ziel des HEAO 2-Teams war nichts Geringeres, als die junge Wissenschaft der Röntgenastronomie der optischen und der Radioastronomie gleichzustellen. Um dies zu erreichen, planten sie, ein Röntgenobservatorium zu bauen, das Quellen erkennen würde, die tausendmal lichtschwächer waren als alle zuvor beobachteten. Sie hofften, dies zu erreichen, indem sie eine komplexe Anordnung von Spiegeln fliegen ließen, die Röntgenstrahlen auf einen von ihnen fokussieren würden.
Der Röntgenspiegel HEAO 2 komplett montiert für Bodentests. (Foto mit freundlicher Genehmigung von Perkin-Elmer Corp.)
[61]. mehrere empfindliche Röntgendetektoren. Es werden mehrere Detektoren benötigt, da es nicht möglich ist, einen einzigen Detektor zu bauen, der feine Bilder und detaillierte Spektralmessungen macht, ein großes Sichtfeld sieht und sehr schwache Quellen erkennt. Das Fehlen eines einzigen Detektors mit allen gewünschten Eigenschaften bedeutete, dass die beteiligten Wissenschaftler eng zusammenarbeiten mussten, um eine Reihe von Detektoren zu entwickeln, die die Ziele des Observatoriums erfüllen. Ein einheitlicher wissenschaftlicher Ansatz wäre notwendig, um die vielen auftretenden Probleme und die notwendigen Kompromisse und Kompromisse zu bewältigen. Dementsprechend wurde von Anfang an in der Antragsphase ein Konsortium von Experimentatoren organisiert. Das Konsortium umfasste Wissenschaftler von AS&E, Columbia University, Goddard Space Flight Center, MIT und dem Smithsonian Astrophysical Observatory, mit Riccardo Giacconi vom Smithsonian als Principal Investigator und Scientific Director des Observatoriums. Die Wissenschaftler des Konsortiums vereinbarten, dass alle Wissenschaftler nicht nur Daten von den Instrumenten erhalten, für die ihre einzelnen Institutionen verantwortlich sind, sondern auch die Daten aller Instrumente teilen würden.
Die vier ausgewählten Focal-Plane-Detektoren waren der High Resolution Imager, der Imaging Proportional Counter, das Solid State Spectrometer und das Focal Plane Crystal Spectrometer. Der High Resolution Imager bot die höchste räumliche Auflösung. Es hatte jedoch keine Energieauflösung und sein Sichtfeld war klein. Der Imaging Proportional Counter konnte schwächere Quellen erkennen als der High Resolution Imager, hatte ein breiteres Sichtfeld, konnte Bilder von Quellen mit einem breiten Pinsel erstellen und hatte einen bescheidenen Grad an.
Die Kalibriereinrichtung für Röntgenteleskope am Marshall Space Flight Center.
HEAO 2 ist in der Vakuumkammer der Kalibrieranlage installiert.
. energetische Auflösung. Dieses vielseitige Instrument war das Arbeitspferd der Sternwarte und das meistgenutzte Instrument. Es wurde von Paul Gorenstein und F.R. Harnden vom Smithsonian. Das von Elihu Boldt, Stephen Holt und Robert Becker entwickelte Festkörperspektrometer konnte das gesamte Spektrum auf einmal beobachten und die Energie jedes Photons messen, das auf den Silizium-Germanium-Kristall im Herzen des Detektors traf. Das Focal Plane Crystal Spectrometer, das von George Clark, Claude Canizares und Tom Markert vom MIT entwickelt wurde, wurde verwendet, um die Details zu untersuchen.
Fred Seward und Sohn Robert (Foto von Susan Seward)
13. November 1978. Der Start von HEAO 2.
[64]. Spektren in einem schmalen Energieband für starke Röntgenquellen. Zwei weitere Hilfsinstrumente ergänzten die Möglichkeiten der Sternwarte. Dies waren das Objective Grating Spectrometer, das bei starken Quellen mit dem High Resolution Imager zur Bereitstellung spektraler Informationen verwendet werden konnte, und der Monitor Proportional Counter, der außerhalb der Fokusebene mit Blickrichtung parallel zur Teleskopachse angeordnet war und als kontinuierliche Überwachung der vom Teleskop betrachteten Quellen. Die Kolumbien.
Erstes Licht von HEAO 2, jetzt Einstein-Observatorium genannt: der Kandidat für ein Schwarzes Loch, Cygnus X-1.
Einstein "First Light" Party im Harvard-Smithsonian Center for Astrophysics. Links nach rechts. Leon Van Speybroeck, Kenton Evans, Martin Elvis, Pepi Fabbiano, Arnold Epstein, Graziella Branduardi-Raymont, Mirella Giacconi und Riccardo Giacconi. (Foto von Fred Seward)
[65]. Eine Universitätsgruppe bestehend aus Robert Novick, Knox Long, William Ku und David Helfand nahm an allen wissenschaftlichen Aspekten der Mission teil. Ethan Schreier vom Smithsonian leitete die Planung und Durchführung der Mission. Ted Kirchner von AS&E war der Programmmanager für das Experiment während der frühen Design- und Entwicklungsphase. Als das Experiment in die Herstellungsphase eintrat, wurde Bruce Dias Programmmanager und war für die Leitung der Herstellung, Montage, Integration und Prüfung des Experiments verantwortlich.
Das Festkörperspektrometer musste mit festem Methan und Ammoniak auf eine Temperatur von etwa 100 K (-280° F) gekühlt werden, um richtig zu funktionieren. Diese Anforderung führte zu schwierigen Konstruktionsproblemen. Steve Holt erinnerte sich an einige dieser Probleme. „Es bestand die Möglichkeit, dass die Entlüftungsleitungen mit Eis verstopfen und explodieren. Wir mussten erst beweisen, dass sie intern reißen würden. Riccardo hatte das Gefühl, eine Bombe auf das Observatorium zu fliegen.An jedem Ort, an den wir es brachten, nach American Science and Engineering, nach TRW und dann zum Kap, musste es 24 Stunden am Tag überwacht werden." Es gab keine ernsthaften Pannen, aber trotzdem bestand die ständige Sorge, dass etwas schief gehen könnte . Wasserdampf aus dem Isoliermaterial würde sich auf dem Detektor ansammeln und zu einer dünnen Eisschicht gefrieren. Periodisches Abtauen des Detektors durch Erhitzen auf 220 K (-63 °F) entfernte die Eisschicht. Die Abtauungen waren nie Routine, „Wir gingen alle zwei Wochen in den Fokus und begannen 12 Stunden vorher mit dem Abtauen“, sagte Holt. „Wir hätten jedes Mal Angst, dass das Kommandosystem nicht funktioniert und müssten bis zum nächsten Durchgang warten die Bodenstation, um zu sehen, ob es funktioniert hat oder ob wir eine Bombe hatten, ein Totalausfall." Das System funktionierte jedoch immer und wurde mit der Zeit besser.
Der High Resolution Imager bereitete Probleme anderer Art. Im Gegensatz zu den anderen Instrumenten, die Adaptionen von Geräten waren, die in anderen Anwendungen betrieben wurden, gab es keinen zuvor existierenden Prototyp. Steve Murray, Patrick Henry, Edwin Kellogg, Harvey Tananbaum und Leon Van Speybroeck, alle vom Smithsonian Astrophysical Observatory, haben das Instrument entwickelt. Die ersten Versuche haben nicht funktioniert. Schließlich stieß Murray auf einen Artikel einer Gruppe von Wissenschaftlern der University of Leicester in Großbritannien. Der Artikel beschrieb einen Detektortyp, der vielversprechend aussah. Zwei dieser Wissenschaftler, Kenton Evans und Ken Pounds, brachten einen Prototyp mit. Es wurde aufgebaut und getestet. Es hat nicht funktioniert. Evans und Pounds sagten, dass die Einheit zu Hause arbeitete. Schließlich wurde das Problem auf eine unzureichende Annäherung im Computerprogramm, das zur Verarbeitung der Ergebnisse verwendet wurde, und auf Vakuumpumpen zurückgeführt, die Geräusche in das System brachten. Die Smithsonian-Gruppe richtete daraufhin ein Labor ein und baute eine hochauflösende Röntgenkamera nach den Prinzipien des britischen Instruments. Mit den Worten von Steve Murray: „Wir haben einfach so lange probiert, bis etwas funktioniert hat. Wir haben wirklich die Kellererfinder gespielt. Es hat ein paar Jahre gedauert, aber nachdem wir durch viele Sackgassen gegangen sind, haben wir es endlich geschafft. Am Ende stellte sich heraus, dass die Die einfachsten Wege waren die Wege, die funktionierten." Zum Beispiel erforderte der Detektor [ 66 ] ein Gitter von Drähten, die in gleichmäßigen Abständen 128 Drähte auf den Inch gewickelt werden mussten. Wie verteilt man sie gleichmäßig? Wickeln Sie einen Doppelstrang Draht auf und wickeln Sie dann einen Strang ab.
Der nächste Schritt bestand darin, den High Resolution Imager auf einem Raketenflug zu testen. Dies führte zu einer spektakulären Reihe von Raketenausfällen, die nichts mit der Qualität des Detektors zu tun hatten. Bei einem Flug ist ein Relais ausgefallen, bei einem anderen gingen die Türen nicht auf, bei einem anderen funktionierte ein Schalter nicht. Schließlich hatten sie im Juli 1978, nur wenige Monate vor dem Start, den einzigen erfolgreichen Flugtest des Detektors.
Das Herzstück der Sternwarte war die Spiegelbaugruppe. Leon Van Speybroeck vom Smithsonian Astrophysical Observatory übernahm die Hauptverantwortung für die Entwicklung der Spiegelbaugruppe. Aufgrund ihrer kurzen Wellenlänge und hohen Energie würden Röntgenstrahlen, die in einem großen Winkel auf einen Spiegel oder eine Linse treffen, nicht reflektiert, sondern auf die Oberfläche prallen und absorbiert werden, ähnlich wie ein Kugelstrom, der auf eine Holzwand trifft. Doch ebenso wie Geschosse, die unter einem streifenden Winkel auf die Wand treffen, abprallen würden, können auch streifend auf polierte Glasspiegelflächen auftreffende Röntgenstrahlen mit hoher Effizienz zu einem Bild reflektiert werden. Diese Röntgenstrahlen werden auf einem der Detektoren im Fokus des Teleskops aufgezeichnet und in elektrische Signale umgewandelt, die auf Magnetband aufgezeichnet und zur Erde übertragen werden, wenn das Observatorium eine der Bodenstationen überfährt.
Am Einstein Observatory Data Center des Harvard-Smithsonian Center for Astrophysics untersucht Rick Harnden das Röntgenbild des Krebsnebels, dem Überrest eines explodierenden Sterns. (Foto von Dane Penland Smithsonian Institution Foto Nr. 80-16232)
Die Spiegel wurden bei der Perkin-Elmer Corporation von einem Team unter der Leitung von P. Young hergestellt. Zuerst wurden die Spiegelelemente diamantgeschliffen, um eine ungefähre Form zu erhalten. Anschließend wurden sie poliert, mit Chrom und Nickel beschichtet, ausgerichtet und auf eine Trägerstruktur geklebt. Dies war kein triviales Problem. Die einige tausend Pfund schweren Spiegelelemente mussten so abgestützt werden, dass sie den schwerkraftfreien Zustand der Umlaufbahn nachahmen. Die Ingenieure von Perkin-Elmer entwickelten zusammen mit Gerry Austin und William Antrim von AS&E ein Schema von 32 Gegengewichten, die so platziert wurden, dass die Spiegel im Wesentlichen schweben und ihren uneingeschränkten, schwerkraftfreien Zustand einnehmen.
[ 68 ] Der Unterschied in der Art und Weise, wie Röntgenstrahlen reflektiert werden, bedeutet, dass sich das Design des Röntgenteleskops von einem optischen Teleskop unterscheiden muss, das flache Schalen verwendet, um das Licht zu reflektieren. Stattdessen verwendete das Röntgenteleskop eine Anordnung von vier ineinander verschachtelten Glasröhren. Die Oberflächen dieser Spiegel mussten innen poliert werden, eine technisch viel schwierigere Aufgabe als das Polieren herkömmlicher Teleskopspiegel. Noch besorgniserregender war das Fehlen einer konventionellen Methode, um die Glätte der Oberfläche zu messen. Keine rauen Stellen auf der Oberfläche von mehr als etwa 30 ngström, das heißt etwa ein Zehnmillionstel Zoll, konnten toleriert werden. Es war entscheidend, eine möglichst glatte Oberfläche zu erhalten, da eine raue Oberfläche die Strahlung streut und das Bild verschmiert. Die Glätte herkömmlicher Spiegel könnte gemessen werden, indem man die Interferenz von Lichtwellen untersucht, die am Spiegel gestreut werden. Dies war bei den verschachtelten Röntgenspiegeln nicht möglich. Die Lösung bestand darin, ein Stück transparentes Plastikband auf die Spiegel zu kleben, einen Abdruck zu machen und das Band dann durch die Interferenzmaschine zu führen.
Ein weiteres Problem bestand darin, die Rundheit der Spiegel zu messen. Die Spiegel waren sehr flexibel und verformten sich unter ihrem eigenen Gewicht. Ein kleines Staubkorn auf dem Messtisch würde dazu führen, dass das Maß der Rundheit der Spiegel von Zeit zu Zeit variiert. Schließlich hat Van Speybroeck eine Lösung gefunden: Die Spiegel während des Messvorgangs in einem Quecksilberbehälter schweben lassen. Die NASA war skeptisch, und so fand Van Speybroeck eine Menge Quecksilber, die von einem Experiment eines Kollegen übrig geblieben war, und demonstrierte die Machbarkeit seiner Idee mit einem Prototyp, woraufhin die NASA zustimmte, dies mit den Spiegeln des Einstein-Observatoriums zu tun.
Schließlich mussten die Spiegelbaugruppe und die Detektoren in einem einzigen Observatorium integriert und getestet werden. Diese Erprobung fand im Spätsommer 1977 statt. Speziell für die Erprobung des Einstein-Observatoriums war am Marshall Space Flight Center eine Kalibrieranlage gebaut worden. Diese Einrichtung umfasste Vakuumpumpen, ein 300 Meter langes Rohr zur Trennung zwischen Quelle und Teleskop, das für eine effektive Fokussierung erforderlich war, eine Vakuumkammer zur Unterbringung des Observatoriums und eine einstellbare Röntgenquelle, die auf das Teleskop gerichtet wurde . Ursprünglich waren sechs Monate für den Test des Observatoriums vorgesehen, aber wegen eines sechsmonatigen Zeitplans verkürzte die NASA den Testzeitraum auf einen Monat. Giacconi protestierte. Ein Monat war einfach nicht genug Zeit, um die mehr als tausend separaten Messungen durchzuführen, die erforderlich waren, um sicherzustellen, dass das Observatorium im Orbit funktioniert. Aber ein Monat ist alles, was sie bekommen würden, also entwickelten sie einen alternativen Plan. Sie arbeiteten 24 Stunden am Tag in zwei sich überschneidenden 13-Stunden-Schichten. Um eine möglichst effiziente Arbeit zu gewährleisten, entwickelte Van Speybroeck ein Computerprogramm zur Optimierung der Tests. Es wurde ein Zeitplan von 1397 separaten Tests entwickelt und Zeit für die Überarbeitung von Hardwareproblemen und für erneute Tests reserviert. Diese Reserve erwies sich als sehr wichtig, da mehrere Probleme auftraten und potenziell schwerwiegende Probleme an Bord vermieden wurden.
Gammastrahlen-Spektrometer, HEAO C-1. Das Gammastrahlen-Spektrometer bestand aus einem Cluster von vier gekühlten, hochreinen Germanium-Detektoren in einem mit Cäsium-Jodid-Natrium aktivierten Schild. Die Germaniumkristalle werden durch einen festen Kryogenkühler gekühlt. Das Ziel des Experiments war es, nach Quellen von Röntgen- und Gammastrahlenlinienemissionen zu suchen. Das Instrument maß das Spektrum und die Intensität von sowohl diffusen als auch diskreten Quellen von Röntgen- und Gammastrahlung. Es maß auch die Isotropie des diffusen Hintergrunds sowie zeitliche Variationen des Gammastrahlenflusses von diskreten Quellen. Der leitende Ermittler war Allan Jacobson vom Jet Propulsion Laboratory der NASA in Pasadena, Kalifornien.
Ein wichtiges Nebenprodukt der Kalibrierung des Observatoriums war die Entwicklung der Computersoftware zur Analyse der großen Datenmengen, die bei den Tests anfallen. Dieses effiziente Datenverarbeitungssystem wurde hauptsächlich von Christine Jones, William Forman, Arnold Epstein, Jonathan Grindley, Jeffrey Morris, Schreier und Van Speybroeck vom Smithsonian entwickelt. Es bildete die Grundlage für das Datenverarbeitungssystem, das verwendet wurde, um zu reduzieren und.
[siehe auch Bild unten] Isotopenzusammensetzung des primären kosmischen Strahlenexperiments, HEAO C-2. Blitzröhren-Arrays definierten die Flugbahn der einfallenden Teilchen durch die Detektoren, die Pulver-Cerenkov-Zähler waren. Die Brechungsindizes der Zähler wurden gewählt, um die nützliche Beobachtungszeit für den geomagnetischen Cutoff, der mit der Umlaufbahn des Observatoriums verbunden ist, zu maximieren. Dieses Experiment maß die Isotopenzusammensetzung der primären kosmischen Strahlung mit einer Atomladung z im Bereich von 4 (Beryllium) bis 56 (Eisen) und m dem Impulsbereich von 2 bis 20 Milliarden Elektronenvolt pro Nukleon. Darüber hinaus ermöglichte die Ladungsauflösung des Instruments die Identifizierung aller einfallenden Kerne bis zu einer Ladung von z = 50 (Zinn). Die leitenden Forscher waren Lydie Koch-Miramond vom Center for Nuclear Studies, Saclay, Frankreich, und B. Peters und I. Rasmussen vom Danish Space Research Institute, Kopenhagen, Dänemark.
. Analyse der Daten nach dem Start des Observatoriums. Es ist ein effizientes, gründlich "ausgetestetes" System, das einen reibungslosen Übergang von der Beobachtung zur Datenanalyse ermöglicht und wahrscheinlich der Prototyp für zukünftige astronomische Datenverarbeitungssysteme sein wird.
Der Start von HEAO 2 war für den 13. November 1978 kurz nach Mitternacht geplant. Wie üblich waren die Wissenschaftler skeptisch, was die Bereitschaft der Trägerrakete anging. Die gute Erfolgsbilanz des Atlas-Centaur-Systems war.
. bis zu einem gewissen Grad beruhigend. "Aber wir hatten nur ein Instrument", sagte Harvey Tananbaum, "also gab es keine zweiten Gelegenheiten. Diese Trägerrakete musste nicht gut sein. Sie musste perfekt sein. Ich glaube, sie (das Startteam) waren ein wenig verärgert mit der Aggressivität, mit der wir sie befragten. Ich muss sagen, dass alles glatt gelaufen ist, also denke ich, dass ihre Versicherungen begründet waren. Wir hatten nur so viel investiert, dass wir das Recht hatten, über jeden fragwürdigen Bereich Bescheid zu wissen ."
Um dieses Recht zu schützen, saß Giacconi im Kontrollbereich bei den NASA-Beamten, damit er die Experimente endgültig zustimmen konnte, falls Fragen zum Fahrzeug oder den Bedingungen aufkamen. Pat Henry, der das Experiment nach der Kalibrierung durch Marshall und Integration mit der Raumsonde bei TRW verfolgt hatte, war an Giacconis Seite. Der Countdown lief reibungslos weiter. Bei T minus 20 Sekunden gab Henry seinen Platz im Kontrollraum auf und rannte nach draußen, um den Start zu sehen. Harvey Tananbaum sah von der Tribüne aus zu. „Mir ging ein Frösteln durch den Körper, als ich sah, wie der Turm bei T minus I mit Zündung aufleuchtete. Es war wie Blitz und Donner. Man hörte einige Sekunden lang nichts. Da war das Fahrzeug schon abgehoben begann sich sehr, sehr langsam zu erheben und wurde immer schneller. Sie haben für einen Moment vergessen, dass es sozusagen Ihr Lebenswerk unter dem Nasenkegel trug."
Wenige Minuten später kam die Meldung, dass HEAO 2 die Umlaufbahn erreicht habe. Jubelschreie. Ein Seufzer der Erleichterung von Fred Speer. Und eine tiefe Zufriedenheit für alle Beteiligten. Fast sofort wurden diese Gefühle durch nervöse Vorfreude auf die Aktivierung der Instrumente ein paar Tage später ersetzt. Mit den Worten von Ethan Schreier: "Alle waren völlig verkabelt. Niemand konnte schlafen, bis wir in Goddard ankamen. In den nächsten sechs Tagen darf ich nicht länger als 15 oder 20 Stunden geschlafen haben."
Der erste Schritt bestand darin, die Startracker zu überprüfen. Sehr zum Entsetzen der Wissenschaftler schienen sie nicht richtig zu funktionieren. "Wir haben sie ausgeschaltet und sind vier Tage lang dagesessen und haben versucht herauszufinden, was los war", erinnert sich Schreier. "Dann stellten wir fest, dass die Startracker die Reflexion des Mondes vom Ozean auffangen und dass es kein Problem gab." Dann schien das Zeigesystem nicht zu funktionieren. "Wir haben sehr große Drifts gefunden", sagte Schreier. "Alle waren verrückt." Durch das Studium der Daten kamen sie zu dem Schluss, dass die Star-Tracker um einige Prozent daneben waren. Sie konsultierten die Hersteller, die die Daten der Startracker studierten und bestätigten, dass sie einwandfrei funktionieren. Der Effekt wurde auf ein vor Jahren verfasstes Memorandum zurückgeführt, in dem die Zahl 32 767 in einer Umrechnungsformel als 32 000 angenähert worden war.
Vier Tage nach dem Start schwenkte die Raumsonde schließlich auf Cygnus X-l, eine starke Röntgenquelle, von der angenommen wird, dass sie mit einem Schwarzen Loch in Verbindung steht. Es war Zeit für den Moment der Wahrheit, den Moment des „ersten Lichts“. Für Leon Van Speybroeck war das erste Röntgenbild, das zeigte, dass die Spiegel und der Imager funktionieren würden, "fast wie eine religiöse Erfahrung". Für Rick Harnden war das erste Licht durch den Imaging Proportional Counter ein Moment der Angst, der an Panik und Verzweiflung grenzte. Der bildgebende Proportionalzähler betrachtete einen Teil des Himmels, von dem angenommen wurde, dass er die einsame Quelle Cygnus X-3 enthält, doch erschien ein Mehrfachbild. „Mein erster Gedanke war: ‚Oh nein! Es funktioniert nicht!“ Wie sich herausstellte, funktionierte der Detektor einwandfrei. Es hatte eine Gruppe bisher unentdeckter Quellen in der Nähe von Cygnus X-3 entdeckt. Auch die anderen Instrumente haben gut funktioniert. Da eine erfolgreiche Mission fast garantiert ist, erhielt das Observatorium den Spitznamen Einstein-Observatorium, zu Ehren des hundertsten Geburtstags des Mannes, dessen Theorien über Raum, Zeit und Materie unsere Wahrnehmung des Universums so radikal veränderten. Nach mehr als anderthalb Jahrzehnten Planung, Politik und Beharrlichkeit durch die Lösung dessen, was Tananbaum als "hunderttausend technische Probleme der einen oder anderen Art" bezeichnete, war Riccardo Giacconis Traum von einem großen Röntgenteleskop im Orbit wahr geworden .
Während das Einstein-Observatorium atemberaubende Röntgenbilder von explodierenden Sternen und Galaxien und Galaxienhaufen zurückschickte, wurden Vorbereitungen für den Start von HEAO 3 getroffen, einem Observatorium, das das Universum bei noch höheren Photonenenergien untersuchen und Proben mit hoher Energie aufnehmen würde Teilchen aus dem interstellaren Raum. HEAO 3 ähnelte HEAO 1 darin, dass es sich um eine Erhebungsmission mit mehreren unabhängigen, aber sich ergänzenden Instrumenten handelte. Die Umstrukturierung des HEAO-Programms hatte eine Verschmelzung von drei Experimenten zu einem Experiment zur Beobachtung seltener kosmischer Strahlen mit hoher Ordnungszahl erzwungen. Die leitenden Ermittler des neuen Experiments waren Martin Israel, Edward Stone und C.J. Waddington. Es war ein.
Das Experiment mit schweren Kernen, HEAO C-3. Dieses Experiment mit kosmischer Strahlung bestand aus zwei großen Ionisationskammern, die Rücken an Rücken mit einem großen Cerenkov-Zähler dazwischen montiert waren. Es beobachtete seltene, relativistische Kerne mit hoher Ordnungszahl (z kleiner als 30) in der kosmischen Strahlung. Das Instrument maß die elementare Zusammensetzung und Energiespektren dieser Kerne mit ausreichender Auflösung, um die Häufigkeit einzelner Elemente von Chlor (z = 17) bis mindestens Uran (z = 92) zu bestimmen. Die Hauptermittler waren Martin Israel von der Washington University, St. Louis, Missouri, Edward Stone vom California Institute of Technology und C. J. Waddington von der University of Minnesota, Minneapolis. Gezeigt mit dem Experiment ist Harold Kinney von Ball Brothers Aerospace.
Alle von HEAO 3 gesammelten Daten wurden durch die hier gezeigte Hauptanschlussdose geleitet.
. Scheinehe, die in erster Linie aus Haushaltsgründen zustande gekommen war, aber allem Anschein nach eine sehr erfolgreiche Vereinigung war. "Die Zusammenarbeit führte zu einem besseren Experiment", sagte Martin Israel, "weil sie drei verschiedene Ansätze zur Untersuchung der kosmischen Strahlung zusammenführte." Damit war es den Experimentatoren möglich, sowohl die Kernladung (Ordnungszahl) als auch den Impuls eines Teilchens der kosmischen Strahlung eindeutig zu bestimmen.
Das Israel-Waddington-Stone Heavy Nuclei Experiment war eines von zwei kosmischen Strahlungsexperimenten auf HEAO 3. Das andere war ein Experiment zur Messung der Isotopenzusammensetzung der kosmischen Strahlung. Es war eine Zusammenarbeit zwischen Wissenschaftlern und dem Zentrum für Nuklearstudien in Saclay, Frankreich, und dem Dänischen Weltraumforschungsinstitut in Kopenhagen, Dänemark. Mit der französischen Gruppe kam es zu einer weiteren Zusammenarbeit, die nicht wegen des Budgets, sondern wegen des scharfen Auges eines jungen Physikers zustande kam. Das Herzstück des französisch-dänischen Vorschlags waren Zähler, die eine Flüssigkeit ohne Blasen und Freongas mit sehr hohem Druck erforderten. Ein solcher Zähler erwies sich [ 75 ] als sehr schwierig zu bauen, und die Wissenschaftler machten sich Sorgen, die erforderliche Technologie rechtzeitig entwickeln zu können. Lydie Koch-Miramond erinnert sich: „Da war dieser junge Physiker, Michel Casse, der daran interessiert war, Teil des Projekts zu werden. Er las die Zeitschriften und Vordrucke in der Bibliothek, als er auf eine Doktorarbeit in angewandter Chemie stieß. Die Doktorarbeit beschäftigte sich mit einer Methode zur Züchtung von transparenten Kieselgelen. Er dachte, dass es für unsere Zähler funktionieren könnte. Wir gingen nach Lyon, sprachen mit dem Chemiker und begannen eine Zusammenarbeit, die zu einem erfolgreichen Zähler führte. Wenn er diese Arbeit nicht gelesen hätte , hätten wir wahrscheinlich die zweite Auswahl [die Auswahl nach der Umstrukturierung] für HEAD nicht getroffen."
Wenn HEAO 3 mit glücklichen Partnerschaften gesegnet war, wurde es auch von Problemen der elften Stunde geplagt. Innerhalb einer Woche nach der Lieferung wurden 100 Verstärker beim abschließenden thermischen Vakuumtest des Heavy Cosmic Ray Nuclei-Experiments zerstört. Das Problem wurde schnell auf ein fehlerhaftes Testverfahren zurückgeführt, so dass es keine Bedenken gab, dass die Verstärker im Orbit versagen. Es wäre auch nicht besonders schwierig, die zerstörten Verstärker zu ersetzen. Aber was ist mit den tausend oder so Verstärkern, die nicht zerstört wurden? Waren sie so beschädigt, dass sie versagen könnten? Die einzige Lösung war, sie herauszunehmen, zu testen und wieder einzusetzen. Dabei wurden über hunderttausend Verbindungen oder Schweißnähte gebrochen und neu hergestellt.
Dann, nur vier Monate vor dem Start, entwickelte das Gammastrahlen-Spektrometer "thermische Exkursionen". Mit anderen Worten, das Instrument, das für den Betrieb bei 80 K (-315 ° F) ausgelegt war, heizte von Zeit zu Zeit auf 120 K (-243 ° F) auf. Unter der Leitung von Allan Jacobson, dem Principal Investigator, wurde ein "Tiger-Team" von Problemlösern einberufen, wobei Frank Schutz als Manager und Jim Stephens die technische Leitung übernahm. Ihr Fazit: Das Instrument müsste zerlegt werden. Den ganzen Sommer über arbeiteten Wissenschaftler, Ingenieure und Techniker des Jet Propulsion Laboratory, TRW, und Ball Brothers Aerospace in Boulder, Colorado, sechzehn Stunden am Tag, zerlegten das Instrument und fanden das Problem.Eine Unterlegscheibe war nicht durch den zugehörigen Bolzen plattgedrückt worden. Das Ergebnis war eine weniger perfekte Abdichtung, die die thermischen Exkursionen verursachte.
Das Siegel wurde repariert, und das Gammastrahlen-Spektrometer wurde von Military Air Transport zum Startplatz des Kennedy Space Center gebracht, wo es nur wenige Stunden vor der Evakuierung des Zentrums in Vorbereitung auf den Hurrikan David im Raumfahrzeug installiert wurde. Zwei Wochen später, am 20. September 1979, wurde HEAO 3, das letzte der HEAOs, erfolgreich gestartet. Ein paar Tage später wurden die Instrumente eingeschaltet, und es war klar, dass die Mission ein Erfolg werden würde.
Einige der vielen wissenschaftlichen Erfolge des HEAO-Programms werden in den folgenden Kapiteln diskutiert. An dieser Stelle ist festzuhalten, dass es auch ein enormer technologischer Erfolg war. Wie Frank McDonald sagte: "HEAO hat gezeigt, dass man sehr große Experimente zusammenstellen kann, die in [ 76 ] vielen Fällen die Erwartungen an das Design übertroffen haben." Und das innerhalb von 20 Prozent der ursprünglichen Kostenschätzung, eine erstaunliche Leistung angesichts der Komplexität des Projekts und der Tatsache, dass der Verbraucherpreisindex für Rohstoffe und Dienstleistungen im gleichen Zeitraum um mehr als 50 Prozent gestiegen ist.
HEAO funktionierte zum Teil, weil es gut geplant und gut verwaltet wurde. Aber vor allem funktionierte es dank des Talents und des außergewöhnlichen Engagements der beteiligten Personen. Und die Hingabe ihrer Familien, die sich manchmal gefragt haben müssen, ob sich all die langen Stunden, die verlorenen Wochenenden und Ferien und die zerstreuten, besorgten Blicke über den Esstisch wirklich gelohnt haben. "Wir mussten durch Beharrlichkeit, Streit und Freundschaften, die während der Jahre des Projekts geschmiedet wurden, viel aus den Leuten herausholen", erinnert sich Steve Murray. "Die Ingenieure sind oft mit uns die Extrameile gegangen, einfach weil sie unsere Freunde waren." Freundschaften gehörten zwar dazu, aber sie waren nicht die treibende Kraft, die diese Leute jahrelang Tag für Tag unbezahlt Überstunden machen ließ. Freundschaften konnten nicht erklären, warum Harold Kinney, ein Mechaniker bei HEAO 3, sagen konnte: "dort.
Die Arbeiter von Ball Brothers Aerospace setzen den reparierten Kryostaten wieder in den Kühlschrank des Gammastrahlen-Spektrometers ein.
20. September 1979. Der Start von HEAO 3.
[78]. Es war kein Morgen während des ganzen Projekts, an dem ich nicht zur Arbeit kommen wollte." Was könnte das erklären?
Diese Frage wurde Dutzenden von Wissenschaftlern und Ingenieuren gestellt, die am HEAO-Programm beteiligt waren. Ihre Antworten waren fast alle gleich und bezogen sich auf zwei tiefsitzende menschliche Sehnsüchte: den Wunsch, Probleme zu lösen und den Wunsch, Teil von etwas Größerem als sie selbst zu sein. "Das Erfreulichste war, die Probleme zu lösen", sagte Harvey Tananbaum. "Es gab keinen Fingerzeig, warum die Probleme entstanden waren, sondern nur die Erkenntnis, dass ein enormes Problem gelöst wurde. Alle arbeiteten zusammen." Dick Halpern fasste das Gefühl zusammen: „Ich wurde einmal gefragt, wer am meisten für den Erfolg von HEAO verantwortlich sei und ich konnte nicht antworten. Hunderte von Leuten haben an dem Projekt gearbeitet. Sicher, ich kannte viele, viele von ihnen – aber alle fühlten sich verantwortlich - und das waren sie alle." Und schließlich, wie Art Gneiser von Ball Brothers es ausdrückte: „Es ist ein unglaubliches Gefühl der Befriedigung zu sehen, wie die Daten hereinkommen, Informationen über das Universum da draußen bringen und zu wissen, dass viele von Ihnen dort oben sind und dass alles funktioniert ."
Titel: The NuSTAR Harte Röntgenuntersuchung der Norma Arm Region
Wir präsentieren einen Katalog harter Röntgenquellen in einem Quadratgradbereich, der von NuSTAR in Richtung des Norma-Spiralarms vermessen wurde. Diese Untersuchung hat eine Gesamtbelichtungszeit von 1,7 Ms und eine typische und maximale Belichtungstiefe von 50 ks bzw. 1 Ms. Im Bereich der tiefsten Abdeckung werden Empfindlichkeitsgrenzen von 5 x 10 -14 bzw. 4 x 10-14 erg s -1 cm -2 im Bereich 3–10 bzw. 10–20 keV erreicht. Achtundzwanzig Quellen werden sicher nachgewiesen und zehn werden mit geringer Signifikanz nachgewiesen. Acht der 38 Quellen sind vermutlich aktive galaktische Kerne. Die drei hellsten Quellen wurden zuvor als massearmer Röntgen-Binärnebel, massereicher Röntgen-Binärnebel und Pulsar-Windnebel identifiziert. Basierend auf ihren Röntgeneigenschaften und ihren Gegenstücken bei mehreren Wellenlängen identifizieren wir die wahrscheinliche Natur der anderen Quellen als zwei kollidierende Wind-Binärdateien, drei Pulsar-Windnebel, ein Schwarzes Loch-Binärsystem und eine Vielzahl von katastrophalen Variablen (CVs). Die CV-Kandidaten in der Norma-Region haben Plasmatemperaturen von ≈10–20 keV, die mit dem Röntgenemissionsspektrum des Galactic Ridge übereinstimmen, jedoch niedriger als die Temperaturen von CVs in der Nähe des Galaktischen Zentrums sind. Dieser Temperaturunterschied kann darauf hindeuten, dass die Norma-Region im Vergleich zum Galaktischen Zentrum einen geringeren Anteil von mehr »-Zwischenpolaren im Vergleich zu anderen Arten von CVs aufweist. Die NuSTAR logN-logS-Verteilung im 10–20 keV-Band stimmt mit der von Chandra bei 2–10 keV gemessenen Verteilung überein, wenn angenommen wird, dass das durchschnittliche Quellenspektrum ein thermisches Modell mit kT ≈ 15 keV ist, wie für die CV-Kandidaten beobachtet . « weniger
Zugangsoptionen
Einzelartikel kaufen
Sofortiger Zugriff auf das vollständige Artikel-PDF.
Die Steuerberechnung wird während des Bezahlvorgangs abgeschlossen.
Die Krönung der Sonne
Dunkler Stern, umgeben von einem Lichtkreis: Die äußere Gasschicht der Sonne – die Korona – ist zu sehen, wenn der Neumond bei einer totalen Sonnenfinsternis seine gleißend helle Scheibe exakt bedeckt. Bildnachweis: SPL - Agentur Focus(Phys.org) -- Diejenigen, die eine totale Sonnenfinsternis erleben, sind überwältigt, wenn sie den Lichtkreis betrachten, der unsere Sonne umgibt. Laien mögen es bezaubernd finden, aber Forscher zerbrechen sich seit Jahrzehnten den Kopf. Warum, fragen sie sich, hat diese Gasschicht die Korona eine Temperatur von mehreren Millionen Grad? Sami K. Solanki, Direktor am Max-Planck-Institut für Sonnensystemforschung in Katlenburg-Lindau, und sein Team gehen das Problem mit ausgeklügelten Beobachtungsmethoden und Computersimulationen an.
Das Institut liegt inmitten beschaulicher Wiesen und Felder und ein Spaziergang durch die Eingangshalle zeigt die lange Tradition der Sonnensystemforschung. Von den Helios-Raumsonden der 1970er Jahre über Ulysses und Cluster bis hin zu den modernen Sonnenobservatorien SOHO und STEREO – an all diesen Missionen waren Max-Planck-Forscher beteiligt. Hier hat sich in den letzten zehn Jahren die wohl größte Gruppe von Solarphysikern in Europa zusammengefunden. Eines ihrer Hauptuntersuchungsobjekte ist die Korona. Es ist die Schnittstelle zwischen unserem Stern und seiner Heliosphäre, also dem Einflussbereich des Sonnenwinds, in den auch unsere Erde eingebettet ist,, sagt Direktor Sami Solanki.
Die Wissenschaftler betrachten die Sonne als ganzheitliches System, um ihre Korona zu verstehen: Eine Gruppe beschäftigt sich mit dem Inneren unserer Sonne, wo letztlich die Wurzeln der von außen sichtbaren Aktivitäten liegen. 2009 untersuchte das Ballonteleskop Sunrise die Sonnenoberfläche mit einer noch nie dagewesenen Genauigkeit. Sowohl Beobachter als auch Theoretiker erforschen die Korona, und Solanki selbst untersucht die Auswirkungen der Sonnenaktivität auf das Erdklima.
Astronomen wissen seit langem, dass die Temperatur auf der Sonnenoberfläche etwa 5.500 Grad Celsius beträgt. Die Oberfläche ist der Teil der heißen, sprudelnden Gaskugel, den wir mit bloßem Auge sehen können. Vor achtzig Jahren begannen Wissenschaftler, die Korona die sehr dünne äußere Atmosphäre der Sonne genauer zu untersuchen. Zu ihrer Überraschung stellten sie dort Temperaturen von mehreren Millionen Grad fest. Dies erscheint auf den ersten Blick so physikalisch unmöglich wie der Versuch, Wasser auf einer Herdplatte mit einer Temperatur von 50 Grad zum Kochen zu bringen. Aber das passiert auf der Sonne.
Das Magnetfeld ist eine starke Wärmequelle
Gas emittiert bei einer Temperatur von einer Million Grad hauptsächlich Strahlung im ultravioletten und Röntgenbereich. Das Licht der Korona, das während einer Sonnenfinsternis zu sehen ist, ist nur ein schwaches Leuchten. Teleskope müssen im Weltraum positioniert werden, da unsere Atmosphäre die kurzwellige UV- und Röntgenstrahlung absorbiert. Das US-europäische Observatorium SOHO ist 1,5 Millionen Kilometer von der Erde entfernt und hat die Sonne ständig im Blick. Die von den verschiedenen Instrumenten aufgenommenen Bilder sind soweit automatisiert, dass sie praktisch in Echtzeit über das Internet betrachtet werden können.
Besonders stolz sind die Sonnenbeobachter in Katlenburg- Lindau auf das von ihnen konstruierte und gebaute SUMER-Spektrometer (Solar Ultraviolet Measurements of Emitted Radiation), das seit 1996 unermüdlich seinen Dienst verrichtet im Bereich des sichtbaren Lichts, aber tief im Ultravioletten, da hier die Korona besonders gut untersucht werden kann.
SUMER hat seinen Anteil an der Untersuchung vieler Details des Heizmechanismus der Korona, denn aus dem spektral dispergierten UV-Licht lassen sich wichtige Gasparameter wie Temperatur, Dichte und Geschwindigkeit ableiten,, sagt Max Planck Forscher Werner Curdt. Die Experten sind sich nun einig, dass das Magnetfeld der Sonne die Korona erwärmt. Die Frage ist nur wie.
Das Magnetfeld wird rund 200.000 Kilometer unter der Oberfläche erzeugt. Im Gegensatz zur Erde, wo sie hauptsächlich an den beiden Polen austritt, ist die Sonnenoberfläche überall von aus- und wieder eintretenden Feldlinien durchzogen. In den dunklen Sonnenflecken sind die Magnetfelder besonders stark. Paare dieser Sonnenflecken bilden die Fußpunkte eines brückenförmigen Bündels von Feldlinien, die von der Oberfläche ausgehen. Zwei Punkte markieren somit den Nord- bzw. Südpol eines lokalen Magnetfeldes.
Das Plasma schießt in dicken Wolken nach oben
Der Ursprungsort für dieses globale, chaotische Feldmuster liegt in dem im Inneren zirkulierenden heißen Sonnenmaterial. Dieses Plasma ist elektrisch leitfähig und reißt bei seiner Konvektion die magnetischen Feldlinien mit wie ein Teelöffel Honig anzieht und verdreht sie dabei zu dicken Bündeln. Entlang dieser von der Oberfläche ausgehenden Feldlinien strömt nun das heiße Gas elektrisch geladener Teilchen, und sein Licht macht die Linien sichtbar – ähnlich wie Eisenspäne, die auf einem Blatt Papier über einem Magneten liegen und die Feldlinien nachzeichnen. So entstehen Spiculae – Plumes mit einem Durchmesser von rund tausend Kilometern, in denen das Plasma bis in 20.000 Kilometer Höhe schießt, bevor es wieder abstürzt. Spikulen kollabieren nach ca. 10 Minuten und werden an verschiedenen Stellen neu generiert. Auf Satellitenbildern sind sie besonders gut am Sonnenrand zu beobachten, sie erinnern an ein wogendes Maisfeld.
Mit Hilfe von SUMER entdeckte Werner Curdt kürzlich, dass sich große Spicula mit Geschwindigkeiten von mehr als 100.000 Stundenkilometern um ihre Längsachse drehen – ähnlich wie Supertornados von der Größe Deutschlands. Bei dieser enormen Geschwindigkeit kann die Zentrifugalkraft Materie aus den Spiculae herausschleudern und in die Korona katapultieren,, sagt Curdt. Dieser Vorgang wäre eine denkbare Möglichkeit, die Korona mit heißer Materie zu versorgen. Eine ständige Zufuhr ist notwendig, weil Beobachtungen zeigen, dass ein Teil des koronalen Gases kontinuierlich auf die Sonnenoberfläche zurückfällt, während noch mehr als Sonnenwind in den interplanetaren Raum abströmt.
Ohne den kontinuierlichen Transport von Materie würde sich die Korona innerhalb von Minuten auflösen,, erklärt Curdt. So ist es möglich, dass Spiculatornados die Korona mit Materie versorgen. Aber können sie die Korona auf mehrere Millionen Grad erhitzen oder zumindest einen Beitrag leisten? Diese Frage bleibt noch unbeantwortet. Obwohl die Sonnenforschung auf Beobachtungen beruht, „wollen wir nicht nur sehen, wir wollen auch verstehen“, sagt Curdt. Um dieses Verständnis der komplexen Prozesse zu ermöglichen, entwickelt die Forschungsgruppe von Jörg Büchner und Hardi Peter seit 2009 Computersimulationen.
Die komplizierte und dynamische Wechselwirkung des Magnetfelds mit dem umgebenden Plasma macht Computersimulationen dieser Art zu den komplexesten, die die Astrophysik zu bieten hat. Dies erklärt, warum die meisten Modellrechnungen lange Zeit nur in einer Dimension durchgeführt werden konnten. Dabei berechnete der Computer die zeitliche Entwicklung entlang einer magnetischen Feldlinie in der Korona. Die Wissenschaftler entwickeln seit mehreren Jahren Modelle ausgewählter Regionen in drei Dimensionen.
Solche Massenauswürfe werden durch Magnetfelder verursacht. Die Felder liefern auch die Energie zum Erhitzen der Korona. Bildnachweis: NASA - SDO Eine vollständige Simulation kann selbst auf den leistungsstärksten Computern manchmal Wochen oder Monate dauern. Die Forscher müssen die benötigte Rechenzeit beantragen, genauso wie ihre Kollegen Beobachtungszeit am Teleskop beantragen müssen. Auch wenn ihnen Rechenzeit zugeteilt wurde, läuft eine Simulation nicht von Anfang bis Ende, sondern wird immer für andere Projekte unterbrochen und zu einem späteren Zeitpunkt fortgesetzt. Damit haben wir die Möglichkeit, die Zwischenergebnisse zu überprüfen und eventuelle Fehler zu korrigieren, falls die Berechnung aus dem Ruder läuft,, erklärt Peter.
Der Sonnenforscher konzentriert seine Simulationen auf aktive Regionen, die sich in ihrer Größe unterscheiden und am besten auf Bildern im UV- und Röntgenbereich zu erkennen sind. Zu jedem Zeitpunkt gibt es auf der Sonne Zehntausende von Mikroflares – Strahlungsausbrüche, die nur wenige Minuten dauern, auf einer Fläche, die ungefähr der Größe Deutschlands entspricht. Vor zehn Jahren galten die Microflares den Forschern als heiße Favoriten für die Erwärmung der Korona.
Darüber hinaus gibt es auch größere und stärkere Eruptionen, sogenannte Flares. Sie sind seltener als Microflares, verteilen sich aber über eine größere Fläche. Sie setzen innerhalb von Minuten eine Energie frei, die der Sprengkraft von rund einer Milliarde Wasserstoffbomben mit je einer Megatonne TNT entspricht. Flares treten hauptsächlich in Verbindung mit Sonnenflecken auf.
Feldlinien verdrehen sich wie Gummibänder
Ursächlich für all diese Aktivitäten sind die oben beschriebenen Magnetfelder, die aus der Oberfläche herausragen. Die Sonne gleicht nun einer heißen Gaskugel, deren Materie ständig in Bewegung ist. So wie Wasser in einem Topf konvekt, sprudelt heißes Gas in konvektiver Bewegung vom Inneren nach oben, wo es abkühlt und wieder in die Tiefe strömt. Daher sind die Fußpunkte der Magnetschleifen nicht fest an der Oberfläche verankert, sondern bewegen sich beim Aufsprudeln der heißen gasförmigen Materie hin und her“, erklärt Hardi Peter.
Die Feldlinien verdrehen sich und speichern dabei immer mehr Energie, wie ein sich verdrehendes Gummiband. Überschreitet die Spannung einen kritischen Wert, können sich die magnetischen Feldlinien mit denen entgegengesetzter Polarität verbinden. Physiker nennen diesen Vorgang Reconnection. Bei einem solchen magnetischen Kurzschluss wird ein Teil der im Feld gespeicherten Energie schlagartig freigesetzt.
Dies ist aber auch ohne Kurzschluss möglich. Ein Magnetfeld muss sich nur bewegen, um das umgebende Plasma mit Energie zu versorgen, ganz ähnlich einem stromdurchflossenen Leiter: Das sich bewegende Magnetfeld induziert Ströme in die Korona, die dann das durchströmte Gas erhitzen. Forscher nennen diesen Vorgang daher auch Ohmsche Erwärmung. Diese Prozesse enthalten wahrscheinlich den Schlüssel zum Verständnis der koronalen Erwärmung.
Im UV-Bereich sind die aktiven Bereiche sehr gut zu beobachten. Zeitrafferfilme zeigen eindrucksvoll, wie dynamisch die Veränderungen der Magnetfelder und des heißen Gases sind. Magnetschleifen schwingen hin und her, lösen sich auf und bilden neue Konfigurationen. Mit dem Spektrometer SUMER messen die Forscher Dichte, Temperatur und Geschwindigkeiten. Ein weiteres Instrument von SOHO liefert die magnetischen Feldstärken. Peter füttert sein Computerprogramm mit den Beobachtungsdaten eines bestimmten Zeitpunkts und lässt es die weitere Entwicklung selbst berechnen.
Siebenfache Ionisation von Neon verursacht Strahlung
Nach einer vorgegebenen Zeit wird die Berechnung beendet und das Ergebnis für alle verfügbaren Parameter mit der Realität abgeglichen: Das Programm kann die Geschwindigkeits- und Temperaturfelder darstellen oder das Aussehen des Gases bei einer bestimmten Temperatur anzeigen. Plasma mit einer Temperatur von etwa 700.000 Grad strahlt intensiv bei einer Wellenlänge von 77 Nanometern (ein Millionstel Millimeter). Dies ist den Neonatomen mit ihrer siebenfachen Ionisierung zu verdanken.
Allerdings ist es schwierig, die ermittelten Geschwindigkeitsfelder mit der Realität zu vergleichen, da SUMER zu langsam ist. Das Instrument benötigt etwa zehn Minuten, um einen gesamten aktiven Bereich zu messen. Eine Simulation hingegen zeichnet die Veränderungen einmal pro Sekunde über einen Gesamtzeitraum von 20 Minuten auf. Die Instrumente könnten stark verbessert werden, kommentiert Peter die aktuelle Situation.
Ein weiterer Grund dafür, dass der Vergleich mit der Realität nicht immer einfach ist, ist die Durchsichtigkeit des Gases. Deshalb erscheinen voreinander liegende Strukturen immer auf eine Ebene projiziert. Dies beeinflusst sowohl die Beobachtungen als auch die Simulationsergebnisse. Das Solar Dynamics Observatory (SDO), ein Weltraumlabor, macht diese Überlagerung einzelner Strukturen derzeit deutlich sichtbar. Bilder zeigen hier besonders eindrucksvoll die komplexe räumliche Struktur und die hohe zeitliche Dynamik. Das Max-Planck-Institut für Sonnensystemforschung steht bei der Auswertung in der ersten Reihe – schließlich betreibt es das SDO German Data Center.
Einige der beobachteten Phänomene können nur mit solchen 3-D-Simulationen erklärt werden, die eindimensionalen Berechnungen haben sie nicht reproduziert. Die Übereinstimmung zwischen den 3D-Modellen und den Beobachtungen ist größtenteils recht gut. Hardi Peter stieß kürzlich in einer Simulation auf ein bis dahin unbekanntes Phänomen: Am unteren Rand der Computerdomäne bildete sich plötzlich eine mehrere tausend Kilometer hohe Gasblase, die abrupt in die Höhe schoss und in einem weiten Bogen bis zu eine Höhe von 20.000 Kilometern, bevor er nach 15 Minuten wieder an die Oberfläche fällt. Diese Szene im Film beschwört das Bild eines Delfins herauf, der aus dem Wasser springt.
Bei einer genaueren Analyse dieser Sequenz bemerkte Peter, dass die Magnetfelder an der Stelle, an der die Blase absprang, zufällig stark verflochten waren. Außerdem bewegten sie sich sehr schnell und erhitzten ihre Umgebung besonders stark. Material wurde nun ausgestoßen und flog in einem hohen Bogen in die Korona hinein, was an eine Explosion erinnerte. Peter ging zunächst davon aus, dass dieses Phänomen, das nur bei der Berechnung auftrat, ein Fehler sei, wie er bei numerischen Simulationen vorkommen kann. Die Datenanalyse zeigte jedoch schnell, dass dies nicht der Fall war. Auf einer Konferenz stellte sich heraus, dass Kollegen ein ähnliches Phänomen beobachtet hatten und es Kaninchen nannten, weil es sie an das hüpfende Tier erinnerte.
Neues Observatorium, um auch die Pole zu überwachen
Das Interessante in diesem Fall ist, dass der Prozess möglicherweise auch in viel kleineren Maßstäben wichtig sein könnte, zum Beispiel bei Spikulen, sagt Peter. Dies wird die Aufgabe zukünftiger Arbeiten mit numerischen Modellen mit höherer räumlicher Auflösung und dem weiteren Vergleich mit Beobachtungen sein.
Nach jahrzehntelanger Koronarforschung steht nun zweifelsfrei fest, dass die Magnetfelder grundsätzlich ausreichend Energie liefern, um die Korona zu erwärmen. Peter relativiert dies: Aber wir wissen noch nicht, wie diese Energie auf der Zentimeter- oder Meterskala auf das koronale Plasma übertragen wird. Auch seine Simulationen können dies nicht klären, weil sie die Ereignisse auf großen Skalen von . berechnen Hunderte von Kilometern. Die Sonnenforscher sind in einer ähnlichen Situation wie die Meteorologen: Ihre Modelle können zwar vorhersagen, wo es mit einer gewissen Wahrscheinlichkeit regnen wird, aber die Tropfenbildung in der Wolke können sie nicht berechnen.
Große Hoffnungen setzen die Forscher auf ein neues Sonnenobservatorium, den Solar Orbiter, dessen Bau die Europäische Weltraumorganisation ESA im Herbst 2011 beschlossen hat. Das Weltraumteleskop wird 2017 ins All starten und die Sonne auf einer elliptischen Bahn bei Mindestdistanz von 42 Millionen Kilometern. Dies entspricht weniger als einem Drittel der Entfernung zwischen Erde und Sonne. Noch nie ist ein Weltraumlabor unserer Sonne so nahe gekommen. Außerdem wird die Umlaufbahn gegenüber dem Sonnenäquator so stark geneigt sein, dass erstmals auch die Pole der Sonne beobachtet werden können.
Schwerer Beschuss mit Flare-Partikeln
An vier der zehn wissenschaftlichen Instrumente ist das Max-Planck-Institut in Lindau beteiligt. Das Institut betreut die Entwicklung eines Magnetographen, der das Magnetfeld und die Plasmageschwindigkeit misst. Darüber hinaus wird ein Spektrometer basierend auf den Erfahrungen mit SUMER die Korona mit bisher unerreichter Genauigkeit und sehr hoher zeitlicher Auflösung untersuchen.
Die Wissenschaftler haben nicht viel Zeit: Sie müssen die Instrumente 2015 an die ESA liefern. Und vorher müssen sie viele Experimente durchführen, Zum Beispiel mit Materialien und Optiken, die die sehr hohen Temperaturen überstehen und sehr schwere Teilchenbombardierung durch Sonnenwind und Flares“, erklärt Eckart Marsch, einer der Initiatoren des Solar Orbiters. Das Observatorium wird der Sonne so nahe kommen, dass der Hitzeschild der Raumsonde 500 Grad Celsius erreicht.
In dieser geringen Entfernung wird es auch möglich sein, die ursprünglichen Eigenschaften der Teilchen in situ zu messen, und zwar in genau dem Zustand, in dem sie von der Sonnenoberfläche kommen und entlang der magnetischen Feldlinien in den interplanetaren Raum fliegen. Ein Ziel ist es, die Flugbahnen der Teilchen zurück zu ihrem Ursprung auf der Sonne zu berechnen, um besser zu verstehen, wie sich Wellen und Turbulenzen im Sonnenwind ausbreiten.
Damit könnten die Forscher die enge Wechselwirkung des Plasmas mit dem aktiven Magnetfeld der Sonne und ihrer Heliosphäre untersuchen. Diese Daten würden dann in die 3D-Modellierung der Partikelausbreitung einfließen. Eine der Hauptmotivationen des Solar Orbiters ist es, die Mikrophysik der Korona zu verstehen,, sagt Marsch, der sich auf ein goldenes Zeitalter der Sonnenforschung freut.