We are searching data for your request:
Upon completion, a link will appear to access the found materials.
Sind Natriumlaser für Weltraumteleskope/Spionagesatelliten zur Erdbeobachtung nützlich?
Der Leitsternlaser dient dazu, die Optik zu einem bestimmten Zeitpunkt und an einem bestimmten Ort an bestimmte atmosphärische Bedingungen anzupassen. Es wird nicht, wie Ihre Frage impliziert, verwendet, um die Optik für den Langzeitgebrauch zu kalibrieren.
Um den Satelliten mit einem von der Erde abgefeuerten Laser zu kalibrieren, müsste daher das Aufklärungsziel den Laser bereitstellen. Dies ist für nicht kooperative Ziele nutzlos, die meiner Meinung nach den Großteil der Aufklärungsziele ausmachen.
Ich nehme an, dass man einen Laser vom Satelliten selbst abfeuern könnte, aber dies hätte den offensichtlichen Nachteil, dass es noch deutlicher wird, wenn sich ein Spionagesatellit über ihm befindet.
Auf jeden Fall durchdringt das Leitsternbild nicht die gesamte Atmosphäre, ich glaube, es erzeugt ein Bild nur wenige Dutzend Kilometer höher. Dies ist nützlich, da die dickere, dichtere und turbulentere untere Luft die Optik am meisten stört. Das Abfeuern des Lasers von oben würde somit sehen, dass die Laserenergie in der dünneren, ruhigeren, vorhersehbareren oberen Atmosphäre absorbiert wird, und hätte daher weniger Vorteile.
Ein letzter Grund, keinen Leitsternlaser auf einem Aufklärungssatelliten zu verwenden, wäre das Leistungsbudget. Diese Satelliten sind so klein wie möglich, mit einem möglichst kleinen Wärme- und Reflexionsindex. Die zusätzliche Energiequelle, sei es RTG, konventionelle Batterien oder Solarenergie, würde wahrscheinlich das Reflexionsvermögen des Satelliten erhöhen.
Optik, um sie alle zu übertreffen
Anmerkung der Redaktion: Astrobites ist eine von Studenten geführte Organisation, die astrophysikalische Literatur für Studenten verdaut. Als Teil der Partnerschaft zwischen der AAS und Astrobites veröffentlichen wir gelegentlich Astrobites-Inhalte hier bei AAS Nova. Wir hoffen, dass Ihnen dieser Beitrag von astrobites gefällt. Das Original kann auf astrobites.org eingesehen werden!
Titel: Robo-AO Kepler Planetary Candidate Survey IV: Die Wirkung naher Sterne auf 3857 planetare Kandidatensysteme
Autor: Carl Ziegler, Nicholas Law, Christoph Baranec et al.
Institution des Erstautors: University of North Carolina in Chapel Hill
Status: Veröffentlicht in AJ
Einführung
In den 1970er und 80er Jahren entwickelten Wissenschaftler des US-Verteidigungsministeriums eine geheime Technologie, um sowjetische Spionagesatelliten vom Boden aus abzubilden. Eine der Beraterinnen, Claire Max, erkannte, dass die Technologie der Astronomie zugute kommen könnte, und drängte auf ihre Freigabe. Das Konzept der adaptiven Optik mit laserbetriebenen Leitsternen wurde schließlich 1991 der Öffentlichkeit vorgestellt.
Adaptive Optik (AO) beinhaltet die schnelle Verformung eines Spiegels, um Verzerrungen aus einem Bild zu entfernen. Stellen Sie sich vor, Sie sehen einen Felsen am Grund eines klaren, aber schnell fließenden Wasserstroms. Das verzerrte, verzerrte Bild in ein echtes Abbild des Gesteins umzuwandeln, ist eine bedeutende technische und rechnerische Herausforderung. Zuerst müssen wir eine einfache Punktquelle hinter demselben verzerrenden Medium beobachten.
Hier kommen Laserleitsterne ins Spiel. Eine Art von Laser beleuchtet eine dünne Natriumschicht in etwa 90 km Höhe. Dadurch entsteht ein „Leitstern“, der einen Großteil der Verzerrung erfährt, die in einem echten Stern zu sehen ist. Mit diesen Informationen kann ein verformbarer Spiegel das Bild des wahren Sterns in Echtzeit korrigieren.
Aber große AO-Systeme sind extrem unhandlich. Sie erfordern viel Geld und Arbeitskraft und viel Beobachtungsarbeit über dem Kopf – es kann mehrere Minuten dauern, um zu einem Ziel zu schwenken, einen Leitstern zu erfassen und eine Korrekturschleife für die Verformung des Spiegels zu initialisieren. Und doch wird die AO-Bildgebung im heutigen Zeitalter der „Big Data“-Astronomie für schnell wachsende Datensätze immer relevanter. Es gibt eine Nische für schnelle, Roboter AO. Vor kurzem hat der Optiker Christoph Baranec genau das getan, indem er … . gebaut hat Robo-AO .
Abbildung 1: Links: Ein Beispielbild von Keplers Ansicht eines KOI. Die großen Pixel verbergen eine unbekannte Anzahl von Sternengefährten. Rechts: Dieselbe Ansicht mit Robo-AO. [Ziegleret al. 2017]
Zeitung von heute
Das Weltraumteleskop Kepler hat Tausende von möglichen Exoplaneten entdeckt, die sich vor ihren Wirtssternen bewegen. Aber die Kepler-Pixel sind riesig – etwa 4 Bogensekunden groß – und es besteht immer die Gefahr, dass mehrere Sterne in einem einzigen Pixel lauern (Abbildung 1). Dies kann zu falsch positiven Ergebnissen führen (wie in verdunkelnden Doppelsystemen) oder echte Planetensignale verdünnen (wo das Licht eines anderen Sterns den Radius eines Transitplaneten kleiner erscheinen lässt, als er tatsächlich ist). Dies erfordert eine AO-Nachverfolgung.
Vor Robo-AO war die AO-Nachverfolgung von Kepler-Objekten von Interesse (KOIs) eine heterogene und unvollständige Anstrengung mit verschiedenen Instrumenten, Reduktionspipelines und Analysen. Um eine konsistente, vollständige und unvoreingenommene Analyse zu erstellen, hat Robo-AO Kepler-Sterne vom Palomar Mountain in Kalifornien und dem Kitt Peak in Arizona ins Visier genommen. (Schauen Sie sich hier ein Einführungsvideo über das Projekt an und hier einen Zeitraffer von Robo-AO-Hämmerzielen mit einem UV-Laser.) Das neueste Papier, das über die akkumulierenden Datenberichte von Robo-AO Kepler über 3857 KOI-Beobachtungen veröffentlicht wird, mit einer Schnellfeuerkadenz von 20 Zielen pro Stunde aufgenommen.
Abbildung 2: Eine Schönheitssalon-Galerie von Robo-AO KOI-Bildern, die am Kitt Peak aufgenommen wurden. [Ziegleret al. 2018]
Abbildung 3: Rate stellarer Begleiter basierend auf der Trennung. Es ist zu erwarten, dass nicht assoziierte Sterne ungefähr parabelförmig (gestrichelte Linie) zunehmen, aber die beobachtete Zahl ist größer, was bedeutet, dass einige der stellaren Begleiter gravitativ gebunden sein müssen und möglicherweise Exoplanetentypen beeinflussen, die im System auftauchen. [Ziegleret al. 2018]
Planeten in multistellaren Systemen?
Modelle deuten darauf hin, dass stellare Begleiter die Umlaufbahnen von Planeten stark stören oder Planeten vollständig aus einem System schleudern könnten . Um den Einfluss stellarer Begleiter auf die Planetenentstehung zu bestimmen, müssen wir zunächst bestimmen, welche der KOI-Begleiter gravitativ aneinander gebunden sind und wie viele ungebunden, aber nur in engen Sichtlinien.
Die Autoren argumentieren, dass bei ungebundenen Gefährten ein doppelt so großes Sichtfeld zu etwa viermal so vielen gefundenen Gefährten führen würde. Tatsächlich nehmen die gefundenen Begleiter jedoch linear zu, was darauf hindeutet, dass einige der Sterne tatsächlich gebunden sind (Abb. 3). Die Autoren bereiten ein weiteres Papier vor, das tiefer in die Natur dieser Gefährten eintaucht und uns dem Verständnis der Auswirkungen mehrerer Sterne auf Planetensysteme näher bringt.
In der Zwischenzeit verfolgt Robo-AO weiterhin viele verschiedene wissenschaftliche Fälle. Und eine südliche Robo-AO-Einheit bei Cerro-Tololo ist in Entwicklung, ebenso wie ein Robo-AO 2-Instrument auf Hawaii. Bald können wir den größten Teil des Himmels mit dem automatisierten Blick von Robo-AO beobachten. Es sei denn, die Roboter erheben sich endlich gegen uns.
Instrumente für die Astronomie
Eine weitere Teillösung besteht darin, die Observatorien selbst zu verbessern. Entlang der Observatoriumswände können weitere Belüftungsfallen angebracht werden, damit die Luft um das Teleskop die gleiche Temperatur wie die Außenluft hat. Um Turbulenzen zu minimieren, können auch laminare Luftströme über die Spiegeloberfläche geblasen werden.
Die Atmosphäre der Erde besteht aus Luftschichten unterschiedlicher Temperatur, die miteinander interagieren und großräumige Bewegungen von Luftmassen verursachen (von Wissenschaftlern als Turbulenzen bezeichnet). Für Astronomen sind Turbulenzen schädlich für ihre Arbeit, da sie die Flugbahn der Lichtstrahlen stören. Dies führt dazu, dass Sterne am Himmel funkeln und Teleskopbilder verzerrt werden.
Der Doppelstern Zeta Boötis mit (links) und ohne (rechts) Hilfe der adaptiven Optik. Ein einfaches Mittel, um die Auswirkungen dieses unangenehmen Phänomens zu minimieren, besteht darin, astronomische Observatorien in großen Höhen zu bauen, so dass die Teleskope nur durchblicken die oberen Ebenen der Erdatmosphäre. Die so gewonnenen Bilder sind bis zu zehnmal besser als die auf Meereshöhe.
Eine andere Methode, wenn auch viel radikaler, ist die Installation von Telesco Weiterlesen
Eine weitere Teillösung besteht darin, die Observatorien selbst zu verbessern. Entlang der Observatoriumswände können weitere Belüftungsfallen angebracht werden, damit die Luft um das Teleskop die gleiche Temperatur wie die Außenluft hat. Um Turbulenzen zu minimieren, können auch laminare Luftströme über die Spiegeloberfläche geblasen werden.
Die Atmosphäre der Erde besteht aus Luftschichten unterschiedlicher Temperatur, die miteinander interagieren und großräumige Bewegungen von Luftmassen verursachen (von Wissenschaftlern als Turbulenzen bezeichnet). Für Astronomen sind Turbulenzen schädlich für ihre Arbeit, da sie die Flugbahn der Lichtstrahlen stören. Dies führt dazu, dass Sterne am Himmel funkeln und Teleskopbilder verzerrt werden.
Der Doppelstern Zeta Boötis mit (links) und ohne (rechts) Hilfe der adaptiven Optik. Ein einfaches Mittel, um die Auswirkungen dieses unangenehmen Phänomens zu minimieren, besteht darin, astronomische Observatorien in großen Höhen zu bauen, so dass die Teleskope nur durchblicken die oberen Ebenen der Erdatmosphäre. Die so gewonnenen Bilder sind bis zu zehnmal besser als die auf Meereshöhe.
Eine andere, wenn auch viel radikalere Methode besteht darin, Teleskope im Weltraum zu installieren, wo die Atmosphäre keinen Einfluss mehr auf astronomische Beobachtungen hat. Aus diesem Grund bringen Astronomen heute Weltraumteleskope wie Hubble, FUSE und MOST in die Umlaufbahn.
Die erste Forschung zur Lösung des Problems der Bildverzerrung im Zusammenhang mit atmosphärischen Turbulenzen wurde 1902 von dem deutschen Arzt Karl Strehl durchgeführt, der eine Methode zur Bewertung der von optischen Systemen erzeugten Bildqualität vorschlug.
1941 gelang dem sowjetischen Mathematiker Andrei Nikolaevich Kolmogorov mehrere Durchbrüche in der Erforschung der Turbulenz. Seine Arbeit wurde später in atmosphärische Modelle integriert, die verwendet wurden, um Verzerrungen zu korrigieren, die astronomische Bilder beeinträchtigen.
1953 erfand der amerikanische Astronom Horace Welcome Babcock die adaptive Optik, ein Verfahren, das durch die Erdatmosphäre verursachte Bildverzerrungen korrigiert. Die Technik besteht darin, eine Probe des vom Teleskop empfangenen Lichts zu nehmen und seinen Verzerrungsgrad zu berechnen. Dann werden verformbare Spiegel verwendet, um die Lichtstrahlen umzulenken und ein korrigiertes Bild zu erzeugen. Der Vorschlag war vielversprechend, aber Babcock konnte sein System aus technischen Gründen nicht konstruieren.
1957 gelang es dem amerikanischen Arzt Robert B. Leighton vom California Institute of Technology, atmosphärenbedingte Bildverzerrungen mit dem 1,5-Meter-Teleskop am Mount-Wilson-Observatorium in Kalifornien zu reduzieren. Seine Technik bestand darin, den Sekundärspiegel des Teleskops mehrmals pro Sekunde zu neigen. Dabei gelang es ihm, die besten jemals aufgenommenen Bilder von Jupiter und Saturn zu erhalten.
Im selben Jahr veröffentlichte der sowjetische Physiker Wladimir Pawlowitsch Linnik einen Artikel, in dem er vorschlug, einen künstlichen „Leitstern“ zu erzeugen, indem man einen Laser auf den Himmel richtet und seinen Brennpunkt in der oberen Atmosphäre anvisiert, um Gasmoleküle zu bewegen.
Wenn ein adaptives Optiksystem einen natürlichen „Führungsstern&rdquo verwendet, muss dieser im Vergleich zum interessierenden Himmelsobjekt hell genug sein, um ausreichend Licht für den Detektor des Teleskops zu liefern. Der Leitstern und das Untersuchungsobjekt müssen außerdem ausreichend nahe am Himmel erscheinen. Es ist nicht immer einfach, einen Stern zu finden, der diese Kriterien erfüllt, daher die Idee, einen künstlichen Leitstern zu schaffen. Linniks Vorschlag war revolutionär, blieb aber leider der internationalen wissenschaftlichen Gemeinschaft bis 1992 unbekannt, als sein Artikel schließlich ins Englische übersetzt wurde.
1970 demonstrierten der amerikanische Ingenieur W. Thomas Cathey und seine Mitarbeiter erstmals experimentell ein in Echtzeit arbeitendes adaptives Optiksystem.
Wissenschaftler sehen besser und schwächer mit dem neuen Keck Laser Guide Star
Washington D. C. (10. Januar 2006) Ein neuer Natriumlaser gibt der atmosphärischen Korrekturtechnologie, die als adaptive Optik bekannt ist, am Keck II-Teleskop auf Mauna Kea, Hawaii, eine 50-mal größere Abdeckung des Himmels. Der Laser ermöglicht es Wissenschaftlern, den größten Teil des Himmels mit adaptiver Optik zu erkunden und gibt ihnen die Möglichkeit, Objekte zu untersuchen, die zuvor mit dem System zu schwach waren, um sie zu sehen. Seit 1999 bietet Keck Adaptive Optics zehnmal mehr Auflösungsvermögen als sonst vom Boden aus erreicht werden könnte. Die Ergebnisse liefern Infrarotbilder vom Boden aus, die vergleichbar – und oft sogar besser – als solche aus dem Weltraum sind.
„Dies war der aufregendste technologische und wissenschaftliche Durchbruch für das Observatorium in den letzten zehn Jahren. Es kann die Art und Weise, wie wir Astronomie vom Boden aus betreiben, für immer verändern“, sagte Fred Chaffee, Direktor des W. M. Keck-Observatoriums. „Wir treten in eine neue, außergewöhnliche Ära der Entdeckungen ein.“
Nach nur einem Jahr regelmäßiger wissenschaftlicher Nutzung liefert das Keck Laser Guide Star Adaptive Optics-System spektakuläre Ergebnisse und bringt die Forschung in mehreren Bereichen der astronomischen Forschung voran. Zu den Erkenntnissen gehören die Entdeckung neuer Asteroiden, Monde und Planetoide in unserem Sonnensystem, die Entdeckung neuer Brauner Zwerg-Binärsysteme (einschließlich einer seltsamen neuen Art von Binärsystemen), Beobachtungen physikalischer Prozesse, die in der Nähe eines supermassereichen Schwarzen Lochs stattfinden, und neue Erkenntnisse über extrem entfernte Supernovae und junge Galaxien.
Die Technik der adaptiven Optik verwendet sichtbares Licht eines hellen Sterns, um atmosphärische Verzerrungen bei Infrarotwellenlängen zu messen und zu korrigieren. Aber nur etwa zwei Prozent des Himmels haben Sterne, die hell genug sind, um mit adaptiver Optik verwendet zu werden. Das Keck Laser Guide Star System überwindet diese Einschränkung, indem es einen künstlichen Stern irgendwo am Himmel erzeugt. Das W. M. Keck-Observatorium ist die einzige 8-10-Meter-Klasse-Einrichtung der Welt, die derzeit Beobachtern diese Möglichkeit bietet.
„Die Wunschliste für Astronomen ist ziemlich einfach“, sagte Dr. David Le Mignant, Wissenschaftler für adaptive Optik am W. M. Keck-Observatorium. „Erstens wollen sie möglichst hochwertige Bilder. Zweitens wollen sie am Himmel überall hinschauen, wo sie wollen. Mit dem Laserleitstern werden beide Wünsche wahr.“
Das adaptive Optiksystem von Keck, das fast 1.000 Mal pro Sekunde arbeitet, minimiert die Unschärfeeffekte der Erdatmosphäre und liefert Infrarotbilder, die zehnmal besser sind als die, die vom Boden aus erreicht werden können. Ohne jegliche Korrekturtechnologie sind die besten Teleskope der Erde auf eine durchschnittliche „Sehen“-Fähigkeit oder Auflösungsleistung von etwa 0,5 Bogensekunden beschränkt, was der Fähigkeit entspricht, ein Objekt von der Größe einer Blaubeere aus 4 km Entfernung zu unterscheiden. Weg. Aber mit adaptiver Optik wird atmosphärische Unschärfe entfernt, was ein Auflösungsvermögen von etwa 50 Millibogensekunden oder besser erzeugt. Diese Verbesserung ist, als würde man aus einer Entfernung von 2,5 Meilen auf einen Penny schauen und die Worte „ONE CENT“ und „Liberty“ auf der Münze lesen können.
„Wir sprengen eine Grenze für bodengestützte Beobachtungen – Astronomen können jetzt überall, innerhalb und außerhalb unserer Galaxie, feine Strukturen in extrem lichtschwachen Objekten entdecken und studieren“, sagte Dr. Le Mignant. „Diese neuen Daten werden insbesondere aktuelle Deep-Sky-Surveys ergänzen, die die Entstehung von Galaxien im Universum untersuchen.“
Mehr als 21 wissenschaftliche Ergebnisse, die mit dem Keck Laser Guide Star System möglich wurden, werden heute auf der 207. Tagung der AAS in Washington DC vorgestellt “:
* In den fernen Regionen unseres Sonnensystems haben Wissenschaftler des Caltech mit dem Keck Laser Guide Star drei neue Satelliten entdeckt, die einige der größten Objekte im Kuipergürtel umkreisen. Die überraschenden Eigenschaften dieser Monde deuten darauf hin, dass sie ganz anders geformt sind als die winzigen Monde, von denen bekannt ist, dass sie kleinere Kuipergürtel-Objekte umkreisen. (A. Bouchez, Caltech)
Im Zentrum unserer eigenen Milchstraße sollte die feindliche Umgebung des supermassereichen Schwarzen Lochs die Bildung von Sternen erschweren, aber eine Gruppe massereicher junger Sterne wurde entdeckt und ihre Ursprünge sind für Wissenschaftler rätselhaft. Das Problem wird als „Paradoxon der Jugend“ bezeichnet. UCLA-Wissenschaftler können nun mit einer beispiellosen Genauigkeit von nur zwei Kilometern pro Sekunde messen, wie sich diese jungen Sterne über den Himmel bewegen, und erstmals die Umlaufbahn jedes der jungen Sterne bestimmen, die sich mehr als ein paar Lichtmonate befinden aus dem schwarzen Loch. Wissenschaftler nutzen die Umlaufbahnen der Sterne, die einen Abdruck ihres Ursprungs behalten, um zu verstehen, wie und wo diese jungen Sterne entstanden sein könnten. (J. Lu, UCLA)
* Auch in der Milchstraße entdecken Wissenschaftler der Universität von Hawaii neue ultrakühle binäre Systeme von Braunen Zwergen, einschließlich einer seltsamen neuen Art von Binärsystemen, die noch nie zuvor gesehen wurden. (M. Liu, UH-IfA)
* Wissenschaftler der UCSC und des Supernova Cosmology Project beobachteten eine Supernova in einer Galaxie, wie sie erschien, als das Universum nur 40 Prozent seines aktuellen Alters (z=1,3) hatte. Das Keck Laser Guide Star-System ermöglichte es dem Team, das schwache System zu untersuchen und die Supernovae vom Galaxienkern aufzulösen, die nur 0,4 Bogensekunden voneinander entfernt waren. Die Entdeckung wurde im Rahmen eines großen Langzeitprojekts namens „Center for Adaptive Optics Treasury Survey“ oder CATS gemacht, einem Projekt, das tiefe Hubble-Galaxienfelder mit dem Keck Laser Guide Star System untersucht. (J. Melbourne, Lick/UCSC)
„Große Fortschritte in der Astronomie werden oft durch neue Technologien zur Erforschung des Himmels angetrieben“, sagte Michael Liu vom Institut für Astronomie der Universität von Hawaii. „Durch jahrelange Anstrengung und Hingabe vieler Menschen ermöglicht uns das Keck-System, das gesamte Universum in einem neuen (Natrium-)Licht zu sehen.“
Mehr als 20 Prozent aller verfügbaren Beobachtungsnächte bis Juli 2006 am Keck II-Teleskop werden den Natriumlaser verwenden. Laserleitsternsysteme übertreffen die natürlichen Leitsterne nicht, sondern übernehmen am schwachen Himmel dort, wo es keine ausreichend hellen Sterne gibt. Bei hellen Objekten mit einer Größe von 10 oder mehr liefern natürliche Leitsternsysteme immer noch etwas bessere Bilder und werden für etwa 30 Prozent der adaptiven Optikforschung am W. M. Keck-Observatorium verwendet.
Die Zukunft
Der regelmäßige Einsatz von Natriumlasern mit adaptiver Optik steckt noch in den Kinderschuhen, aber für die meisten großen Observatorien werden Laserleitsterne entwickelt, insbesondere für das Very Large Telescope der European Southern Observatory, die Gemini North- und Gemini South-Teleskope und das National Astronomical Observatory of Japan Subaru Teleskop. Außerdem ist geplant, innerhalb der nächsten drei Jahre ein neues Laserleitsternsystem am Keck I-Teleskop zu installieren und die Effizienz und Zuverlässigkeit des bestehenden Lasersystems am Keck II zu verbessern.
Danksagung
Die W. M. Keck Stiftung hat den Bau der beiden 10-Meter-Keck-Teleskope sowie der adaptiven Optik und der Laserleitsternsysteme maßgeblich finanziert. Zusätzliche Mittel für das Laser Guide Star Adaptive Optics-System wurden von der NASA, dem Lawrence Livermore National Laboratory (LLNL) und dem Center for Adaptive Optics bereitgestellt. Das Laser Guide Star Adaptive Optics System wurde von einem Team am W. M. Keck Observatory implementiert. Der Natriumlaser wurde am LLNL entwickelt. Das W. M. Keck Observatory wird von der California Association for Research in Astronomy verwaltet, einer gemeinnützigen Gesellschaft gemäß 501 (c) (3), deren Vorstand Vertreter von Caltech, der University of California und der NASA sind.
Neuer Laser, um den Himmel von Weltraumschrott zu befreien
Kredit: Australian National UniversityForscher der Australian National University (ANU) haben eine Technik genutzt, die Teleskopen hilft, Objekte am Nachthimmel klarer zu sehen, um gegen gefährlichen und kostspieligen Weltraumschrott zu kämpfen.
Die Arbeit der Forscher an adaptiver Optik – die die durch Turbulenzen in der Atmosphäre verursachte Trübung beseitigt – wurde auf einen neuen „Leitstern“-Laser angewendet, um Weltraumschrott besser zu identifizieren, zu verfolgen und sicher zu bewegen.
Weltraummüll ist eine große Bedrohung für die 700 Milliarden US-Dollar teure Weltrauminfrastruktur, die täglich lebenswichtige Dienste rund um den Globus bereitstellt. Mit der adaptiven Optik des Laserleitsterns hat diese Infrastruktur nun eine neue Verteidigungslinie.
Die Optiken, die den Leitsternlaser fokussieren und lenken, wurden von den ANU-Forschern zusammen mit Kollegen von Electro Optic Systems (EOS), der RMIT University, Japan und den USA als Teil des Space Environment Research Center (SERC) entwickelt.
EOS wird nun die neue Leitstern-Lasertechnologie kommerzialisieren, die auch in Toolkits integriert werden könnte, um Boden-Weltraum-Satellitenkommunikation mit hoher Bandbreite zu ermöglichen.
Die Laserstrahlen, die zum Aufspüren von Weltraumschrott verwendet werden, verwenden Infrarotlicht und sind nicht sichtbar. Im Gegensatz dazu propagiert der neue Leitsternlaser, der an einem Teleskop montiert ist, einen sichtbaren orangefarbenen Strahl in den Nachthimmel, um einen künstlichen Stern zu erzeugen, mit dem sich die Lichtverzerrung zwischen Erde und Weltraum genau messen lässt.
Dieses leitende orange Licht ermöglicht es adaptiven Optiken, Bilder von Weltraummüll zu schärfen. Es kann auch einen zweiten, stärkeren Infrarot-Laserstrahl durch die Atmosphäre leiten, um Weltraumschrott präzise zu verfolgen oder sogar sicher aus der Umlaufbahn zu bringen, um Kollisionen mit anderen Trümmern zu vermeiden und schließlich in der Atmosphäre zu verbrennen.
Die leitende Forscherin, Professorin Celine D'Orgeville von der ANU, sagt, adaptive Optik sei wie "das Funkeln von den Sternen entfernen".
"Aber das ist gut so", sagte Professor D'Orgeville.
„Ohne adaptive Optik sieht ein Teleskop ein Objekt im Weltraum wie einen Lichtfleck. Das liegt daran, dass unsere Atmosphäre das Licht verzerrt, das sich zwischen der Erde und diesen Objekten bewegt.
„Aber mit adaptiver Optik werden diese Objekte leichter zu sehen und ihre Bilder werden viel schärfer. Im Wesentlichen durchschneidet die adaptive Optik die Verzerrung in unserer Atmosphäre und stellt sicher, dass wir die unglaublichen Bilder, die unsere leistungsstarken Teleskope aufnehmen, klar sehen können.
„Dazu gehören kleine, von Menschenhand geschaffene Objekte – wie Wetter- und Kommunikationssatelliten oder Weltraumschrott.
"Deshalb ist diese Entwicklung ein so wichtiger Durchbruch, wenn es darum geht, unseren Nachthimmel von der immer größer werdenden Unordnung von Weltraummüll zu befreien."
Der Leitsternlaser EOS und die adaptiven Optiksysteme von ANU befinden sich am ANU Mount Stromlo Observatory in Canberra, Australien.
Die ANU-Forscher werden nun mit EOS zusammenarbeiten, um die neue Technologie zu testen und sie auf eine Reihe anderer Anwendungen anzuwenden, einschließlich der Laserkommunikation zwischen der Erde und dem Weltraum.
Es ist eine spannende Entwicklung, die dazu beitragen wird, das breite Spektrum wichtiger Anwendungen der Weltraumtechnologie im 21. Jahrhundert zu sichern.
Laser, um Weltraumschrott zu zappen, Finanzierung für SKA
ANU-Team hilft beim Bau eines Lasers, um Weltraumschrott zu bewegen PM kündigt Finanzierungsschub für die Astronomie an.
Forscher der Australian National University, die mit dem Verteidigungstechnologieunternehmen EOS zusammengearbeitet haben, haben Laser entwickelt, um Weltraumschrott aus der Umlaufbahn zu sprengen.
Weltraummüll (oder „Schrott“) wird zu einem ernsthaften Problem, da die Umlaufbahnen immer mehr mit stillgelegten Raumfahrzeugen und anderen Objekten sowie neuen Satelliten überlastet werden. Trümmer können in Vermögenswerte wie die Internationale Raumstation ISS einschlagen, und selbst ein kleines Objekt kann im Weltraum großen Schaden anrichten.
Der „Leitsternlaser“ der ANU wird adaptive Optiken verwenden, um Weltraumschrott besser zu erkennen, zu verfolgen und zu bewegen.
Adaptive Optiken korrigieren Trübungen durch atmosphärische Turbulenzen – den Effekt, der Sterne zum Funkeln bringt. Es „entfesselt“ sie.
Die leitende Forscherin, ANU-Professorin Celine D’Orgeville, sagte, dass „das Entfernen des Funkelns von den Sternen“ die atmosphärische Verzerrung durchschneidet, sodass Objekte klarer gesehen werden können.
„Dazu gehören kleine, von Menschenhand geschaffene Objekte – wie Wetter- und Kommunikationssatelliten oder Weltraumschrott“, sagte sie.
Ben Greene, CEO der EOS-Gruppe, sagte, EOS unterhalte eine Datenbank mit Weltraumobjekten und werde sie nun aktiv manipulieren können.
„Weltraummüll ist eine große Bedrohung für die Gesellschaft, weltweit, aber insbesondere in Australien aufgrund unserer starken wirtschaftlichen Abhängigkeit von Weltraumressourcen“, sagte er.
Als erfreuliches Neues für die Erforschung des Weltraums hat die Bundesregierung 387 Millionen US-Dollar für Supercomputing-Fähigkeiten bereitgestellt, die Astronomen helfen werden, den Anfang des Universums zu untersuchen.
Am Mittwoch stellte Premierminister Scott Morrison 300 Millionen US-Dollar über ein Jahrzehnt für das Square Kilometre Array Observatory in Westaustralien bereit, das das größte Radioteleskop der Welt sein wird.
Laut CSIRO wird SKA in seiner ersten Phase „Daten mit einer Geschwindigkeit von etwa 157 Terabyte pro Sekunde verarbeiten, was ausreicht, um täglich 27 Millionen Laptops mit Daten zu füllen und etwa das Fünffache des geschätzten weltweiten Internetverkehrs im Jahr 2015 ist“.
Der Rest des Geldes geht an das Pawsey Supercomputing Centre, das den weltweit ersten Diamant-Quantenbeschleuniger beherbergen soll, sowie an Glasfaserverbindungen und Standortbereitschaft.
Australien wird im Rahmen seiner Zusammenarbeit mit 15 weiteren Ländern den Niederfrequenzteil des SKA aufbauen und beherbergen. Bis zu einer Million Antennen werden Wissenschaftlern helfen, die ersten Milliarde Jahre des Universums zu modellieren, einschließlich der Entstehung der ersten Sterne und Galaxien.
Das Pawsey Supercomputing Center wird diese Daten verarbeiten und steht auch Organisationen in ganz Australien zur Verfügung.
Premierminister Morrison sagte, die Technologie würde Wissenschaftlern helfen, „einige der größten Probleme zu lösen, die es gibt“.
„Die Quantencomputing-Fähigkeit ist nicht nur für die Lösung tiefgreifender wissenschaftlicher Probleme unerlässlich, sondern für die nationale Sicherheit absolut unerlässlich“, sagte er.
Tory Hirte
Tory Shepherd ist ein freiberuflicher Journalist aus Adelaide, der für The Advertiser über Space 2.0 berichtet hat.
Lesen Sie wissenschaftliche Fakten, keine Fiktion.
Es gab noch nie einen wichtigeren Zeitpunkt, um die Fakten zu erklären, evidenzbasiertes Wissen zu schätzen und die neuesten wissenschaftlichen, technologischen und technischen Durchbrüche zu präsentieren. Cosmos wird von The Royal Institution of Australia herausgegeben, einer Wohltätigkeitsorganisation, die es sich zum Ziel gesetzt hat, Menschen mit der Welt der Wissenschaft zu verbinden. Finanzielle Beiträge, egal wie groß oder klein, helfen uns, Zugang zu vertrauenswürdigen wissenschaftlichen Informationen zu einer Zeit zu bieten, in der die Welt sie am dringendsten benötigt. Bitte unterstützen Sie uns noch heute mit einer Spende oder dem Kauf eines Abonnements.
SpendenEine kurze Geschichte der laseradaptiven Optik
In diesem Artikel konzentriere ich mich auf die Beiträge zweier Personen zur Entwicklung adaptiver Optik. Ich habe viele wichtige Namen weggelassen, um die Beiträge von Dr. Max im Rahmen des Weber-Preises kurz hervorheben zu können. Eine internationale Besetzung von Wissenschaftlern und Ingenieuren hat die moderne AO zu dem gemacht, was sie heute ist.
JASON (keine Beziehung) ist eine kleine, zivile Elitegruppe von Wissenschaftlern, die die Regierung in Wissenschaft und Technologie berät, hauptsächlich durch geheime Studien für das DoD, DoE und die verschiedenen Geheimdienste. Ihre Mitglieder haben viele wichtige Konzepte für diese Agenturen entwickelt, von denen viele inzwischen freigegeben wurden.
Eines der Mitglieder, Claire Max, ist vielen Astronomen als Direktorin der Observatorien der University of California bekannt. Es gibt eine erstaunliche Geschichte darüber, wie sich die Astronomie für immer verändert hat, die in den 70er Jahren beginnt und an der JASON, Dr. Max, Freeman Dyson, Ronald Reagan beteiligt sind … nun, fangen wir am Anfang an.
In den frühen 1960er Jahren war der unbestrittene Universalgelehrte und Genie Freeman Dyson (ja, dieser Freeman Dyson) Mitglied von JASON und arbeitete an vielen Projekten für sie. Laut seinem Kommentar hier schlug Harold Lewis 1972 vor, dass Herr Dyson eine Theorie für ein Kontrollsystem entwickelt, das einem Teleskop helfen könnte, die Unschärfeeffekte der Erdatmosphäre zu korrigieren. Dies würde es Satelliten ermöglichen, klarere Bilder vom Boden zu machen, und Teleskopen, um klarere Bilder von Satelliten zu machen. Mr. Dyson fand das Problem interessant und schrieb nach der Freigabe des Projekts 1975 eine vorausschauende Arbeit zu diesem Thema, in der er die Grenzen der Schärfe von Bildern beim Blick durch die Atmosphäre untersuchte.
Mr. Dyson versuchte zunächst in den USA, später in Europa und Russland, Astronomen davon zu überzeugen, sich der Technologie zu widmen, konnte jedoch ihr Interesse nicht wecken (vielleicht war das Problem aus technischer Sicht noch zu schwer? Oder vielleicht die Aussicht auf exquisite Bilder nur der hellsten Sterne war nicht verlockend genug). Herr Dyson spekulierte, dass (wahre) Gerüchte, dass das US-Militär die Technologie entwickelt, die „Neuerfindung des Rades“ als Zeitverschwendung erscheinen ließen. Dann kündigte Ronald Reagan die Strategic Defense Initiative („Star Wars“) an, klassifizierte einen Großteil der Forschung in diesem Gebiet und bestätigte diese Gerüchte. Dyson schreibt, dass „diese Maßnahme den Fortschritt in der adaptiven Optik um zehn Jahre zurückwarf“.
Prof. Claire Max von der UC Santa Cruz
Claire Max, ein weiterer JASON, beschäftigte sich unterdessen mit dem Problem der adaptiven Optik und beklagte, dass sie nur auf hellen Zielen mit vielen Photonen eingesetzt werden könne. Typische astronomische Quellen waren sehr schwach, und so waren die Grenzen, die Mr. Dyson für sie berechnet hatte, ziemlich gering, was bedeutete, dass Astronomen die Technologie nicht unbedingt verwenden konnten. In Zusammenarbeit mit anderen JASON-Mitgliedern (wie ich die Geschichte gehört habe) entwickelte Dr. Max eine Technologie, um einen orangefarbenen Laser in die obere Atmosphäre zu schießen, der die dortige Natriumatomschicht anregen würde. Diese leuchtenden Atome würden wieder nach unten leuchten und den Astronomen die Photonen geben, die sie brauchten, um die durch die Atmosphäre verursachten Verzerrungen zu berechnen. Mit dieser „Laser Guide Star Adaptive Optics“-Technologie könnte der gesamte Himmel trotz Atmosphäre so klar und scharf dargestellt werden, wie es die Quantenphysik zulässt.
Ja, das sieht wirklich so aus.
1991 gelang es Dr. Max schließlich, die Technologie freizugeben, und begann dann am Lawrence Livermore National Laboratory zu arbeiten, um das Shane 120-Zoll-Teleskop am Lick-Observatorium mit einem laseradaptiven Optiksystem auszustatten, ein Programm, das 1996 erfolgreich war Als Doktorand in Berkeley sah ich oft, wie der Shane die ganze Nacht mit seinem orangefarbenen Laser in den Himmel schoss, während ich an der CAT arbeitete.
Andrea Ghez, Entdeckerin des Schwarzen Lochs im Zentrum der Milchstraße, Nutzerin von LGS AO auf Keck
Dr. Max würde dann die Keck-Designstudie „Blue Book“ herausgeben, einen Entwurf für den Aufbau des erfolgreichsten AO-Systems, das für die vorhandene Technologie möglich ist. Diese Vorlage wurde für das erfolgreiche Keck-Laser-AO-System verwendet, das Dr. Max instrumental hervorgebracht hat (und das Andrea Ghez verwenden würde, um das supermassive Schwarze Loch im Zentrum der Milchstraße zu wiegen, was im Wesentlichen beweist, dass Schwarze Löcher existieren). Es wurde auch für den Gemini Planet Imager verfolgt, der jetzt Planeten abbildet, die andere Sterne umkreisen, und andere AO-Systeme der nächsten Generation.
1999 wurde die UC Santa Cruz Gastgeber des National Science Foundation Center for Adaptive Optics, das die Technologie weiterentwickelte und eine neue Generation von Astronomen in Theorie, Design und Anwendung von AO ausbildete. Dr. Max half beim Vorschlagen des Zentrums und fungierte als dessen Direktor. The CfAO kept the US competitive with Europe in AO design, and generated many of the cutting edge technologies used today in AO.
The whole $1 billion Thirty Meter Telescope concept relies on being able to construct giant space lasers. Seriously.
Today, laser guide star adaptive optics is an essential technology for every large telescope in the world. It is the basis for the case for the next generation of extremely large telescopes like the Giant Magellan Telescope, the European Extremely Large Telescope, and the Thirty Meter Telescope. It allows astronomers to obtain space-quality images of any part of the sky, using the principles laid down by Freeman Dyson in the mid ’70’s.
So it is quite overdue, but welcome nonetheless, that the AAS has awarded Claire Max the 2015 Joseph Weber award for Instrumentation. The citation is “for co-inventing sodium laser guide star adaptive optics and for shepherding adaptive optics from its roots in classified space surveillance to its prominence today as an essential technology on large telescopes. Her leadership has truly advanced the field of adaptive optics and transformed how we observe by making near diffraction-limited imaging possible on large telescopes, thus opening new fields of discovery including resolving stars and gas near supermassive black holes and studying extrasolar planets.”
I’m not an AO guy, I was just around at Berkeley/Lick when a lot of the laser AO stuff was happening. Bruce Macintosh, Marshall Perrin, and Norbert Hubin all contributed to my understanding of the history of LGS AO, but any errors in the above are my own. If you know more about this history or see a mistake, please leave a comment!
Tiny satellites could be 'guide stars' for huge next-generation telescopes
There are more than 3,900 confirmed planets beyond our solar system. Most of them have been detected because of their "transits"—instances when a planet crosses its star, momentarily blocking its light. These dips in starlight can tell astronomers a bit about a planet's size and its distance from its star.
But knowing more about the planet, including whether it harbors oxygen, water, and other signs of life, requires far more powerful tools. Ideally, these would be much bigger telescopes in space, with light-gathering mirrors as wide as those of the largest ground observatories. NASA engineers are now developing designs for such next-generation space telescopes, including "segmented" telescopes with multiple small mirrors that could be assembled or unfurled to form one very large telescope once launched into space.
NASA's upcoming James Webb Space Telescope is an example of a segmented primary mirror, with a diameter of 6.5 meters and 18 hexagonal segments. Next-generation space telescopes are expected to be as large as 15 meters, with over 100 mirror segments.
One challenge for segmented space telescopes is how to keep the mirror segments stable and pointing collectively toward an exoplanetary system. Such telescopes would be equipped with coronagraphs—instruments that are sensitive enough to discern between the light given off by a star and the considerably weaker light emitted by an orbiting planet. But the slightest shift in any of the telescope's parts could throw off a coronagraph's measurements and disrupt measurements of oxygen, water, or other planetary features.
Now MIT engineers propose that a second, shoebox-sized spacecraft equipped with a simple laser could fly at a distance from the large space telescope and act as a "guide star," providing a steady, bright light near the target system that the telescope could use as a reference point in space to keep itself stable.
In a paper published today in the Astronomical Journal, the researchers show that the design of such a laser guide star would be feasible with today's existing technology. The researchers say that using the laser light from the second spacecraft to stabilize the system relaxes the demand for precision in a large segmented telescope, saving time and money, and allowing for more flexible telescope designs.
"This paper suggests that in the future, we might be able to build a telescope that's a little floppier, a little less intrinsically stable, but could use a bright source as a reference to maintain its stability," says Ewan Douglas, a postdoc in MIT's Department of Aeronautics and Astronautics and a lead author on the paper.
The paper also includes Kerri Cahoy, associate professor of aeronautics and astronautics at MIT, along with graduate students James Clark and Weston Marlow at MIT, and Jared Males, Olivier Guyon, and Jennifer Lumbres from the University of Arizona.
For over a century, astronomers have been using actual stars as "guides" to stabilize ground-based telescopes.
"If imperfections in the telescope motor or gears were causing your telescope to track slightly faster or slower, you could watch your guide star on a crosshairs by eye, and slowly keep it centered while you took a long exposure," Douglas says.
In the 1990s, scientists started using lasers on the ground as artificial guide stars by exciting sodium in the upper atmosphere, pointing the lasers into the sky to create a point of light some 40 miles from the ground. Astronomers could then stabilize a telescope using this light source, which could be generated anywhere the astronomer wanted to point the telescope.
"Now we're extending that idea, but rather than pointing a laser from the ground into space, we're shining it from space, onto a telescope in space," Douglas says. Ground telescopes need guide stars to counter atmospheric effects, but space telescopes for exoplanet imaging have to counter minute changes in the system temperature and any disturbances due to motion.
The space-based laser guide star idea arose out of a project that was funded by NASA. The agency has been considering designs for large, segmented telescopes in space and tasked the researchers with finding ways of bringing down the cost of the massive observatories.
"The reason this is pertinent now is that NASA has to decide in the next couple years whether these large space telescopes will be our priority in the next few decades," Douglas says. "That decision-making is happening now, just like the decision-making for the Hubble Space Telescope happened in the 1960s, but it didn't launch until the 1990s.'"
Cahoy's lab has been developing laser communications for use in CubeSats, which are shoebox-sized satellites that can be built and launched into space at a fraction of the cost of conventional spacecraft.
For this new study, the researchers looked at whether a laser, integrated into a CubeSat or slightly larger SmallSat, could be used to maintain the stability of a large, segmented space telescope modeled after NASA's LUVOIR (for Large UV Optical Infrared Surveyor), a conceptual design that includes multiple mirrors that would be assembled in space.
Researchers have estimated that such a telescope would have to remain perfectly still, within 10 picometers—about a quarter the diameter of a hydrogen atom—in order for an onboard coronagraph to take accurate measurements of a planet's light, apart from its star.
"Any disturbance on the spacecraft, like a slight change in the angle of the sun, or a piece of electronics turning on and off and changing the amount of heat dissipated across the spacecraft, will cause slight expansion or contraction of the structure," Douglas says. "If you get disturbances bigger than around 10 picometers, you start seeing a change in the pattern of starlight inside the telescope, and the changes mean that you can't perfectly subtract the starlight to see the planet's reflected light."
The team came up with a general design for a laser guide star that would be far enough away from a telescope to be seen as a fixed star—about tens of thousands of miles away—and that would point back and send its light toward the telescope's mirrors, each of which would reflect the laser light toward an onboard camera. That camera would measure the phase of this reflected light over time. Any change of 10 picometers or more would signal a compromise to the telescope's stability that, onboard actuators could then quickly correct.
To see if such a laser guide star design would be feasible with today's laser technology, Douglas and Cahoy worked with colleagues at the University of Arizona to come up with different brightness sources, to figure out, for instance, how bright a laser would have to be to provide a certain amount of information about a telescope's position, or to provide stability using models of segment stability from large space telescopes. They then drew up a set of existing laser transmitters and calculated how stable, strong, and far away each laser would have to be from the telescope to act as a reliable guide star.
In general, they found laser guide star designs are feasible with existing technologies, and that the system could fit entirely within a SmallSat about the size of a cubic foot. Douglas says that a single guide star could conceivably follow a telescope's "gaze," traveling from one star to the next as the telescope switches its observation targets. However, this would require the smaller spacecraft to journey hundreds of thousands of miles paired with the telescope at a distance, as the telescope repositions itself to look at different stars.
Instead, Douglas says a small fleet of guide stars could be deployed, affordably, and spaced across the sky, to help stabilize a telescope as it surveys multiple exoplanetary systems. Cahoy points out that the recent success of NASA's MARCO CubeSats, which supported the Mars Insight lander as a communications relay, demonstrates that CubeSats with propulsion systems can work in interplanetary space, for longer durations and at large distances.
"Now we're analyzing existing propulsion systems and figuring out the optimal way to do this, and how many spacecraft we'd want leapfrogging each other in space," Douglas says. "Ultimately, we think this is a way to bring down the cost of these large, segmented space telescopes."
Wake Forest Professor's Math Gives Telescopes, New Laser Weapons "Hubble-Like" Vision
The Hubble Space Telescope isn¹t the only stargazer getting better eyes to view the universe.
A Wake Forest University professor's applied mathematics are part of new adaptive optics technology producing "Hubble-like" improvements in the sight of ground-based telescopes and new laser weapons.
Adaptive optics combines powerful lasers, high-speed computers, active mirrors that can rapidly alter their shape, and Robert J. Plemmons¹ problem-solving mathematical algorithms to reconstruct images distorted by Earth¹s atmosphere. By analyzing light returning from bright stars such as Vega or artificial stars created by shining a laser into the night sky, scientists can diminish the distorting effects of Earth¹s atmosphere.
The result: telescopes able to see 50 to 100 times more detail and laser-guided weapons better able to zap enemy missiles.
"Atmospheric effects are continuously changing so when you deblur an image, you have to do billions and billions of computations fast," said Plemmons, Z. Smith Reynolds Professor of Mathematics and Computer Science at Wake Forest. "When we look at a distant galaxy, the light from it travels, say, several million years to reach Earth but only gets blurred in the last few microseconds. That's the basic problem of atmospheric imaging."
No fewer than 10 telescopes are adding adaptive optics systems to improve their view, including what is now the highest-resolution telescope on Earth: the Air Force Phillips Laboratory¹s 3.5-meter, $27 million instrument at the Starfire Optical Range in New Mexico. Equipped with adaptive optics in January under a project supported by the Air Force Office of Scientific Research (AFOSR) and the National Science Foundation, the telescope can track softball-sized objects traveling 1,000 miles above the surface.
Plemmons¹ algorithms, developed in more than 25 years of research for the Defense Department, are also being used to overcome wind, hot air and other atmospheric turbulence that could affect the aim of the Air Force¹s $1.1-billion Airborne Laser Weapons System (ABL), designed to fire a laser through the nose of an aircraft to zap enemy missiles.
Astronomer Horace Babcock first proposed the idea of adaptive optics in 1953, but the first experiments did not begin until the 1970s. Only in the 1980s, with the Strategic Defense Initiative (SDI), or "Star Wars," did Plemmons and other adaptive optics researchers gain substantial funding. Ironically, the declassification of SDI work in 1991 has revolutionized ground-based astronomy.
"Whether you are trying to shine a laser on a target or get a sharp image of something in orbit, you have the same problems," said Maj. Scott Shreck, manager of the AFOSR's computational mathematics program.
Better eyes for the heavens also help the Air Force keep better tabs on spy satellites or protect space shuttle crews and satellites from orbiting space junk. "Some of this space junk will cause trouble when it comes down," Plemmons said. "Some U.S. and old Soviet satellites have nuclear power systems, so we want to know where they are."
Twinkling stars and other annoying effects of the Earth¹s atmosphere on light has confounded stargazers since the invention of the telescope. It was Christian Huygens, the inventor of the pendulum clock, who first noticed in the 17th century that heavenly bodies quivered in telescopic view through no fault of the telescope. Sir Isaac Newton observed in 1704: "The only remedy is a most serene and quiet air."
Iraqi Scuds and other missile threats have now made Newton¹s "remedy" a national defense priority. "We don't yet have a good ballistic missile defense system against Scud-type threats," said Plemmons, who testified before Congress last spring on the need for more basic science research to avoid the kind of mathematical errors that sent an Iraqi Scud into a U.S. Army barracks in Dhahran, Saudi Arabia , on Feb. 25, 1991, killing 28 Americans.
"It¹s not enough to just hit a target," Plemmons said. "The idea behind the ABL program is to image the nose cone of an incoming missile and fire the laser from the aircraft at the fuel supply behind the nose cone -- where it¹s most vulnerable -- and before the missile reaches its zenith, when it¹s still over enemy territory."
Author of more than 150 papers and five books on computational mathematics, Plemmons envisions the day when the math of adaptive optics will allow ground-based telescopes to possess the same imaging accuracy as the Hubble.
For now, he said both the Hubble and ground-based telescopes have roles in the exploration of the universe¹s mysteries. The larger mirrors of ground-based telescopes allow them to see the bigger picture of celestial bodies, whole planets and stars. The pristine vacuum of space allows the Hubble to better inspect individual areas and gather ultraviolet, X-ray and other light Earth¹s atmosphere blocks out.
"One doesn¹t exclude the other," Plemmons said. "We need both."
Haftungsausschluss: AAAS und EurekAlert! sind nicht verantwortlich für die Richtigkeit von Pressemitteilungen, die an EurekAlert! durch beitragende Institutionen oder für die Nutzung von Informationen über das EurekAlert-System.
From Cosmology to Biology
In 2014, Eric Betzig won a Nobel Prize for breaking the law. Specifically, Abbé's Law, which set a limit to how deeply optical microscopes could peer into their subjects. Betzig's workaround used fluorescent molecules to light up living cells from the inside. But, breaking one closely held assumption wasn't enough for Betzig. In his acceptance lecture to Stockholm University, Betzig told the audience that optical microscopy must free itself from petri dishes and cover slips. "That's not where cells evolved we need to look at them inside the whole organism," he said. That is, by peering into dense, living tissue. This was no idle call to action. Using technology borrowed from astronomy, his lab had already witnessed neurons firing in the brain of a live mouse.
That technology is called adaptive optics, and it's one of the marquee stories in the annals of tech transfer. First theorized in the 1950s, adaptive optics is, at its most basic, a two-part system: a sensor reads distortion on incoming light, and a deformable mirror changes shape to match that distortion, unscrambling the photons while reflecting them to the objective viewer. Simple as that sounds, even the most rudimentary models took decades to develop. Many of the essential technological innovations took place in classified military programs&mdashnotably, the oft-maligned "Star Wars" defense initiative. When declassified in the early 1990s, that work reinvigorated civilian astronomy.
In his book The Adaptive Optics Revolution, historian Robert Duffner calls adaptive optics, "the most revolutionary technological breakthrough in astronomy since Galileo pointed his telescope skyward to explore the heavens 400 years ago." And adaptive optics is still revolutionizing science, at both macro- and microscopic scale. Biologists use adaptive optics to see cellular interplay in live tissue vision scientists use it to map individual eyeball aberrations lithographers can now etch transistor circuitry inside deeply refractive crystal and, as recently as January of this year, astronomers used it to see what they believe is the birth of either a neutron star or black hole.
It all started with the twinkle of the stars. After being flung from burning globs of gas, stellar photons cross the universe unmolested. That is, until they reach Earth's atmosphere. The mix of warm and cool air up there creates a turbulent mess for light, which will bend its path to travel through relatively dense mediums.
In 1953, astronomer Horace Babcock came up with an idea to untwinkle the stars. In the journal Publications of the Astronomical Society of the Pacific, he described a "seeing compensator" that compared distorted stellar light against light generated by a bright "control star." His original concept called for bouncing the incoming light off an Eidophor&mdasha mirror covered in a thin layer of electrified oil. Inner gadgetry would produce a schlieren image, showing distortion in the incoming light waves. This schlieren image would then pass through a type of television tube called an orthicon, which would transmit the perceived distortion levels back to the Eidophor mirror. The electric impulses controlling the surface tension of the oily mirror would distort the Eidophor so it matched the incoming distortion. And, this would be a closed-loop feedback, constantly reading and morphing to match the distorted photons. Given how quickly atmospheric turbulence shifts, this last bit was essential. If it all worked perfectly, the astronomer would get a clear view of their desired celestial object.
Alas, contemporary technology couldn't meet Babcock's specs. It was another decade before anyone began designing rudimentary adaptive optics systems. But military and aerospace researchers, rather than astronomers, picked up the thread. Sputnik&mdashlaunched in 1953&mdashsparked a reconnaissance race between the US and USSR. As each nation covertly tried to keep tabs on its rival's armaments, both sides launched hundreds of satellites. "This was a time when the US was very interested to know what the Soviets were getting up to in space," says Robert Fugate, a retired senior scientist with the Air Force Research Laboratory in Kirtland, New Mexico, who spearheaded many of the military's later classified efforts with adaptive optics. By the mid-60s, some US defense thinkers thought Babcock's ideas might help them get a better look at those Soviet satellites. It also might be able to see other threats, like incoming missiles. Some even thought these techniques might someday translate into laser energy weapons capable of shooting those enemy missiles down.
The first military research took root in upstate New York, at the Rome Air Development Center. Funded by the Advanced Research Projects Agency&mdasha government-funded civilian agency that later became DARPA&mdashthese Air Force researchers teamed up with civilian corporation Itek to tackle the basic systems behind adaptive optics: the wavefront sensor, deformable mirror, and processor capable of relaying the constant signals between the two. The groups also gathered data on light passing through the atmosphere. Some of those experiments involved flying a B-57 with a 1,200 watt tungsten light bulb over the base. Unsurprisingly, civilians living in the area concocted all sorts of stories to explain those lights, even though the research group was forthcoming about the nature of their work. By the early 70s, Rome and Itek had a prototype system capable of measuring atmospheric distortion: the real-time atmospheric compensation (RTAC).
Building and testing the first AO system
Impressed with Itek's role, in 1973 DARPA awarded the company a contract to further the RTAC concept. Once again, the company partnered with Rome's Air Force scientists. Between 1976 and 1981, they developed the compensated imaging system and installed it on the 1.6 meter telescope atop Haleakala volcano in Hawaii. In March of 1982, they tested it for the first time. In The Adaptive Optics Revolution, Robert Duffner describes this maiden run:
"Scientists aimed the telescope at a star. The first image danced around and looked washed out and blurry. But when Don Hanson pushed the button to activate the adaptive optics on the telescope . a dramatic change occurred: the image became much brighter, clearer, and more detailed."
Exciting as it was, the experiments were classified, and the astronomers at that Maui telescope were sworn from telling their colleagues about the breakthrough. On top of that, the DOD didn't seem particularly impressed with the results, at least not enough to bring adaptive optics into production. See, adaptive optics systems need a lot of light to work. Some of it goes to the wavefront sensor, so the device can measure the distortion. Many stars, and most satellites, aren't bright enough on their own to provide the light needed for adaptive optics with enough left over for the telescope to see the image. Astronomers would work around this by imaging a second nearby star as a "guide." Satellites were trickier. The best method was imaging the satellite just after sunset, but while near-Earth orbit was still illuminated by the sun's light. The adaptive optics system would use the reflected sunlight to measure the atmospheric distortion.
"However, making reflected sunlight from the satellite itself the guide star for the system just is not practical," says Fugate. For one, this limited the time a telescope with adaptive optics had to collect satellite imagery to just a few minutes each day. Also, sometimes the reflected sunlight wasn't bright enough to correct the imaging. These drawbacks made the system too unreliable for counter-espionage purposes. But the DOD did not give up on adaptive optics. Not even close.
Using lasers as guide stars
In 2011, the European Southern Observatory tested the Wendelstein laser guide star while a thunderstorm approached.
"In the late spring of 1982, we were called to go brief the "Jasons" (a group of hard-nosed scientists who evaluated proposals for the DOD, cofounded by none other than Charles Townes) on using a laser to generate a guide star in the sky to make measurements of atmospheric distortion to be used in an adaptive optics system," says Fugate. The Jasons approved this proposal.
The 1980s were heady times for Fugate. He returned to work at Starfire Optical Range in New Mexico. While refining laser guide star concepts, he continued to develop core adaptive optics systems and even managed to finagle a combined $1 million from the Air Force and Strategic Defense Initiative to get the Starfire Optical Range its own 1.5 meter telescope. And then, on 13 February 1989, he completed the first successful test of adaptive optics combined with a laser guide star, correcting atmospheric distortions in real time.
This was another amazing breakthrough for adaptive optics. The laser guide star allowed corrections that provided unprecedented views of the stars&mdashand satellites. And, it was a breakthrough that mainstream astronomy had no idea about, thanks to national security.
However, the veil would soon lift. The Strategic Defense Initiative&mdashwhich had funded a lot of Fugate's work&mdashwas winding down. He and others set to work lobbying the military to declassify its work on adaptive optics and laser guide stars. Astronomers around the world were also working on adaptive optics and laser guide stars, but were wasting brain power trying to solve problems the US military had figured out years before.
By 1990, the Air Force decided declassifying wouldn't give America's enemies any real strategic advantage. It planned several avenues for releasing this information, the most important (and dramatic) of which was Fugate's presentation at the meeting of the American Astronomical Society in 1991 in Seattle. His presentation featured a slide of side-by-side pictures: On the left, a blurry fuzz. On the right, two tightly focused shining balls of light. The pictures showed the same star system, before and after adaptive optics with laser guide stars.
Fugate's presentation was a smash, and afterward he and his colleagues worked hard to share their work with other astronomers. His influence percolated into other disciplines as well.
Adaptive optics for vision science
Eyes are tempestuous little organs, and in the early 1990s ophthalmologist David Williams heard some colleagues from the University of Rochester's optics labs discussing a new technology that might help him peer through ocular distortion. "I cold-called Fugate out of the blue and told him what I wanted to do," says Williams. Fugate told Williams to come on down to Albuquerque&mdashbut told him to show up around midnight. "Astronomers are nocturnal creatures," says Williams. After the visit, Williams returned to Rochester, bought a deformable mirror, and hired a grad student who knew how to build wavefront sensors. They spent the next few years building adaptive optics systems for eye science.
During the 90s, civilian astronomers were pushing adaptive optics further in their own field. One of the most proactive was SPIE Fellow Claire Max, an astrophysicist and Jasons member who, at the time, was based at Lawrence Livermore National Laboratory. She had spearheaded efforts to build the first astronomical laser guide star at Lick Observatory, and wanted to continue innovating systems for larger aperture telescopes. However, she was having trouble finding funding to match the scale of her ambitions. That is, until she and her colleague Jerry Nelson at UC Santa Cruz attended a workshop given by the head of a NSF Science and Technology Center where they heard about 10-year NSF grants worth a few million each year. "This gives you time and money to do ambitious projects," says Max. "We knew these NSF centers liked doing something that involved more than one discipline," she says. So, Max and Nelson contacted Williams, and included his vision work in their proposal.
They won the grant in 1999, and established the Center for Adaptive Optics at UC Santa Cruz, where for a decade astronomers and vision scientists spent that grant money collaboratively advancing adaptive optics in their respective fields, while also operating as an educational hub for the technology. After the government money ran dry, they secured extra funding, and the center continues its mission today. The astronomers successfully built bigger and better adaptive optics systems, such that even the largest-aperture telescopes could benefit from the technology. Meanwhile, the vision research led to significant breakthroughs in anatomy and clinical care. They were able to get 3D views of the retina in high resolution, which helped them understand more about how eyes work, and also became an important diagnostic tool.
Adaptive optics played a role in surgery, too. Williams helped Bausch + Lomb develop technology to map a person's cornea for laser vision correction. Williams is currently using adaptive optics to develop a cure for blindness. "We can look into the eye and see on a cellular spatial scale whether our treatments are making a difference or not," says Williams.
From the edge of space to the limits of biology
Credit: Reproduced with permission from Liu et al., Science 360:6386 (2018).
Adaptive optics got its start helping astronomers see deep into space. Over the past two decades, it's also allowed microscopists to peer into the nuances of cellular biology. "My PhD research project 20 years ago involved some of the first work in the application of adaptive optics to microscopes," says Martin Booth, who at the time was working under Tony Wilson and Mark Neil at Oxford University. "The major part of this work was the first demonstration of adaptive aberration correction in confocal laser scanning microscopes, which are commonly used in biomedical imaging."
Since then, SPIE Senior Member Booth has established his own Oxford lab, where he continues to focus on developing the adaptive optics systems themselves. This has resulted in a blossoming array of applications and discoveries. For instance, traditional wavefront sensors don't always work at microscopic scale, so he has developed an image-based aberration measurement scheme. And, he believes this discovery could cross back over into telescopes to help maintain the active alignment of the mirrors used in the cameras of Earth-facing satellites.
Eric Betzig was introduced to adaptive optics in 2006 when he was a new hire at Janelia Research Campus. Though he'd been working on fluorescent schemes to light up single cells for superresolution (the same work that earned him a Nobel Prize in 2014), most of his new colleagues were focused on the brain. So, he got on board and hired his first postdoctoral researcher. Na Ji was part neuroscientist, part physicist, and was already using adaptive optics by the time she came to Betzig's lab.
However, as Booth had also learned, adaptive optics doesn't translate directly from astronomy to microscopy. "The challenge in astronomy is the rapid fluctuations," says Ji. "You have to make a feedback loop between the wavefront sensor and the deformable mirror thousands of times a second." In biology, the distortion doesn't fluctuate, it's just very dense. "I don't know if you've ever seen a brain, but they look like a blob of tofu," she says. Ji and Betzig came up with several highly technical alternative methods for peering through tissue. One involves a homebrewed wavefront sensor that works like an astronomical wavefront sensor in reverse. They also used fluorescent molecules inside the brain like internal guidestars and near-infrared light to penetrate into the flesh.
Betzig says he's close to retiring from microscopy. His final project is building a microscope he calls an "adaptive optics Swiss Army knife." This machine will pair every type of modern optical microscopy&mdashconfocal two photon, structural illumination, superresolution localization, expansion, lattice light sheet&mdashwith an optimized adaptive optics system. "It's still the early days of adaptive optics microscopy, and most people aren't aware of what it can do," he says. He predicts that within the next 10 to 20 years every commercial microscope will come standard with adaptive optics. "Just like with telescopes, it will make no sense to use one without it." .
-Nick Stockton is a freelance writer based in Pittsburgh, Pennsylvania. He contributes to WIRED und Popular Science.