We are searching data for your request:
Upon completion, a link will appear to access the found materials.
Ich habe versucht, mit einer permanenten Installation (Celestron $14$" SCT + Paramount ME II) und Nikon D5600 direkt an ein Baader Hyperion 8-24mm Okular (ohne Filter) angeschlossen. Die atmosphärischen Bedingungen waren nicht optimal ($65$% Feuchtigkeit, $2$ m/s Winde), das Teleskop war vor der Verwendung richtig akklimatisiert und Jupiter war in der Nähe $17^{circ}$ Höhe während der Bildgebung.
Nach der Verarbeitung $3600$ Frames (ab 1 Minute Video1 beim $60$ fps) mit Autostakkert 3 und anschließendem Ausrichten der RGB-Kanäle und Neuzusammensetzen habe ich diese erhalten:
Links (oder oben, wenn Ihr Bildschirm klein ist) verwendet $20$% des Stapels, rechts (oder unten) verwendet $50$%. Da dies mein erster Ausflug in die planetare Bildgebung ist, lautet meine Frage: Sind meine Ergebnisse angesichts des verwendeten Setups und der beschriebenen atmosphärischen Bedingungen angemessen?2
Ich frage, weil ich viel bessere Ergebnisse von Leuten gesehen habe, die kleinere Teleskope verwenden. Ich denke, die Diskrepanz ist das Ergebnis eines (oder mehrerer) der folgenden:
- Mit der von mir verwendeten Ausrüstung stimmt etwas nicht.
- Ich benutze die falsche Ausrüstung.
- Ich verarbeite die Bilder nicht richtig.
- Dies ist das Beste, was die Ausrüstung unter diesen Bedingungen leisten kann.
- Ich habe in meinem Setup oder meiner Bildgebung etwas falsch gemacht.
und ich versuche Nummer 1 auszuschließen.
Hier ist ein einzelner, unbearbeiteter Frame als Referenz:
Aktualisieren
Ich habe eine Bahtinov-Maske erworben, um den Fokus als Problem auszuschließen, hier ist eine Aufnahme von Manubrij (Omnicron Schütze) mit der Maske:
Zum Zeitpunkt der Aufnahme betrug der Winkelabstand zwischen Jupiter und diesem Stern weniger als $6^{circ}$. Die Bedingungen waren diesmal viel besser, die Luftfeuchtigkeit war $38$%, Winde waren weniger als $1$ Frau. Das Teleskop wurde vor der Verwendung etwa 2 Stunden akklimatisiert.
Wieder verwenden $3600$ Rahmen $60$ fps habe ich diese bekommen:
Links (oder oben) ist mit $10$% des Stapels, rechts (oder unten) ist mit $20$%. Das sieht für mich etwas besser aus, aber ich bin mir immer noch nicht sicher, ob ich das von der Ausrüstung erwarten soll.
1 Beachten Sie, dass das Video im Link durch ffmpeg mit dem H.265-Codec mit CRF von . komprimiert wurde $25$.
2 Dieses Ergebnis ist nur ein Beispiel - ich habe es getan $30$ Minuten der Bildgebung in $3$ Minutensegmente über mehrere Stunden, wobei das gleiche Verfahren auf andere Expositionssätze angewendet wurde, ergaben ähnliche Ergebnisse.
Ich glaube nicht, dass das einer der Punkte ist, die Sie vorschlagen. Das Zielfernrohr und die Kamera sind für das, was Sie tun, in Ordnung.
Ich würde sagen, dass der Fokus etwas daneben liegt. Es braucht viel Mühe, um es richtig zu machen
Ich möchte den Abbildungsmaßstab meiner DSLR- oder CCD-Kamera an die Brennweite meines Zielfernrohrs anpassen. Warum sollte ich das tun? Wie erhöhe oder verkleinere ich meine Brennweite oder mein Blendenverhältnis, um dies zu tun?
Das grundlegende Bildelement der heutigen elektronischen Kamera ist das Pixel. Man kann es sich als die einzelne Zelle oder Einheit auf dem Chip (Bildelement) vorstellen, die tatsächlich das Licht vom Himmel einfängt. Die Analogie zur Filmabbildung ist die Korngröße der fotografischen Emulsion.
Pixelgrößen (oder genauer der Abstand auf dem Chip) reichen von ungefähr 2 Mikrometer bis ungefähr 30 Mikrometer für Kameras, die für Astroabbildungen verwendet werden.
Bei einer an einem Teleskop befestigten Kamera befinden sich diese kleinen Pixel in der Brennebene des Teleskops. Genau wie das Filmkorn für die Auflösung kleiner Details wichtig ist, ist auch die Pixelgröße für Digitalkameras wichtig.
Ziel ist es, diese Größe mit dem Auflösungsvermögen Ihres Teleskops abzustimmen. Dies führt zu scharfen Sternenbildern in Ihren Bildern. Sie möchten nicht, dass Sie Unschärfen und Beugungsmuster in die Luft jagen oder unbeabsichtigt Details verlieren, die Sie abbilden könnten.
Dieses Konzept wird als Abbildungsmaßstab bezeichnet und wird in Bogensekunden pro Pixel gemessen.
Die Auflösung eines Teleskops ist bei Zielfernrohren mit größerer Öffnung höher. Eine grundlegende ungefähre Formel für die Auflösung besteht darin, 4 durch die Öffnung des Zielfernrohrs in Zoll zu teilen, um eine Auflösung in Bogensekunden zu erhalten. Zum Beispiel hätte ein 11-Zoll-Zielfernrohr 4/11 oder eine Auflösung von 0,36 Zoll oder ungefähr 4/10 Bogensekunden. Dieser Winkel ist die Größe der Beugungsscheibe, die von der Optik des Zielfernrohrs erzeugt wird.
Berücksichtigt man sowohl diese sogenannte Beugungsgrenze als auch, was noch wichtiger ist, Effekte aus der Atmosphäre, gibt es praktische Grenzen, die dazu führen, dass Sie keine Bilder mit der Auflösung aus der obigen Formel aufnehmen werden. Stattdessen werden Sie die sehende Scheibe oder das verschwommene Licht abbilden. In durchschnittlichen Nächten kann Ihre Auflösungsgrenze 5 Bogensekunden oder 5 Zoll betragen. In guten Nächten kann die Grenze für Deep-Sky-Objekte 2 Zoll betragen.
Die Größe einer gegebenen Winkelauflösung in Mikrometer in der Brennebene hängt von der Brennweite Ihres Zielfernrohrs ab. Diese Scheibengröße ist der Winkel in Bogensekunden mal der Brennweite des Teleskops in Millimetern geteilt durch 206. Zum Beispiel ist eine 2-Bogensekunden-Seeing-Scheibe, die mit einem C-8 Schmidt-Cassegrain-Teleskop mit einer Brennweite von 2032 mm aufgenommen wurde, 20 Mikrometer über (2 x 2032 = 4064 geteilt durch 206 ist 20).
Wenn die Auflösung eines Zielfernrohrs in Mikrometern viel größer ist als die Pixelgröße, wird die Auflösungsfähigkeit der Kamera verschwendet. Es wird nur die Unschärfe des Sehens aufgezeichnet, keine zusätzlichen Details im Objekt. Wenn die Auflösung des Oszilloskops viel kleiner als die Pixelgröße ist, wird das Auflösungsvermögen des Oszilloskops verschwendet. Während diese Situationen ihren Platz in der realen Welt der Astrofotografie haben, streben Sie oft nach einer Beinahe-Übereinstimmung in Ihrem Setup. Ermitteln Sie den Abbildungsmaßstab mit der Kamera und der grundlegenden optischen Einrichtung. Ändern Sie es dann, um den Abbildungsmaßstab an Ihre Aufgabe anzupassen, indem Sie Projektionsobjektive hinzufügen, um die Brennweite Ihres Zielfernrohrs zu vergrößern oder Brennweitenreduzierer oder sogar Fastar-Objektive hinzuzufügen, um die effektive Brennweite Ihres Zielfernrohrs zu verringern.
Um die Zahlen abzugleichen, berechnen Sie zuerst den Abbildungsmaßstab für Ihr Setup, indem Sie die Pixelgröße Ihrer Kamera in Mikrometer durch die Öffnung Ihres Zielfernrohrs in Millimetern teilen und dann das Ergebnis mit 206 multiplizieren. Beispiel: Eine Kamera hat 6,4 Mikrometer Pixel und wird mit a . verwendet C-8, Brennweite 2032 mm. 6,4/2032 = 0,00315. 206 x 0,00315 = 0,65 Bogensekunden pro Pixel.
Dieser Abbildungsmaßstab von etwa 0,5 Zoll pro Pixel ist eine angemessene Übereinstimmung mit der planetarischen Bildgebung, bei der kurze Belichtungen gestapelt werden können, um das Sehen zu „übertreffen“. Verwenden Sie bei Bedarf negative Linsen- (Barlow) oder Okular-Projektionstechniken, um den Abbildungsmaßstab weiter zu vergrößern.
Für Deep-Sky-Arbeiten mit größeren Seeing-Disks können die kleineren Pixel der Kamera besser für ein breiteres Sichtfeld verwendet werden, anstatt die Unschärfe zu vergrößern. Ändern Sie dazu das Blendenverhältnis Ihres Zielfernrohrs, indem Sie einen Brennweitenreduzierer verwenden, eine positive Linse, die auf das Umlenkgewinde geschraubt wird, die die Brennweite verkürzt und die Blendenzahl des Zielfernrohrs verringert.
Die Verwendung eines f/6,3-Reduzierers wie Celestron #94175 verkürzt die Brennweite des Beispielfernrohrs auf nur 1280 mm, ändert den Bildmaßstab auf ein nützlicheres 1 Zoll pro Pixel und erhöht die Himmelsabdeckung um 250 Prozent.
Die Verwendung eines Fastar-Objektivs bei f/2 sorgt für einen noch kleineren Abbildungsmaßstab von 3,3 Zoll pro Pixel und erhöht die Himmelsabdeckung um das 25-fache.
Hinweise für planetarische EAA
Gestern Abend habe ich versucht, mit meiner Celestron Evolution 8 mit einem Revolution Imager (LN-300) einige EAA-Bilder von Jupiter zu machen. Dies ist wahrscheinlich eine alte Nachricht für die Erfahreneren unter Ihnen, aber Folgendes habe ich beobachtet:
1. Jupiter ist so hell, dass die automatische Belichtungssteuerung nicht weiß, was sie tun soll.
2. Ich habe die Kamera also nicht um eine ausgefallene Bearbeitung gebeten.
3. Ich habe meine besten Ergebnisse erzielt, indem ich manuell Belichtungszeiten von 1/125, 1/250 (der Sweetspot?) und 1/500 eingestellt habe.
4. Und natürlich habe ich den 0,5X-Reduzierer aus dem optischen Zug entfernt.
5. Das Bild sieht eher Jupiter-ähnlich aus, wenn ich dem Monitor sage, dass das eingehende Signal 4:3 statt 16:9 ist.
Also ich habe zwei Fragen. Erstens, was ist der beste Weg, um mit dem LN-300 eine gute Farbtreue zu erzielen? Zweitens bereite ich mich darauf vor, den Framegrabber auszuprobieren. Wäre ich für Planetenaufnahmen mit Registax oder SharpCap besser dran? (Ich habe keine Erfahrung mit beiden Paketen.)
#2 Dwight J
Ich habe keine Revolution-Kamera, aber ich kann sagen, dass die Belichtungszeit wirklich kurz sein muss. Die Verwendung einer Barlowlinse kann helfen. Registax dient zum Stapeln von AVI- oder ähnlichen Dateien, die von einem anderen Programm auf Ihrem Computer erstellt und gespeichert wurden. Es hat keine Kamerasteuerung. Wenn Sharpcap die Kamera steuern kann, würde das genauso gut funktionieren. Sobald Sie die Belichtungszeit eingestellt haben, können Sie den Farbabgleich mit den Schiebereglern in der von Ihnen verwendeten Software vornehmen. Ein zu helles Bild macht das zu schwierig. Verlassen Sie sich nicht auf Auto.
#3 jimthompson
- Sie haben eine kleine Anzahl von Pixeln, mit denen Sie arbeiten können, also tun Sie Ihr Bestes, um sie alle mit dem Objekt zu füllen, d. Verwenden Sie einen Barlow, wie Dwight vorschlägt. Auf diese Weise sind die Funktionen groß genug, um mit der Pixelgröße Ihrer Kamera aufzulösen.
- Um eine gute Farbbalance zu erzielen, verwenden Sie am besten die ATW-Einstellung. Sie benötigen jedoch einen IR-Sperrfilter, um das gesamte Infrarot zu blockieren, das Ihre Kamera aufnimmt. Ohne den IR-Sperrfilter sieht Ihr Bild orangefarben aus und der Weißabgleich der Kamera wird schwieriger.
- Die Verwendung eines IR-Sperrfilters hilft auch, den Fokus auf Planeten oder den Mond zu schärfen, daher ist es im Allgemeinen gut, einen bei Objekten im Sonnensystem zu haben.
- Wie Dwight erwähnte, möchten Sie die niedrigste Belichtungszeit verwenden, um die Unschärfe zu vermeiden, die durch Ihre Sichtbedingungen (z. B. die sich bewegende Atmosphäre) entsteht.
- Spielen Sie mit der Gamma-Einstellung Ihrer Kamera. Ein niedrigerer Gammawert macht die gesamte Szene heller, wodurch die Galileischen Monde leichter zu sehen sind, aber der Gesamtkontrast der Oberflächenmerkmale des Jupiter verringert wird. Ein höherer Gammawert verdunkelt die Szene und verbessert den Kontrast der Oberflächenmerkmale des Jupiter. Probieren Sie verschiedene Einstellungen aus, um zu finden, was Ihnen gefällt.
- Spielen Sie mit den Kontrast- und Helligkeitseinstellungen auf Ihrem Monitor oder Videoaufnahmegerät. Die meisten Details ergeben sich aus der maximalen Kontrasteinstellung, dies kann jedoch auch zu gesättigten Bildteilen führen. Dies kann teilweise durch eine Reduzierung der Helligkeit ausgeglichen werden, was wiederum dazu führt, dass dunklere Teile der Szene schwerer zu erkennen sind. Dies ist eher ein Problem auf dem Mond entlang des Terminators, wo die Helligkeit stark variiert, normalerweise kein Problem für Jupiter. Spielen Sie mit der Balance zwischen Kontrast- und Helligkeitseinstellungen, um das zu bekommen, was Ihnen gefällt.
- Wenn Sie Bilder speichern und später in Registax verarbeiten möchten, sollten Sie Ihre Einstellungen so anpassen, dass das Bild etwas flach ist, d. vielleicht nicht so viel Kontrast, wie Sie es sich optisch wünschen. Achten Sie auch darauf, dass am schwarzen oder weißen Ende des Histogramms keine Sättigung auftritt. Dadurch wird sichergestellt, dass alle Daten gesammelt werden, und Sie erhalten einen besseren Stack, den Sie später anpassen können.
- Normalerweise zeichne ich 1000 bis 3000 Videobilder auf, indem ich die oberen 20 % ausrichte und stapele. Weniger Frames als diese in Ihrem Stapel (
200) und Sie müssen beim Schärfen mit Wavelets mit Rauschen im Bild umgehen.
#4 t_image
Frage an alle, die mithelfen wollen:
Ist das, was bei der planetarischen Bildgebung benötigt wird?
(im Gegensatz zum DSO Live-Stacking)
unterschiedlich genug, dass an diesem Punkt in der Software/Technologie,
dieser planetarische eignet sich nicht so gut für die EAA
was die große Qualitätssteigerung durch Live-Stacking-VNB angeht?
DSOs: Live-Stacking-DSOs ermöglichen es Ihnen, etwas aufzulösen, das in einzelnen Frames nicht vorhanden war.
erhöhen Details durch mehr Licht.
atmosphärische Verzerrungen werden so ausgemittelt, während sich die lange 'Belichtung' durch Live-Stacking entwickelt
Für Planeten: Das Hauptziel besteht darin, atmosphärische Verzerrungen zu beseitigen, da Informationen über das helle planetarische Objekt bereits eingetroffen sind (kein Warten auf seine Entwicklung erforderlich)--
andere Fragen der Reduzierung der chromatischen Aberration, Super-Resolution-Techniken usw. folgen.
(Wenn es nur verfügbar wäre.)
Oder gibt es hier einfach nicht viele planetare Leute, die überhaupt EAA machen und mir fehlt etwas?
#5 Robrja
Frage an alle, die mithelfen wollen:
Ist das, was bei der planetarischen Bildgebung benötigt wird?
(im Gegensatz zum DSO Live-Stacking)
unterschiedlich genug, dass an diesem Punkt in der Software/Technologie,
dieser Planet eignet sich nicht so gut für die EAA
was die große Qualitätssteigerung durch Live-Stacking-VNB angeht?
Das habe ich mich selbst gefragt. Wie würde man EAA an Objekten des Sonnensystems durchführen? Ist es überhaupt möglich, ein besseres Bild zu erhalten als das, was Sie im Okular sehen können (was in erster Linie der Zweck der EAA ist)? Die normale Methode, mit einem AVI ein großartiges Bild zu erhalten, funktioniert, weil Sie bereits alle Daten haben und der Benutzer den Referenzrahmen auswählen und dann mit diesem Rahmen stapeln kann, während es bei EAA hauptsächlich durch die Software geschieht: Sterne ausrichten und stapeln . Solange es genügend Referenzpunkte gibt, könnte man stapeln. Aber bei den Planeten sind sie so hell, dass man sie überbelichten müsste, um die Sterne zu sehen, damit sie sich stapeln. Bei einer Belichtung, bei der der Planet gut aussieht, sind keine Sterne sichtbar.
Vielleicht gibt es bei Jupiter einen kleinen Belichtungspunkt, an dem man die Stacking-Software austricksen könnte, indem man versucht, seine Monde als Sterne zu verwenden?
#6 Barry Fernelius
Danke für all die wertvollen und praktischen Anregungen. Ich werde sie am Wochenende ausprobieren, wenn es das Wetter zulässt.
Ich gebe zu, der Blick auf Jupiter durch das Okular war besser als bei meinen ersten Versuchen mit EAA. Ich versuche aus mehreren Gründen immer noch, EAA-Techniken zu verwenden. Erstens haben einige Leute mit guter Bildverarbeitung einige sehr schöne Bilder von Jupiter erstellt. (Ich habe das SharpCap-Bild von Gege Sirvan als Beispiel angehängt.)
Zweitens kann ich mit EAA in einer Outreach-Situation das Bild einer Gruppe von Personen schneller zeigen, als ich es kann, indem ich jede Person durch das Okular blicken lasse.
Bearbeitet von Barry Fernelius, 22. April 2016 - 13:22 Uhr.
#7 Kaikul
Jim und Dwight,
Danke für all die wertvollen und praktischen Anregungen. Ich werde sie am Wochenende ausprobieren, wenn es das Wetter zulässt.
Hey Barry, melde bitte deine Ergebnisse zurück. Bilder wären auch super.
#8 Dwight J
Frage an alle, die mithelfen wollen:
Ist das, was bei der planetarischen Bildgebung benötigt wird?
(im Gegensatz zum DSO Live-Stacking)
unterschiedlich genug, dass an diesem Punkt in der Software/Technologie,
dieser planetarische eignet sich nicht so gut für die EAA
was die große Qualitätssteigerung durch Live-Stacking-VNB angeht?
Das habe ich mich selbst gefragt. Wie würde man EAA an Objekten des Sonnensystems durchführen? Ist es überhaupt möglich, ein besseres Bild zu erhalten als das, was Sie im Okular sehen können (was in erster Linie der Zweck der EAA ist)? Die normale Methode, mit einem AVI ein großartiges Bild zu erhalten, funktioniert, weil Sie bereits alle Daten haben und der Benutzer den Referenzrahmen auswählen und dann mit diesem Rahmen stapeln kann, während dies bei EAA hauptsächlich durch die Software geschieht: Ausrichten von Sternen und Stapeln . Solange es genügend Referenzpunkte gibt, könnte man stapeln. Aber bei den Planeten sind sie so hell, dass man sie überbelichten müsste, um die Sterne zu sehen, damit sie sich stapeln. Bei einer Belichtung, bei der der Planet gut aussieht, sind keine Sterne sichtbar.
Vielleicht gibt es bei Jupiter einen kleinen Belichtungspunkt, an dem man die Stacking-Software austricksen könnte, indem man versucht, seine Monde als Sterne zu verwenden?
Die einzige Solarsystemsoftware im EAA-Stil war Meades Autostar Suite, die entweder die LPI- oder DSI-Kameras verwendet. Ich habe einen LPI und mit der Software können Sie die besten Frames auswählen und stapeln. Es funktioniert aber recht gut AFAIK, nur mit den Meade-Kameras. Ich glaube nicht, dass die Software später als Win7 läuft, aber ich könnte mich da irren - ich verwende nur Win7. Die Software ist kostenlos und Sie können einen DSI für etwa 100 US-Dollar erwerben, und ich habe gesehen, wie LPIs für 20 US-Dollar gehen.
Die einzige andere Beobachtung im EAA-Stil, die ich mache, ist mit einer Mallincam EX und dem Mond. Ich stapele zwei Bilder, um die Szintillation zu reduzieren, und das funktioniert wirklich gut. Im Allgemeinen ist das Auge jedoch besser, wenn man Objekte des Sonnensystems betrachtet. Sie können Denkmäler von scharfem Sehen einfangen und das Auge passt sich besser an, wenn das Sehen nicht so gut ist. Wenn das Seeing wirklich gut bis ausgezeichnet ist, kommt der ganze Kamerakram aus und ein Okular. Ich benutze das Okular auch, um das Seeing auszuwerten, um zu sehen, ob es sich lohnt, die Kamera einzurichten.
#9 Jimthompson
Was Rob gefragt hat, ist vielleicht der entscheidende Punkt: "Ist es überhaupt möglich, eine bessere Sicht zu bekommen als das, was man im Okular sehen kann?" Lange Zeit war die Antwort auf diese Frage nein, aber wie bei DSO EAA hat sich in den letzten Jahren dank der Fortschritte in der Kameratechnik einiges geändert. Aus meiner Sicht gibt es drei Hauptmerkmale, die die Bildqualität beeinflussen, die von einer Kamera in Echtzeit dargestellt werden kann:
Lange Zeit war die Auflösung der Hauptgrund dafür, dass die EAA kein mit einem Okular vergleichbares Beobachtungserlebnis lieferte. Das Auge ist einfach ein fantastisches Gerät, das in der Lage ist, riesige Detail- und Kontrastbereiche zu erkennen. Diese Lücke wird mit den neu auf den Markt gekommenen CMOS-Kameras (zB ZWO) geschlossen.
Sie würden nicht denken, dass die Empfindlichkeit bei EAA-Kameras ein Problem war, wenn Sie versuchten, Objekte im Sonnensystem zu beobachten, da sie so hell sind, aber tatsächlich ist sie es. Der größte Nachteil für ein scharfes Bild eines Objekts im Sonnensystem ist das "Sehen", die turbulente Bewegung unserer Atmosphäre, die unsere Sicht verzerrt. Seeing ist ein zeitlich variierendes Verhalten unserer Atmosphäre. Je länger Ihre Belichtung pro Frame ist, desto mehr Unschärfe des Bildes werden Sie aufgrund des Effekts sehen. Daher ist es von Vorteil, eine möglichst empfindliche Kamera zu haben, damit die Belichtungszeit pro Bild auf ein Minimum beschränkt werden kann. Auch hier füllen die neuesten Kameras diese Lücke mit immer größer werdender Empfindlichkeit.
Schließlich ist es wichtig, das Rauschen zu berücksichtigen, wenn Sie versuchen, ein detailliertes Live-Bild zu erhalten. Sie können viel Verstärkung anwenden, um die Belichtung pro Bild niedrig zu halten, aber dies kann auf Kosten von mehr zufälligem Rauschen im Bild gehen. Da Sie einzelne Frames (keine kumulativen Stapel) beobachten, wird jedes eingeführte Rauschen Merkmale verdecken und die Sichtbarkeit subtiler Details in Ihrem Objekt beeinträchtigen. Eine Kamera mit geringem Rauschen ist daher wünschenswert. Wieder einmal versuchen die neuen CMOS-Kameras, diese Anforderung zu erfüllen.
Es ist interessant festzustellen, dass diese neuen ZWO-Kameras, die viele für DSO-Arbeiten verwenden, ursprünglich für die Bildgebung des Sonnensystems entwickelt wurden. Die drei oben beschriebenen Eigenschaften kommen beiden Anwendungen zugute. Also, sind wir schon da? Ist die Kamerabeobachtung von Objekten des Sonnensystems genauso gut wie die Verwendung eines Okulars. Ich würde sagen "irgendwie". In Bezug auf Schärfe, Dynamikumfang und sichtbare Details würde ich nein sagen, die Okularbeobachtung ist immer noch besser. Aber in Bezug auf die Benutzerfreundlichkeit, die Fähigkeit, über einen längeren Zeitraum hinweg bequem auf dem Ziel zu bleiben, und das allgemeine Beobachtungserlebnis würde ich sagen, dass Kamerabeobachtung besser ist. Ich habe eine viel befriedigendere Erfahrung, wenn ich mit Atlas auf der einen Seite und Logbuch auf der anderen Seite bequem in meinem Stuhl sitze, Funktionen erkunde und mit Freunden diskutiere, als ich es jemals mit einem Okular könnte. Wenn Sie dazu die Möglichkeit hinzufügen, ein AVI während Ihrer Beobachtungssitzung zu speichern und anschließend zu verarbeiten, wodurch ein Bild entsteht, das der Okularansicht meistens weit überlegen ist, ist Sonnensystem EAA definitiv mein bevorzugter Weg. Dabei ist noch nicht einmal berücksichtigt, dass Sie mit einer Kamera einige Dinge sehen können, die Sie mit einem Okular nie sehen würden, beispielsweise die Beobachtung mit einem IR-Hochpassfilter oder UV-Bandpassfilter. Ich finde auch, dass die Verwendung einer Kamera mit einem Halpha-Zielfernrohr Details hervorbringen kann, die Sie mit einem Okular nicht sehen können.
Frage zur Infrarot-Astronomie am Tag
Ich habe einige Aufnahmen des Mondes gesehen, die tagsüber aufgenommen wurden, habe mich aber gefragt, ob die Einschränkung hauptsächlich darin besteht, das Objekt auf den Chip zu bekommen. Da die 462 eine so großartige IR-Kamera ist, gibt es einen Grund, warum Sie bei Tageslicht keine glücklichen Bilder oder sogar DSO machen können?
#2
Die Sonne emittiert eine Tonne Infrarot. Meine Annahme bei der IR-Bildgebung des Mondes am Tag ist einfach, dass mehr Sonnenlicht vom Mond reflektiert wird als direkt von der Sonne, was tagsüber eine IR-Bildgebung des Mondes ermöglicht. Ich sehe dies bei schwachen Objekten nicht gleich, da der IR-Hintergrund tagsüber ziemlich groß ist. Sie müssten sich über den Punkt hinauswagen, an dem die IR-Emission des Schwarzen Körpers von der Sonne vernachlässigbar ist, aber das würde die Empfindlichkeit von siliziumbasierten Kameras weit überschreiten und die Wasserabsorption wird zu einem großen Problem.
Ich habe nicht wirklich viel darüber nachgedacht, deshalb bin ich daran interessiert, die Gedanken anderer Leute zu sehen.
#3 GSBass
Danke für deinen Input, deshalb habe ich gefragt, fotografisch macht er den Himmel zwar schwärzer als die Nacht, aber wenn die Sonne überhaupt Planeten beschallt, dann würde das wohl nicht funktionieren
Die Sonne emittiert eine Tonne Infrarot. Meine Annahme bei der IR-Bildgebung des Mondes bei Tag ist einfach, dass mehr Sonnenlicht vom Mond reflektiert wird als direkt von der Sonne, was tagsüber eine IR-Bildgebung des Mondes ermöglicht. Ich sehe dies bei schwachen Objekten nicht gleich, da der IR-Hintergrund tagsüber ziemlich groß ist. Sie müssten sich über den Punkt hinauswagen, an dem die IR-Emission des Schwarzen Körpers von der Sonne vernachlässigbar ist, aber das würde die Empfindlichkeit von siliziumbasierten Kameras weit überschreiten und die Wasserabsorption wird zu einem großen Problem.
Ich habe nicht wirklich viel darüber nachgedacht, daher bin ich daran interessiert, die Gedanken anderer Leute zu sehen.
Lucky Imaging Concept für DSO's mit schnellen Systemen für EAA?
Ich schätze, jemand hat das schon einmal versucht, also dachte ich, ich würde hier fragen.
Ist es möglich, mit der Lucky Imaging-Technik einen Teil der Seeing-Beschränkung (niedrigere Atmosphäre) zu überwinden und mit schnellen Systemen wie meinem RASA 8 mehr Details zu erhalten?
ZB habe ich in der monatlichen Challenge im Januar gepostet, welche Art von Ansichten ich für Pferdekopf und Laufmann bekommen kann.
Wenn ich die Prinzipien der glücklichen Bildgebung anwende, aber Unterausrichtung verwende, könnte ich:
- Definieren Sie, was ich brauche, um insgesamt eine gute Sicht zu erhalten (z. B. im obigen Fall 5 Minuten bei 250 Gain mit 5 Sekunden Belichtung)
- schau dir FHWM an und definiere eine viel engere Toleranz für die Annahme eines Subs
- laufen lassen und über die gleiche Dauer von 5 min akkumulieren
Besonders mit einem guten Mini-PC an der Halterung ist die Verarbeitung mehrerer U-Boote pro Sekunde von einer mittelgroßen bis hin zu großen Kameras einfach zu bewerkstelligen. Sogar mein 2-Kern-i5 macht das ohne Darks and Flats, so dass ein aufgerüsteter Mini-PC (auf dem Weg) dies problemlos tun kann.
Hat jemand diese Art von glücklichem Imaging-Konzept auf DSOs ausprobiert, um mehr Details für die EAA zu erhalten?
#2
Als ich eine ähnliche Frage stellte, war die Antwort, dass kürzere Bildgebungszeiten als 5 Sekunden benötigt würden, um wirklich von den kurzen Intervallen zu profitieren, in denen die atmosphärischen Bedingungen ideal wären. Das Konzept der Kurzbelichtungsfotografie wurde viele Male ausprobiert und für mich war es ein lustiges Projekt, es auszuprobieren. Seien Sie darauf vorbereitet, mit Daten überhäuft zu werden. Meine Erfahrung war, dass es bei helleren Objekten gut funktioniert.
#3 SanjeevJoshi
Als ich eine ähnliche Frage stellte, war die Antwort, dass kürzere Bildgebungszeiten als 5 Sekunden benötigt würden, um wirklich von den kurzen Intervallen zu profitieren, in denen die atmosphärischen Bedingungen ideal wären. Das Konzept der Kurzbelichtungsfotografie wurde viele Male ausprobiert und für mich war es ein lustiges Projekt, es auszuprobieren. Seien Sie darauf vorbereitet, mit Daten überhäuft zu werden. Meine Erfahrung war, dass es bei helleren Objekten gut funktioniert.
Ich überlege unter einer Sekunde. Die 5 Sekunden dienen einfach dazu, zu verstehen, dass ich in etwa 5 Minuten Daten eine großartige Ansicht erhalten kann und dass der Gewinn angemessen ist.
Aber gemäß meiner obigen Anmerkung würde ich verschiedene Belichtungen unter einer Sekunde ausprobieren (wie 0,3 Sekunden, 0,7 Sekunden usw.), um zu sehen, was das im Vergleich zu den 5-Sekunden-Belichtungen bewirken kann. Probiere ein anspruchsvolles Objekt im durchschnittlichen Sehen aus, das war der Gedanke.
Fragt sich, ob es jemand mit Bruchteilen einer Sekunde versucht hat. Welche Belichtungen hast du verwendet? Ich kann jede Last für Live-Stacking mit einem vernünftigen Mount-Side-Computer bewältigen. Ich habe zu Hause getestet, muss nachts mit den Ausrichtungs- und Filterschritten bestätigen.
Bearbeitet von SanjeevJoshi, 14. Januar 2021 - 13:59 Uhr.
#4 bobzeq25
Ich überlege unter einer Sekunde. Die 5 Sekunden dienen einfach dazu, zu verstehen, dass ich in etwa 5 Minuten eine großartige Ansicht der Daten erhalten kann und dass der Gewinn angemessen ist.
Aber gemäß meiner obigen Anmerkung würde ich verschiedene Belichtungen unter einer Sekunde ausprobieren (wie 0,3 Sekunden, 0,7 Sekunden usw.), um zu sehen, was das im Vergleich zu den 5-Sekunden-Belichtungen bewirken kann. Probiere ein anspruchsvolles Objekt im durchschnittlichen Sehen aus, das war der Gedanke.
Fragt sich, ob es jemand mit Bruchteilen einer Sekunde versucht hat. Welche Belichtungen hast du verwendet? Ich kann jede Last für Live-Stacking mit einem vernünftigen Mount-Side-Computer bewältigen. Ich habe zu Hause getestet, muss nachts mit den Ausrichtungs- und Filterschritten bestätigen.
Probieren Sie es selbst aus. Wissen Sie nur, dass "glückliche Bildgebung" für die Planetenbildgebung Belichtungen von vielleicht 1/100 Sekunde bedeutet. Oder weniger. Und selbst dann schießen die Leute Hunderte oder Tausende von U-Booten ab, und viele U-Boote werden weggeworfen.
Lucky Imaging ist wirklich für sehr helle (Untertreibung) Planeten.
Bearbeitet bobzeq25, 14. Januar 2021 - 14:08 Uhr.
#5 Alphatripleplus
Wenn ich die Prinzipien der glücklichen Bildgebung anwende, aber Unterausrichtung verwende, könnte ich:
- Definieren Sie, was ich brauche, um insgesamt eine gute Sicht zu erhalten (z. B. im obigen Fall 5 Minuten bei 250 Gain mit 5 Sekunden Belichtung)
- zu Sub-Sekunden-Subs wechseln
- schau dir FHWM an und definiere eine viel engere Toleranz für die Annahme eines Subs
- laufen lassen und über die gleiche Dauer von 5 min akkumulieren
Besonders mit einem guten Mini-PC an der Halterung ist die Verarbeitung mehrerer U-Boote pro Sekunde von einer mittelgroßen bis hin zu großen Kameras einfach zu bewerkstelligen. Sogar mein 2-Kern-i5 macht das ohne Darks and Flats, so dass ein aufgerüsteter Mini-PC (auf dem Weg) dies problemlos tun kann.
Hat jemand diese Art von glücklichem Imaging-Konzept auf DSOs ausprobiert, um mehr Details für die EAA zu erhalten?
Bei einigen Zielen (wie dem M87-Jet) verwenden einige Leute ziemlich kurze U-Boote (etwa 1 s) mit einem FWHM-Filter, um zu versuchen, die ausgewählten U-Boote in einem Live-Stack zu straffen. Wie oben erwähnt, haben Unterbelichtungen von etwa 1s nicht das gleiche Belichtungsregime wie "Lucky Imaging", das bei der Planetenbildgebung verwendet wird (kleine Sekundenbruchteile), aber ich habe festgestellt, dass es die Sicht auf bestimmte Ziele wie die M87 verbessert Jet.
#6 Rickster
Ich denke du bist auf dem richtigen Weg. Zumindest ein interessanter Track.
Die Sehstörungen treten bei einer Vielzahl von Wellenlängen mit Perioden im Bereich von winzigen Sekundenbruchteilen bis zu mehreren Minuten auf. Die größten Wellen erzeugen die größten Störungen. Beginnen Sie also mit den größeren Dingen und arbeiten Sie sich zu den kleineren hin.
Ich habe mit Wellen im Bereich von 1 Sekunde bis 4 Minuten experimentiert. Zum Beispiel ist mein Himmel Bergwellen ausgesetzt, die erzeugt werden, wenn Luft über die Gipfel der Rocky Mountains strömt. Wenn Sie flussabwärts von Bergen leben und Rippenmuster in den Wolken gesehen haben, haben Sie wahrscheinlich Bergwellen gesehen. Die Periode für diese Wellen, wenn sie über Kopf passieren, liegt im Bereich von mehreren Minuten. Ich habe festgestellt, dass AT/DSS für das Screening dieser Wellen ziemlich effektiv ist.
Ich denke, Sie werden feststellen, dass die Abtastrate ein kleiner Bruchteil der Wellenlänge sein muss, die Sie abtasten. Sie suchen nach Proben, die erfasst werden, wenn der Gesamtbrechungsindex der Luftsäule in Ihrem Sichtfeld jedes Mal ungefähr gleich ist. Wenn die Welle beispielsweise sinusförmig ist, möchten Sie die abgerundeten Ober- oder Unterseiten erfassen und alles andere verwerfen. Sie erfassen also nur Teile jeder Welle. (Es sei denn, die Ober- und Unterseiten haben den gleichen Brechungsindex. In diesem Fall möchten Sie sowohl die Ober- als auch die Unterseiten).
Die Filter in SC sind ein guter Anfang. Astrotoaster/Deep Sky Stacker hat meiner Erfahrung nach einen selektiveren Algorithmus. Aber AT/DSS ist langsam. Ich denke, dass Sie letztendlich einen besseren Algorithmus brauchen werden.
Nun, das ist alles, was ich zu diesem Thema weiß.
Bearbeitet von Rickster, 14. Januar 2021 - 20:30 Uhr.
#7 SanjeevJoshi
Ich habe ein interessantes Papier gelesen, in dem vorgeschlagen wurde, dass das Sehen von Einschränkungen vereinfacht in "langsam" und "schnell" unterteilt werden könnte. Ich war immer noch auf der Suche, die Quantifizierung gründlicher zu sehen, als ich darauf stieß.
Aber die Idee ist, dass das Seeing-Problem aufgrund der niedrigeren Atmosphäre näher am Boden dazu führt, dass Sterne instabil sind / zittern / funkeln, während der Effekt der höheren Atmosphäre darin besteht, sie für längere Zeit zu stören.
Sehr geschossene Belichtungen sollten idealerweise das Schütteln / Szintillation bekämpfen und einige andere Algorithmen (insbesondere für Live-Stacking) für die Dauerhaftigkeit benötigen.
Ich werde bei nächster Gelegenheit damit spielen.
Die einzige wichtige Erkenntnis war, dass, obwohl visuelles Sehen (und Messung mit verschiedenen Techniken) sich von FHWM oder ähnlichem unterscheidet, für praktische Interessenbereiche (z. B. 1 bis 2 Sekunden, 3 bis 5 Sekunden usw.) nicht so viele berechnete Ergebnisse vorliegen Unterschied zwischen den Methoden, da die Steigung und der Schnittpunkt ungefähr äquivalente Ergebnisse für einen typischen Aufbau liefern.
Ein kostenloses Tool für Lucky Imaging
Von: Richard S. Wright Jr. 22. Dezember 2020 0
Erhalten Sie Artikel wie diesen in Ihren Posteingang
Schauen Sie sich dieses kostenlose Astrofotografie-Softwarepaket an, das die Verarbeitung Ihrer Glücksbilder – insbesondere von Sonne und Mond – zu einem Kinderspiel macht.
Während ich in diesem Blog nicht viel Zeit mit der Bildbearbeitung verbringe, mache ich diesmal eine Ausnahme. Ich habe ein großartiges neues Programm für meine Werkzeugkiste gefunden, wenn es um Mond- und Sonnenbildverarbeitung geht, und ich denke, Sie möchten dieses leistungsstarke, einfach zu bedienende Werkzeug vielleicht selbst ausprobieren.
Hochauflösende Ansichten des Mondes oder der Sonne haben immer diese Turbulenzen (Sehen). Damit ein scharfes Bild entsteht, braucht es etwas Fingerspitzengefühl.
Richard S. Wright Jr.
Wir haben bereits darüber gesprochen, wie viel Glück bei der Bildgebung mit der Aufnahme von Videos von Sonne, Mond oder Planeten und der Verwendung von Software wie RegiStax oder AutoStakkert um die schärfsten Frames in diesem Video zu finden. Die Software richtet diese Bilder aus und stapelt sie. Im letzten Schritt wird das Bild dann mit Wavelets geschärft. (Das Schärfen muss mit Vorsicht vorgenommen werden, da der Prozess die lästige Tendenz hat, Rauschen in Eigenschaften zu verwandeln, die nicht wirklich existieren!)
Ein rohes gestapeltes Bild des Mondes (oben) muss geschärft sowie Intensitätskurven angewendet werden, um das Bild unten zu erzeugen.
Richard S. Wright Jr.
Ich benutze seit einiger Zeit AutoStakkert um die Videodateien zu verarbeiten, mit denen ich aufgenommen habe SharpCap. Dann wechsle ich zu RegiStax zum Wavelet-Schärfen und -Einsatz Photoshop für den letzten Schliff. Ich habe festgestellt, dass die Verwendung von Wavelets eine schwarze Kunst ist. Das Beherrschen der Schieberegler in Registax erfordert Übung. Sie müssen experimentieren, um ein Gefühl für ihre Funktionsweise zu bekommen. Für viele Leute, die ich kenne, sind sie immer noch ein Rätsel.
Vor Jahren, als ich in einem Team war, das Software für den Markt der refraktiven Augenchirurgie schrieb, lernte ich die Verwendung von Faltungen und Dekonvolution, um optische Defekte und Korrekturen in der Hornhaut eines Patienten zu simulieren, und ich dachte immer, dass diese Ideen einen besseren Ansatz bieten könnten ein verschwommenes Mondbild schärfen. Aber ich hatte nie die Zeit, mich selbst mit der Idee zu beschäftigen.
Der europäische Softwareentwickler und Amateurastronom Filip Szczerek scheint die gleiche Einsicht gehabt zu haben. Er hat ein Open-Source-Softwarepaket (wie in kostenlos, einschließlich mit Quellcode) namens . veröffentlicht Bild-Postprozessor (ImPPG).
ImPPG ermöglicht die Echtzeit-Schärfung nur eines Teils des Bildes, kann jedoch das gesamte Bild mit der 3D-Grafikhardware Ihres Computers schnell verarbeiten.
Richard S. Wright Jr.
ImPPG gilt Lucy-Richardson-Entfaltung (das ist ausgefallene Mathematik für 2D-Signale) zusammen mit einigen anderen Verarbeitungsschritten, um Bilder zu schärfen und anderweitig zu verbessern. While I can't specifically recommend it for planetary processing, it is effective and easy to use on high-resolution images of the Sun and Moon. I find it to be far easier and more intuitive than using wavelets in fact.
One of the highlights of this software is that it employs your computer graphics processing card (GPU) to speed up the process. So the same graphics technology that's used for epic orc battles in computer games can also speedily sharpen your blurry lunar and solar images.
The interactive nature of this tool makes it easy to experiment with its very few sliders and quickly get a feel for how best to sharpen your images. The default settings already produce an impressive result. But just as when you are using wavelets, resist the urge to oversharpen, and be on the watch for artifacts in noisier images. Scharf und smooth is the gold-standard to aim for.
The curves tool is very easy to use, and is needed to bring out the contrast you are trying to sharpen.
Richard S. Wright Jr.
Another thing I love about this software is that its curves tool is very easy to use, and allows you to adjust the contrast of your sharpened image as you go.
There's a great tutorial online here, but I'll summarize by saying the easiest workflow is to adjust the Sigma (the Lucy-Richardson part) first. Once you have a satisfactorily sharpened image, use the lower controls to just slightly apply an unsharp mask. You'll find that, most of the time, the sigma for the deconvolution and the unsharp masking is the same value.
I find this so much easier and simpler to use than wavelets and am very happy with my final lunar/solar images. The "deringing" option is only needed when you have solid white or solid black edges. But even with this enabled, I don't find planets process well this way. The finer-grained control of wavelets does win in those cases, as it helps squeeze out the ultimate details.
There is one potential showstopper for some imagers, and that is that this tool will only work on monochrome images. This is not a problem for most solar and lunar images, though. Those imaging with color cameras can still bring color images into ImPPG, they're just converted to monochrome. Or, you can split your color channels in Photoshop and process each one in ImPGG individually.
For solar imaging, such as with this hydrogen-alpha image of a sunspot, you'll need to colorize the images yourself afterwards.
The source code to this tool is also available for free, and prebuilt binaries (the executable) are available for Windows and Linux. Check it out!
Few Tips For Best Image Quality With High Magnification
You can view planets in low magnification and enjoy it, but to get the best image with the highest useful magnification, I want to give you a few more tips.
Planets In Opposition
The best time to observe planets is when they are in opposition. Was bedeutet das? If the planet is in opposition, it is closest to us hence the biggest in the sky.
Check this “Planet Calendar” for dates when are the planets in opposition.
Collimation
If you are using a Newtonian reflector telescope or any other design using mirrors to produce the image, you need perfect collimation. Collimation is basically the mirrors’ alignment, and without that, the image is blurry in the eyepiece.
Most people complaining about their telescopes says that the image quality is poor even when using small magnification, but the problem is that their telescopes are out of collimation.
Thermal Equilibrium
Another issue people have is thermal equilibrium. The story goes like this: you check the weather, jet stream, and everything is perfect. You take out your telescope, but you see a lot of distortion and turbulence through the eyepiece.
The problem is that your telescope has not reached the ambient temperature outside, and the hot air from the telescope itself is distorting the image.
That’s why you always have to prepare the telescope before and take it out in advance to acclimatize to ambient temperature. How long it takes depends on the aperture of the telescope. The bigger the aperture, the longer it takes to acclimatize.
Lucky imaging with Celestron 14 - is this result reasonable? - Astronomie
Celestron C8 Starbright XLT Telescope OTA
Bis zum Astronomy and Photography Online Mitarbeiter
Celestron C8 NexStar OTA. Illustration courtesy of Stellarvue.
Celestron is a company located in Torrance, California that was purchased by Synta Technologies of Red China in 2005. The main components of C8 telescopes are now fabricated, figured and assembled in China. Celestron quality checks C8's after their arrival in the U.S., before they are sent to dealers.
There are several modern C8 packages. The C8 with Starbright XLT coatings reviewed here is an advanced level telescope and the lineal descendant of the original C8 that made Celestron's reputation. It is sold as a basic optical tube assembly (OTA) without mount, or as a complete telescope system with a variety of mountings. Contemporary C8 Starbright XLT aluminum main tubes can have an orange-bronze pearl, gray, or gloss black finish, depending on the mount with which they are supplied. The front and rear cells are charcoal black. The basic OTA (without any mounting system), as illustrated on the Celestron web site, sports a gray main tube. Available mounting systems include the NexStar SE single fork mount (ornage-bronze main tube), CPC dual fork mount, CGEM German Equatorial mount, or CG-5 German Equatorial mount. (Supplied with black main tubes.) In 2010, a special Limited Edition version with a carbon fiber main tube was offered on the CPC fork mount. All of these mounts are of the computerized, go-to type, but regardless of the mounting system and main tube color, optically and mechanically all C8 Starbright XLT telescopes are the same.
In addition to the standard C8 Starbright XLT optical system, Celestron also offers an 8" EdgeHD optical system, either as an OTA or with a heavy duty German Equatorial mounting system. Edge HD scopes come with cream colored optical tubes and their optics are not the same as other C8's, although they remain 8", 2032mm, f/10 scopes. They feature a new aplanatic Schmidt-Cassegrain optical system with a Schott glass corrector/field flattener in the central baffle tube, Fastar (removable) secondary mirror, flexible mirror support rods with tension clutches and tube vents to assist temperature stabilization. We hope to cover an EdgeHD telescope in a future review.
Our CE8SEOTA test scope is also Fastar compatible, so a brief explanation of Fastar is appropriate. Fastar is a "hyper imaging" system. Celestron explains it this way (photo courtesy of Celestron):
"Fastar F/2 Imaging or Hyperstar Setup on a Schmidt-Cassegrain Telescope requires mounting a CCD camera and lens assembly where the secondary mirror of a Schmidt-Cassegrain telescope is located. The key advantage of this configuration is the fast exposure time. At the f/2 focal ratio exposure times are 25 times faster than at f/10 and require only 20-30 seconds to capture many deep sky objects. Because the exposure time is so low there is no need for guiding or polar alignment. A word of warning, not all Schmidt-Cassegrain telescopes are Fastar or Hyperstar compatible. A compatible Schmidt-Cessegrain or EdgeHD Telescope, F/2 lens assembly (Starizona.com), CCD Camera, Image Processing Software (may or may not be bundled with CCD camera) and Laptop Computer are essential equipment."
We recommend that you not attempt to remove the secondary mirror unless you are actually going to use a Fastar imaging system. Never mess with the optical system unless it absolutely cannot be avoided.
Not being fans of go-to mounts and with suitable manual mounts on hand, we ordered our C8 Starbright XLT as a NexStar OTA (CE8SEOTA) from our friends at Stellarvue. Stellarvue, in addition to manufacturing their own superb apochromatic refractors, is a Celestron partner and Stellarvue refractors are now available with Celestron go-to German Equatorial mounts. This OTA had been used by Stellarvue in a display and features an orange-bronze main tube, rather than the gray OTA sold as the C8-A XLT. As described by Stellarvue, "This is a new OTA that was shown only once on display and is in perfect condition. It comes with a full length Vixen sized rail, Stellarvue F1001 red dot finderscope, 1.25" eyepiece holder and Celestron 25 mm eyepiece." The red dot finderscope replaces the hard to use, 6x30mm, straight-through/inverted image optical finderscope supplied with most C8 optical tubes.
The telescope's notable features include a seamless aluminum optical tube with aluminum front and rear cells, a white water glass Schmidt corrector lens and Starbright XLT optical coatings on the corrector and both mirrors. As with all conventional Schmidt-Cassegrains, the curvature of both the primary and secondary mirrors are segments of a sphere, coma correction being provided entirely by the big aspheric Schmidt lens that seals the front of the optical tube and to which the secondary mirror is mounted. Collimation adjustment screws are provided for the secondary mirror and the Owner's Manual offers clear, easy to follow, collimation instructions.
This is an 8" (203.2mm) clear aperture, 2032mm prime focal length, f/10, Schmidt-Cassegrain telescope (SCT). The f/10 to f/11 focal ratio range represents a sort of "sweet spot" for general purpose, Schmidt-Cassegrain astronomical telescopes. It offers an adequate f/stop for photography, while minimizing the size of the secondary obstruction and its deleterious effect on image quality. Celestron's C5, C6, C8, C9, C11 and C14 telescopes are all designed with focal ratios in this range.
The supplied Vixen mounting rail allows the OTA to be used with a variety of alt-azimuth and equatorial mounting systems from Celestron and other suppliers. We used the test scope on Celestron CG-4 and Vixen GPD-2 German EQ mounts with good results. (Both of these mounting systems have been reviewed by Astronomy and Photography Online.)
- Item: CE8SEOTA
- Optical coatings: Starbright XLT
- Clear aperture: 203.2mm (8")
- Focal length: 2032mm
- Focal ratio: f/10
- Finderscope: Star Pointer (red dot type)
- Mounting rail: Full length Vixen dovetail
- Optical tube: Aluminum
- Optical back: 1.25" (2" optical back/star diagonal available)
- Supplied eyepiece: 1.25" Celestron 25mm Plossl
- Supplied star diagonal: 1.25" prism type
- Highest useful magnification: 480x (at 60 ppi)
- Lowest useful magnification: 29x
- Limiting stellar magnitude: 14
- Resolution (Rayleigh): 0.69 arcsec
- Resolution (Dawes): 0.57 arcsec
- Light gathering: 843x
- Angular field of view: 0.63-degree
- Secondary mirror: Fastar compatible (removable)
- Secondary mirror obstruction: 2.7" (63.5mm)
- Secondary mirror obstruction by area: 11.4%
- Secondary mirror obstruction by diameter: 33.8%
- Optical tube length: 17"
- Optical tube weight: 12.5 pounds
- 2010 MSRP: $1049 (C8-A-XLT)
When we opened the cardboard shipping box, we found our CE8SEOTA and the included accessories nestled between fitted foam blocks. The full length Vixen mounting rail and finder base were securely attached to the optical tube and the 25mm ocular, star diagonal and red dot finder were neatly packaged in small zip-lock bags.
We should point out that this is not your father's "Celestron orange" telescope. We were pleased to find that this orange-bronze pearl finish is very attractive, probably the most stunning finish we have ever seen on any C8 telescope. In direct sunlight, it literally sparkles! The photo at the top of this page or, for that matter, the photos on the Celestron web site, do not do the NexStar OTA justice. They give the impression it has an orange enamel finish, but it is actually much more attractive.
The Vixen quick detachable rail is our favorite scope to mount attachment system for telescopes the size of the C8. It is secure and easy to use, which is why it has become the de facto standard in the industry. However, we noticed that there are no stop bolts in the C8's Vixen rail to prevent it from sliding out of the mating Vixen dovetail in a mounting system. This oversight should be corrected. Should the clamp screw securing the scope's rail in the mount's dovetail slightly loosen when the scope was aimed upward, the scope could drop to the ground. Make sure your mounting clamp stays tight! There are a couple of 1/4x20 holes drilled into aft part of the mounting rail, presumably to facilitate mounting the OTA on a heavy duty photo tripod if desired, so we screwed a couple of short 1/4x20 bolts into those holes to serve as stop bolts.
Catadioptric (CAT) telescopes are relatively compact and SCT's are lightweight CAT's that is the advantage of the thin, aspheric, Schmidt corrector lens compared to a thick Maksutov corrector lens. However, an 8" SCT is about the largest CAT we regard as truly portable. The Orion polyester/nylon padded soft case (#15191) we purchased for the C8 measures 21" long by 10" in diameter and the OTA itself is 17" long and weighs about 15 pounds with finder, rail and visual accessories. It is as heavy and bulky as we want to deal with in the field.
In addition to some sort of case to protect the telescope in transit, many advanced users will want a correct image, right angle, optical finderscope. These can be had from Orion, Stellarview and other sources and are virtually a necessity for terrestrial use. A Vixen type finder scope mounting shoe (#07215) designed for the C8 and other SCT's can be ordered from Orion. In addition, we like to add a green laser pointer, such as the Celestron Laser Finderscope Kit. As we have written before, you cannot view objects you can't find, so we like to take advantage of all the available finder options.
A handy accessory for those who wish to use their C8 as an all-around astronomical telescope is Celestron's f/6.3 Reducer-Corrector. This four-element, multi-coated optic screws directly to the rear cell and reduces the scope's effective prime focal length to 1280mm. It is quite useful for wider sky views of extensive objects, such as the Double Cluster and Andromeda Galaxy. Another worthwhile accessory is a solar filter, available from Celestron, Thousand Oaks Optical and other suppliers. These cover the front of the telescope (NEVER use an eyepiece sun filter!) and allow the telescope to be safely aimed directly at the sun, where sunspots and, depending on the viewing conditions, the granular surface of our nearest star can be seen.
The C8 OTA comes with an E-Lux 25mm Plossl ocular that yields 81x magnification. This is a useful combination for many purposes. However, additional oculars are necessary to get the most out of this telescope. For astronomical observation, we would suggest the addition of (to stay with the Celestron brand) 40mm Omni Plossl (51x), 15mm Axiom LX (135x) and 8mm Ultima LX (254x) eyepieces as a practical minimum. Of course, similar oculars from other manufacturers (Tele Vue, Vixen, Burgess, etc.) would be equally suitable. A good 8-24mm zoom eyepiece (254x-85x) is also very handy. Fortunately, we had oculars from Celestron, Tele Vue and Burgess Optical in focal lengths from 5mm to 40mm available for this review.
The star diagonal is retained in the visual back by a pair of fingertip set screws. Ditto for the way eyepieces are retained in the supplied star diagonal. These dual retaining screw systems are more secure than a single set screw, but twice as fussy. The best retention system is a compression ring tightened by a single fingertip set screw, particularly in the star diagonal, since oculars are changed frequently during a viewing session. Consequently, we used a 1.25" Astro-Tech dielectric mirror star diagonal with a compression ring for some of our viewing. This was a matter of convenience, not necessity, as the supplied Celestron prism star diagonal worked well.
Astronomy and Photography Online staff members Jim Fleck, Rocky Hays, Gordon Landers and Chuck Hawks participated in this review. We started with some terrestrial viewing, which was hampered by the warm summer weather that created lots of rising air currents and heat waves. Then we moved on to some backyard astronomy.
One of the improvements over earlier C8's, which we noticed immediately, is this C8's focuser. Like the focuser on the C6 we recently reviewed, this focuser operates smoothly and the backlash that plagues most SCT focusers has been substantially reduced. The C8's previously bare metal focusing knob now has a rubber covering that increases its diameter and improves its feel. The focuser still moves the primary mirror, but Celestron has apparently tightened the tolerances since we last owned a C8. There is even an anodized orange collar at the base of the focuser to make it easier to see.
A C8 can provide intriguing views of terrestrial subjects if the atmospheric conditions permit. We used the C8 on a Stellarvue MG alt-azimuth mount to examine the needles and pine cones at the top of a tall fir tree at a laser verified 134 yards with a 40mm Celestron Plossl ocular (51x magnification). At one point a fly, clearly visible through the C8, happened to land on the branch we were looking at!
A neighbor's weathered wood fence at 48 yards, particularly a chipped knot in the wood, was viewed through a 32mm Tele Vue Plossl (64x). This proved to be the most magnification we could use in the C8 on this particular day. Shorter oculars merely emphasized the heat waves, reducing the detail we could actually resolve.
One convenient feature of the C8 is its close focusing capability, to around 20 feet, which easily exceeds that of most refracting and Newtonian astronomical telescopes. A C8 can provide fascinating "close-up" views of stinging insects, for example a wasps' nest, at a safe distance and without interfering with their normal routine.
Of course, a C5 or C6 can do essentially the same things and are easier for most AZ mounts to support. The C8 and MG mount combination worked satisfactorily at low and medium magnification (using oculars from about 24mm focal length and longer) and the telescope's weight was not a problem. However, due to the C8's long focal length and potential for high magnification, we felt that the MG mount had reached its practical observing limit and the C8 was under-mounted for use with shorter focal length (high magnification) oculars.
For nighttime use, we mounted the C8 OTA on a Vixen GPD-2 German equatorial mount. This excellent mounting system weighs about 31 pounds and is rated for 35 pound loads. It proved to be ideal for the C8.
A quick initial star test revealed that the scope had been knocked slightly out of collimation during its journey from California to Oregon. It wasn't far out and, fortunately, the Celestron Owner's Manual provides simple, easy to understand and follow, collimation instructions. (The Owner's Manual is also available as a pdf file on the Celestron web site.) Collimation is best done by two people (it is not a group activity), one looking through the eyepiece while the other adjusts the colimation screws. If you follow the instructions exactly, it is a straightforward procedure.
We used the C8 at night from Chuck's semi-rural backyard, where the light pollution is moderate and the Milky Way is faintly visible to dark adapted eyes, as well as from the suburban College Hill in Eugene, where the light pollution is more severe and the Milky Way is not visible. The prevailing seeing conditions were very marginal due to rising air currents, a thin haze and some high clouds. This limited the shortest focal length eyepiece we could practically use in the C8 to about 12mm (169x magnification at about 21 power/inch). However, we were able to get very impressive views of the quarter moon, aided by a moon filter, using an 8-24mm Tele Vue Click-Stop Zoom eyepiece set as short as 12mm and as long as 24mm, as well as with fixed focal length oculars of similar magnification. Because of its long focal length and consequent high magnification, a truly impressive amount of lunar detail can be seen.
We looked briefly at the planet Venus, which was also in its "quarter" phase no surface features are visible on Venus, of course, due to its 100% cloud cover.
We also looked at a few of the brightest deep sky objects. The latter included the Andromeda Galaxy M31 using a 40mm Celestron Plossl and a 32mm Tele Vue Plossl with about equally good results. The Ring Nebula M57 could be discerned with oculars from 40mm to 12mm, with a 14mm Tele Vue Radian providing the optimum view. We were able to split the Double Double (double binary stars) in Lyra with 18mm, 14mm and 12mm Tele Vue Radians ditto the double star Polaris. As usual, we used a bright 40mm Celestron Plossl to locate most of these objects in the night sky before switching to higher magnification oculars for more detailed examination, if appropriate. We have had quite a bit of experience with Celestron C8 telescopes and this one performed as expected. All of the good things you have read about C8's are true!
The C8 really comes into its own at star parties and for serious astronomical observation at dark sky sites. It is, in fact, about the biggest telescope that we regard as truly portable, as it can be set-up on an adequate equatorial mount by one person, unassisted, in a reasonable amount of time. There are larger "portable" scopes available, to be sure, but they tend to either require detail disassembly for transportation (as per truss type optical tubes or multi-piece fork mounts), or come on simple Dobsonian alt-azimuth mounts that cannot track celestial objects across the night sky. Neither compromise seems worth the potential gain in light grasp to us. We prefer a C8 on a good German equatorial mount to any of the larger aperture alternative "portables" that we have tried. That includes Celestron's own C11 and C14 telescopes, which are spectacular for pier mounted home observatory use, but require too much effort to set-up to be truly portable, at least by our "single middle-aged person" standards.
The C8 has the light grasp and focal length to see all of the planets (even Pluto, given ideal conditions, which we know because we have done it), as well as a staggering number of deep sky objects. These easily include the entire Messier catalog and hundreds of dimmer objects. Its resolution allows it to split a myriad of double stars. Since its limiting stellar magnitude is 14 and its Rayleigh resolution is 0.69 arcsec, the seeing conditions will normally be the factor controlling what objects can be viewed from semi-populated areas, not the telescope itself.
Compared to smaller aperture scopes, the C8 is most impressive for viewing deep sky objects, such as the Whirlpool Galaxy M51, whose major arms can be discerned, and for peering deep into big globular clusters like M13 in Hercules. The latter is spectacular when seen through a C8. It has the light grasp to show deep sky details that smaller or less precisely figured telescopes cannot match.
The view through a C8 under dark skies and good seeing conditions has always been, and remains, stunning. The modern Celestron C8 with Starbright XLT coatings, regardless of main tube color, is an excellent all-around telescope for the advanced amateur astronomer.
Already have an account? Sign in here.
Recently Browsing 0 members
No registered users viewing this page.
Similar Content
Though M101 is a relatively large target it is quite dim and this required a significant effort to get detail into its core. I took 31hrs of 30sec exposures which I then thinned down to the best 18hrs of data. Processed in APP and PS it was tricky keeping the core detail that I had imaged from blowing out.
Lots of advice and lots of very small curves stretches was the key in the end. Hardly sharpened it much with noise reduction undertaken as and when noise just stared to appear during stretching.
As the sensor is biased towards red, colour balancing with green and more so with blue was also necessary.
Taken at Gain 200 with a UV IR cut ASI224MC uncooled camera, APM107/700 scope on an AZEQ6.
It’s a good little sensor if you have the conditions (cold nights) and use Flats, Flat Darks and take Darks every night as the sensor temperature varies being uncooled. For info, I found it ran at about 6 degs above ambient once it was steadily running subs off.
Here is a pretty view of M82, taken on 12 Dec with 102mm f5 achromat, ASI224MC camera, SLT mount.
Live stacked, 16 frames, total 138 secs.
Here is a live-stacked EEVA image (14 frames, total 174secs) taken with 102mm f5 Startravel achro & ASI224MC camera on SLT mount.
The 9th magnitude comet is the smudge toward upper right of the frame. It's small and dim.
Another Mars image . in this one I have managed to record Olympus Mons which did not show in earlier images I made of the same longitude. The seeing seemed good, but the sky was hazy and cloud-free as I set up. By the time I was ready to image, some cloud had come over, and instead of clearing it developed into 100% cover and an unexpected heavy shower. As I was dismantling the now very wet telescope the sky cleared again offering a tempting view of Mars so I put all the bits back, aligned on Mars and took a series of videos.
Kit: CPC800, ASI224MC, ADC. 20% of 5000 fromes, processed in Registax6. I also tried a x2 Barlow but those images did not turn out well - looked out of focus.
EAA imaging vs AP imaging – Yet Again!
Firstly my apologies for this long post but I thought it best to be as specific as possible.
A different thread that recently closed here canvassed the well worn topic of what does, and what does not, constitute an acceptable EAA image. So far as I can see the thread closed with the position for this particular forum resting with the simple rule - “no post processing”. That's fine and welcome in its apparent simplicity but I am confused as to the logic behind its practical application. In particular, I wonder what precisely is meant by “post processing”? More specifically, “post” what? The only logical conclusion that I can come to is that the “what” is the saving of the EAA live on-screen view to file for later examination, etc. In other words anything done to acquire and improve the EAA on-screen view before it is saved to file as an image is acceptable EAA imaging but anything done to the saved image afterwards is not because that is post processing. Well, if right, that seems simple enough but is it entirely logical?
Consider what is involved in a typical EAA workflow. Using SharpCap as being generally representative of EAA viewing and imaging software, I think the the following fairly summarises the steps involved following target acquisition :
1. Set the camera controls - for exposure length, gain, gamma and cooled camera temperature (same as for AP).
2. Configure other settings to obtain an on-screen view of the target:
- Preprocessing (corresponding to regular APs' calibration) :
- Select image “improvement” procedures :
3. View the resulting on-screen image
4. Save the on-screen image to file for later viewing, possible further enhancement and distribution.
You can see that 2(c.) to 2(e) correspond to matters that are generally understood to be part of AP post processing. But they occur before the on-screen image is saved to file. So it seems clear that the nature of image adjustments is not in itself relevant to determining what is, and what is not, acceptable for EAA imaging, only when they are applied – before or after saving the on-screen image.
Now consider the use of ToupSky, RisingSky, MallincamSky and other similar camera control and imaging software. They all operate in basically the same way and the EAA workflow is pretty much the same as described above for SharpCap. However there is one significant point of difference. The saving of the live on-screen display to an image file is done in two stages. Firstly a snapshot copy of the live-view display is made and displayed in a new tabbed page. This is done by clicking a “Snap” button. The snapshot is identical to the live-view display when it was made. As a second stage the snapshot can be saved to file by specific user action. However, between creating the snapshot and saving it to file the software allows you to change the snapshot by applying a range of processes that are typically found in AP post processing. These include, but are not limited to :
Practical experience at public outreach events has shown that applying these processes (f) to (h) could quickly but significantly improve the quality of the snapshot to the benefit of the viewers' experience. So are they acceptable for EAA imaging or not? Logically they should be because they are applied before the on-screen snapshot is saved to file and, as we have already seen, the fact that they are part of regular AP post processing procedures is not in itself a relevant matter. And from the point of view of the public outreach viewers the application of processes (f) to (h) is but part of a seamless continuum of producing the best possible view of a target allowed by the EAA setup being used.
So now we seem to have reached the position where :
- Procedures (c.) to (h) run pretty much the full gamut of basic AP post processing, always accepting that AP post processing can also include other matters such as high dynamic range adjustment, etc.
- Some of the noted procedures i.e. (c.) to (e) are allowed as proper for EAA in all cases, but
- others i.e. (f) to (h) are only allowed where the camera control and imaging software specifically provides for them.
- Applying any of procedures (c.) to (h) after saving an on-screen image to file is post processing and is therefore not allowed for creating an EAA image. The image has to be classified as AP.
This begs the following questions :
- If what are normally regarded as AP post processing adjustments are acceptable for EAA imaging when made before saving the on-screen image to file why are the same adjustments not also acceptable when later made to the saved image file? And, if they are so acceptable, is it logical to exclude any other AP post processing adjustments that may not be included in the EAA viewing and imaging software?
- Is it reasonable for users of SharpCap and similar software to be precluded from using adjustments such as (f) to (h) for EAA image purposes when they would seem to be available to users of ToupSky, etc.?
This is quite probably all a bit of a storm in a teacup but, as I said, I'm confused.
#2 nicknacknock
A man of many qualities, even if they are mostly bad ones
The forum specific rules clarify what is considered post-processing. Specifically:
Please note that post-processing of EAA images is not allowed under any circumstances. One can provide links to ones' post processed images in the imaging fora, your gallery on Cloudy Nights or from another website. This helps to maintain our focus on EAA.
Our view on post-processing is basically any enhancement process occurring after the capture software has saved the final image into a storage device. The key word being enhancement image manipulation like cropping, zooming, rotating, annotating, inverting, and file size compression is deemed acceptable.
These rules came after long discussions between all parties, some attempts at changing things which were unsuccessful, until we all settled (admins, mods and members alike), to a reasonable definition of post-processing which we are happy with at the moment.
As for what EAA is, this is indicated via the forum description, and this definition we apply here is what led us to these rules:
Electronically Assisted Astronomy (EAA) is the use of an analog or digital image capturing device in lieu of an eyepiece at the telescope. Here members can talk about the equipment used, share their observing experiences, and post sketches and images captured with EAA devices.
I trust this clarifies matters sufficiently. At the moment, the forum runs fine, people seem to be enjoying it (myself included) and we have no intentions to make any changes for the foreseeable future.
#3 nicknacknock
A man of many qualities, even if they are mostly bad ones
Just to add a bit more in terms of context, and this may make things clearer:
Yes, I will use darks and flats, which usually take me a total of 3-4 minutes to take and apply at the beginning of a session. But that is to improve what I see - take it as being the same to adding a UHC filter before viewing the Veil nebula, to see more detail visually.
My exposures are of the 15 second nature each these days and my patience for AP is zero, as I want instant gratification and 15 seconds later, I see my object. I usually stack no more than 5 minutes (usually to the order of 2 minutes), before I move on.
I also do visual and like EAA and AP, even that has preparation in terms of setting up equipment, balancing scopes, selecting correct eyepiece / filter, aligning finderscope / Red dot finder to main scope, focus and then observe.
What makes EAA closer to traditional visual astronomy via eyepiece, is that more or less instant gratification and viewing the object as is at the time of viewing, before moving on after we had our fill. If focusing is a bit off, no tears are shed. If there is tilt in the imaging train, again, no tears. If I am bored to take darks and flats, I don't lose any sleep over this. Whereas, with AP it is the precision of data acquisition, the precision of guiding, the precision of focusing, strict application of calibration frames and the laborious task of post-processing.
I never post images that were processed after the session. What I do for me is that I may enhance on my iPad (takes under a minute) an image to bring out more detail for me. But, I would never claim that this is astrophotography and I only do it for me. Here on the forum, I take more pleasure in sharing EXACTLY what I see.
Hope this brings some insight into what actually is EAA and why we love it!
#4 Broglock
I am a bit confussed here!
If one wants to post process an image and requires that it be posted, then there is a Forum here on CN for that. There are many here who do not follow the workflow as described above and also may never post an image or even have a personal gallery of viewed items. This is why this Forum exists and we can contribute to all or none of the Forums here. A year ago I was headed to AP because of difficulty with visual (back and neck fusions) and was about to put all equipment up for sale when I stumble across EAA, a sub-Forum of AP at the time. WOW, I found exactly what I required to view the skies without long exposures, complicated processing, and expensive post processing software. Being a sub-Forum of AP was causing some issues in trying to understand and teach EAA to us newbies, therefore, at least as I have seen, it developed and here we are.
#5 TOMDEY
Forgive me for smiling---
Because I recognize myself and others here. What inevitably happens is that aggressive categorization leads to disagreements that never resolve --- because categorization itself is a gray-area task that has no logical terminus. This leads to over-categorizations that would require the Supreme Court to weigh in on. The Principals find themselves arguing over nits and the fun goes out of it. Many of the most productive participants shrug and walk away entirely. I know it hasn't quite come to that, but a risk to at least be aware of.
Decades ago, I was informally asked to consider accepting a seat on an International Standards Committee (IES Lighting Standards) because I was designing, patenting, and developing Energy-Efficient Street Lights etc. for the Big Guys. That would have impact on astronomy, so the invitation was especially-attractive. But I prudently (very prudently) thanked them but backed away, with some lame excuse about being too busy doing other things. My real reason was that I knew (from experience) that it would be a terrible Pandora's Box of International Political In-Fighting --- only 10% technical, 40% marketing, and 50% pure international politics. That would have been career-opportunity if I was interested in ladder-climbing. But my expertise and interest were only technical, and money was insufficient incentive to motivate me. That worked out for the best --- such an assignment would have exasperated and drained me (even though I might have been able to champion Dark Skies). Funny the way decision nodes effect one's career-path and --- maybe even some aspects of the world's environment.
If I ever get back into astronomical image-capture (as an extension of visual observing) --- I most certainly will go EAA. I think of it as a great way to log and recall my visual observations. like a high-end observing log. Long before we guys here even definiert EAA (let alone categorizing and executing it) --- I was video-recording analog Night Vision straight to VHS tape. I would then review meteor storms, aurora, and also more traditional clusters, nebulae and galaxies --- on rainy nights. It was a great way to relive the experiences and even notice things that I missed when real-time at the eyepiece. I miss that and will return to it.
But the grayness twixt Pure Visual, Night Vision, EAA, Imagery --- remain gray, and that's OK. Just like the Night Sky is never black (not even ideally) --- the boundaries between The Universe and Human perception --- remain forever
Ummm . So, Is Pluto a planet?
#6 nicknacknock
A man of many qualities, even if they are mostly bad ones
Some good points raised - the key one about aggressive categorization. There have been successive changes in the past few years, but the current status of:
"Our view on post-processing is basically any enhancement process occurring after the capture software has saved the final image into a storage device"
keeps things rather simple. So, instead of setting a bunch of rules and forcing people to jump through successive hoops, we decided to keep things simple. We tried a more "complicated" approach with more rules, it was not successful, we recognized that it was not appropriate and we remedied the situation with the current rules.
Since we are in this to observe, we discuss our observations and supplement via what we saw at that time, not what can be extrapolated later on from data captured, hence that one.simple.reasonable.rule.
And, there is of course an outlet for those that push the boundaries into AP. Feel free to post-process, post that in your gallery and hyperlink if you want to your posts, or post in the AP forums. Without the post-processing rule, we would be trading images which would have no relationship whatsoever to what we actually saw during live viewing