Frage zur Langzeitbelichtung

Status
Es sind keine weiteren Antworten möglich.

Ehemaliges Mitglied 72636

Ich hätte gerne gewusst, ob es eine Software gibt, vorzugsweise Open Source, die von Bildern, die mit Langzeitbelichtung ohne Nachführung gemacht wurden, die Spuren die die Sterne auf dem Bild erzeugen wegrechnen kann, in etwa so wie bei Google die GCam App. Gewissermaßen eine Nachführung für den kleinen Geldbeutel :D
 
Hallo Rudi,
ich fürchte, das eine solche Software nur wenig Sinn ergeben würde.
Ein Programm, dass die Folgen einer Langzeitbelichtung ohne Nachführung nachträglich eliminieren, also -extrem ausgedrückt- aus Startrails runde Sterne machen soll, müsste alles „wegradieren“, was die Sterne in die Länge zieht. Das was die Sterne in die Länge zieht, ist im Grunde genommen gesammeltes Licht, dass auf mehr Pixel verteilt wird, als eigentlich gewünscht.

Würde das „weggerechnet“ werden, würde im übertragenen Sinn Belichtungszeit weggerechnet werden.
Da kannst Du auch gleich kürzer belichten.

Dazu kommt, dass durch Bildfeldrotation in manche Bildpunkte Licht von verschiedenen Sternen bzw. anderen Details „verschmiert“ wird. Wie soll hinterher festgestellt werden, wieviele Photonen welcher Stern / welches Detail zur Sättigung beigetragen hat?

Irgendwie könnte man natürlich aus Strichen Punkte machen, aber was dann vom ursprünglichen Objekt übrig bleibt……….

Dann lieber kürzer belichten, aber häufiger. Und dafür gibts dann auch die passende Software.

CS

Dietmar
 
Ok, Hi Dietmar, habe es mir schon so gedacht, wollte einfach mal so fragen. Ich danke Dir
 
Ganz so abwegig ist das gar nicht, prinzipiell müßte eine Software das schon machen können und zwar auch ohne Belichtung wegzuradieren, man könnte die Belichtung der Striche auf einen Punkt integrieren. Die hellsten Striche als Muster registrieren und dann alle Pixel im Bild dementsprechend aufaddieren.
Bei höheren Brennweiten ist die Wirksamkeit da aber auch begrenzt, da ja relativ bald alles aus dem Bild rauswandert.
Meines Wissens gibt es eine solche Software nicht, aber vielleicht hat irgendwann irgendwo jemand die Zeit und das Wissen so etwas zu realisieren...
Ich empfehle aber doch eher eine Nachführung, es gibt einfache nur für Kameras auch schon für wenig Geld, z.B. die LX2 von Omegon, mit einer DSLR und einem 135mm Objektiv führt die eine Stunde lang ohne Batterien nach und Belichtungszeiten von 1 Minute sind da schon machbar mit runden Sternen !
 
man könnte die Belichtung der Striche auf einen Punkt integrieren
Machbar ist das bestimmt, und ich bin mir sicher, dass das auch in so mancher Software, wie Pixinsight, in sehr begrenztem Umfang bereits passiert.
Solange das Licht von nur von einer Lichtquelle (Stern) kommt, mag das funktionieren. Kommt die Sättigung des Bildpunktes aber von mehreren Quellen, die "verschmiert" werden oder gar von z.B. Nebelstrukturen, lässt sich das ja gar nicht mehr trennen.

So würde ich das sehen....

CS

Dietmar
 
Hallo !

Für Bastler bietet sich auch eine Barndoor Montierung an. In Zeit der 3D Drucker lohnt da auch ein Blick auf Thingiverse. Aber die Nachführungen von Omegon sind, was Preis/Leistung angeht schon ziemlich gut.

Alternativ kann man ja immer mit fester Kamera arbeiten und so lange Belichten bis die Sterne nicht mehr rund sind (Faustregel 500/Brennweite[mm]=max. Belichtungszeit). Bei einem 50mm Objektiv also ca. 10s. Es kommt dabei aber auch ein wenig auf die Größe der Pixel an. Wenn man viele (RAW-)Bilder macht und diese im DeepSkyStacker zusammen rechnet, wird es schon recht ansehnlich.

Viele Grüße
Michael
 
Machbar ist das bestimmt, und ich bin mir sicher, dass das auch in so mancher Software, wie Pixinsight, in sehr begrenztem Umfang bereits passiert.
Richtig (siehe unten)
Solange das Licht von nur von einer Lichtquelle (Stern) kommt, mag das funktionieren.
Nein, das funktioniert auch bei ueberlagerung (siehe unten).
Kommt die Sättigung des Bildpunktes aber von mehreren Quellen, die "verschmiert" werden oder gar von z.B. Nebelstrukturen, lässt sich das ja gar nicht mehr trennen.
Schoen beobachtete intrinsische Grenze all dieser Methoden.

Aber alles in allem: Dietmar, genau so ist es.

/*Klugschiss an, wer's liest ist selber Schuld*/
Das ist mathematisch theoretisch ganz klar machbar und zwar mit einer Deconvolution.

Wie ein "Objektpunkt" auf dem aufgenommenen Bild verschmiert (also die Transformation Objektpunkt --> Bildpunkt), dass laesst sich mathematisch furch die "Pointspreadfunction" beschreiben (PSF).

Die mathematische Faltung dieser PSF mit der Objektfunktion (vulgo: wie das Licht des Sternenhimmels auf dem CCD-Chip abgebildet wird) ist letztendlich die mathematische Beschreibung des Bilds in der Kiste.

Mit dieser PSF lassen sich alle "optischen Prozesse und Limitierungen" der Aufnahme zusammenfassen und die Auswirkung auf das Bild beschreiben, z.B.:
1. optische Fehler (Koma, Asti, ...)
2. das Limit der Oeffnung (gibt die Beugungsringe und limitiert die Aufloesung)
3. das Seeing
4. aber auch Verschmierung durch Bewegung (von sowohl Object, wie auch aufnehmender Optik)
usw

Kennt man diese Pointspreadfunction ueber das gesammte Bild genuegend genau, dann kann man das ueber eine Deconvolution auch wieder aus dem Bild herausziehen, dass Bild sozusagen "beliebig schaerfen" und sich ueberlagernde Signale wieder trennen.

"Normalerweise" (und das ist nur das "normalerweise" in Amateuranwendungen, grundsaetzlich ist das naemlich ueberhaupt nicht so) ist die Pointspreadfunction fuer das ganze Bild gleich.
Das stimmt bei genauerem Hinsehen schon im "uns" bekannten Normalfall nicht, kleines Beispiel: Ein Newton hat in der Mitte kein Koma, aber am Bildfeldrand hat der es. Eine "saubere" Deconvolution wuerde also fuer jeden Teil des Bildes eine eigene positionsabhaengige PSF benoetigen, die dann auch tatsaechlich das radialsymmetrische Koma zwischen Mitte und Bildfeldrand selektiv verschwinden lassen wuerde, in der Mitte dagegen nicht.
Aber das ist noch lange nicht das Ende der Komplexitaet, denn auch zu beachten, die PSF ist i.d.R. sowohl fuer Reflektoren (Beugung) wie erst Recht fuer Refraktoren (Sphaerochromasie) farbabhaengig (auch dass noch...).

Dennoch: Das Verschmieren von Strichspuraufnahmen koennte man theoretisch genauso verschwinden lassen. Nur ist die Laenge des Strichs u.a. davon abhaengig, wie weit der Bildpunkt von der Position zum Himmelspol (in der Bildebene der Kamera) entfernt ist. Daher ist hier die PSF ganz klar verschieden fuer Bildpunkte, die auf verschiedenen Radien dieses Abstands liegen.
Kennt man diese PSF(x,y), dann ginge das natuerlich mathematisch ganz einfach.

Nur haben diese "mathematisch ja ganz einfach" Geschichten i.d.R. in der Praxis dann mitunter den ein oder anderen kleinen Haken, denn man steckt da auch schnell in einer Tautologie, naemlich dieser:
Um ueberall einen Strich in der Strichspuraufnahme mathematisch wieder in einen Punkt zu verwandeln, muss man ueberall im Bild fuer diese Brennweite, diese Kamera, diese Optik mit all ihren anderen Bildfehlern, der Aufnahmedauer und der Entfernung zur Himmelrotationsachse im Bild (und noch einigem Tralala) die PSF genau kennen.
Tja, nur wo bekommt man denn diese ebenso notwendige, wie an jedem Dingsbums abhaengige PSF nun konkret her?
Ganz einfach, wenn man ein unverschmiertes Bild haette (mit Sternen als Punktquelle), und ein Strichspurbild (mit denselben Sternen als Strichspur), dann koennte man die ganz einfach bestimmen.
Bloed ist halt nur: Ich brauche fuer diese Kalibrierung also sowieso ein Bild ohne Verschmierartefakt (=Nichtstrichspuraufnahme), dass Ich ja leider nicht habe, sondern eben nur die Strichspur, die Ich ja gerade wieder in ein Punktbild zurueckverwandeln will (das war ja der Zweck der Uebung).
Der mathematisch "saubere Weg" ist also ein klassischer Catch 22.
Der Ausweg ist in der Praxis (und solche Dinge sind auch in der gCam App), dass iterative Algorithmen wie z.B. Lucy-Richardson einfach einen realitaetsmotivierten Rateversuch fuer die PSF machen, damit eine Deconvolution durchziehen, mathematisch bewerten, ob sich das Bild dadurch verbessert oder verschlimmert hat und dann iterativ diesen Rateversuch immer weiter Richtung (hoffentlich) tatsaechlicher PSF verbessern.
Und theoretisch kann man mit solchen iterativen Verfahren aus einer Strichspuraufnahme tatsaechlich wieder ein "scharfes Bild" machen.
Das kennt der ein oder andere aus seiner Praxis in PixInsight und anderen Programmen, die eine Implemtationen von Deconvolution haben, da wird man auch jedesmal gefragt "hast Du eine PSF, oder soll Ich die aus dem Bild raten/ermitteln?". Falls Letzteres (Regelfall), dann laeuft da der beschriebene Prozess ab.
Nur in der Praxis haben solche iterative numerische Verfahren leider auch mehrere intrinsische Grenzen, von denen die wohl relevantesten die genannte Anfaelligkeit gegen Rauschen und andere Bildartefakte ist (auch der von dir genannten Saettigung eines Bildpunktes) und auch die Tatsache, dass nicht jede Transformation von Objektfunktion (dem "richtigen" Sternenlicht) zu Bildfunktion (dem resultierenden Bild auf der CCD) per se reversibel ist.
Das wird bei einem einfachen Beispiel schnell verstaendlich: Man kann mathematisch genau beschreiben, welche PSF den Vorgang "man macht den Deckel auf's Telekop und es wird zappenduster" beschreibt (es ist die Nullfunktion) und man kann damit mathematisch genau beschreiben, wie das Bild auf dem Chip dann aussieht (naemlich ueberall zappenduster), nur kann man selbst mit dieser ganz genauen Kenntnis der PSF diesen Vorgang nicht mehr zurueckrechnen. Ein so obstruierter Sternenhimmel kommt nicht wieder ...
Eine nur partiell aufgenommene Strichspur (Stern dreht sich aus oder in's Bild) kann so nicht mehr korrekt rekonstruiert werden, usw, usw

Fazit des ganzen Seromons: Das geht prinzipiell alles schon, ist aber sehr anfaellig (Seeing, Bild-Rauschen, Signalsaettigung, verschiedene spektrale Empfindlichkeit des Sensors bzgl. der Farben...), aufwendig zu implementieren, ist rechenaufwendig (in diesen Tagen immer weniger ein Problem), geht auch nur innerhalb gewisser Grenzen und es produziert auch schnell jede Menge unerwuenschte Bildartefakte und (das ist i.d.R. dann der Dealbreaker) hat auch SNR-maessig einen hohen Preis.

Seinerzeit wollte man den optischen Defekt des Hubble Spiegels auch genau so beheben, was auch teilweise geht, aber am Ende ist man dann doch hochgeflogen und hat einen Korrektor eingebaut, was schon irgendwo demonstriert, dass auch solche mathematische Tricks ihre Limits und "ihren Preis" (primaer stark verschlechtertes SNR) haben, der fuer die NASA solche irrwitzigen Reperaturen rechtfertigt und fuer uns halt die pragmatische Erwaegung: Halt einfach die Kamera rotieren.
/*Ende Klugschiss */

Ich weiss: klassischer TLTR

Gruss & CS
 
Zuletzt bearbeitet:
Nicht schlecht, Herr Specht....

Auch wenn ich nur einen Bruchteil des Beitrages verstanden habe, so bleibt bei mir zumindest hängen, dass die Empfehlungen - kürzer zu belichten, bzw. in eine Nachführung zu investieren- nicht die schlechtesten waren....

CS

Dietmar
 
Hallo,
Es gibt auch ein Tutorial für Photoshop, allerdings wird da nicht die "Flugbahn" der Sterne berechnet, sondern das Bild einfach etwas gestaucht. Ergebnis ist aber, zumindest bei mir, nicht besonders gewesen. Ich habe das einmal probiert und dann gelassen. Ich glaube, in den neueren Versionen von PS gibt es da sogar ne Funktion. Quasi das Gegenteil von Bewegungsunschärfe.

Gruß Moritz
 
Auch wenn ich nur einen Bruchteil des Beitrages verstanden habe, so bleibt bei mir zumindest hängen, dass die Empfehlungen - kürzer zu belichten, bzw. in eine Nachführung zu investieren- nicht die schlechtesten waren....
Yep.

Jetzt hat mich doch mal der Hafer gestochen:
Kann man ja auch mal (auf die Schnelle) bzgl Deep Sky mal kurz vorfuehren, wo da die Probleme liegen.
Hier ein 10s Bild mit dem C9 der Whirlpool Galaxie. Kontrast voll aufgedreht, damit man die sieht.

whirlpool.JPG


Irgendwann so 5min spaeter ging der Leitstern verloren und das Guidung fiel komplett aus.
Unten das Einzelbild ohne Guiding mit 10s Belichtungszeit (habe lange kramen muessen, um eines zu finden, wo ein paar helle Sterne standen, normalerweise loesche Ich solchen Kram), der Bildausschnitt (i.e. die Galaxie) war bereits weggelaufen.

original.jpg


So hier nun die Antwort an Rudi: Kann man aus der Strichspuraufnahme auf ein "korrektes" Bild zurueckrechnen?

Ja, im Prinzip kann man das.
Aus dieser Strichspuraufnahme habe Ich mir (ganz, ganz quick-and-dirty) von einem einzelstehenden Stern eine PSF dieser guiding-Drift gebastelt:

PSF.jpg

Das Ding ist gut genug das Prinzip zu zeigen, aber da haette man noch wesentlich mehr Arbeit 'reinbuttern muessen.
Sodele und mit dem Ding dann ueber das Strichspurbild einfach eine Lucy-Richardson-Deconvolution 'drueberlaufen lassen (da waren 50 Iterationen faellig), und voila:

decon.jpg


Eigentlich fasst das Ergebnis die Vor- und Nachteile von sowas schon ganz gut zusammen:
1) Man sieht tatsaechlich die schwaecheren Sterne (mal genau hinschauen) werden von Strichen tatsaechlich wieder zu kleinen Punkten korrekt zuruecktransformiert. Erfreulich! An genau so einen Stern (eben nicht an den drei Fackel-sternen) habe Ich mir die PSF gebastelt und da passt das auch gut)

2) Weniger erfreulich dagegen: Man sieht halt auch, die drei hellsten Sterne zeigen nicht unerhebliche Artefakte der Deconvolution. Das kommt daher, dass (I) Rauschen und (II) andere Abweichungen auf der PSF voll in den Prozess hineinhaut und dann an starken Signalquellen ueble Artefakte wirft (die sind auch bei den schwachen Sternen, nur sind die schwach genug, dass man die nicht sieht. Diese Artefakte wegzubekommen ist extrem delikat...
Das geht zwar durchaus noch viel besser, aber irgendwann knallt man grundsaetzlich gegen die Wand, weil die Genauigkeit der PSF-Bestimmung eben auch aus dem SNR-schwachen Bild bestimmt werden muessen und genau das limitiert irgendwann.

3) Das superschwache Signal von DS-Objekten ist viel zu tief im Rauschen verborgen, um von diesem Prozess zu profitieren und bekommt ein schweres zusaetzliches SNR Handicap.

Warum ist das daher eine sehr, sehr durchwachsenen Loesung, die Guiding nicht wirklich ersetzen kann?

Naja, um ein signalstarkes Gesamtbild fuer DS aufzubauen wuerde man 50-500 solcher Strichspuren (mit sehr, sehr schwachem SNR) erst so einer Artefakt und Rausch-additiven Dekonvolution unterziehen muessen, und erst danach zu einem SNR-starken Gesamtbild aufsummieren.
Das wird in der Praxis ein hoffnungsloses Geschaeft, weil man sich eher Wagenladungen an Artefakten aufsummiert, die teilweise weit staerker sind, als das im Rauschen verborgene Licht irgendeines DS-Objekts. Das wird das Rennen zwischen Hase und Igel.

Vielleicht wird's jetzt klarer.... :cool:
 
Status
Es sind keine weiteren Antworten möglich.
Oben