Machbar ist das bestimmt, und ich bin mir sicher, dass das auch in so mancher Software, wie Pixinsight, in sehr begrenztem Umfang bereits passiert.
Richtig (siehe unten)
Solange das Licht von nur von einer Lichtquelle (Stern) kommt, mag das funktionieren.
Nein, das funktioniert auch bei ueberlagerung (siehe unten).
Kommt die Sättigung des Bildpunktes aber von mehreren Quellen, die "verschmiert" werden oder gar von z.B. Nebelstrukturen, lässt sich das ja gar nicht mehr trennen.
Schoen beobachtete intrinsische Grenze all dieser Methoden.
Aber alles in allem: Dietmar, genau so ist es.
/*Klugschiss an, wer's liest ist selber Schuld*/
Das ist mathematisch theoretisch ganz klar machbar und zwar mit einer Deconvolution.
Wie ein "Objektpunkt" auf dem aufgenommenen Bild verschmiert (also die Transformation Objektpunkt --> Bildpunkt), dass laesst sich mathematisch furch die "Pointspreadfunction" beschreiben (PSF).
Die mathematische Faltung dieser PSF mit der Objektfunktion (vulgo: wie das Licht des Sternenhimmels auf dem CCD-Chip abgebildet wird) ist letztendlich die mathematische Beschreibung des Bilds in der Kiste.
Mit dieser PSF lassen sich alle "optischen Prozesse und Limitierungen" der Aufnahme zusammenfassen und die Auswirkung auf das Bild beschreiben, z.B.:
1. optische Fehler (Koma, Asti, ...)
2. das Limit der Oeffnung (gibt die Beugungsringe und limitiert die Aufloesung)
3. das Seeing
4. aber auch Verschmierung durch Bewegung (von sowohl Object, wie auch aufnehmender Optik)
usw
Kennt man diese Pointspreadfunction ueber das gesammte Bild genuegend genau, dann kann man das ueber eine Deconvolution auch wieder aus dem Bild herausziehen, dass Bild sozusagen "beliebig schaerfen" und sich ueberlagernde Signale wieder trennen.
"Normalerweise" (und das ist nur das "normalerweise" in Amateuranwendungen, grundsaetzlich ist das naemlich ueberhaupt nicht so) ist die Pointspreadfunction fuer das ganze Bild gleich.
Das stimmt bei genauerem Hinsehen schon im "uns" bekannten Normalfall nicht, kleines Beispiel: Ein Newton hat in der Mitte kein Koma, aber am Bildfeldrand hat der es. Eine "saubere" Deconvolution wuerde also fuer jeden Teil des Bildes eine eigene positionsabhaengige PSF benoetigen, die dann auch tatsaechlich das radialsymmetrische Koma zwischen Mitte und Bildfeldrand selektiv verschwinden lassen wuerde, in der Mitte dagegen nicht.
Aber das ist noch lange nicht das Ende der Komplexitaet, denn auch zu beachten, die PSF ist i.d.R. sowohl fuer Reflektoren (Beugung) wie erst Recht fuer Refraktoren (Sphaerochromasie) farbabhaengig (auch dass noch...).
Dennoch: Das Verschmieren von Strichspuraufnahmen koennte man theoretisch genauso verschwinden lassen. Nur ist die Laenge des Strichs u.a. davon abhaengig, wie weit der Bildpunkt von der Position zum Himmelspol (in der Bildebene der Kamera) entfernt ist. Daher ist hier die PSF ganz klar verschieden fuer Bildpunkte, die auf verschiedenen Radien dieses Abstands liegen.
Kennt man diese PSF(x,y), dann ginge das natuerlich mathematisch ganz einfach.
Nur haben diese "mathematisch ja ganz einfach" Geschichten i.d.R. in der Praxis dann mitunter den ein oder anderen kleinen Haken, denn man steckt da auch schnell in einer Tautologie, naemlich dieser:
Um ueberall einen Strich in der Strichspuraufnahme mathematisch wieder in einen Punkt zu verwandeln, muss man ueberall im Bild fuer diese Brennweite, diese Kamera, diese Optik mit all ihren anderen Bildfehlern, der Aufnahmedauer und der Entfernung zur Himmelrotationsachse im Bild (und noch einigem Tralala) die PSF genau kennen.
Tja, nur wo bekommt man denn diese ebenso notwendige, wie an jedem Dingsbums abhaengige PSF nun konkret her?
Ganz einfach, wenn man ein unverschmiertes Bild haette (mit Sternen als Punktquelle), und ein Strichspurbild (mit denselben Sternen als Strichspur), dann koennte man die ganz einfach bestimmen.
Bloed ist halt nur: Ich brauche fuer diese Kalibrierung also sowieso ein Bild
ohne Verschmierartefakt (=
Nichtstrichspuraufnahme), dass Ich ja leider nicht habe, sondern eben nur die Strichspur, die Ich ja gerade wieder in ein Punktbild zurueckverwandeln will (das war ja der Zweck der Uebung).
Der mathematisch "saubere Weg" ist also ein klassischer Catch 22.
Der Ausweg ist in der Praxis (und solche Dinge sind auch in der gCam App), dass iterative Algorithmen wie z.B. Lucy-Richardson einfach einen realitaetsmotivierten Rateversuch fuer die PSF machen, damit eine Deconvolution durchziehen, mathematisch bewerten, ob sich das Bild dadurch verbessert oder verschlimmert hat und dann iterativ diesen Rateversuch immer weiter Richtung (hoffentlich) tatsaechlicher PSF verbessern.
Und theoretisch kann man mit solchen iterativen Verfahren aus einer Strichspuraufnahme tatsaechlich wieder ein "scharfes Bild" machen.
Das kennt der ein oder andere aus seiner Praxis in PixInsight und anderen Programmen, die eine Implemtationen von Deconvolution haben, da wird man auch jedesmal gefragt "hast Du eine PSF, oder soll Ich die aus dem Bild raten/ermitteln?". Falls Letzteres (Regelfall), dann laeuft da der beschriebene Prozess ab.
Nur in der Praxis haben solche iterative numerische Verfahren leider auch mehrere intrinsische Grenzen, von denen die wohl relevantesten die genannte Anfaelligkeit gegen Rauschen und andere Bildartefakte ist (auch der von dir genannten Saettigung eines Bildpunktes) und auch die Tatsache, dass nicht jede Transformation von Objektfunktion (dem "richtigen" Sternenlicht) zu Bildfunktion (dem resultierenden Bild auf der CCD) per se reversibel ist.
Das wird bei einem einfachen Beispiel schnell verstaendlich: Man kann mathematisch genau beschreiben, welche PSF den Vorgang "man macht den Deckel auf's Telekop und es wird zappenduster" beschreibt (es ist die Nullfunktion) und man kann damit mathematisch genau beschreiben, wie das Bild auf dem Chip dann aussieht (naemlich ueberall zappenduster), nur kann man selbst mit dieser ganz genauen Kenntnis der PSF diesen Vorgang nicht mehr zurueckrechnen. Ein so obstruierter Sternenhimmel kommt nicht wieder ...
Eine nur partiell aufgenommene Strichspur (Stern dreht sich aus oder in's Bild) kann so nicht mehr korrekt rekonstruiert werden, usw, usw
Fazit des ganzen Seromons: Das geht prinzipiell alles schon, ist aber sehr anfaellig (Seeing, Bild-Rauschen, Signalsaettigung, verschiedene spektrale Empfindlichkeit des Sensors bzgl. der Farben...), aufwendig zu implementieren, ist rechenaufwendig (in diesen Tagen immer weniger ein Problem), geht auch nur innerhalb gewisser Grenzen und es produziert auch schnell jede Menge unerwuenschte Bildartefakte und (das ist i.d.R. dann der Dealbreaker) hat auch SNR-maessig einen hohen Preis.
Seinerzeit wollte man den optischen Defekt des Hubble Spiegels auch genau so beheben, was auch teilweise geht, aber am Ende ist man dann doch hochgeflogen und hat einen Korrektor eingebaut, was schon irgendwo demonstriert, dass auch solche mathematische Tricks ihre Limits und "ihren Preis" (primaer stark verschlechtertes SNR) haben, der fuer die NASA solche irrwitzigen Reperaturen rechtfertigt und fuer uns halt die pragmatische Erwaegung: Halt einfach die Kamera rotieren.
/*Ende Klugschiss */
Ich weiss: klassischer TLTR
Gruss & CS