DIGITAL
IMAGING
Die
fortlaufende Entwicklung in der Titanenklasse der
Adleraugen weist weiterführende und unterschiedliche
Wege der Entwicklung auf. Abgesehen von der Vergrößerung
der Sensorlängen, die mittlerweile fast quer
auf ein A5-Buch passen und deren Zeilenspur die Bildebene
einer analogen Großformatkamera überstreichen,
sind weitere Technologien im Einsatz, wie beispielsweise
die Multiple-Cam-Systeme, die sich vorteilhaft kombinieren
lassen. Im Unterchied zum Singelframe-Sensor, der
in Dreifarben- oder Vierfarb-Kombination (Farb-Filtermatrix,
Bayer-Interpolation) arbeitet, bestehen Multiple-Cam-Systeme
aus drei oder vier vollständigen Kamera-Modulen.
Sie sind kostenintensiv, müssen metrisch synchronisiert
werden, benötigen aber keine Farbinterpolation
und erreichen bei der ortsaufgelösten Farbwiedergabe
höchste Qualität. Die Überlagerung
der vier Sensoren bietet je nach Justierung und Berechnung
ein zusätzlichen Auflösungsgewinn und eine
bessere Separierung oder Eliminierung der Rauschanteile.
Diese Giganten erzeugen die höchsten Kosten, die derzeit
noch der Markt bezahlen kann.
Sowohl
für Single-Framesenoren wie auch bei Zeilen-Scannern
besteht eine zusätzliche Möglichkeit zur
Optimierung der effektiven Auflösung - abgeleitet
aus dem Überlagerungsprinzip der multiplen Sensorik.
Durch Mehrfachbelichtung oder Parallelbelichtung mit geringfügig
verschobenem Sensor, beispielsweise um die Hälfte
der Pixellänge versetzt, erreicht man im anschließenden
Processing eine deutlich höhere Auflösung,
obwohl der Sensor diese physikalisch nicht bereitstellt.
Der Nachteil dieser Methode ist der Zeitaufwand, denn
für sehr schnell bewegte Objekte ist sie nahezu
unbrauchbar. Der Zeitverlust für Mehrfachbelichtungen
läßt sich bei Verwendung von Zeilen-Scannern
mit geeigneter Positionierung vermeiden. Sensorzeilen
können, dicht untereinander und versetzt um Bruchteile
einer Pixellänge montiert (staggered lines) werden
und innerhalb nur einer Belichtung die Bildebene auslesen,
wodurch Zeitverluste umgangen, das Rauschen sogar
minimiert und die Auflösung deutlich optimiert
werden kann.
Auf diese Weise
werden unter idealen Bedingungen aus einer Entferung von etwa 770 km noch
Objekte von < 25cm Länge panchromatisch aufgelöst, statt mit
157cm oder mehr. Die Qualität dieser Ortsäuflösung wird deutlicher,
wenn man mal eben mit dem Strahlensatz die optische Auflösung bei 10 km
Höhe abschätzt und diese mit einer professionellen KB-DSLR vergleicht.
Eine
ergänzende Methode das thermische Rauschen auch ohne
Kühlsystem zu reduzieren, ist den Pixelauslesetakt
zu verringern (slow-scan mode) bei geringerer Stromaufnahme
der Sensorik in Kombination mit einem Differenz-Abgleich,
"( RealPix - ReferenzPix ) = Dunkelbildsubtraktion", was
die störenden Signalanteile noch ein paar weitere
Prozente absenken kann.
Dimensionierung der Optik:
Die zugehörige Optik-Systeme werden mit phantastischen Auflösungswerten
von 540 Lp/mm (Linienpaare) und mehr beziffert. Ob und wie
solche Werte zustande kommen (nur monochomatisch ?,
Auflösungs-Kriterium
?) ist seltenst dokumentiert und vermischt sich mit
Spekulation oder Werbung - also sind diese Werte
"verdächtig gut".
Eine optische Auflösung von 360 Lp/mm bei einem
realistischen Kontrast, weit unterhalb von 1:1000,
wäre schon im IR-Bereich angelangt und würde
ein Sensor-Raster von etwas unter 1,4µm erzwingen.
Zum Vergleich: Die rein sensorische Auflösung
einer KB-DSLR liegt so etwa zwischen 60 und 110 Lp/mm
und eine KB-Optik mit 240Lp/mm würde die sensorische
Auflösung in Spitzenqualität auslasten können.
Die tatsächlichen Pixellängen für Orbit-
oder Drohnen-Systeme liegen aber bei 5.0µm oder größer
auf einer Sensorlänge von 4.5 bis 12.0cm. Diese
Dimensionierung entspricht dem MF oder noch etwas
größer. Wenn aus 770km Höhe der Boden-Ausschnitt
(Spot-Modus) etwa 7km bis 14km beträgt, dann muß
der optische Bildwinkel an die 0.5° heranreichen,
was bei KB-Systemen einer Extrem-Tele-Optik
(KB: >4800mm, ~MFx2) entspricht.
Wird
dieser Ausschnitt auf einen Z-Sensor
(ca. 75mm Länge, 2x12000px a 5,8µm) abgebildet,
dann muß die Optik eine Auflösung von 2x86
Lp/mm oder besser bereitstellen und es resultiert
eine Bodenauflösung unter 50cm. Halbiert man
die Orbialhöhe bei ansosnten gleichem Instrument,
dann erreicht so ein System die 50cm sogar mit nur
einem Schockoladenriegel - ohne Sensor-Shift,
Time-Delay-Integration
oder Staggering. Die zitierten
Parameter mit derartiger Auflösung sind also
nicht "erstaunlich" oder Phantasiegestöber, sondern
technisch realistisch. Die 50cm-Auflösung ist
die "gewerblich" freigegebene. Die tatsächliche
Auflösung für militärische und wissenschaftliche
Anwendung ist im Jahr 2008 um den Faktor 2.x besser
und Brennweiten über 10m (kompakte Spiegel-Linse-Kombination)
sind kein "problematisches" Hindernis.
Der Orbview5 (nicht spezialisiert für Aufklärung)
liefert aus etwas unter 700km bereits eine 41cm Auflösung.
Mittels Oribitalhöhe und den metrischen Eckdaten,
kann man per Grundrechenarten und fundamentaler Physik
die optischen Bedingungen überprüfen. Eine unvermeidbare
Begrenzung der Auflösung sind atmosphärische Turbolenzen,
die durch unterschiedliche Dichte, thermische Diffenrenzen und lokale
Strömungsverhältnisse entsteht - also ganz banal die Wetterverhältnisse.
Die klassische
Optik, der technologische Herstellungsaufwand,
die Wellenmechanik
(Wellenlängen, ATR, Beugungsunschärfe usw),
die Dimensionierung der Halbleiter-Sensork
und die numerische Signalverarbeitung setzen das ideale
Leistungsmaximum und sind die Voraussetzung für
das digitale Auge. Die Nyquist-Theorie
ist schon deshalb wenig hilfreich in der Physik der Optik,
weil es schlicht keine 2.2 Pixel gibt. Ein Sensor besteht
nun mal aus ganzen Bildpunkten und das visuelle Abbild
kann nur auf die gegebene Matrix projeziert werden - die
Natur läßt sich da leider nicht überreden.
Diese einfache Realität hat praktsiche Konsequenzen:
Ein Einzelobjekt auf homogenem Hintergrund kann im Idealfall
mit einem Pixel lokalisiert werden. Muß auch ein
Kontrastunterschied abgebildet werden, sind schon 2 Pixel
erforderlich und man kann noch nicht 2 Maxima auf 2 Pixel
eindeutig als 2 Objekte identifizieren. Sollen aber zwei
Objekte auf der Sensor-Matrix differenziert werden, dann
sind 3 Pixel notwendig. Im technischen Gebrauch hat sich
die 2-Kontrast-Auflösung durchgesetzt.
Wer die optische Auflösung
nach Ernst
Abbe (K=1.0, nicht 2.44) nachrechnet, wird feststellen, daß bei realistischen
Parametern (Wellenlänge, Brennweite, Blendenöffnung) mit 24000 oder
36000 Pixeln pro Bildzeile aus dem optischen
Instrumentarium noch einiges herauszuholen ist. Die beispielhaft vorausgesetze
Auflösung von effektiven 86 Lp/mm ist noch weit weg von
optischer Grenzauflösung
für lichtstarke Optik.
Grenzen und Vielfalt:
Bei teleskopischen Linse-Spiegel-Kombinationen mit Brennweiten von bis zu 60m und
Linsen-Durchmessern von mehr als 6 Metern oder Parabolspiegeln von 10 Metern sind
außer der metrischen Präzision, der Oberflächenqualität und der
Schwingungsdämpfung weitere Probleme zu lösen. Etwa die thermische Deformation
(Korrekturverfahren und Kühlsysteme wärend der Belichtung) ist so ein Problem.
Die Fokusebene, direkt auf die Sonne gerichtet, wäre bei diesen Lichtstärken
ohne eine thermische Schutzfilterung, in Sekundenschnelle mühelos auf über
2600°C aufzuheizen - das reicht, um "sofort" hochwertigen Werkstahl zerfließen
und abtropfen zu lassen. Auch das Problem der atmosphärischen
Turbulenzen will gelöst sein. Ein anderes Problem unter der Anforderung höchster
Präzision ist das Eigengewicht. Linsen aus optischem Glas mit mehr als 8 Metern, zeigen
bereits Eigendeformation nur durch ihr Gewicht, zumal sie im Gegesatz zum Spiegel mit
Aberrations-Fehlern behaftet sind - die Natur setzt ihre Grenzen auch bei der Dimensionierung
und dem Eigengewicht.
[ weiter
... ]
|