>
>
>
>
  
  
>
>
>
>
  
  
  
  
  
  
  
  
  
  
  
  
  
  
lima-city: kostenloser Webspace




  
  

 

 
1  2  3  4  5  6  

DIGITAL IMAGING

Die fortlaufende Entwicklung in der Titanenklasse der Adleraugen weist weiterführende und unterschiedliche Wege der Entwicklung auf. Abgesehen von der Vergrößerung der Sensorlängen, die mittlerweile fast quer auf ein A5-Buch passen und deren Zeilenspur die Bildebene einer analogen Großformatkamera überstreichen, sind weitere Technologien im Einsatz, wie beispielsweise die Multiple-Cam-Systeme, die sich vorteilhaft kombinieren lassen. Im Unterchied zum Singelframe-Sensor, der in Dreifarben- oder Vierfarb-Kombination (Farb-Filtermatrix, Bayer-Interpolation) arbeitet, bestehen Multiple-Cam-Systeme aus drei oder vier vollständigen Kamera-Modulen. Sie sind kostenintensiv, müssen metrisch synchronisiert werden, benötigen aber keine Farbinterpolation und erreichen bei der ortsaufgelösten Farbwiedergabe höchste Qualität. Die Überlagerung der vier Sensoren bietet je nach Justierung und Berechnung ein zusätzlichen Auflösungsgewinn und eine bessere Separierung oder Eliminierung der Rauschanteile. Diese Giganten erzeugen die höchsten Kosten, die derzeit noch der Markt bezahlen kann.

Sowohl für Single-Framesenoren wie auch bei Zeilen-Scannern besteht eine zusätzliche Möglichkeit zur Optimierung der effektiven Auflösung - abgeleitet aus dem Überlagerungsprinzip der multiplen Sensorik. Durch Mehrfachbelichtung oder Parallelbelichtung mit geringfügig verschobenem Sensor, beispielsweise um die Hälfte der Pixellänge versetzt, erreicht man im anschließenden Processing eine deutlich höhere Auflösung, obwohl der Sensor diese physikalisch nicht bereitstellt. Der Nachteil dieser Methode ist der Zeitaufwand, denn für sehr schnell bewegte Objekte ist sie nahezu unbrauchbar. Der Zeitverlust für Mehrfachbelichtungen läßt sich bei Verwendung von Zeilen-Scannern mit geeigneter Positionierung vermeiden. Sensorzeilen können, dicht untereinander und versetzt um Bruchteile einer Pixellänge montiert (staggered lines) werden und innerhalb nur einer Belichtung die Bildebene auslesen, wodurch Zeitverluste umgangen, das Rauschen sogar minimiert und die Auflösung deutlich optimiert werden kann.

Auf diese Weise werden unter idealen Bedingungen aus einer Entferung von etwa 770 km noch Objekte von < 25cm Länge panchromatisch aufgelöst, statt mit 157cm oder mehr. Die Qualität dieser Ortsäuflösung wird deutlicher, wenn man mal eben mit dem Strahlensatz die optische Auflösung bei 10 km Höhe abschätzt und diese mit einer professionellen KB-DSLR vergleicht.

Eine ergänzende Methode das thermische Rauschen auch ohne Kühlsystem zu reduzieren, ist den Pixelauslesetakt zu verringern (slow-scan mode) bei geringerer Stromaufnahme der Sensorik in Kombination mit einem Differenz-Abgleich, "( RealPix - ReferenzPix ) = Dunkelbildsubtraktion", was die störenden Signalanteile noch ein paar weitere Prozente absenken kann.

Dimensionierung der Optik: Die zugehörige Optik-Systeme werden mit phantastischen Auflösungswerten von 540 Lp/mm (Linienpaare) und mehr beziffert. Ob und wie solche Werte zustande kommen (nur monochomatisch ?, Auflösungs-Kriterium ?) ist seltenst dokumentiert und vermischt sich mit Spekulation oder Werbung - also sind diese Werte "verdächtig gut".

Eine optische Auflösung von 360 Lp/mm bei einem realistischen Kontrast, weit unterhalb von 1:1000, wäre schon im IR-Bereich angelangt und würde ein Sensor-Raster von etwas unter 1,4µm erzwingen. Zum Vergleich: Die rein sensorische Auflösung einer KB-DSLR liegt so etwa zwischen 60 und 110 Lp/mm und eine KB-Optik mit 240Lp/mm würde die sensorische Auflösung in Spitzenqualität auslasten können.

Die tatsächlichen Pixellängen für Orbit- oder Drohnen-Systeme liegen aber bei 5.0µm oder größer auf einer Sensorlänge von 4.5 bis 12.0cm. Diese Dimensionierung entspricht dem MF oder noch etwas größer. Wenn aus 770km Höhe der Boden-Ausschnitt (Spot-Modus) etwa 7km bis 14km beträgt, dann muß der optische Bildwinkel an die 0.5° heranreichen, was bei KB-Systemen einer Extrem-Tele-Optik (KB: >4800mm, ~MFx2) entspricht.

Wird dieser Ausschnitt auf einen Z-Sensor (ca. 75mm Länge, 2x12000px a 5,8µm) abgebildet, dann muß die Optik eine Auflösung von 2x86 Lp/mm oder besser bereitstellen und es resultiert eine Bodenauflösung unter 50cm. Halbiert man die Orbialhöhe bei ansosnten gleichem Instrument, dann erreicht so ein System die 50cm sogar mit nur einem Schockoladenriegel - ohne Sensor-Shift, Time-Delay-Integration oder Staggering. Die zitierten Parameter mit derartiger Auflösung sind also nicht "erstaunlich" oder Phantasiegestöber, sondern technisch realistisch. Die 50cm-Auflösung ist die "gewerblich" freigegebene. Die tatsächliche Auflösung für militärische und wissenschaftliche Anwendung ist im Jahr 2008 um den Faktor 2.x besser und Brennweiten über 10m (kompakte Spiegel-Linse-Kombination) sind kein "problematisches" Hindernis.

Der Orbview5 (nicht spezialisiert für Aufklärung) liefert aus etwas unter 700km bereits eine 41cm Auflösung. Mittels Oribitalhöhe und den metrischen Eckdaten, kann man per Grundrechenarten und fundamentaler Physik die optischen Bedingungen überprüfen. Eine unvermeidbare Begrenzung der Auflösung sind atmosphärische Turbolenzen, die durch unterschiedliche Dichte, thermische Diffenrenzen und lokale Strömungsverhältnisse entsteht - also ganz banal die Wetterverhältnisse.

Die klassische Optik, der technologische Herstellungsaufwand, die Wellenmechanik (Wellenlängen, ATR, Beugungsunschärfe usw), die Dimensionierung der Halbleiter-Sensork und die numerische Signalverarbeitung setzen das ideale Leistungsmaximum und sind die Voraussetzung für das digitale Auge. Die Nyquist-Theorie ist schon deshalb wenig hilfreich in der Physik der Optik, weil es schlicht keine 2.2 Pixel gibt. Ein Sensor besteht nun mal aus ganzen Bildpunkten und das visuelle Abbild kann nur auf die gegebene Matrix projeziert werden - die Natur läßt sich da leider nicht überreden. Diese einfache Realität hat praktsiche Konsequenzen: Ein Einzelobjekt auf homogenem Hintergrund kann im Idealfall mit einem Pixel lokalisiert werden. Muß auch ein Kontrastunterschied abgebildet werden, sind schon 2 Pixel erforderlich und man kann noch nicht 2 Maxima auf 2 Pixel eindeutig als 2 Objekte identifizieren. Sollen aber zwei Objekte auf der Sensor-Matrix differenziert werden, dann sind 3 Pixel notwendig. Im technischen Gebrauch hat sich die 2-Kontrast-Auflösung durchgesetzt.

Wer die optische Auflösung nach Ernst Abbe (K=1.0, nicht 2.44) nachrechnet, wird feststellen, daß bei realistischen Parametern (Wellenlänge, Brennweite, Blendenöffnung) mit 24000 oder 36000 Pixeln pro Bildzeile aus dem optischen Instrumentarium noch einiges herauszuholen ist. Die beispielhaft vorausgesetze Auflösung von effektiven 86 Lp/mm ist noch weit weg von optischer Grenzauflösung für lichtstarke Optik.

Grenzen und Vielfalt: Bei teleskopischen Linse-Spiegel-Kombinationen mit Brennweiten von bis zu 60m und Linsen-Durchmessern von mehr als 6 Metern oder Parabolspiegeln von 10 Metern sind außer der metrischen Präzision, der Oberflächenqualität und der Schwingungsdämpfung weitere Probleme zu lösen. Etwa die thermische Deformation (Korrekturverfahren und Kühlsysteme wärend der Belichtung) ist so ein Problem. Die Fokusebene, direkt auf die Sonne gerichtet, wäre bei diesen Lichtstärken ohne eine thermische Schutzfilterung, in Sekundenschnelle mühelos auf über 2600°C aufzuheizen - das reicht, um "sofort" hochwertigen Werkstahl zerfließen und abtropfen zu lassen. Auch das Problem der atmosphärischen Turbulenzen will gelöst sein. Ein anderes Problem unter der Anforderung höchster Präzision ist das Eigengewicht. Linsen aus optischem Glas mit mehr als 8 Metern, zeigen bereits Eigendeformation nur durch ihr Gewicht, zumal sie im Gegesatz zum Spiegel mit Aberrations-Fehlern behaftet sind - die Natur setzt ihre Grenzen auch bei der Dimensionierung und dem Eigengewicht.

 

weiter ... ]

 
 
1   2   3   4   5   6  
 
 
IVV geo der Uni Münster
Umfangreiches Kompendium zur Thematik Digitale Fernerkundung und weitere interessante Beiträge.
Kamerasysteme, Auflösung und Erkennung , Grundlagen zu IP ...
  

digicamdb
Spezifische Sensordaten zur jeweiligen Kamera - digicamdb ist eine Datenbank, die technische Infos sammelt zu den Kameramodellen.
  

Spectral Instruments
Ein Hersteller von gekühlten Kamerasystemen u.a. für Astronomische Anwendung
  

ERDAS / Intergraph - Sensorische Geotechnologie und Service
TerraSAR und ERDAS, weitere Software-Projekte für die Geokartographie ...
  

College of Earth and Mineral siences
Online-Seminare von "Physical Basis of Remote Sensing" bis zu "Special Topics". Eine interessante Einführung zur Thematik.
  

Hersteller der jetzt schon legendären ADS40 und ADS80 ...
Produktserien der "Airborne-Sensoren" wie die ADS80 ...
  

Aktuelle News zur Technik
Interessante News zur aktuellen Entwicklung von Sensorik, Kameras und Objektiven - Empfehlung: "Ein guter Überblick"
  


 

  
   
  
   
  
   
   (C) 1997-2016    (UT) 2007   update: 2009