>
>
>
>
  
  
>
>
>
>
  
  
  
  
  
  
  
  
  
  
  
  
  
  
lima-city: kostenloser Webspace




  
  

 

 
1  2  3  4  5  6  

DIGITAL IMAGING

Eine Mikrolinsenmatrix kann die Photonenausbeute - und damit den Wirkungsgrad des Nutzsignales pro Sensorfläche - zusätzlich optimieren. Neben der numerischen Erhaltung einer notwendigen Signalreinheit, ist die optische Flächen-Kompensation der kleineren CMOS-Sensorfläche eine wesentliche Voraussetzung für ein Konkurrenzfähigkeit zur CCD, ohne auf die eigenen Vorteile verzichten zu müssen. Die weitere Miniaturisierung der Sensorfläche ist ohne die Microlinse bei aktueller Material- und Layout-Vorgabe nicht möglich, soll eine proportial steigender Anteil des thermischen Rauschens sinnvoll vermieden werden.

Die Mikrolinsen haben bei aktueller CMOS-Bauweise eine "ähnliche" Wirkung auf das Rauschverhalten wie die Vergrößerung der sensorischen Fläche der Photodiode oder das Herunterkühlen des Halbleiters, obwohl der jeweilige physikalische Zusammenhang ein anderer ist.

Wenn bei der Photodiode energieaufwändige Kühlung ausgeschlossen werden soll, dann bleiben derzeit nur die zwei Lösungen: Entweder man vergrößert die PD-Fläche durch vorteilhaftere Platzierung der Transitoren (der Trend ist derzeit das Gegenteil) oder man maximiert das Eingangssignal durch Lichtbündelung (aktuelle Zielsetzung).

Der Wirkungsgrad der Pixelfläche läßt sich weiter steigern durch eine vorteilhaftere Formgebung einer Microlinse oder durch eine kombinative Linsenanordnung. Die Herstellungs-Technologie in µm-Größenordnung ist nicht trivial und erhöht die Produktionskosten.

Die Effizienssteigerung der Fläche mittels Microlinsenmatrix beträgt bei den CMOS-Sensoren derzeit etwa 30 bis 40%, sodaß mit diesem Signalgewinn der bauartbedingte Flächenverlust (CCD- versus CMOS-Sensorfläche) "fast" kompensiert werden kann. Die CMOS-PD-Matrix erzielt damit ähnliche Ergebnisse, wie die Pixel-Fläche eines CCD-Sensors ohne Mikrolinsen. Derzeit liegt die CMOS-Quatenausbeute bei etwas mehr als 95% und ist mit dem CCD-Sensor vergleichbar .

Eine Methode die Mikrolinsen in dieser Größenordnung zu platzieren besteht in der Herstellung einer Glasmatrix (Positionierungsproblem), im Auftragen der Linsen-Matrix mittels Microraster und Füllgranulat (MGM-Print) oder im Lithographie-Verfahren per UV-Laser mit anschließendem Schmelzprozeß. Andere Verfahren schmelzen ein Micro-Faserpaket in definierter Viskosität und Portionierung auf ein Trägersubstrat ab - jedes dieser Verfahren befinden sich in einem fortlaufenden Entwicklungsprozess. Materialbeschaffenheit, Materialmenge, Positionierungs- und Auftragungs-Prozess, Temperatur, Oberflächenspannung sowie die Prozeßzeit beeinflussen die Tropfengestalt und aus der resultiert die Formeigenschaft der Linse.

Weitere Miniaturisierung verlangt mehr Problemlösung: Sehr kleine PDs reduzieren die Breite der Isolationsgräben und damit vergrößert sich zwangläufig das Crosstalk-Rauschen, was primär abhängig ist von der elektrischen Feldwirkung bewegter Elektronen und der Bindunsenergie (Bandlückenverlauf, Fermi-Grenze) des jeweiligen Halbleiters. Die höhere (CMOS) Schaltungsdichte verursacht mehr Rauschen bereits durch den Betriebszustand (hohe Schaltungsdichte + Energiebedarf = viel Eigenwärme) und die thermische Störung nimmt mit der Betriebszeit zu. Das sind nicht nur Fragen der Festkörper-Physik (Elektrodynamik), auch das Layout und der Herstellungsprozeß tragen zur weiteren Optimierung bei.

Der "Trick" mit der Mikrolinsenmatrix führt zwar bei den CMOS-Sensoren zu deutlich mehr Lichteinfall (hohe Photonenstromdichte = mehr Ladungsgenerierung) und verstärkt auch das Nutzsignal. Aber die integrativ Wirkung (ein natürlicher Gaußfilter) großer Absorptionsflächen kann mit Microlinsen (noch) nicht vollständig ausgeglichen werden. Die kritischen Parameter der Mikrolinsen bleiben die begrenzte Dimensionierung, die PD-Linse-Formgebung und die Streureflexe (ein rein optischer Crosstalk-Effekt). Die Überschreitung der sinnvollen Rahmenbedingungen läßt die Rate der Defektsignale (eine Art Störungswahrscheinlichkeit pro Fläche und Zeit) ansteigen und die Lichtbündelung (Werkstoff, Formgebung, Herstellungsverfahren) hat ebenfalls natürliche Grenzen. Darüber hinaus erzwingen sehr kleine PDs mehr Auflösungsqualität und größere Lichtstärken der verwendeten Optik.

Einfluß der Kühlung auf die Sensorik: Im Gegensatz zur Flächenmaximierung oder der Lichtbündelung per Microlinsen setzt die Kühlung der Sensorfläche ausschließlich bei der Entstehung des Störsignales an, also bei der physikalischen Ursache. Der thermische Dunkelstrom ist die direkte energetische Folge von Dotierung und Materialeigenschaft des Halbleiters. Er reduziert sich in einfachster Näherung proportional zur Abnahme der Temperatur und mit der invers proportionalen Belichtungszeit. Mit anderen Worten: Je kälter die Umgebung und je kürzer die Belichtungszeit, desto weniger Rauschen.

Messergebnisse zeigen in den extremalen Temperaturbereichen ein abweichendes Verhalten (unten: exp, oben ln) wärend der mittlere Bereich sich einer Geraden annähert. CCD-Sensoren rauschen bei 21°C ca 45 mal mehr als bei 0°C. Über den Daumen gepeilt kann man mit jeden heruntergegekühlten 6 bis 8°C das Dunkelstromrauschen halbieren. Die Reduktion von sekundären Störungen, wie beispielsweise das Ausleserauschen, profitiert ebenfalls von niedrigen Betriebstemeraturen. Merkwürdigereise gilt in den Extremalbereichen für den industriellen Halbleiter nicht das Prinzip "je kälter desto besser" und man kann einen Optimalbereich eingrenzen, der etwa zwischen -140°C und -100°C liegt. Ab etwa -170°C nimmt die Abweichung von der idealisierten Geraden deutlich zu und unter etwa -200°C ist diese Näherungs-Regel nicht mehr anwendbar, weil andere elektronische Effekte (siehe u.a. Supraleitung) dominant eingreifen. Das Problem bei einer Kühlung ist der höherer Aufwand entweder von Energie, beispielsweise beim Peltier-Element (ein elektronisches Kühlsystem), oder besteht in der aufwändigen Bereitstellung von kryogener Substanz mit geregelter Zuführung und Kühlmittel wie Nitrogen oder Flüssig-Stickstoff u.a.

Ein effektives Kühlsystem verlangt zudem Sorgfalt beim Vermeiden von Material- und Folgeschäden, die durch Kondensationseffekte oder Materialverspannung entstehen können. Bei nur schwacher Kühlung reicht die Isolation in trockener Umgebung. Eine stärkere Kühlung verlangt hingegen eine längere Bereitstellungszeit (langsame Abkühlung) und aufwändigeren Schutz (Kapselung, Vakuum-Isolierung) des Sensors.

Processing und Sensorik: In der Serienfertigung der neueren Sensorik-Generationen ist das Rauschverhalten im Vergleich zum Bildsignal (noch) beherrschbar, trotz steigender Pixeldicht und ohne externe Kühlsysteme. Das Processing hat sich in den letzten Jahren deutlich weiter entwickelt. Ein größerer Zahlenraum der A/D-Wandler, eine präzisere Numerik und effizientere Algorithen erlauben selbst bei relativ unvorteilhaften Sensoren eine gute Signalfilterung. Das Processing heutiger Kamreasysteme verarbeiten 11bit oder mehr und das alles ist nur möglich durch eine schnellere CPU, die für die graphische Berechnung optimiert ist. Besonders die CMOS-Technologie profitiert von den neuen Konstruktionen, die sich zunehmend der Signalqualität der CCDs annähern, ohne auf die eigenen Vorteile verzichten zu müssen. Die aktuelle Halbleiterentwicklung (Material, Dotierung, Strukturierung usw.) in Kombination mit leistungsfähigem Low-Level-Processing erlaubt jedenfalls für die KB-DSLR-Kategorie eine Pixeldichte von etwa 4.4 Mio Pixel pro cm² bei einer Pixellänge von etwa 4.8µm und generiert unter diesen Bedingungen noch beachtliche Signalqualität bei relativ geringem Störunfsanteil. Die Praxis zeigt aber auch, daß eine PD in vergleichbarer Halbleiter-Konstruktionen um die 5.3µm eine sinnvolle Untergrenze erreicht. Eine Orientierung der idealen Pixeldimension bei maximaler optischen Auflösung richtet sich nach dem Mittelwert des sichtbaren Spektrums (ca. 550nm) und der Lichtstärke.

Die "KB-Mittelklasse", wie die Canon EOS 7D erreicht bei einer Gesamtauflösung von 18 Mio Pixel auf einem APS-C Sensor die PD-Dichte von 5.4 Mio Pixel pro cm² bei 4.29µm Pixel-pitch und die Auflösungsqualität kann noch als gut bezeichnet werden, aber der Rauschanteil ist nicht mehr zu übersehen. Das Nutzsignal dieser Technolgie hat scheinbar das Limit der guten Bildqualität erreicht oder überschritten. Sensorik in dieser Dimensionierung wird nicht allein durch ein hochwertiges Processing ihren "Effziens-Verlust" kompensieren können.

Deutlich höhere PD-Dichten mit Pixellängen >1.6µm, wie bei den Poket-Kameras, trotz starker Blendenwerte, bezahlt man mit sichtbaren Qualitätsverlusten bei diskreter Einzelbildpräzision, während die Videosequenz weniger anspruchsvoll ist. Die aktuelle Miniaturisierung dieser Sensor-PDs kann den Rauschantiel nur mit großem Gauss-Radius bändigen, der Detailverluste verursacht - obwohl die "vielen Megapixel" und untopischen ISO-Empfindlichkeiten etwas anderes suggerieren wollen. Die Rasterweite der PDs kommt schon bis auf den Faktor 20 an die unteren Wellenlängen des natürlichen Lichtes heran, wodurch sekundäre Interferenz- und Beugungsstörungen zunehmen. Die Objektivqualität fordert entsprechende Eigenschaften, die bei einem Kaufpreis von zwei Tüten Mücken wohl kaum zu erwarten sind.

Tatsächlich hat die Rauschunterdrückung noch weitere Perspektiven der Optimierung zu bieten. Beispielsweise läßt sich der Pixelauslesetakt verringern (slow-scan mode) oder ein Differenz-Abgleich ausnutzen, der durch Dunkelbildsubtraktion einen weiteren Anteil des thermischen bzw statischen Rauschens reduzieren kann. Und auch der Reset-Level oder der Energiebedarf haben Einfluß auf das thermische Gesamtrauschen.

Wie kommt man unter den bisherigen Voraussetzungen zu einem farbseparierten Pixel und wie zu einer Digital-Kamera, die in großer Strückzahl gefertigt werden kann ?

Hierfür ist das gesamte System-Layout zuständig, das alle Basis-Komponenten zusammenführt zu einer alltagstauglichen Kamera: Für den Sensor wird meist die CMOS-Technologie bevorzugt, denn sie vereinfacht und beschleunigt die spätere Signalverarbeitung. Die Microlinsen sorgen für eine optimierte Lichtbündelung Kompensierung der Photonenausbeute bei kleiner Wirkungsfläche. Die Bayerfilter ermöglicht die separierten Farben. Die Periferie-Elektronik mit CPU und Speicher erlaubt das schnelle Berechnen. Die programmierbare Numerik (justierende Algorithen) realisiert das Image-Processing. Auf ein Kühlsystem der Sensorik wird normalerweise verzichtet, weil es die Produktionskosten erhöht und mehr Versorgungs-Energie verlangt. Die Steuer-Logik für die Einstellung der funktionalen Parameter, das Prinzip der Meßsensorik und der Verschluß-Mechatronik entsprechen dem einer konventionellen Kamera und müssen für ein digitales System nicht neu erfunden werden.

Die Anwendung der bisher zur Verfügung stehenden Baugruppen, wie das PD-Array, die microoptischen Filter führen mit Hilfe von Digital-Processing zur vollwertigen Farb-Sensormatrix.

Ein farbiger Bildpixel besteht, wie bereits angedeutet, tatsächlich nicht nur aus einer Sensor-Zelle, sondern meist aus einem quadratischen Block mit vier spezialisierten PDs, jeweils eine für Rot und Blau und zwei für Grün. Aus den sensorischen Meßwerten der Vier-Zellengruppe werden im Pre-Processing (Bayer-Converter) die ortsaufgelösten Farbwerte ermittelt.

Weil aber spätestens dann die analogen Rohdaten berechnet werden müssen, ist an dieser Stelle eine diskrete Konvertierung in Digitalwerte notwenig. Diese Aufgabe übernimmt bei der CCD ein nachgeschalteter A/D-Wandler, wärend die Berechnung ein Processor durchführt. Auch der A/D-Wandler ist kein triviales Beiwerk, denn er muß in kürzester Zeit für die numerische Verfügbarkeit sorgen. Die binär abgebildeten Werte sind anschließend in einer 11, 12- 14- oder 16Bit-Zahlenskala konvertiert. Damit sich die Gesamtzahl der Pixel nicht durch die Vierzellen-Gruppierung entsprechend (1:4) verkleinert, behält man die ursprüngliche Pixelzahl über die gesamte Bildfläche bei und integriert gewichtet (Grundfarben- Interpolation) über die umliegenden Farbwerte. Damit wäre dann der Vorteil der vollen Ortsauflösung gewährleistet, wärend die Farbwertzuordnung durch Interpolation erfolgt. Das sensorische System benötigt für die analytische bzw numerische Bearbeitung der Farb- und Ortswerte eine leistungsfähige CPU, einen RAM-Speicher und einen Storage-Speicher für das Bildergebnis - das ganze ist so etwas wie ein Miniatur-PC. Orientiert am Signalfluß läßt sich aus den Anforderungen eine schematische Darstellung für die gesamte low-level-Operation ableiten, die sich in der Praxis bewährt hat. An der ist erkennbar, wie komplex bereits eine kleine Consumer-Kamera als Einbaukomponete (Bridge, Pocket, Tablet-PC, Telefon, Armbanduhr) strukturiert ist.

Die grau markierten Funktionsgruppen steuern analoge Signale, verarbeiten diese aber meist schon digitalisiert. Violet steht für Module, die digitalisiert Daten konvertieren, verarbeiten und transportieren. Sie stellen die Voraussetzung für mathematische low-level Operatoren zur Verfügung. Die grünen Funktionsgruppen bestehen aus verschiedenen low-level Operatoren und enthalten Programmanweisungen, übernehmen daher das Image-Processing und liefern die "Software". Aufbewahrt werden die Programme in kleinen statischen Speichern (EPROMs), die mit einem PC-Bios-Chip vergleichbar sind.

Hochwertige DSLR-Kameras berechnen vorzugsweise mit 14bit (16384 Werte pro Kanal) und verarbeiten im Output 14 oder 12bit (4096 Werte) pro Kanal und diese "numerische" Skalierung bleibt nur im internen RAW-Format (1:1) erhalten. Ausnahmen bilden aktuell nur wissenschaftliche Kamerasysteme, deren Hardware bereits 16bit pro Kanal verarbeiten.

In der Verwendung extremer Skalierung für die Ausgabe sehen die führenden Kamerahersteller bisher keinen Vorteil. Zum einen, weil die Geschwindigkeit der Berechnung langsamer wäre (geringere Bildfolge bei mehr Energieverbrauch oder geringere Kosteneffiziens durch leistungsfähigere Periferie-Elektronik), zum anderen weil der theoretisch gewonnene Vorteil bei der visuellen Umsetzung meist nicht genutzt werden kann - und das ist nicht zufällig so, denn mit Ausnahme von extraterestrischen Lebenwesen, wie Norbert Rötgen oder Angela Merkel differenziert das menschliche Auge als "DIE" Referenzkamera keine 16bit- und auch keine 14bit-Farbskalierung.

Im Gegensatz zur Erfindung utopischer Bildformate ist die Optimierung im Rahmen der realen Input-Werte eindeutig der größere Qualitätsvorteil, den man tatsächlich sehen kann. Abgesehen von Auflösung und Rauschverhalten der Sensorik sind Qualitätskriterien wie exakte Tonwert-Korrektur in Richtung "gleichmäßige" Helligkeitsverteilung, stetige Farbwertung und ein hoher Dynamikbereich von großer Bedeutung - solange eine verlustreiche jpeg-Kompression den gewonnenen Vorteil nicht wieder vernichtet.

Mit Ausnahme weniger Kamerasystemen aus der Wissenschaft (z.B. TRA-Spektralanalytik, Satelliten-, Astronomie-Teleskopie) orientieren sich fast alle Kamerasysteme an diesem Signalfluß. Satelliten- und Aufklärungs-Kameras verwenden bis zu sieben Kanäle (RGB,CMY,IR) und berechnen mit einer 11bit- bis 16bit-Auflösung. Das hochwertigere Werkzeug der Fotografen und Journalisten oder die Consumer-Kameras kommen hingegen mit drei Kanälen aus. Auch die Highend Mittelformat-Klasse (Sinar, Hasselblad, Seitz, Mamiya u.a.) profitiert von der Evolution dieser Technologien, deren Frame-Sensorik bereits die 60 Mio-Pixel-Grenze und die MF-Sensorbacks die 192MP in 6.0µm-Qualität überschritten hat. Die GB-Sensoren (>72xN mm) und vergleichbare Sensorik haben mit 6.5 bis 13.5µm und aktuell >85MP pro Frame einen gigantischen Blenden- und Dynamik-Spielraum, deren Brillance sich von einer KB-DSLR deutlich unterscheidet. Diese und größere Dimensionen sind beispielsweise für die Herstellung von Teleskop-Sensorik von Interesse.

 

weiter ... ]

 
 
1   2   3   4   5   6
 
 
IVV geo der Uni Münster
Umfangreiches Kompendium zur Thematik Digitale Fernerkundung und weitere interessante Beiträge.
Kamerasysteme, Auflösung und Erkennung , Grundlagen zu IP ...
  

digicamdb
Spezifische Sensordaten zur jeweiligen Kamera - digicamdb ist eine Datenbank, die technische Infos sammelt zu den Kameramodellen.
  

Spectral Instruments
Ein Hersteller von gekühlten Kamerasystemen u.a. für Astronomische Anwendung
  

ERDAS / Intergraph - Sensorische Geotechnologie und Service
TerraSAR und ERDAS, weitere Software-Projekte für die Geokartographie ...
  

College of Earth and Mineral siences
Online-Seminare von "Physical Basis of Remote Sensing" bis zu "Special Topics". Eine interessante Einführung zur Thematik.
  

Hersteller der jetzt schon legendären ADS40 und ADS80 ...
Produktserien der "Airborne-Sensoren" wie die ADS80 ...
  

e2v - einer der führenden Technologie-Produzenten für RF- und CCD Sensoren ...
Hersteller des größten Framesensors, der bisher konstruiert wurde. Installiert im Canada- France- Hawaii-Telescope und weltweit als MegaCam bekannt geworden.
  

Imatest - Analyse-Software
Imatest stellt u.a. Software für Image-Analyse und Hardware-Diagnostik her. Unter Guides findet man "Introduction to Sharpening" - ein interessanter Beitrag zu den Grundlagen.
  

Phase One - Kameratechnik

Phase One ist Präzision made in Switerland.
  

Infratec - IR Sensorik

Infratec stellt IR-Kameras und Sensoren für Labor und Outdoor-Vermessung her mit Analyse-Software zur Auswertung.
  
Aktuelle News zur Technik
Interessante News zur aktuellen Entwicklung von Sensorik, Kameras und Objektiven - Empfehlung: "Ein guter Überblick"
  

 

  
   
  
   
  
   
   (C) 1997-2016    (UT) 2007   update: 2009