DIGITAL IMAGING
Eine Mikrolinsenmatrix
kann die Photonenausbeute - und damit den Wirkungsgrad des Nutzsignales
pro Sensorfläche - zusätzlich optimieren. Neben der numerischen
Erhaltung einer notwendigen Signalreinheit, ist die optische
Flächen-Kompensation der kleineren CMOS-Sensorfläche eine wesentliche
Voraussetzung für ein Konkurrenzfähigkeit zur CCD, ohne auf die eigenen
Vorteile verzichten zu müssen. Die weitere Miniaturisierung der
Sensorfläche ist ohne die Microlinse bei aktueller Material- und
Layout-Vorgabe nicht möglich, soll eine proportial steigender Anteil des
thermischen Rauschens sinnvoll vermieden werden.
Die Mikrolinsen haben bei
aktueller CMOS-Bauweise eine "ähnliche" Wirkung auf das Rauschverhalten
wie die Vergrößerung der sensorischen Fläche der Photodiode
oder das Herunterkühlen des Halbleiters, obwohl der jeweilige physikalische
Zusammenhang ein anderer ist.
Wenn bei der Photodiode
energieaufwändige Kühlung ausgeschlossen werden soll, dann bleiben
derzeit nur die zwei Lösungen:
Entweder man vergrößert die PD-Fläche durch vorteilhaftere
Platzierung der Transitoren (der Trend ist derzeit das Gegenteil) oder man
maximiert das Eingangssignal durch Lichtbündelung (aktuelle Zielsetzung).
Der Wirkungsgrad der
Pixelfläche läßt sich weiter steigern durch eine vorteilhaftere
Formgebung einer Microlinse oder durch eine kombinative Linsenanordnung. Die
Herstellungs-Technologie in µm-Größenordnung ist nicht trivial
und erhöht die Produktionskosten.
Die Effizienssteigerung der
Fläche mittels Microlinsenmatrix beträgt bei den CMOS-Sensoren derzeit
etwa 30 bis 40%, sodaß mit diesem Signalgewinn der bauartbedingte
Flächenverlust (CCD- versus CMOS-Sensorfläche) "fast" kompensiert
werden kann. Die CMOS-PD-Matrix erzielt damit ähnliche Ergebnisse, wie
die Pixel-Fläche eines CCD-Sensors ohne Mikrolinsen. Derzeit liegt die
CMOS-Quatenausbeute bei etwas mehr als 95% und ist mit dem CCD-Sensor vergleichbar .
Eine Methode die Mikrolinsen
in dieser Größenordnung zu platzieren besteht in der Herstellung einer
Glasmatrix (Positionierungsproblem), im Auftragen der Linsen-Matrix mittels
Microraster und Füllgranulat (MGM-Print) oder im
Lithographie-Verfahren per UV-Laser mit anschließendem
Schmelzprozeß.
Andere Verfahren schmelzen ein Micro-Faserpaket in definierter Viskosität und
Portionierung auf ein Trägersubstrat ab - jedes dieser
Verfahren befinden sich in einem fortlaufenden Entwicklungsprozess. Materialbeschaffenheit,
Materialmenge, Positionierungs- und Auftragungs-Prozess, Temperatur, Oberflächenspannung
sowie die Prozeßzeit beeinflussen die Tropfengestalt und aus der resultiert die Formeigenschaft
der Linse.
Weitere Miniaturisierung verlangt
mehr Problemlösung: Sehr kleine PDs reduzieren die Breite der Isolationsgräben
und damit vergrößert sich zwangläufig das Crosstalk-Rauschen, was primär
abhängig ist von der elektrischen Feldwirkung bewegter Elektronen und der
Bindunsenergie (Bandlückenverlauf, Fermi-Grenze) des jeweiligen Halbleiters. Die
höhere (CMOS) Schaltungsdichte verursacht mehr Rauschen bereits durch den Betriebszustand
(hohe Schaltungsdichte + Energiebedarf = viel Eigenwärme) und die thermische Störung
nimmt mit der Betriebszeit zu. Das sind nicht nur Fragen der Festkörper-Physik (Elektrodynamik),
auch das Layout und der Herstellungsprozeß tragen zur weiteren Optimierung bei.
Der "Trick" mit der Mikrolinsenmatrix führt zwar bei den CMOS-Sensoren zu deutlich mehr
Lichteinfall (hohe Photonenstromdichte = mehr Ladungsgenerierung) und verstärkt auch
das Nutzsignal. Aber
die
integrativ Wirkung (ein natürlicher Gaußfilter) großer Absorptionsflächen
kann mit Microlinsen (noch) nicht vollständig ausgeglichen werden. Die kritischen Parameter
der Mikrolinsen bleiben die begrenzte Dimensionierung, die PD-Linse-Formgebung und die Streureflexe
(ein rein optischer Crosstalk-Effekt). Die Überschreitung der sinnvollen Rahmenbedingungen
läßt die Rate der Defektsignale (eine Art Störungswahrscheinlichkeit pro
Fläche und Zeit) ansteigen und die Lichtbündelung (Werkstoff, Formgebung,
Herstellungsverfahren) hat ebenfalls natürliche Grenzen. Darüber hinaus erzwingen
sehr kleine PDs mehr Auflösungsqualität und größere Lichtstärken
der verwendeten Optik.
Einfluß
der Kühlung auf die Sensorik: Im Gegensatz
zur Flächenmaximierung oder der Lichtbündelung
per Microlinsen setzt die Kühlung der Sensorfläche
ausschließlich bei der Entstehung des Störsignales
an, also bei der physikalischen Ursache. Der thermische
Dunkelstrom ist die direkte energetische Folge von
Dotierung und Materialeigenschaft des Halbleiters.
Er reduziert sich in einfachster Näherung proportional
zur Abnahme der Temperatur und mit der invers proportionalen
Belichtungszeit. Mit anderen Worten: Je kälter
die Umgebung und je kürzer die Belichtungszeit,
desto weniger Rauschen.
Messergebnisse zeigen in den extremalen Temperaturbereichen
ein abweichendes Verhalten (unten: exp, oben ln) wärend
der mittlere Bereich sich einer Geraden annähert.
CCD-Sensoren rauschen bei 21°C ca 45 mal mehr
als bei 0°C. Über den Daumen gepeilt kann
man mit jeden heruntergegekühlten 6 bis 8°C
das Dunkelstromrauschen halbieren. Die Reduktion von
sekundären Störungen, wie beispielsweise
das Ausleserauschen, profitiert ebenfalls von niedrigen
Betriebstemeraturen. Merkwürdigereise gilt in
den Extremalbereichen für den industriellen Halbleiter
nicht das Prinzip "je kälter desto besser"
und man kann einen Optimalbereich eingrenzen, der
etwa zwischen -140°C und -100°C liegt. Ab
etwa -170°C nimmt die Abweichung von der idealisierten
Geraden deutlich zu und unter etwa -200°C ist
diese Näherungs-Regel nicht mehr anwendbar, weil
andere elektronische Effekte (siehe u.a. Supraleitung)
dominant eingreifen.
Das
Problem bei einer Kühlung ist der höherer
Aufwand entweder von Energie, beispielsweise beim
Peltier-Element (ein elektronisches Kühlsystem),
oder besteht in der aufwändigen Bereitstellung
von kryogener Substanz mit geregelter Zuführung
und Kühlmittel wie Nitrogen oder Flüssig-Stickstoff
u.a.
Ein effektives
Kühlsystem verlangt zudem Sorgfalt beim Vermeiden von
Material- und Folgeschäden, die durch Kondensationseffekte
oder Materialverspannung entstehen können. Bei nur
schwacher Kühlung reicht die Isolation in trockener
Umgebung. Eine stärkere Kühlung verlangt hingegen eine
längere Bereitstellungszeit (langsame Abkühlung)
und aufwändigeren Schutz (Kapselung, Vakuum-Isolierung)
des Sensors.
Processing
und Sensorik: In der Serienfertigung der neueren
Sensorik-Generationen ist das Rauschverhalten im Vergleich
zum Bildsignal (noch) beherrschbar, trotz steigender
Pixeldicht und ohne externe Kühlsysteme. Das
Processing
hat sich in den letzten Jahren deutlich weiter entwickelt.
Ein größerer Zahlenraum der A/D-Wandler,
eine präzisere Numerik und effizientere Algorithen
erlauben selbst bei relativ unvorteilhaften Sensoren
eine gute Signalfilterung. Das Processing heutiger
Kamreasysteme verarbeiten 11bit oder mehr und das
alles ist nur möglich durch eine schnellere CPU,
die für die graphische Berechnung optimiert ist.
Besonders die CMOS-Technologie profitiert von den
neuen Konstruktionen, die sich zunehmend der Signalqualität
der CCDs annähern, ohne auf die eigenen Vorteile
verzichten zu müssen. Die aktuelle Halbleiterentwicklung
(Material, Dotierung, Strukturierung usw.) in Kombination
mit leistungsfähigem Low-Level-Processing erlaubt
jedenfalls für die KB-DSLR-Kategorie eine Pixeldichte
von etwa 4.4 Mio Pixel pro cm² bei einer Pixellänge
von etwa 4.8µm und generiert unter diesen Bedingungen
noch beachtliche Signalqualität bei relativ geringem
Störunfsanteil. Die Praxis zeigt aber auch, daß
eine PD in vergleichbarer Halbleiter-Konstruktionen
um die 5.3µm eine sinnvolle Untergrenze erreicht.
Eine Orientierung der idealen Pixeldimension bei maximaler
optischen Auflösung richtet sich nach dem Mittelwert
des sichtbaren Spektrums (ca. 550nm) und der Lichtstärke.
Die
"KB-Mittelklasse", wie die Canon EOS 7D erreicht bei
einer Gesamtauflösung von 18 Mio Pixel auf einem
APS-C Sensor die PD-Dichte von 5.4 Mio Pixel pro cm²
bei 4.29µm Pixel-pitch und die Auflösungsqualität
kann noch als gut bezeichnet werden, aber der Rauschanteil
ist nicht mehr zu übersehen. Das Nutzsignal dieser
Technolgie hat scheinbar das Limit der guten Bildqualität
erreicht oder überschritten. Sensorik in dieser
Dimensionierung wird nicht allein durch ein hochwertiges
Processing ihren "Effziens-Verlust" kompensieren können.
Deutlich
höhere PD-Dichten mit Pixellängen >1.6µm, wie
bei den Poket-Kameras, trotz starker Blendenwerte, bezahlt man mit
sichtbaren Qualitätsverlusten bei diskreter Einzelbildpräzision,
während die Videosequenz weniger anspruchsvoll ist. Die aktuelle
Miniaturisierung dieser Sensor-PDs kann den Rauschantiel nur mit großem
Gauss-Radius bändigen, der Detailverluste verursacht - obwohl die "vielen
Megapixel" und untopischen ISO-Empfindlichkeiten etwas anderes suggerieren
wollen. Die Rasterweite der PDs kommt schon bis auf den Faktor 20 an die unteren
Wellenlängen des natürlichen Lichtes heran, wodurch sekundäre
Interferenz- und Beugungsstörungen zunehmen. Die Objektivqualität
fordert entsprechende Eigenschaften, die bei einem Kaufpreis von zwei
Tüten Mücken wohl kaum zu erwarten sind.
Tatsächlich hat die Rauschunterdrückung
noch weitere Perspektiven der Optimierung zu bieten. Beispielsweise läßt sich der
Pixelauslesetakt verringern (slow-scan mode) oder ein Differenz-Abgleich ausnutzen, der durch
Dunkelbildsubtraktion einen weiteren Anteil des thermischen bzw statischen Rauschens reduzieren
kann. Und auch der Reset-Level oder der Energiebedarf haben Einfluß auf das thermische
Gesamtrauschen.
Wie kommt man unter den bisherigen
Voraussetzungen zu einem farbseparierten Pixel und wie zu einer Digital-Kamera, die in großer
Strückzahl gefertigt werden kann ?
Hierfür ist das gesamte System-Layout
zuständig, das alle Basis-Komponenten zusammenführt zu einer alltagstauglichen Kamera:
Für den Sensor wird meist die CMOS-Technologie bevorzugt, denn
sie vereinfacht und beschleunigt die spätere Signalverarbeitung.
Die Microlinsen sorgen für eine optimierte Lichtbündelung Kompensierung
der Photonenausbeute bei kleiner Wirkungsfläche.
Die Bayerfilter ermöglicht die separierten Farben.
Die Periferie-Elektronik mit CPU und Speicher erlaubt das schnelle Berechnen.
Die programmierbare Numerik (justierende Algorithen) realisiert das Image-Processing.
Auf ein Kühlsystem der Sensorik wird normalerweise verzichtet, weil es
die Produktionskosten erhöht und mehr Versorgungs-Energie verlangt.
Die Steuer-Logik für die Einstellung der funktionalen Parameter,
das Prinzip der Meßsensorik und der Verschluß-Mechatronik
entsprechen dem einer konventionellen Kamera und müssen für
ein digitales System nicht neu erfunden werden.
Die
Anwendung der bisher zur Verfügung stehenden
Baugruppen, wie das PD-Array, die microoptischen Filter
führen mit Hilfe von Digital-Processing zur vollwertigen
Farb-Sensormatrix.
Ein
farbiger Bildpixel besteht, wie bereits angedeutet, tatsächlich
nicht nur aus einer Sensor-Zelle, sondern meist aus einem
quadratischen Block mit vier spezialisierten PDs, jeweils
eine für Rot und Blau und zwei für Grün.
Aus den sensorischen Meßwerten der Vier-Zellengruppe
werden im Pre-Processing (Bayer-Converter) die ortsaufgelösten
Farbwerte ermittelt.
Weil
aber spätestens dann die analogen Rohdaten berechnet
werden müssen, ist an dieser Stelle eine diskrete
Konvertierung in Digitalwerte notwenig. Diese Aufgabe
übernimmt bei der CCD ein nachgeschalteter A/D-Wandler,
wärend die Berechnung ein Processor durchführt.
Auch der A/D-Wandler ist kein triviales Beiwerk, denn
er muß in kürzester Zeit für die numerische
Verfügbarkeit sorgen. Die binär abgebildeten
Werte sind anschließend in einer 11, 12- 14-
oder 16Bit-Zahlenskala konvertiert. Damit sich die
Gesamtzahl der Pixel nicht durch die Vierzellen-Gruppierung
entsprechend (1:4) verkleinert, behält man die
ursprüngliche Pixelzahl über die gesamte
Bildfläche bei und integriert gewichtet (Grundfarben-
Interpolation) über die umliegenden Farbwerte.
Damit wäre dann der Vorteil der vollen Ortsauflösung
gewährleistet, wärend die Farbwertzuordnung
durch Interpolation erfolgt. Das sensorische System
benötigt für die analytische bzw numerische
Bearbeitung der Farb- und Ortswerte eine leistungsfähige
CPU, einen RAM-Speicher und einen Storage-Speicher
für das Bildergebnis - das ganze ist so etwas
wie ein Miniatur-PC. Orientiert am Signalfluß
läßt sich aus den Anforderungen eine schematische
Darstellung für die gesamte low-level-Operation
ableiten, die sich in der Praxis bewährt hat.
An der ist erkennbar, wie komplex bereits eine kleine
Consumer-Kamera als Einbaukomponete (Bridge, Pocket,
Tablet-PC, Telefon, Armbanduhr) strukturiert ist.
Die
grau markierten Funktionsgruppen steuern analoge Signale,
verarbeiten diese aber meist schon digitalisiert.
Violet steht für Module, die digitalisiert Daten
konvertieren, verarbeiten und transportieren. Sie
stellen die Voraussetzung für mathematische low-level
Operatoren zur Verfügung. Die grünen Funktionsgruppen
bestehen aus verschiedenen low-level Operatoren und
enthalten Programmanweisungen, übernehmen daher
das Image-Processing und liefern die "Software".
Aufbewahrt werden die Programme in kleinen statischen
Speichern (EPROMs), die mit einem PC-Bios-Chip vergleichbar
sind.
Hochwertige DSLR-Kameras berechnen vorzugsweise mit
14bit (16384 Werte pro Kanal) und verarbeiten im Output
14 oder 12bit (4096 Werte) pro Kanal und diese "numerische"
Skalierung bleibt nur im internen RAW-Format (1:1)
erhalten. Ausnahmen bilden aktuell nur wissenschaftliche
Kamerasysteme, deren Hardware bereits 16bit pro Kanal
verarbeiten.
In
der Verwendung extremer Skalierung für die Ausgabe
sehen die führenden Kamerahersteller bisher keinen
Vorteil. Zum einen, weil die Geschwindigkeit der Berechnung
langsamer wäre (geringere Bildfolge bei mehr
Energieverbrauch oder geringere Kosteneffiziens durch
leistungsfähigere Periferie-Elektronik), zum
anderen weil der theoretisch gewonnene Vorteil bei
der visuellen Umsetzung meist nicht genutzt werden
kann - und das ist nicht zufällig so, denn mit
Ausnahme von extraterestrischen Lebenwesen, wie Norbert
Rötgen oder Angela Merkel differenziert das menschliche
Auge als "DIE" Referenzkamera
keine 16bit- und auch keine 14bit-Farbskalierung.
Im
Gegensatz zur Erfindung utopischer Bildformate ist
die Optimierung im Rahmen der realen Input-Werte eindeutig
der größere Qualitätsvorteil, den
man tatsächlich sehen kann. Abgesehen von Auflösung
und Rauschverhalten der Sensorik sind Qualitätskriterien
wie exakte Tonwert-Korrektur in Richtung "gleichmäßige"
Helligkeitsverteilung, stetige Farbwertung und ein
hoher Dynamikbereich von großer Bedeutung -
solange eine verlustreiche jpeg-Kompression den gewonnenen
Vorteil nicht wieder vernichtet.
Mit Ausnahme weniger Kamerasystemen aus der Wissenschaft
(z.B. TRA-Spektralanalytik, Satelliten-, Astronomie-Teleskopie)
orientieren sich fast alle Kamerasysteme an diesem
Signalfluß. Satelliten- und Aufklärungs-Kameras
verwenden bis zu sieben Kanäle (RGB,CMY,IR) und
berechnen mit einer 11bit- bis 16bit-Auflösung.
Das hochwertigere Werkzeug der Fotografen und Journalisten
oder die Consumer-Kameras kommen hingegen mit drei
Kanälen aus. Auch die Highend Mittelformat-Klasse
(Sinar,
Hasselblad,
Seitz,
Mamiya
u.a.) profitiert von der Evolution dieser Technologien,
deren Frame-Sensorik bereits die 60 Mio-Pixel-Grenze
und die MF-Sensorbacks
die 192MP in 6.0µm-Qualität überschritten
hat. Die GB-Sensoren
(>72xN mm) und vergleichbare Sensorik haben mit
6.5 bis 13.5µm und aktuell >85MP pro Frame
einen gigantischen Blenden- und Dynamik-Spielraum,
deren Brillance sich von einer KB-DSLR deutlich unterscheidet.
Diese und größere Dimensionen sind beispielsweise
für die Herstellung von Teleskop-Sensorik von
Interesse.
[ weiter ... ]
|