DIGITAL IMAGING
Bei
CCD- und CMOS-Bauweise ist zwar die Photodiode das
sensorische Element, das aber in seiner Schaltungsfunktion
eine unterschiedliche Konzeption aufweist. Die Verschaltungseinheit
mit der Photodiode bildet einen Pixel für nur
einen Farbkanal. Für das RGB-Farbsystem sind
daher wenigstens drei einzelne PDs für einen
Farb-Pixel notwendig. Dieses Konzept orientiert sich
am natürlichen Vorbild, denn das menschliche
Auge verwendet in ähnlicher Weise unterschiedliche
Sehzellen nebeneinander.
|
|
CCD:
Die Photo-Diode ist in Sperr-Richtung angeordnet
als kapazitiver Kollektor. Die generierte Ladung
wird gesammelt und synchron getraktet weitergeleitet.
Der Ladungstransport ist der Indikator für
die eingefangenen Photonen.
Je
mehr Ladung sich ansammelt und transportiert (Strom)
wird, desto stärker ist das Signal. Ein Folgewirkung
dieser direkten Schaltung ist ein etwa 3 bis 5 mal
größere Energiedarf der CCD im Vergleich
zum CMOS-Konzept.
Der
bis zu 4 mal größere Flächenbereich
der CCD und der kürzere Signalweg führen
zu einer höheren Lichtempfindlichkeit mit größerer
Dynamik als bei der CMOS-Bauweise. Die transportierte
Ladungsmenge ist nicht auf einen lokalen PD-Verstärker
angewiesen. Beides führt zu relativ geringem
Signalrauschen.
Aber durch die serielle Zeilenstrukturierung generiert
jede Überladung (Sptzlichter) einen streifenartigen und
für CCDs typischen Abbildungsfehler.
Das
Auslesen der CCD-Zellen-Elemente erfolgt in Serie. Das
Auszählen von Ladungseinheiten hintereinander
über die gesamte Matrix dauert entsprechend
länger, sodaß der Ausleseprozess weniger
schnelle Bildfolgen erlaubt.
Anhand
der schematischen Darstellung, weiter unten, wird
klar, warum der CCD-Sensor langsamer beim Auslesen
bzw Verarbeiten der Bildmatrix sein muß. Historisch
gesehen ist das serielle Prinzip der CCD das ältere.
|
|
|
|
|
|
CMOS:
Die Photo-Diode ist ebenfalls in Sperr-Richtung
geschaltet und wird als Widerstand mit einem lokalen
PD-Verstärker betrieben. Der Meßparameter
ist die Spannungsdifferenz und nicht die Ladungsmenge, obwohl
das physikalische Grundprinzip des Ladungs-Transport das gleiche ist.
Beim
Eintreffen der Photonen fällt der Innenwiderstand
der PD am stellvertretenden Widerstand R und es
entsteht eine Änderung der Spannungs. In Sperr-Richtung
geschaltet steigt hingegen die Spannungs-Differenz am Widerstand R
und ist somit ein Indikator für die eingefangene Photonenzahl.
Die
Spannungsänderung wird zur optimierten Differenzierung
per Transitor verstärkt. Ein Verstärker
erzeugt zusätzliches Störungsrauschen,
das es auszufiltern gilt, bei igs geringerem Füllfaktor.
Auf
dem CMOS-Areal sind bereits die notwendigen Transistoren
(Reset, SignalAmp und RowSelect) in jede PD integriert.
Somit bildet dieses Areal eine vollständig
verschaltete Einheit, die bei der CCD-Architektur
extern verlegt werden muß. Die verkleinerte
PD-Fläche, Faktor 1:3 bis 1:4 im Vergleich
zur CCD, kann durch eine aufgesetzte Microlinsenstruktur
nahezu kompensiert werden. Jedes CMOS-Element ist
einzeln adressierbar und kann halbparallel ausgewertet
werden, was den Ausleseprozess beschleunigt. Der
Steueroszillator und ein AD-Wandler sind ebenfalls
Bestandteil der Schaltungseinheit, wodurch sich
die nachgeschaltete Periferie preiswerter gestalten
läßt.
|
Die
freigesetzte Ladung, als Äquivalent für
die jeweilige Lichtintensität, muß zum
Auszählen und Messen bis an das Ende der Zeile
transportiert werden. Realisiert wird der Elektronen-Transport
durch
ein
getaktetes Spannungsfeld, das die freien Elektronen der Feldrichtung
entsprechend bewegt. Dieses Spannungsfeld läuft wie eine Welle
durch die Zeile, wobei die Auszählung den Ort indentifiziert und
der Meßwert die Signalstärke an diesem Ort liefert. Sowohl
die Taktfrequenz wie auch deren Spannungs-Level haben Einfluß auf
die Thermik und das "Defekt-Rauschen". Das Grundprinzip der gesteuerten
Transportswelle ist bei CCD und CMOS das gleiche, aber die Einlesezeiten
sind aufgrund der unterschiedlichen Auszählung (dazu später mehr)
bei einem CMOS-Sensor kürzer.
Die
Ausnutzung möglichst der vollen Ladungskapazität
(Füllfaktor) ist ein Maß für den Wirkungsgrad
einer PD. Je höher der Füllfaktor, desto
besser ist die Photonenausbeute. Er ist ein Äquivalent
zur Spannungsänderung (CMOS) oder dem Stromfluß
(CCD). Darum wird die sensorische Fläche maximiert
und die Verschaltung möglichst hinter den Sensor
platziert - das erscheint zunächst trivial, ist
aber eine technologische Herausforderung und hat gravierenden
Einfluß auf die Signalqualität.
Da
Halbleiter einen temperaturabhängigen Ruhestom
haben, ist die maximale Sensorfläche bzw eine
hohe Lichtausbeute ein Kriterium für den Signal-Rauschabstand.
Die thermische Störung addiert sich zudem mit
der Belichtungszeit und geht damit in die Signalauswertung
ein. Man könnte das Rauschen aus einer Summe
von Störungen klassifizieren wie thermisches
Dunkelstrom-Rauschen, zeitabhängige Rauschintensität,
Cross-talk-Rauchen, statisches Defekt-Rauschen, Readout-Rauschen
und dem integrativem Rauschverhalten eine Frequenzabhängigkeit
oder einen Offset-Strom zuordnen usw - das
aber verkompliziert
die Sicht auf den wesentlichen Zusammenhang: Hohe
Lichtausbeute (große Zellenfläche) bei
möglichst geringem Eigenrauschen (Verstärker-Komponenten)
bestimmen die Signalqualität.
Aus
den einzelnen PD-Bauelementen mit entsprechender Verschaltung
entsteht in systematischer Anordnung das Layout für
die Sensormatrix. Die Herstellung der PD-Matrix erfolgt
wie schon angedeutet, auf den dünnen Halbleiterscheiben
(Wafer), wobei die Schaltungslagen per Beschichtung,
ähnlich der Platinenherstellung, durch Maskierung,
UV-Belichtung, Etzen und Auswaschung stapelweise aufgebaut
werden. Das Resultat der fertig verschaltete Sensor-Matrix
läßt sich schematisch darstellen. Ausgehend
von der CCD- oder CMOS-Konzeption unterscheiden sich
die Signalwege und deren Auswertung.
|
|
|
Der
CCD-Sensor detektiert ein Photon als Entladungsstrom
eines Kondensators.
Das
Auslesen jedes Peaks erfolgt nur in Serie, was bei Spitzlichtern
zu den typischen Zeilenfehlern führt. Er transportiert
die Ladungen mit jedem Takt hintereinander zum A/D-Auslesemodul.
Eine lange Kette von Peaks stellt den Inhalt der
Matrix dar.
Die
Signalverarbeitung muß bis auf den letzen
ausgelesenen Peak der gesamten Matrix warten bis
der Bildinhalt digitalisiert weiterverarbeiten werden
kann.
|
|
Ein
CMOS-Sensor detektiert ein Photon als Spannungsdifferenz
und verwendet pro PD einen eigenen Signalverstärker,
der jeden Pixel einzeln adressiert. Transistoren erzeugen
zusätzliche Störquellen.
Das
Auslesen der Matrix erfolgt entweder vollparallel
oder nur spaltenweise in Serie, wärend diese
Teilergebnisse parallel mit jedem Takt weitergeleitet
werden. Damit wartet das Signalprocessing längstenfalls
nur auf den Endwert einer jeden Zeile und kann entsprechend
schneller die Matrix speichern und weiterverarbeiten.
|
Bei den Halbleiter-Sensoren
ist die Unterscheidbarkeit der Intensitäten (Photonen-Energie) in den Extremalbereichen
(sehr hell, sehr dunkel) schwächer als bei einem klassischen Silber-Brom-Film. Auf den
Verlust an Dynamik hat bisher nur Fuji
mit einem
EXR-Sensor reagiert, alle anderen etablierten Hersteller setzen auf einfache
Korrektur-Funktionen und verringern auf diese Weise die Herstellungskosten.
Die notwendige
Korrektur der Sensorik ist zu komplex für die
Kamera-Numerik, die möglichst schnell, energie-effizient aber nicht sehr
präzise sein muß. Wenn die Abbildungsqualität bis zur Grenzauflösung
optimal sein soll, dann sind justierende Ortsfunktionen erforderlich, passend für das
spektrale Sensorik-Profil und das nachfolgende Image-Processing. Metrische Kamera-Profile
vereinfachen diese Korrekturen.
Die spektrale Unterscheidbarkeit der zunächst scheinbar gleichen
Sensor-Zellen ist durch einen Separationsfilter realisiert.
Jede PD-Zelle erhält einen eigenen Farbfilter. Der dafür
notwendige Filter (z.B. Bayer-Matrix) besteht aus einem Farbmosaik
und befindet sich mit dem IR-Sperrfilter bzw dem UV-Filter
auf der Oberfläche des Sensors. Erst diese Farbenfilterung
erzeugt in Grupperung den RGB-Bildpixel.
Die
Filter sind nacheinander in Stapelanordnung positioniert
(dazu später mehr). Der IR-Sperrfilter gleicht
dabei die Überbewertung im IR-Spektrum aufgrund
der spektralen Charakteristik des Halbleiter aus.
Astronomische und geologische Sensorik-Systeme haben
keinen IR-Filter, weil gerade das langwellige IR-Spektrum
für diesen Verwendungszweck von Interesse ist.
Biologische Sensorik verzichtet, je nach Verwendungsabsicht,
auf den UV-Filter, denn hier sorgt das UV-Spektrum nicht
nur für eine bessere Differenzierung, sondern ermöglicht
auch die Anwendung von Fluoreszenz- und Marker-Verfahren.
[ weiter
... ]
|