>
>
>
>
  
  
>
>
>
>
  
  
  
  
  
  
  
  
  
  
  
  
  
  
lima-city: kostenloser Webspace




  
  

 

 
1  2  3  4  5  6  

DIGITAL IMAGING

Bei CCD- und CMOS-Bauweise ist zwar die Photodiode das sensorische Element, das aber in seiner Schaltungsfunktion eine unterschiedliche Konzeption aufweist. Die Verschaltungseinheit mit der Photodiode bildet einen Pixel für nur einen Farbkanal. Für das RGB-Farbsystem sind daher wenigstens drei einzelne PDs für einen Farb-Pixel notwendig. Dieses Konzept orientiert sich am natürlichen Vorbild, denn das menschliche Auge verwendet in ähnlicher Weise unterschiedliche Sehzellen nebeneinander.

  

CCD: Die Photo-Diode ist in Sperr-Richtung angeordnet als kapazitiver Kollektor. Die generierte Ladung wird gesammelt und synchron getraktet weitergeleitet. Der Ladungstransport ist der Indikator für die eingefangenen Photonen.

Je mehr Ladung sich ansammelt und transportiert (Strom) wird, desto stärker ist das Signal. Ein Folgewirkung dieser direkten Schaltung ist ein etwa 3 bis 5 mal größere Energiedarf der CCD im Vergleich zum CMOS-Konzept.

Der bis zu 4 mal größere Flächenbereich der CCD und der kürzere Signalweg führen zu einer höheren Lichtempfindlichkeit mit größerer Dynamik als bei der CMOS-Bauweise. Die transportierte Ladungsmenge ist nicht auf einen lokalen PD-Verstärker angewiesen. Beides führt zu relativ geringem Signalrauschen. Aber durch die serielle Zeilenstrukturierung generiert jede Überladung (Sptzlichter) einen streifenartigen und für CCDs typischen Abbildungsfehler.

Das Auslesen der CCD-Zellen-Elemente erfolgt in Serie. Das Auszählen von Ladungseinheiten hintereinander über die gesamte Matrix dauert entsprechend länger, sodaß der Ausleseprozess weniger schnelle Bildfolgen erlaubt.

Anhand der schematischen Darstellung, weiter unten, wird klar, warum der CCD-Sensor langsamer beim Auslesen bzw Verarbeiten der Bildmatrix sein muß. Historisch gesehen ist das serielle Prinzip der CCD das ältere.

      

 

CMOS: Die Photo-Diode ist ebenfalls in Sperr-Richtung geschaltet und wird als Widerstand mit einem lokalen PD-Verstärker betrieben. Der Meßparameter ist die Spannungsdifferenz und nicht die Ladungsmenge, obwohl das physikalische Grundprinzip des Ladungs-Transport das gleiche ist.

Beim Eintreffen der Photonen fällt der Innenwiderstand der PD am stellvertretenden Widerstand R und es entsteht eine Änderung der Spannungs. In Sperr-Richtung geschaltet steigt hingegen die Spannungs-Differenz am Widerstand R und ist somit ein Indikator für die eingefangene Photonenzahl.

Die Spannungsänderung wird zur optimierten Differenzierung per Transitor verstärkt. Ein Verstärker erzeugt zusätzliches Störungsrauschen, das es auszufiltern gilt, bei igs geringerem Füllfaktor.

Auf dem CMOS-Areal sind bereits die notwendigen Transistoren (Reset, SignalAmp und RowSelect) in jede PD integriert. Somit bildet dieses Areal eine vollständig verschaltete Einheit, die bei der CCD-Architektur extern verlegt werden muß. Die verkleinerte PD-Fläche, Faktor 1:3 bis 1:4 im Vergleich zur CCD, kann durch eine aufgesetzte Microlinsenstruktur nahezu kompensiert werden. Jedes CMOS-Element ist einzeln adressierbar und kann halbparallel ausgewertet werden, was den Ausleseprozess beschleunigt. Der Steueroszillator und ein AD-Wandler sind ebenfalls Bestandteil der Schaltungseinheit, wodurch sich die nachgeschaltete Periferie preiswerter gestalten läßt.

Die freigesetzte Ladung, als Äquivalent für die jeweilige Lichtintensität, muß zum Auszählen und Messen bis an das Ende der Zeile transportiert werden. Realisiert wird der Elektronen-Transport durch ein getaktetes Spannungsfeld, das die freien Elektronen der Feldrichtung entsprechend bewegt. Dieses Spannungsfeld läuft wie eine Welle durch die Zeile, wobei die Auszählung den Ort indentifiziert und der Meßwert die Signalstärke an diesem Ort liefert. Sowohl die Taktfrequenz wie auch deren Spannungs-Level haben Einfluß auf die Thermik und das "Defekt-Rauschen". Das Grundprinzip der gesteuerten Transportswelle ist bei CCD und CMOS das gleiche, aber die Einlesezeiten sind aufgrund der unterschiedlichen Auszählung (dazu später mehr) bei einem CMOS-Sensor kürzer.

Die Ausnutzung möglichst der vollen Ladungskapazität (Füllfaktor) ist ein Maß für den Wirkungsgrad einer PD. Je höher der Füllfaktor, desto besser ist die Photonenausbeute. Er ist ein Äquivalent zur Spannungsänderung (CMOS) oder dem Stromfluß (CCD). Darum wird die sensorische Fläche maximiert und die Verschaltung möglichst hinter den Sensor platziert - das erscheint zunächst trivial, ist aber eine technologische Herausforderung und hat gravierenden Einfluß auf die Signalqualität.

Da Halbleiter einen temperaturabhängigen Ruhestom haben, ist die maximale Sensorfläche bzw eine hohe Lichtausbeute ein Kriterium für den Signal-Rauschabstand. Die thermische Störung addiert sich zudem mit der Belichtungszeit und geht damit in die Signalauswertung ein. Man könnte das Rauschen aus einer Summe von Störungen klassifizieren wie thermisches Dunkelstrom-Rauschen, zeitabhängige Rauschintensität, Cross-talk-Rauchen, statisches Defekt-Rauschen, Readout-Rauschen und dem integrativem Rauschverhalten eine Frequenzabhängigkeit oder einen Offset-Strom zuordnen usw - das aber verkompliziert die Sicht auf den wesentlichen Zusammenhang: Hohe Lichtausbeute (große Zellenfläche) bei möglichst geringem Eigenrauschen (Verstärker-Komponenten) bestimmen die Signalqualität.

Aus den einzelnen PD-Bauelementen mit entsprechender Verschaltung entsteht in systematischer Anordnung das Layout für die Sensormatrix. Die Herstellung der PD-Matrix erfolgt wie schon angedeutet, auf den dünnen Halbleiterscheiben (Wafer), wobei die Schaltungslagen per Beschichtung, ähnlich der Platinenherstellung, durch Maskierung, UV-Belichtung, Etzen und Auswaschung stapelweise aufgebaut werden. Das Resultat der fertig verschaltete Sensor-Matrix läßt sich schematisch darstellen. Ausgehend von der CCD- oder CMOS-Konzeption unterscheiden sich die Signalwege und deren Auswertung.

  

Der CCD-Sensor detektiert ein Photon als Entladungsstrom eines Kondensators.

Das Auslesen jedes Peaks erfolgt nur in Serie, was bei Spitzlichtern zu den typischen Zeilenfehlern führt. Er transportiert die Ladungen mit jedem Takt hintereinander zum A/D-Auslesemodul. Eine lange Kette von Peaks stellt den Inhalt der Matrix dar.

Die Signalverarbeitung muß bis auf den letzen ausgelesenen Peak der gesamten Matrix warten bis der Bildinhalt digitalisiert weiterverarbeiten werden kann.

 

Ein CMOS-Sensor detektiert ein Photon als Spannungsdifferenz und verwendet pro PD einen eigenen Signalverstärker, der jeden Pixel einzeln adressiert. Transistoren erzeugen zusätzliche Störquellen.

Das Auslesen der Matrix erfolgt entweder vollparallel oder nur spaltenweise in Serie, wärend diese Teilergebnisse parallel mit jedem Takt weitergeleitet werden. Damit wartet das Signalprocessing längstenfalls nur auf den Endwert einer jeden Zeile und kann entsprechend schneller die Matrix speichern und weiterverarbeiten.

Bei den Halbleiter-Sensoren ist die Unterscheidbarkeit der Intensitäten (Photonen-Energie) in den Extremalbereichen (sehr hell, sehr dunkel) schwächer als bei einem klassischen Silber-Brom-Film. Auf den Verlust an Dynamik hat bisher nur Fuji mit einem EXR-Sensor reagiert, alle anderen etablierten Hersteller setzen auf einfache Korrektur-Funktionen und verringern auf diese Weise die Herstellungskosten.

Die notwendige Korrektur der Sensorik ist zu komplex für die Kamera-Numerik, die möglichst schnell, energie-effizient aber nicht sehr präzise sein muß. Wenn die Abbildungsqualität bis zur Grenzauflösung optimal sein soll, dann sind justierende Ortsfunktionen erforderlich, passend für das spektrale Sensorik-Profil und das nachfolgende Image-Processing. Metrische Kamera-Profile vereinfachen diese Korrekturen.

Die spektrale Unterscheidbarkeit der zunächst scheinbar gleichen Sensor-Zellen ist durch einen Separationsfilter realisiert. Jede PD-Zelle erhält einen eigenen Farbfilter. Der dafür notwendige Filter (z.B. Bayer-Matrix) besteht aus einem Farbmosaik und befindet sich mit dem IR-Sperrfilter bzw dem UV-Filter auf der Oberfläche des Sensors. Erst diese Farbenfilterung erzeugt in Grupperung den RGB-Bildpixel.

Die Filter sind nacheinander in Stapelanordnung positioniert (dazu später mehr). Der IR-Sperrfilter gleicht dabei die Überbewertung im IR-Spektrum aufgrund der spektralen Charakteristik des Halbleiter aus. Astronomische und geologische Sensorik-Systeme haben keinen IR-Filter, weil gerade das langwellige IR-Spektrum für diesen Verwendungszweck von Interesse ist. Biologische Sensorik verzichtet, je nach Verwendungsabsicht, auf den UV-Filter, denn hier sorgt das UV-Spektrum nicht nur für eine bessere Differenzierung, sondern ermöglicht auch die Anwendung von Fluoreszenz- und Marker-Verfahren.

 

weiter ... ]

  
 
1   2   3   4   5   6  
 
 
IVV geo der Uni Münster
Umfangreiches Kompendium zur Thematik Digitale Fernerkundung und weitere interessante Beiträge.
Kamerasysteme, Auflösung und Erkennung , Grundlagen zu IP ...
  

digicamdb
Spezifische Sensordaten zur jeweiligen Kamera - digicamdb ist eine Datenbank, die technische Infos sammelt zu den Kameramodellen.
  

Spectral Instruments
Ein Hersteller von gekühlten Kamerasystemen u.a. für Astronomische Anwendung
  

ERDAS / Intergraph - Sensorische Geotechnologie und Service
TerraSAR und ERDAS, weitere Software-Projekte für die Geokartographie ...
  

College of Earth and Mineral siences
Online-Seminare von "Physical Basis of Remote Sensing" bis zu "Special Topics". Eine interessante Einführung zur Thematik.
  

Hersteller der jetzt schon legendären ADS40 und ADS80 ...
Produktserien der "Airborne-Sensoren" wie die ADS80 ...
  

e2v - einer der führenden Technologie-Produzenten für RF- und CCD Sensoren ...
Hersteller des größten Framesensors, der bisher konstruiert wurde. Installiert im Canada- France- Hawaii-Telescope und weltweit als MegaCam bekannt geworden.
  

  
   
  
   
  
   
   (C) 1997-2016    (UT) 2007   update: 2009