>
>
>
>
>
  
>
>
>
>
>
  
  
  
  
  
  
  
  
  
  
  
  
  
lima-city: kostenloser Webspace




  
  

 

 
1  2  3  4  5  6  

DIGITAL IMAGING

Digital-Imaging ist der Sammelbegriff für visualisierende Digitaltechnik mit den Bestandteilen Material-Wissenschaft, Chiparchitektur, Modul-Design und Programmierung (Image-Processing). Optische Sensorik und Digital-Imaging zählen zu den Schlüsseltechnologien, die im letzten Jahrzehnt sehr an Aufmerksamkeit gewinnen konnten. Hinter diesem trendigen Begriff steht ein langer Weg technologischer Evolution.

Ohne die komplexen Phänomene der Physik, ohne die Halbleiter-Technogie und die praktische Anwendung der Photonenwechselwirkungen in Materie, wäre aktuelle Kamera-Sensorik nicht realisierbar. Die photographische Visualisierung läßt sich in Kürze nur dann darstellen, wenn aktuelle Technologien auf das wesentliche Grundprinzip reduziert werden - einzige Vorausgesetzung für den kleinen Schnell-Exkurs ist etwas motivierte Neugier. Beginnen wir daher nicht historisch, nicht mit theoretischer Formalität, nicht im Nano-Universum der Atome und Elektronen und auch nicht mit Adam und Eva.

Licht breitet sich in Wellenform aus als räulich begrenzte Wellenpakete, den Lichtquanten oder Photonen, und die Lichtstrahlen bestehen aus einem Strom vieler Photonen (den Zeitaspekt lassen wir einfach mal weg). Jedes dieser merkwürdigen Photonen transportiert Energie, im Vakuum haben sie alle die gleiche Geschwindigkeit und ihre Frequenz ist proportional zur transportierten Energie.

Wenn Photonen in metallähnliche Materie "einschlagen" und dort ihre Energie abgeben, dann lösen sie freie Elektronen aus dem atomaren Verbund. Vergleichen kann man das mit einem Apfelbaum. Wenn man den kräftig schüttelt, dann werden die Früchte aus ihrem zuvor festen Gefüge gerissen und in einen "frei beweglichen Fallzustand" überführt, wobei die Gravitation die Fallrichtung vorgibt. Was beim fallenden Apfel die Gravitation ist, das wird beim Elektron im Halbleiter durch ein ablenkendes Ladungsfeld oder Potentialgefälle realisiert.

Die "seismische Einwirkung" des einschlagenden Photons mit entsprechender Energie generiert demnach freigesetzte Elektronen, die mit einer "elektrischen Gravitation" in ihrer Bewegung gelenkt werden können. Die ausgelösten und nun frei beweglichen Elektronen (siehe auch Photoeffekt) können so einen fließenden Strom entstehen lassen und mit dem geht eine meßbare Spannungsänderung einher.

   
Energetische Wirkungsverteilung in einem Halbleiter-Metall.   Freisetzung des Elektrons durch Photonen-Energie

Der Halbleiter, ein äuerst seltsames Metall, wie beispielsweise Silizium, Germanium oder Gallium, verhält sich ohne diesen "Meteoriteneinschlag" (Zuführung von Licht-Energie) und ohne den in Folge ausgelösten freien Elektronenstrom, wie ein sehr hoher Widerstand (quasi-Nichtleiter) oder ein Stück Trockenholz. Könnte man mit diesem Halbleiter die Lichtintensität in eine elektrische Spannung oder einen Stromfluß übersetzen, dann wäre auch ein digitales Auge machbar.

Faule Säcke, Besserwisser und unwirtschaftlich denkende Menschen haben aus diesem seltsamen Halbleiter mit Diamantstruktur eine Photodiode (PD) entwickelt. Wenn auf diese Photodiode Licht (Photonen) trifft, dann beginnt sie, abhängig von der Lichtintensität und der Wellenlänge, zunehmend leitend zu werden und es können freigesetze Elektronen transportiert werden. Da PDs aus wenigstens zwei verschiedenen Halbleiterschichten bestehen, einer p-dotierten und einer n-dotierten Schicht (eine Schicht mit wenigen freien Elektronen und eine mit höherer beweglicher Elektronendichte), kann man durch diesen pn-Unterschied ein Potentialgefälle und damit eine Flußrichtung vorgeben. Wie beim geschüttelten Apfelbaum die Erdgravitation die Fallrichtung der Äpfel vorbestimmt, so gibt das Potentialgefälle (die "elektronische Gravitation") der Dotierungsschichten die Flußrichtung der Elektronen vor. Mit einer äußeren angelegten Spannung kann man das Potentialgefälle sogar steuern, um die durch Lichtenergie freigesetzen Elektronen noch besser in eine "bevorzugte" polare Richtung zu lenken.

Man könnte die PD wie ein steuerbares Ventil beschreiben, das nur bei Lichteinfluß in die bevorzugte Richtung elektrisch durchlässig ist. Die vom Photoneneinschlag aufgeschreckten Elektronen verhalten sich zuweilen wie Politiker, denen man von links oder rechts mit positiven Umfrageergebnissen und mit Fraktionszulagen winkt - sie gehen den Weg des geringsten Widerstandes und reagieren auf das Licht der Öffenlichkeit sofort mit hektischer Betriebsamkeit. Das auftreffende Licht in der PD generiert demnach nicht nur elektrischen Strom, sondern es kommt zu einer richtungsorientierten Ladungstrennung. Die PD ist damit nicht nur ein lichtgesteuertes und regelbares Ventil, sie hat auch die Eigenschaft eines Kondensators, der die Ladungsenergie speichert, ähnlich wie ein Luftballon das eingepreßte Füllgas.

Diese Eigenschaften ausnutzend muß zur Wirkungsoptimierung der Aufbau einer Photodiode so konstruiert sein, daß einerseits eine möglichst große Lichtfläche verfügbar ist, andererseits aber die verschiedenen Halbleiterschichten ein hinreichend starkes Potentialgefälle erzeugen, womit Durchlässigkeit und Flußrichtung der freien Elektronen vorgegeben sind. Natürliches Licht ist nicht monochromatisch, dh es besteht aus Wellenpaketen verschiedenster Wellenlängen, die das Auge als Farben wahrnimmt. Kürzere Wellenlängen reichen nicht sehr tief in die Materiallschicht und werden stärker reflektiert, wärend größere Wellenlängen mehr unter der Oberfläche (Diffusionsschicht, n-dotierter Bereich) ihre Energie abgeben. Diese Eigenschaft führt dazu, daß eine PD unterschiedlich auf die verschiedenen Wellenlängen des Lichtes reagiert und keine lineare Charakteristik zeigt, die durch die Halbleiterbeschaffenheit (Materialauswahl, Dotierung, Betriebszustand) beeinflußbar ist. Die "Sehfähigkeit" der PD erfolgt durch den jeweils verursachten Ladungstransport im Sinne von Stromfluß und Spannungsänderung, denn jedes Photon erzeugt im Idealfall ein frei fließendes Elektron. Viele Photonen erzeugen viele freie Elektronen und damit ein starkes Signal, sodaß die Signalstärke ein Maß für die Helligkeit (Intensität) ist. Aber die PD hat leider einen "Schönheitsfehler", sie ist temperaturabhängig. Bei steigender Temperatur zeigt dieses Elektronenventil eine zunehmende Undichtigkeit, die einen unerwünschten Störstrom generiert, der sich als Signalrauschen bemerkbar macht. Diesen Störstrom zu minimieren ist eines der Probleme, die gelöst sein wollen.

Das Wahrnehmungsspektrum der PDs ist größer als das des menschlichen Auges. Der Ultraviolet-Anteil ist weniger differenziert als der besonders breite Rot- bis Infrarot-Bereich. Die charakteristische Reaktionsfähigkeit läßt sich mittels Halbleiterlegierung, Dotierterung und mit optischen Filtern spezialisieren. Das sensorische Spektrum für Rot, Grün und Blau ist durch die Maxima der Intensitäten deutlich unterscheidbar.

Die weiße Kurve entspricht dem idealisierten Wahrnehmungsspektrum des menschlichen Auges, die Rot-Linie der PD zeigt zwar im Rotbereich ihr Maximum, sie reicht aber schon weit in die großen Wellenlängen des Infrarot-Bereiches hinein. Die Magenta-Linie zeigt einen für Infrarot optimierten Halbleiter. Eine normierte Summe aus R, G und B zeigt ein charakteristisches Maximum im kurzwelligen Rotbereich.

Wärend das menschlich Auge das Grünspektrum (ca. 510 bis 560nm) sehr gut differenzieren kann, liegt der optimale Bereich einer Photodiode eher im Rotspektrum. Um diese Eigenschaft dem menschlichen Auge anzugleichen, ist ein IR-Sperrfilter für jede Photodiode notwendig. Für das obere Kurzwellenspektrum wird ein UV-Filter verwendet und jeder Hobbyfotograf weiß um die Wirkung eines UV- oder IR-Sperrfilters. Mit diesen Filtern wären zwar schon mal die störenden Lichtanteile beseitigt, aber die Farbseparierung fehlt noch und außerdem muß aus vielen PDs eine zusammenhängende "Sehfläche" strukturiert werden. Wie machen wir aus einer PD mit bekannten Eigenschaften so eine zusammenhängende "Sehfläche" ? Und ein Kamerasensor besteht aus Millionen dieser "Sehzellen" ...

Ein Wafer ist der Schaltungsträger für die Photodioden in Form einer hochreinen und Millimeter-dünnen Silizium-Scheibe, etwa 12 bis 30cm im Durchmesser. Auf so einer Scheibe entstehen nicht nur die PDs, auf ihr wird der spätere Kamerasensor vollständig hergestellt. Der Wafer ist soetwas wie eine Pizzapfanne, die mit allen notwendigen Zutaten bestückt wird - nur funktioniert der Backprozess anders und man verwendet in der Regel winger Salamie.

Im Multilayer-Design kann auf dem Wafer eine Stapelanordnung entstehen, die alle erforderlichen Elektronik-Komponenten herstellt, strukturiert und kombiniert. Die einzelnen PDs lassen sich zu einer Matrix (CCD, CMOS) zusammenschalten, die auf der Oberfläche des Wafers positioniert sein muß. Neben den PDs und unter der Sensormatrix befinden sich die Baugruppen und Leiterbahnen zur Steuerung und Verstärkung des optischen Signales, wobei das Bodensubstrat die Trägerschicht bildet und aus einer glasharten und nicht-leitenden Oxyd-Verbindung besteht.

Aus dieser Idee einer PD-Matrix (CCD) sollte eigentlich "nur" ein Daten-Speichermodul bei der Firma BELL entstehen. Schließlich haben CCD- und die neuere CMOS-Technologie eine vollkommen andere Richtung eingeschlagen. Die aus Millionen PDs bestehende Matrixfläche erfüllt die gleiche Funktion wie die Filmebene einer konventionellen Kamera oder der Netzhautverbund des Auges mit seinen Sehzellen.

Verschiedene Baugruppen (ICs) oder Sensoren können in einem automatisierten Prozess auf nur einem einzigen Wafer hergestellt werden, sodaß die so erreichte Steigerung der Produktivität (Zeit, Kosten) deutlich zur Senkung des Herstellungs- bzw Marktpreises beiträgt. Die Größenordnung einzelner Komponenten liegt im einstelligen µm-Bereich und man kann bereits in einem mm² sehr viel Elektronik platzieren.

Ein Wafer wird im Grundprinzip so "ähnlich" bearbeitet und verschaltet, wie eine Elektronik-Platine. Kleinste Baugruppen werden als stapelartige Anordnung aufgetragen, mit Isolationsgräben getrennt und mit Leiterbahnen verbunden. Eine kompliziertere Herausforderung besteht in der Positionierung von darunterliegenden Verschaltungsebenen, zwecks Maxmierung der lichtaktiven Fläche, ein Kompromiss zwischen Photonenausbeute und dem unerwünschten Elektronenüberlauf, dem Crosstalk-Rauschen. Nach jeder Baugruppenschicht wird die fertige Lage gereinigt und erneut vorbereitet für die nächste Auftragung. Ein Zyklus aus Schutzbeschichtung, Materialauftragung, Abätzung und Reinigung realisiert diese Schichtbauweise und die Arbeitsumgebung erinnert an ein futuristisches Chirurgielabor, bewaffnet mit Computern, Mikroskopen, Chemikalien, speziellen Lichtquellen und astronauten-ähnliche Schutzkleidung.

Tatsächlich ist nicht nur der Herstellungsprozess wesentlich aufwändiger, selbst die Voraussetzungen der Herstellung (Reinraum, Prozessanlagen) sind technologisch und finaziell nichtmal mit dem Equipmet der aktuellen Micro-Chirurgie vergleichbar. Allein die Kontroll- und Diagnose-Einrichtungen erreichen den Kapitalwert von einem Einfamilienhaus. Die verschiedenen Verfahren der Materialauftragung, der Maskenbeschichtung, der Implementierung, der Belichtung, der Nachdotierung und der Abätzung einzelner Areale führen schließlich zur geplanten Baugruppen- und Verschaltungsstruktur. Und dieser Prozess, der in klienisch reiner Umgebung erfolgen muß, ist "nur" die letzte Fertigungsetappe einer komplexen und zeitaufwändigen Vorbereitung. Selbst das anschließende Auseinanderbrechen der einzelnen Chipareale verlangt Hightec-Präzision (von Laserstrahl- bis zu micro-mechanischen Schnitt-Werkzeugen) und die Bruchstücke stellen den Sensorchip zur Verfügung, der anschließend durch mikroskopisch feine Goldfäden mit seiner Fassung verbunden (Bonding-Verfahren) wird. Die Fassung muß die notwendige Kontaktierung (pins, beads/balls, springs, auch: SMD, BGA) nach außen herstellen.

 

weiter ... ]

 
 
1  2  3  4  5  6  
 
 
IVV geo der Uni Münster
Umfangreiches Kompendium zur Thematik Digitale Fernerkundung und weitere interessante Beiträge.
Kamerasysteme, Auflösung und Erkennung , Grundlagen zu IP ...
  

 digicamdb
Spezifische Sensordaten zur jeweiligen Kamera - digicamdb ist eine Datenbank, die technische Infos sammelt zu den Kameramodellen.
  

 Spectral Instruments
Ein Hersteller von gekühlten Kamerasystemen u.a. für Astronomische Anwendung
  

ERDAS / Intergraph - Sensorische Geotechnologie und Service
TerraSAR und ERDAS, weitere Software-Projekte für die Geokartographie ...
  

College of Earth and Mineral siences
Online-Seminare von "Physical Basis of Remote Sensing" bis zu "Special Topics". Eine interessante Einführung zur Thematik.
  

Hersteller der jetzt schon legendären ADS40 und ADS80 ...
Produktserien der "Airborne-Sensoren" wie die ADS80 ...
  

e2v - einer der führenden Technologie-Produzenten für RF- und CCD Sensoren ...
Hersteller des größten Framesensors, der bisher konstruiert wurde. Installiert im Canada- France- Hawaii-Telescope und weltweit als MegaCam bekannt geworden.
  

Micro-Epsilon

Micro-Epsilon stellt Labor-Equipment her und ist spezialisiert auf optische Systeme wie meßtechnische Laser, IR-Kameras und Sensorik.
  
Aktuelle News zur Technik
Interessante News zur aktuellen Entwicklung von Sensorik, Kameras und Objektiven - Empfehlung: "Ein guter Überblick"
  

 

  
   
  
   
  
   
   (C) 1997-2016    (UT) 2007   update: 2009