Kamerasensoren erklärt - Alles, was du als Fotograf über Sensoren wissen musst - kamerasensor erklaert 1

Kamerasensoren erklärt – Alles, was du als Fotograf über Sensoren wissen musst

Im Beitrag erkläre ich dir, wie ein Kamerasensor aufgebaut ist, wie er funktioniert und welche wichtigen Unterschiede es bei den Sensoren gibt. Da dies ein hochtechnisches Thema ist, versuche ich dir alles stark vereinfacht zu erklären, damit du ein Grundverständnis über die Funktionsweise erhältst.

Der Kamerasensor ist das wichtigste Bauteil einer Digitalkamera, denn er wandelt Licht in Daten um, aus dem das digitale Bild entsteht. Die technischen Prozesse und Eigenschaften des Sensors wirken sich dabei natürlich auch auf das entstehende Bild aus. Als Fotograf solltest du zumindest in der Grundlage verstehen, was im Sensor passiert, wenn du auf den Auslöser drückst. Genau deswegen habe ich diesen Beitrag hier geschrieben. Zeit also, dir die Funktionsweise eines Kamerasensors zu erklären.

So funktionieren Kamerasensoren

Alle Kamerasensoren, unabhängig von der Größe des Sensors, weisen eine ähnliche Struktur auf. Der grundlegende Prozess, wie aus Licht ein digitales Bild wird, ist im Prinzip sehr ähnlich: Sensoren bestehen aus Millionen lichtempfindlicher Fotodioden aus Silizium, den sogenannten „Pixeln“. Diese wandeln durch den photoelektrischen Effekt Lichtteilchen (Photonen), die durch das Objektiv auf den Sensor treffen, in elektrische Ladungen (Elektronen) um.

Die Stärke der elektrischen Ladung auf einem Pixel ist proportional zur Lichtintensität – je mehr Licht also auf ein bestimmtes Pixel trifft, desto stärker ist die erzeugte elektrische Ladung.

Um neben der Helligkeit auch Farben zu erfassen, werden die Pixel über einen Filter entweder für rotes, grünes und blaues Licht empfindlich gemacht (bzw. ganz korrekt formuliert für unterschiedliche Wellenlängenbereiche des Lichts durchlässig gemacht). Das bedeutet, dass einige Pixel die Intensität von rotem Licht, andere die Intensität von grünem und wieder andere die Intensität von blauem Licht aufzeichnen.

Diese Filter werden nach einem bestimmten Muster angeordnet. Vergrößert man den Sensor, so dass man die einzelnen Filter sieht, dann wird in den meisten Fällen ein Muster sichtbar, dass man Bayer-Matrix nennt. Es besteht aus jeweils zwei grünen, einem roten und einem blauen Filter, dass sich immer wieder wiederholt.

Kamerasensoren erklärt - Alles, was du als Fotograf über Sensoren wissen musst - kamerasensor bayer
Hier siehst du die Pixelanordnung auf dem Sensor in einer Bayer-Matrix.

Du fragst dich nun sicher, warum es mehr grün in dem Array gibt. Das hat einen wichtigen Grund: Grün wird in der Bildverarbeitung bevorzugt, da es den größten Beitrag zur Helligkeits- und Kontrastwahrnehmung im menschlichen Auge leistet. Außerdem liefert Grün, als mittlere Farbe im Spektrum, in der Regel die höchste Schärfe und Auflösung bei Objektiven. Du siehst also, dass hier nachgeholfen wird möglichst scharfe Fotos zu erzeugen.

Es gibt noch weitere Muster, wie das X-Trans Array von Fuji, bei denen die Farbfilter in einem 6×6 Filter-Muster angeordnet sind. Sigma hat mit dem Foveon Sensor sogar den Farbfilter in drei übereinanderliegende Schichten gelegt. Du siehst also, es gibt viele Möglichkeiten, wie die Lichtfarbe in Kamerasensoren ermittelt werden kann.

Weiß ist im eigentlichen Sinne keine Farbe, sondern unser Gehirn „erfindet“ Weiß. Weiß ist nämlich immer alles dann, wenn gleich viel Grün, Rot und Blau (also die entsprechenden Wellenlängen des Lichts) auf die Netzhaut in unserem Auge trifft. Genauso ist Schwarz einfach die völlige Abwesenheit von Licht.

Nachdem das Licht nun seinen weg durch die Farbfilter gefunden hat, werden die elektrischen Signale aller Pixel auf dem Sensor dann an den Bildprozessor der Kamera weitergeleitet. Dieser interpretiert und berechnet die Farb- und Helligkeitswerte aller einzelnen Bildpunkte (Pixel), aus denen sich letztlich das digitale Bild zusammensetzt.

Übrigens: Bevor das Licht auf die Fotodioden trifft und dort in elektrische Ladung umgewandelt wird, durchläuft es mehrere „Schichten“ der Sensoreinheit. Ein Infrarot-Sperrfilter verhindert das Auftreten von Falschfarben. Viele Kameras sind zudem mit einem optischen Tiefpassfilter ausgestattet, der die Gefahr von Moiré-Artefakten verringert. Moiré-Artefakte entstehen, wenn es zu Interferenzen zwischen dem Pixelraster des Sensors und Mustern im Bild kommt. Der Kamerasensor liegt also niemals frei sondern es sind ein paar dünne Glasschichten davor verbaut, die auch als Schutz dienen.

Makro-Fotografie
Ein kleiner Kamerasensor der ordentlich Staub gefangen hat. Der Sensor befindet sich immer hinter einer kleinen Schutzschicht aus Glas, damit dieses empfindliche Bauteil nicht beschädigt wird.

Sensorarten

Heutzutage nutzen fast alle Digitalkameras CMOS-Sensoren (Complementary Metal Oxide Semiconductor). Moderne CMOS-Sensoren lassen sich Zeile für Zeile sehr schnell auslesen und ermöglichen so hochfrequente Serienbilder, hochauflösende Videos oder sogar das Weglassen des mechanischen Verschlusses. Leider ist das zeilenweise Auslesen auch ein Nachteil der CMOS-Technologie: Denn der „Rolling Shutter“-Effekt, der bei der Verwendung eines elektronischen Verschlusses, wie bei der Videoaufzeichnung zum Einsatz kommt, sorgt durch das zeilenweise Auslesen zu Verzerrungen. Aber es gibt auch CCD Sensoren. Wir werfen gleich einen genaueren Blick darauf.

CCD-Sensoren setzen sich aus einer Vielzahl von Pixeln zusammen, die in einem Gitter angeordnet sind. Bei der Auslesung werden die Pixel nacheinander aktiviert, und die elektrische Ladung wird von einem Pixel zum nächsten übertragen. Diese Vorgehensweise führt dazu, dass CCD-Sensoren bei hohen Auflösungen vergleichsweise langsam arbeiten.

CMOS-Sensoren bestehen aus kleinen Pixelgruppen, die gleichzeitig ausgelesen werden. Diese Technik ermöglicht es den CMOS-Sensoren, deutlich schneller zu arbeiten als CCD-Sensoren. Allerdings schneiden sie bei hohen Auflösungen nicht ganz so gut ab.

In modernen Kamerasystem mit Wechselobjektiven findest du in der Regel nur noch CMOS Sensoren.

CCD-Sensoren

In der digitalen Fotografie gibt es verschiedene Arten von Bildsensoren. Einer der Technologien sind die CCD-Sensoren (Charge-Coupled Device). CCD Sensoren waren die ersten digitalen Kamerasensoren und veränderten die Art und Weise, wie wir fotografieren, grundlegend.

Ein CCD-Sensor besteht aus einem integrierten Gitter von Halbleiterkondensatoren, die als „Pixel“ fungieren und elektrische Ladungen speichern. Wenn Licht auf den Sensor trifft, absorbieren diese Kondensatoren das Licht und wandeln es in elektrische Ladung um. Die Menge an Ladung, die jeder Pixel speichert, steht direkt im Verhältnis zur Lichtintensität, die ihn erreicht.

Die Ladung der einzelnen Pixel wird durch das Sensorgitter übertragen – daher auch der Begriff „ladungsgekoppelt“ (Charge-Coupled). Man kann sich das wie eine Kettenreaktion vorstellen, bei der das Signal von Pixel zu Pixel weitergegeben wird und schließlich an einer Ecke des Arrays ausgelesen wird. Diese Methode sorgt für eine herausragende Bildqualität und Konsistenz, da jedes Pixel denselben Weg nutzt, um sein Signal auszugeben. Allerdings benötigt der Auslesevorgang eines CCD-Sensors mehr Strom als der eines CMOS-Sensors.

Vorteile CCD Sensoren

  1. Hohe Bildqualität: CCD-Sensoren bieten in der Regel eine überlegene Bildqualität mit weniger Rauschen, besonders bei niedrigeren Lichtverhältnissen. Sie produzieren klare, detaillierte Bilder. Daher wird dieser Sensortyp häufig für die Astrofotografie genutzt.
  2. Verbesserte Farbtiefe: Sie können eine höhere Farbtiefe und eine genauere Farbwiedergabe erzielen, was sie ideal für Anwendungen macht, bei denen Farbgenauigkeit entscheidend ist.
  3. Einfache Implementierung: CCD-Sensoren haben ein einfaches Design und sind gut für verschiedene Anwendungen in der professionellen Fotografie geeignet.

Nachteile CCD Sensoren

  1. Langsamere Aufnahmegeschwindigkeit: Die Auslesegeschwindigkeit ist im Vergleich zu CMOS-Sensoren langsamer, was die Möglichkeiten für Serienaufnahmen einschränkt.
  2. Kosten: CCD-Sensoren sind in der Regel deutlich teurer in der Herstellung, was sich auf die Kosten der Endprodukte auswirkt.

CMOS-Sensoren

In modernen Kameras – insbesondere bei Modellen mit Wechselobjektiven sind CMOS Sensoren verbaut (Complementary Metal-Oxide Semiconductor – also komplementärer Metall-Oxid-Halbleiter). Anders als bei CCD-Sensoren, die die Ladungen von der gesamten Sensorfläche an einen einzigen Ausgangsknoten übertragen, hat jeder Pixel in einem CMOS-Sensor eigene Transistoren. Dadurch wird die Ladung direkt an Ort und Stelle verarbeitet, was einige Vorteile mit sich bringt.

Zunächst einmal sind CMOS-Sensoren energieeffizienter, da sie weniger Strom benötigen. Das schnelle Ablesen elektrischer Ladungen ist besonders wichtig für schnelle Serienaufnahmen. Außerdem haben diese Sensoren dieselbe Grundstruktur wie Computer-Mikroprozessoren, was eine kostengünstige Massenproduktion ermöglicht. Darüber hinaus erlauben sie zusätzliche Funktionen wie Rauschreduzierung und Bildverarbeitung direkt auf dem Sensor.

Es gibt inzwischen drei unterschiedliche CMOS-Sensoren für Kameras:

Standard CMOS-Sensor

Herkömmliche CMOS-Sensoren haben hinter den Farbfiltern das „Wiring“, also die Leitungen angeordnet. Die Photodioden befinden sich hinter diesen Leitungen. Diese Bauweise ist günstig zu produzieren, hat aber den Nachteil, dass das Licht erst durch das Wiring dringen muss und dabei auch weniger Licht an der Photodiode ankommt. Dadurch wird die dynamische Reichweite des Sensors beeinträchtigt und einzelne Photonen können sich sogar beim Durchschreiten des Wirings in benachbarte Pixel „verirren“.

Backside Illuminated CMOS (BSI CMOS)

Rückseitig belichtete Sensoren („Backside Illuminated“, kurz „BSI) haben das Wiring auf der Rückseite des Sensors platziert. Diese Anordnung verbessert die dynamische Reichweite erheblich und erhöht die Auslesegeschwindigkeit im Vergleich zum klassischen CMOS-Sensor. Zudem bietet der BSI-Sensor eine bessere Leistung bei schlechten Lichtverhältnissen, da die Photodioden kein Licht mehr an die Metallverbindungen verlieren, da diese nun nicht mehr durchdrungen werden müssen. Das ISO-Rauschen wird durch diese Bauweise deutlich reduziert und die Lichtausbeute (Quanteneffizienz) maximiert.

Lightroom Presets

Stacked CMOS (BSI Stacked CMOS)

Stacked CMOS-Sensor sind die Weiterentwicklung des BSI-Sensors. Diese Sensoren haben zwei Schichten Wiring auf der Rückseite des Sensors platziert. Diese Konstruktion sorgt dafür, dass dieser Sensortyp noch schneller ausgelesen werden kann und Rolling Shutter Artefakte auf fast null reduziert. Ein besserer Autofokus ist ebenfalls durch den Stacked Sensor umsetzbar, da mehr Berechnungen in gleicher Zeit durchgeführt werden können.

Stacked CMOS-Chips haben sich zum De-facto-Standard für die hochwertigen Systemkameras entwickelt, die wir Profis nutzen, um schnelle Momente zu fotografieren. Modelle, wie die Sony a1 und die Canon EOS R3, erreichen beeindruckende 30 Bilder pro Sekunde, während die Nikon Z 9 dank ihres Stacked Sensors und der dualen Prozessoren in der Lage ist, sogar 11-MP-Fotos mit 120 fps aufzunehmen. Diese extrem schnellen Auslese- und Verarbeitungsleistungen verbessern zudem den Autofokus erheblich und liefern durchgehend scharfe Bilder.

Kamerasensoren erklärt - Alles, was du als Fotograf über Sensoren wissen musst - cmos sensor typen aufbau edited
Hier siehst du die drei unterschiedlichen CMOS Kamerasensoren im Vergleich. Die Darstellung ist dabei sehr vereinfacht.

Global Shutter

Ein Global Shutter CMOS-Sensor bringt die Technologie auf die nächste Stufe und ist quasi die „eierlegende Wollmilchsau“ für Fotografen. Dieser Sensor ließt die Bildinformationen nicht mehr Zeilenweise aus, sondern komplett auf einen Schlag. Dadurch ergeben sich neue Möglichkeiten in der Fotografie:

  • Blitzsynchronzeiten bis zu 1/80000 Sekunde
  • Komplett lautloses Fotografieren ohne Rolling Shutter Artefakte und Banding
  • extrem schnelle Serienbildraten bei vollem Autofokus und voller Auflösung

Bisher existiert mit der Sony Alpha 9 III jedoch nur eine Kamera am Markt, die einen Global Shutter umsetzen konnte. Klingt zu gut um wahr zu sein oder? Du ahnst es sicher: Alles hat seinen Preis. Das Rauschen und die dynamische Reichweite entsprechen noch eher dem Niveau klassischer CMOS-Chips. Zudem ist der kleinste ISO-Wert der Alpha 9 III auch leider nur 250. Aber wir befinden uns in einer Zeit, in der sich Kamerasensoren rasant entwickeln. Daher denke ich, dass es nicht mehr lange dauern wird, bis Global Shutter Sensoren verfügbar sind, die kaum noch Nachteile haben.

Zusammenfassend lässt sich sagen, dass CMOS-Chips die gängigen und grundlegenden Optionen für moderne Digitalkameras darstellen. Der Umstieg auf ein Modell mit einem BSI-CMOS-Sensor steigert die Auslesegeschwindigkeit und verbessert die Bildqualität bei wenig Licht. Gestapelte CMOS-Chips pushen die Geschwindigkeit noch weiter und halten dein Motiv während der Aufnahme perfekt im Fokus. Wenn du Bewegung im Moment perfekt einfangen möchtest und bereit bist, dabei etwas Bildqualität aufzugeben, ist der Einsatz eines globalen Shutters die ideale Lösung.

Vorteile CMOS Sensoren

  1. Energieeffizienz: CMOS-Sensoren benötigen wesentlich weniger Strom, was sie ideal für batteriebetriebene Geräte und Smartphones macht.
  2. Schnelle Auslesung: Aufgrund der integrierten Transistoren an jedem Pixel können sie schnellere Bildraten und kürzere Belichtungszeiten bieten, was sich positiv auf Serienaufnahmen auswirkt.
  3. Vielseitigkeit: CMOS-Sensoren ermöglichen die Integration zusätzlicher Funktionen, wie z.B. Rauschreduzierung und Bildverarbeitung, direkt auf dem Sensor.
  4. Kostengünstige Massenproduktion: Dank der ähnlichen Herstellungsmethoden wie bei Mikroprozessoren sind CMOS-Sensoren in der Regel günstiger.

Nachteile CMOS Sensoren

  1. Bildqualität: Obwohl die Bildqualität von CMOS-Sensoren in den letzten Jahren erheblich verbessert wurde, kann sie in Bezug auf Rauschen und Farbtiefe im Vergleich zu hochwertigen CCD-Sensoren hinterherhinken, besonders bei schlechten Lichtverhältnissen.
  2. Noise Management: CMOS-Sensoren können im Vergleich zu CCD-Sensoren bei bestimmten Lichtverhältnissen mehr Bildrauschen produzieren, insbesondere bei höheren ISO-Werten.
  3. Komplexität der Verarbeitung: Die integrierten Schaltungen können die Herstellung komplexer machen und erfordern eine präzisere Kalibrierung.

Zukünftige Entwicklungen in der Sensortechnologie

Die Sensortechnologie entwickelt sich ständig weiter und bringt neue Möglichkeiten für Fotografen mit sich. In den letzten Jahren haben wir bemerkenswerte Fortschritte in der Sensorgröße und -leistung erlebt, die das fotografische Erlebnis revolutionieren. Diese Entwicklungen betreffen nicht nur die Bildqualität, sondern auch den Autofokus und die kreativen Möglichkeiten, die uns Fotografen beispielsweise mit einem Global Shutter zur Verfügung stehen.

Auch wenn es noch ein sehr weiter Weg ist, bis wir den Dynamikumfang unserer Augen mit Kamerasensoren kopieren können, bewegen wir uns in den nächsten Jahren auch dank KI-Funktionen in Kameras sicher weiter in einen noch größeren Dynamikbereich. Ausblick auf zukünftige Entwicklungen

Die Zukunft der Sensortechnologie verspricht noch mehr aufregende Innovationen. Experten gehen davon aus, dass wir bald Sensoren sehen werden, die noch effizienter mit Licht umgehen können. Auch die Entwicklung von Sensorsystemen mit höherer Auflösung wird voranschreiten.

Die kontinuierliche Forschung und Entwicklung im Bereich der Sensortechnologie wird dazu beitragen, dass Fotografen von immer leistungsfähigeren Werkzeugen profitieren können. Damit eröffnen sich neue kreative Möglichkeiten und eine verbesserte Benutzererfahrung – Aspekte, die für jeden Fotografen von großer Bedeutung sind.



Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert