Halten Sie die schönsten Momente fest!
Schöne Momente sind vergänglich. Halten Sie sie also mit der richtigen Kamera fest! Egal ob es Party-Schnappschüsse, professionelle Fotos oder Urlaubsbilder sind - Bei Amazon finden Sie die richtige Kamera dafür!
Jetzt kaufen
Anzeige

Grundlagen & Sensorik: Komplett-Guide 2026

12.03.2026 20 mal gelesen 0 Kommentare
  • Die Wahl des Sensors beeinflusst entscheidend die Bildqualität und die Leistung bei unterschiedlichen Lichtverhältnissen.
  • Verschiedene Sensortypen, wie Vollformat und APS-C, bieten unterschiedliche Vorteile für Fotografen je nach Einsatzgebiet.
  • Das Verständnis der Sensorauflösung und der Bildverarbeitung ist entscheidend für die Auswahl der richtigen Kamera für Ihre Bedürfnisse.
Wer Olivenöl wirklich verstehen will, muss lernen, mit allen Sinnen zu denken. Die Sensorik ist dabei keine Kür, sondern das Fundament jeder ernsthaften Qualitätsbewertung – das International Olive Council (IOC) hat zu diesem Zweck ein standardisiertes Panel-Test-Verfahren entwickelt, das weltweit als verbindliche Referenz gilt. Farbe, Geruch, Geschmack und das sogenannte Mundgefühl greifen dabei untrennbar ineinander und ergeben zusammen ein komplexes sensorisches Profil, das über Herkunft, Verarbeitung und Frische eines Öls Auskunft gibt. Wer dieses Profil lesen kann, erkennt auf Anhieb, ob ein Öl bitter und scharf aus der Toskana stammt, oder ob ein mildes, reifes Fruchtprofil auf andalusische Arbequina-Oliven hindeutet. Das Handwerkszeug dafür ist erlernbar – es beginnt mit den richtigen Begriffen und einem geschärften Bewusstsein für die eigene Wahrnehmung.

Physikalische Messprinzipien optischer Sensoren: Von CCD bis CMOS

Der photoelektrische Effekt bildet die physikalische Grundlage jedes modernen Bildsensors: Photonen treffen auf Halbleitermaterial – typischerweise Silizium – und lösen dort Elektronen aus ihren Bindungen. Diese freigesetzten Elektronen erzeugen eine messbare elektrische Ladung, deren Stärke direkt proportional zur einfallenden Lichtmenge ist. Bei einer Wellenlänge von 550 nm (grünes Licht) liegt die Quanteneffizienz moderner Sensoren zwischen 60 und 90 Prozent – das bedeutet, dass auf je 100 einfallende Photonen 60 bis 90 verwertbare Elektronen kommen.

Werbung

CCD-Sensoren: Ladungstransport als Kernprinzip

Charge-Coupled Devices (CCD) transportieren die gesammelten Ladungspakete sequenziell durch das Sensorarray zu einem einzigen Ausleseverstärker. Dieser Mechanismus – vergleichbar mit einem Eimerketten-Prinzip – garantiert eine äußerst gleichmäßige Signalverarbeitung. Da jedes Pixel denselben Verstärker durchläuft, erreichen CCD-Sensoren ein sehr homogenes Rauschverhalten mit Fixed-Pattern-Noise-Werten unter 0,1 Prozent. Der Preis dafür: Der sequenzielle Ausleseprozess kostet Zeit und Energie. CCD-Sensoren verbrauchen im Betrieb typischerweise 50 bis 100 Mal mehr Strom als vergleichbare CMOS-Lösungen, was ihren Einsatz in batteriebetriebenen Systemen erheblich einschränkt.

Halten Sie die schönsten Momente fest!
Schöne Momente sind vergänglich. Halten Sie sie also mit der richtigen Kamera fest! Egal ob es Party-Schnappschüsse, professionelle Fotos oder Urlaubsbilder sind - Bei Amazon finden Sie die richtige Kamera dafür!
Jetzt kaufen
Anzeige

Klassische Anwendungsgebiete für CCD-Technologie liegen in der Astronomie, medizinischen Bildgebung und industriellen Qualitätskontrolle, wo Bildgleichmäßigkeit wichtiger ist als Auslesegeschwindigkeit. Kameras mit CCD-Sensoren wie die Phase One IQ-Serie nutzen diesen Vorteil für Aufnahmen, bei denen jeder Bildpunkt absolut verlässliche Toneigenschaften zeigen muss.

CMOS-Sensoren: Dezentrale Verarbeitung als Game Changer

Complementary Metal-Oxide-Semiconductor (CMOS)-Sensoren platzieren den Ausleseverstärker direkt an jedem einzelnen Pixel. Diese Architektur ermöglicht paralleles Auslesen ganzer Zeilen oder sogar des gesamten Arrays gleichzeitig. Moderne Backside-Illuminated (BSI) CMOS-Sensoren wie der Sony IMX 455 erzielen dadurch Auslesegeschwindigkeiten von über 60 Frames pro Sekunde in voller 61-Megapixel-Auflösung. Der Rolling-Shutter-Effekt – eine frühe Schwäche von CMOS – wurde durch Global-Shutter-Varianten weitgehend eliminiert, die nun in professionellen Videokameras und Hochgeschwindigkeitsanwendungen dominieren.

Der dynamische Bereich aktueller CMOS-Sensoren liegt bei 14 bis 15 Blendenstufen, was in der Praxis bedeutet, dass ein einziges RAW-Bild sowohl tiefe Schatten als auch helle Lichter detail­reich erfasst. Für eine zuverlässige Beurteilung dieser Helligkeitsinformationen direkt am Set empfiehlt sich ein kalibrierter externer Monitor zur präzisen Bildbeurteilung, da Kameradisplays die tatsächliche Sensor-Aussteuerung oft unzureichend wiedergeben.

  • Pixelgröße: Größere Pixel (z. B. 8,4 µm beim Nikon Z9) sammeln mehr Photonen pro Fläche und reduzieren Rauschen bei ISO 3200+ signifikant
  • Füllgrad: BSI-Konstruktion hebt den effektiven Füllgrad auf über 95 Prozent, da Leiterbahnen hinter die Photodiode verlegt werden
  • Ausleserate: Stacked-CMOS-Designs mit integriertem DRAM (z. B. Sony A9 III) erreichen 120 fps ohne Rolling-Shutter-Verzerrung

Die mechanische Integration des Sensors in das Kameragehäuse ist dabei ebenso kritisch wie die Elektronik selbst. Sensorebene, Auflagemaß und die präzise Ausrichtung über das Gewindesystem des Objektivanschlusses bestimmen gemeinsam, ob die optische Abbildungsleistung des Sensors überhaupt vollständig ausgeschöpft werden kann. Ein Auflagemaßfehler von nur 0,01 mm verschlechtert die Schärfeleistung an den Bildecken messbar.

Objektivmechanik und Gewindestandards: Normen, Toleranzen und Kompatibilität

Wer professionell mit Kamerasystemen arbeitet, kommt früher oder später an einen Punkt, an dem die mechanische Kompatibilität zwischen Objektiv und Kamera über Erfolg oder Fehlinvestition entscheidet. Die gängigen Gewindestandards – allen voran C-Mount, CS-Mount, M12 und M42 – sind keine interchangeablen Systeme, sondern folgen präzisen mechanischen Spezifikationen mit definierten Toleranzbereichen. C-Mount beispielsweise definiert einen Gewindedurchmesser von 1 Zoll (25,4 mm) mit 32 Gängen pro Zoll und einem Flanschbrennweite (Flangeback Distance) von exakt 17,526 mm. Weicht dieses Maß auch nur um Zehntel-Millimeter ab, verschieben sich Schärfebene und Bildkreis auf eine Weise, die durch Fokussierung allein nicht mehr vollständig korrigierbar ist.

Flangeback-Toleranzen und ihre praktischen Konsequenzen

Die Flangeback-Distanz – also der definierte Abstand zwischen Objektivanlagefläche und Sensorebene – ist das kritischste mechanische Maß in der gesamten Optik-Sensor-Kombination. Bei C-Mount-Systemen liegt die zulässige Fertigungstoleranz typischerweise bei ±0,05 mm, was für industrielle Machine-Vision-Anwendungen in der Regel ausreicht. In der wissenschaftlichen Bildgebung oder bei der Verwendung von Telezentrischen Objektiven kann bereits eine Abweichung von 0,02 mm zu messbaren Verzerrungen im Bildrand führen. Praktisch bedeutet das: Billigadapter aus dem Fernostimport, die für wenige Euro angeboten werden, halten diese Toleranzen häufig nicht ein – mit messbaren Auswirkungen auf Kantenschärfe und Verzeichnung. Wer hier spart, zahlt später mit stundenlanger Nachkalibrierung.

Ein häufig unterschätztes Problem entsteht beim Einsatz von CS-Mount-Objektiven an C-Mount-Kameras. Der Unterschied von 5 mm in der Flangeback-Distanz (CS: 12,526 mm, C: 17,526 mm) lässt sich zwar mechanisch durch einen C/CS-Adapter ausgleichen, aber dabei verlierst du je nach Objektiv die Fähigkeit, auf Unendlich zu fokussieren. Für alle Fragen rund um die genauen Maße, Gewindepaarungen und worauf du beim Kauf achten musst, lohnt sich ein Blick in einen umfassenden Überblick zu den mechanischen Grundlagen von Kameragewinden – dort sind die Normen der wichtigsten Systeme detailliert aufgeschlüsselt.

Bildkreis, Sensorformat und mechanisches Vignettieren

Der Bildkreis eines Objektivs muss immer mindestens dem Diagonalmaß des verwendeten Sensors entsprechen – idealerweise übertrifft er es um 10–15 %. Ein Objektiv mit einem Bildkreis von 1/2 Zoll (ca. 8 mm Diagonale) am 2/3-Zoll-Sensor (ca. 11 mm Diagonale) erzeugt ein mechanisches Vignettieren, das keine Blenden- oder Softwarekompensation vollständig behebt. Die Kombination aus Bildkreisgröße, Sensorformat und Pixelpitch bestimmt letztlich die erreichbare Auflösung im gesamten Bildfeld – nicht nur im Zentrum.

  • C-Mount: Bildkreis bis 1 Zoll, Flangeback 17,526 mm – Industriestandard für Sensoren bis 2/3 Zoll
  • CS-Mount: Flangeback 12,526 mm – kompaktere Bauweise, häufig bei Sicherheitskameras
  • M12 (S-Mount): Kein definierter Flanschbrennweitenstandard – Hersteller-spezifische Toleranzen zwingend prüfen
  • M42: 42 mm Durchmesser, 1 mm Steigung – ursprünglich fotografischer Standard, heute in der Messtechnik genutzt

Bei komplexen Mehrkamera-Setups – etwa in der Stereobildgebung oder im Multi-Sensor-Array – empfiehlt sich zusätzlich ein kalibrierter externer Monitor zur präzisen Bildkontrolle direkt am Set, da minimale mechanische Toleranzabweichungen zwischen den Objektiven im direkten Vergleich sofort sichtbar werden. Wer auf dieses Werkzeug verzichtet, erkennt Kompabilitätsprobleme oft erst in der Postproduktion – zu spät für eine sinnvolle Korrektur.

Vor- und Nachteile von Bildsensoren in der modernen Fotografie

Bildsensor-Typ Vorteile Nachteile
CCD-Sensor
  • Hohe Bildqualität
  • Gleichmäßige Signalverarbeitung
  • Niedriges Rauschen
  • Hoher Stromverbrauch
  • Langsame Auslesegeschwindigkeit
  • Teurer in der Produktion
CMOS-Sensor
  • Niedriger Stromverbrauch
  • Schnelle Auslesegeschwindigkeit
  • Günstiger in der Herstellung
  • Höheres Rauschverhalten
  • Weniger gleichmäßige Bildqualität
  • Frühere Rolling-Shutter-Probleme

Signalverarbeitung und Bildauswertung in Echtzeit: Algorithmen und Pipeline-Architekturen

Zwischen Bildsensor und verwertbarem Output liegen mehrere Verarbeitungsstufen, die über Latenz, Genauigkeit und Systemlast entscheiden. Moderne Überwachungskameras verarbeiten je nach Auflösung zwischen 30 und 120 Frames pro Sekunde – ein 4K-Stream bei 30 fps erzeugt dabei unkomprimiert etwa 746 MB/s Rohdaten. Die eigentliche Herausforderung liegt nicht in der Aufnahme, sondern in der effizienten Verarbeitung dieser Datenmenge in Echtzeit ohne Qualitätsverlust.

Von der ISP-Pipeline zur Objekterkennung

Der Image Signal Processor (ISP) übernimmt als erste Instanz die Rohdatenaufbereitung direkt auf dem Kamera-SoC. Typische Schritte sind Demosaicing (Bayer-Pattern-Interpolation), Rauschreduktion via Temporal Noise Filtering, Weißabgleich und Gammakorrektur. Hochwertige ISPs wie der Sony IMX-Serie arbeiten mit 14-Bit-Farbtiefe, bevor die Daten auf 8 oder 10 Bit für die Weiterverarbeitung reduziert werden. Ein schlecht kalibrierter ISP degradiert alle nachgelagerten KI-Algorithmen – weshalb die Bildpipeline immer von der Sensorseite her optimiert werden sollte.

Auf die ISP-Stufe folgt die Videocodierung, in der H.265/HEVC gegenüber H.264 bei gleicher Qualität etwa 40–50% der Bandbreite einspart. Für analytikintensive Systeme hat sich eine Dual-Stream-Architektur bewährt: Ein hochauflösender Stream für Aufzeichnung und Archivierung, ein zweiter niedrigauflösender Stream (z.B. 640×360) exklusiv für Echtzeitanalysen. Diese Trennung reduziert die Rechenlast für Objekterkennung signifikant, ohne Archivqualität zu opfern.

Algorithmen für Bewegungserkennung und Objektklassifikation

Frame-Differencing ist der einfachste Ansatz zur Bewegungserkennung: Pixelweise Subtraktion aufeinanderfolgender Frames mit definierten Schwellwerten. Der Rechenaufwand ist minimal, aber die Fehlerrate bei Beleuchtungsänderungen oder Wind-bewegten Objekten hoch. Deutlich robuster arbeitet GMM (Gaussian Mixture Model)-basiertes Background Subtraction, das ein statistisches Hintergrundmodell aufbaut und sich langsam verändernden Szenen adaptiv anpasst. Moderne Edge-Devices wie NVIDIAs Jetson Nano verarbeiten GMM-Algorithmen bei 1080p mit rund 25 fps bei unter 5W Leistungsaufnahme.

Für Objektklassifikation dominieren heute CNN-basierte Modelle (Convolutional Neural Networks), insbesondere YOLO-Varianten (YOLOv8, YOLOv9) wegen ihrer günstigen Latenz-Genauigkeits-Balance. Ein YOLOv8-Nano-Modell erreicht auf einem Jetson Orin NX etwa 120 fps bei 640×640 Pixel Input, während größere Modelle (YOLOv8-Large) bei 15–20 fps mehr Präzision liefern. Die Wahl des Modells hängt direkt vom Use-Case ab: Personenzählung toleriert höhere Latenzen als Einbruchserkennung mit Alarmauslösung. Wer komplexe Szenarien mit einem Smarthome-System koppeln möchte, findet in einer durchdachten Kamera-Anbindung an Automationsplattformen einen direkten Weg, erkannte Ereignisse in Workflows zu überführen.

Die Ausgabe der Algorithmen muss schließlich für Bediener interpretierbar sein. Zur Qualitätssicherung der Pipeline empfiehlt sich der Einsatz eines dedizierten Monitors zur visuellen Bildkontrolle, der Overlays wie Bounding Boxes, Konfidenzwerte und Zonenmarkierungen in Echtzeit darstellt. Kritisch zu berücksichtigen ist dabei die Pipeline-Latenz: Von Sensorauslösung bis zum Alarm sollten in sicherheitsrelevanten Systemen unter 200 ms liegen. Externe Störquellen können diese Kette empfindlich unterbrechen – wer verstehen will, wie Kameras gegen aktive Störsignale abgesichert werden, erhält dort praxisnahe Schutzmaßnahmen für den gesamten Signalweg.

  • ISP-Kalibrierung vor Algorithmenoptimierung priorisieren
  • Dual-Stream-Architektur für Analyse und Archivierung trennen
  • YOLO-Modellgröße nach Latenzanforderung, nicht nach Maximalgenauigkeit wählen
  • End-to-End-Latenz regelmäßig mit Timestamp-Analyse über die gesamte Pipeline messen

Netzwerkprotokolle und Datenübertragung: ONVIF, RTSP und proprietäre Standards im Vergleich

Wer mehrere IP-Kameras verschiedener Hersteller in ein System integrieren will, stößt unweigerlich auf das Kompatibilitätsproblem. Die Antwort der Industrie darauf ist ONVIF (Open Network Video Interface Forum), ein 2008 von Axis, Bosch und Sony gegründeter Standardisierungsverband. ONVIF definiert, wie Kameras, Rekorder und Verwaltungssoftware miteinander kommunizieren – von der Geräteerkennung über PTZ-Steuerung bis zur Ereignisverwaltung. Heute unterstützen über 10.000 zertifizierte Produkte diesen Standard, wobei Profile wie Profile S (Videostreaming), Profile G (lokale Aufzeichnung) und Profile T (H.265, HTTPS, Bewegungserkennung) unterschiedliche Funktionsumfänge definieren.

RTSP als universelles Streaming-Protokoll

RTSP (Real Time Streaming Protocol) ist das eigentliche Arbeitspferd der IP-Videoüberwachung. Es arbeitet auf Port 554 und nutzt typischerweise RTP/UDP für den eigentlichen Datentransport, was Latenzzeiten von unter 200 Millisekunden ermöglicht. Eine typische RTSP-URL sieht so aus: rtsp://192.168.1.100:554/stream1 – wobei der Pfad herstellerspezifisch variiert. Wichtig zu verstehen: RTSP ist das Signalisierungsprotokoll, das den Stream initiiert und kontrolliert, während RTP die eigentlichen Videodaten überträgt. Bei Firewalls oder NAT-Traversal entstehen hier häufig Probleme, da UDP-Pakete oft geblockt werden – dann hilft RTSP over TCP als Fallback, was aber die Latenz auf 300–500 ms erhöht.

Für die praktische Integration in Smarthome-Systeme ist RTSP unverzichtbar. Wer seine Kameras etwa in eine Hausautomation einbinden möchte, findet in der schrittweisen Einrichtung von IP-Kameras unter Home Assistant eine detaillierte Anleitung, die genau erklärt, welche RTSP-Parameter und Authentifizierungsmethoden (Basic Auth vs. Digest Auth) in der Praxis funktionieren.

Proprietäre Protokolle: Komfort gegen Abhängigkeit

Hersteller wie Hikvision (ISAPI/ISUP), Dahua (DHIP) oder Axis (VAPIX) setzen eigene Protokolle ein, die deutlich mehr Funktionen bieten als ONVIF allein. Hikvision-Kameras etwa liefern über ISAPI detaillierte Metadaten zu erkannten Personen, Kennzeichen oder Wärmebildanalysen – Daten, die über Standard-ONVIF schlicht nicht erreichbar sind. Der Preis dieser erweiterten Funktionalität ist Vendor Lock-in: Wer tief in ein proprietäres Ökosystem investiert, bindet sich an einen Hersteller und dessen Preisstrategie für Lizenzen und Updates.

In sicherheitskritischen Installationen kommt noch ein weiterer Faktor hinzu: proprietäre Kommunikationswege sind anfälliger für gezielte Angriffe, weil ihre Implementierungen weniger öffentlich auditiert werden. Wer Kameras in exponierten Umgebungen betreibt, sollte sich außerdem mit physischen Angriffsvektoren auseinandersetzen – wie man Überwachungskameras gegen den Einsatz von Störsendern absichert, ist ein oft unterschätztes Thema, das direkt mit der Protokollwahl zusammenhängt, da drahtgebundene PoE-Installationen hier strukturell im Vorteil sind.

Die pragmatische Empfehlung für neue Installationen: ONVIF Profile T als Mindestanforderung festlegen, RTSP-Streams mit H.265 und aktivierter HTTPS-Verschlüsselung konfigurieren, und proprietäre APIs nur dort nutzen, wo spezifische Analysefunktionen konkret benötigt werden. Bandwidth-Planung dabei nicht vergessen: Ein unkomprimierter 4K-Stream belegt rund 16 Mbit/s, H.265 reduziert das auf 4–6 Mbit/s – bei 16 Kameras macht dieser Unterschied das Netzwerkdesign grundlegend anders.


Häufige Fragen zu Bildsensoren und deren Grundlagen

Was ist ein Bildsensor und wie funktioniert er?

Ein Bildsensor ist ein elektronisches Gerät, das Licht in elektrische Signale umwandelt. Durch den photoelektrischen Effekt erzeugen die Sensoren elektrische Ladungen, die bei der Verarbeitung zu sichtbaren Bildern führen.

Was sind die Unterschiede zwischen CCD- und CMOS-Sensoren?

CCD-Sensoren bieten eine höhere Bildqualität und gleichmäßige Signalverarbeitung, verbrauchen jedoch mehr Strom und haben eine langsamere Auslesegeschwindigkeit. CMOS-Sensoren hingegen sind energieeffizienter und schneller, jedoch kann die Bildqualität variieren.

Wie beeinflusst die Pixelgröße die Bildqualität?

Größere Pixel sammeln mehr Licht und reduzieren das Rauschen, was zu einer besseren Bildqualität, insbesondere bei schlechten Lichtverhältnissen, führt. Kleinere Pixel können zwar höhere Auflösungen bieten, sind jedoch anfälliger für Rauschen.

Was versteht man unter Flangeback-Distanz?

Die Flangeback-Distanz ist der Abstand zwischen der Objektivanschlussfläche und der Sensorebene. Eine korrekte Flangeback-Distanz ist entscheidend für die Schärfe und Bildqualität, da Abweichungen zu Unschärfe und Verzerrungen führen können.

Wie wichtig ist die Kalibrierung von Bildsensoren?

Die Kalibrierung ist essenziell für die genaue Bildverarbeitung. Ein schlecht kalibrierter Sensor kann zu falschen Farben, unscharfen Bildern und anderen Problemen führen, was die Qualität der Aufnahmen beeinträchtigt.

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Keine Kommentare vorhanden

Zusammenfassung des Artikels

Grundlagen & Sensorik verstehen und nutzen. Umfassender Guide mit Experten-Tipps und Praxis-Wissen.

Halten Sie die schönsten Momente fest!
Schöne Momente sind vergänglich. Halten Sie sie also mit der richtigen Kamera fest! Egal ob es Party-Schnappschüsse, professionelle Fotos oder Urlaubsbilder sind - Bei Amazon finden Sie die richtige Kamera dafür!
Jetzt kaufen
Anzeige

Anbieter im Vergleich (Vergleichstabelle)

Bildsensorgröße APS-C
Auflösung 24,1 MP
ISO-Bereich 100-25600
Autofokus-Punkte 9
Serienbildgeschwindigkeit 3 FPS
Akkulaufzeit Nicht angegeben
Bildsensorgröße APS-C
Auflösung 24,1 MP
ISO-Bereich 100-6400
Autofokus-Punkte
Serienbildgeschwindigkeit 60 FPS
Akkulaufzeit
Bildsensorgröße APS-C
Auflösung 24,1 MP
ISO-Bereich 100-25600
Autofokus-Punkte 9
Serienbildgeschwindigkeit 5 fps
Akkulaufzeit Unbekannt
Bildsensorgröße Micro Four Thirds
Auflösung 20 MP
ISO-Bereich 80 - 25600
Autofokus-Punkte Nicht angegeben
Serienbildgeschwindigkeit 15 FPS
Akkulaufzeit Nicht angegeben
Bildsensorgröße APS-C
Auflösung 24,1 MP
ISO-Bereich 100-51200
Autofokus-Punkte Dual Pixel AF
Serienbildgeschwindigkeit 5 fps
Akkulaufzeit Nicht angegeben
Bildsensorgröße APS-C
Auflösung 18 MP
ISO-Bereich 100-12800
Autofokus-Punkte 19
Serienbildgeschwindigkeit 8 FPS
Akkulaufzeit Nicht angegeben
Bildsensorgröße X-Trans CMOS 4
Auflösung 26.1 MP
ISO-Bereich 160-51200
Autofokus-Punkte
Serienbildgeschwindigkeit 30 FPS
Akkulaufzeit Nicht angegeben
  Canon EOS 2000D Spiegelreflexkamera Canon EOS 2000D Spiegelreflexkamera Canon EOS 250D Digitale Spiegelreflexkamera Olympus OM-D E-M10 Mark IV Kit Canon EOS 250D DSLR-Kameragehäuse mit EF-S 18-55mm Objektiv Canon EOS 7D SLR-Digitalkamera FUJIFILM X-M5 XC15-45mm Kit
  Canon EOS 2000D Spiegelreflexkamera Canon EOS 2000D Spiegelreflexkamera Canon EOS 250D Digitale Spiegelreflexkamera Olympus OM-D E-M10 Mark IV Kit Canon EOS 250D DSLR-Kameragehäuse mit EF-S 18-55mm Objektiv Canon EOS 7D SLR-Digitalkamera FUJIFILM X-M5 XC15-45mm Kit
Bildsensorgröße APS-C APS-C APS-C Micro Four Thirds APS-C APS-C X-Trans CMOS 4
Auflösung 24,1 MP 24,1 MP 24,1 MP 20 MP 24,1 MP 18 MP 26.1 MP
ISO-Bereich 100-25600 100-6400 100-25600 80 - 25600 100-51200 100-12800 160-51200
Autofokus-Punkte 9 9 Nicht angegeben Dual Pixel AF 19
Serienbildgeschwindigkeit 3 FPS 60 FPS 5 fps 15 FPS 5 fps 8 FPS 30 FPS
Akkulaufzeit Nicht angegeben Unbekannt Nicht angegeben Nicht angegeben Nicht angegeben Nicht angegeben
  » ZUR WEBSEITE » ZUR WEBSEITE » ZUR WEBSEITE » ZUR WEBSEITE » ZUR WEBSEITE » ZUR WEBSEITE » ZUR WEBSEITE
Tabelle horizontal scrollen für mehr Anbieter
Counter