Wie funktionieren Smartphone-Kameras?
„Welchen Prozessor hat Ihr Telefon? Wie viel Platz hat es? Wie viel RAM?“ So haben wir früher Telefone verglichen, aber heute lauten die häufigeren Fragen: „Wie gut sind die Kameras Ihres Telefons?“ Wie gut macht es nachts Fotos und Videos?“ Beim Testen von Handys achten alle, auch die Tester, also auch wir in der Redaktion, vor allem auf die Kameras und erst dann auf die Gesamtleistung des Handys. Da es rund um Kameras einige Unbekannte und viele technische Begriffe (Bildschirm, Sensoren, Objektive, Fokus...) gibt, ist es vielleicht an der Zeit, den Nebel um ihre Funktionsweise aufzuklären.
Alles dreht sich um Licht
Es ist überraschend (oder auch nicht), wie viele Parallelen wir zwischen der Kamera und unserem Auge herstellen können. In dunklen Räumen sind Augen und Kameras blind. Um ein Bild aufzunehmen, brauchen wir Licht. Doch das Licht wird oft in alle Richtungen gestreut. Unsere Augen haben Linsen, die Licht auf die Netzhaut lenken. Sogar die Kameras unserer Telefone verfügen über Objektive, die Lichtinformationen erfassen und aufzeichnen.
Auch Licht kann der Fotografie schaden, was am offensichtlichsten bei analogen Kameras ist, die Fotofilme verwenden. (Zu) lange Lichteinwirkung kann den Inhalt des Films zerstören. Die Erfindung der Blende löste dieses Rätsel. Bei analogen Kameras ist der Verschluss ein physikalischer Mechanismus, der sich schnell öffnet und schließt, um die Lichtmenge zu steuern, die den Film erreicht. Die Augenlider haben eine ähnliche Funktion.
Handys haben keinen physischen Auslöser, obwohl Sie beim Aufnehmen eines Fotos das charakteristische „Klick“-Geräusch hören. Dies ist lediglich ein Audioeffekt. Schalten Sie Ihr Handy auf lautlos, und der Ton verschwindet. Anstelle eines physischen Verschlusses verwenden Handykameras einen elektronischen Verschluss, der dasselbe bewirkt, jedoch mithilfe von Algorithmen statt einer physischen Bewegung. Einige Smartphones, wie z. B. Huawei Mate 50 Pro hingegen verfügt über eine Kamera mit einem physischen Verschluss, der zwischen voreingestellten Positionen bewegt werden kann.
Der Film ist noch nicht in Vergessenheit geraten. Es wird immer noch von Hobbyfotografen, professionellen Fotografen und sogar in der Filmindustrie verwendet. An anderer Stelle wurde es durch Sensoren ersetzt.
Warum haben Mobiltelefone unterschiedliche Objektive?
Sie haben wahrscheinlich schon einmal gesehen, wie ein professioneller Fotograf die Objektive seiner Kamera je nach Szene vor ihm wechselt. Smartphones sind technisch dazu in der Lage, wie Xiaomi mit seinem Konzepttelefon bewiesen hat. Xiaomi 12S Ultra-Konzept, aber es ist äußerst unpraktisch, und darüber hinaus ergeben sich neue Hindernisse, wie Probleme mit der Haltbarkeit, der Wasserbeständigkeit, dem hohen Preis und dergleichen. Hersteller haben daher als Lösung mehrere verschiedene Kameras vorgeschlagen – jede mit ihrem eigenen spezifischen Objektiv, zwischen denen je nach Bedarf einfach in der Kamera-App gewechselt werden kann. Heutzutage funktionieren die meisten Handykameras auf diese Weise.
Wenn Sie auf die Rückseite Ihres Telefons schauen, werden Sie zwei, drei oder sogar vier Objektive und eines auf dem Frontbildschirm bemerken. Jedes bietet einen anderen Blickwinkel, eine andere Tiefe und seine eigenen einzigartigen Funktionen. Das Hauptobjektiv ist verständlicherweise immer vorhanden. Eine Ultraweitwinkelkamera ist bei Mobiltelefonen ebenfalls mehr oder weniger Standard. Im unteren Bereich finden wir oft eine Makrokamera, während wir in Premium-Telefonen ein Teleobjektiv und ein Periskop-Teleobjektiv finden, wie das auf dem Samsung Galaxy S23 Ultra.
Welche Funktion hat das Objektiv?
Blende, Objektiv und Bildsensor hängen eng zusammen. Die Blende ist die Öffnung, die Sie physisch auf dem Kameraobjektiv sehen können. Wie bereits erwähnt, steuert die Blende, wie viel Licht das Objektiv und den Sensor erreicht. Im Allgemeinen ist eine größere Blende besser, da die Kamera dadurch mehr Lichtinformationen nutzen kann. Dies ist jedoch nicht unbedingt der beste Indikator für die Fotoqualität.
Wenn Sie sich die technischen Daten Ihres Telefons ansehen, werden Sie auf den Kameras eine Angabe für die Blendenzahl bemerken. Diese Blendenzahl gibt das Verhältnis der Brennweite zum physikalischen Durchmesser der Blende an. Je kleiner diese Zahl, desto größer die Blende. Zum Beispiel: vivo X90 Pro Es verfügt über ein Hauptobjektiv mit einer Blende von f/1.8 und einer Brennweite von 23 mm, ein Teleobjektiv mit f/1.6 (50 mm) und so weiter.
Es wird Ihnen schwerfallen, die Leistung von Telefonkameras mit der Brennweite zu vergleichen. Die Brennweite ist äußerst wichtig, aber auch für die Erzielung verschiedener Ästhetiken und visueller Effekte. Eine kürzere Brennweite ist für eine Weitwinkelperspektive gedacht – Objekte in der Nähe erscheinen größer. Eine längere Brennweite sorgt beispielsweise für ein proportionaleres und neutraleres Foto.
Wenn Licht in das Kameramodul eindringt, sammelt das Objektiv das einfallende Licht der Aufnahme und leitet es auf den Sensor. Smartphone-Kameras bestehen aus vielen Kunststofflinsen, sogenannten Elementen. Aufgrund der Natur des Lichts werden Licht unterschiedlicher Wellenlängen (Farben) beim Durchgang durch eine Linse in unterschiedlichen Winkeln gebrochen (gebeugt). Das bedeutet, dass die Farben Ihrer Szene nicht richtig auf den Kamerasensor projiziert werden. Kameras benötigen mehrere Linsen, um ein klares Bild ohne mögliche Unregelmäßigkeiten wie Fehlausrichtung und andere Effekte an den Sensor zu übertragen.
Wie funktioniert der Fokus bei Smartphone-Kameras?
Ironischerweise liegt die Fokussierung nicht im Fokus des Benutzers, da diese normalerweise von den Kameras selbst gesteuert wird. Bis zu einem gewissen Grad kann der Fokus manuell angepasst werden (abhängig vom Telefon), aber in den meisten Fällen erledigt die Software diese Aufgabe so gut, dass ein manueller Eingriff nicht erforderlich ist. Mobiltelefonkameras verwenden zum Fokussieren einen speziellen Sensor und/oder zusätzliche Hardware wie einen Laser-Entfernungsmesser.
Der Software-Autofokus ermittelt anhand der Daten des Bildsensors, ob das Bild scharf ist, und passt die Objektive entsprechend an. Die übliche Technik des passiven Autofokus basiert auf der Erkennung des Bildkontrasts und der Einstellung des Fokus, bis er sein Maximum erreicht. Diese Methode ist vollständig softwarebasiert und damit die günstigste Variante. Allerdings ist der Vorgang langsamer und funktioniert bei schlechten Lichtverhältnissen nicht so gut.
Neuere Telefone verwenden den Phasendetektions-Autofokus (PDAF), der schneller und präziser ist. Hier finden Sie die neuesten Spezifikationen iPhone 15 Pro Max Bei Kameras erkennt man die Bezeichnung PDAF. Diese stellt sicher, dass die gleiche Lichtmenge zwei eng beieinanderliegende Sensoren auf dem Bildsensor erreicht. Klassische PDAF-Systeme nutzen spezielle Fotosensoren auf dem Bildsensor, um das von der linken oder rechten Seite des Objektivs einfallende Licht zu messen. Registrieren die Fotosensoren auf der rechten Seite die gleiche Lichtintensität wie die auf der linken, ist das Bild scharf. Ist die Intensität nicht gleich, kann das System den erforderlichen Ausgleich für ein scharfes Bild berechnen – deutlich schneller als bei Systemen mit Kontrasterkennung.
Ältere PDAF-Systeme nutzen nur wenige Prozent aller Bildseiten, während neuere, wie das Galaxy S23 Ultra, alle 100 Prozent nutzen. Zur Fokussierung werden neben dem linken und rechten Bildpunkt auch der obere und untere Bildpunkt verwendet.
iPhones verfügen seit langem über einen speziellen LiDAR-Sensor, der den Fokus, die Tiefenwahrnehmung und Nachtaufnahmen verbessert und praktisch für Augmented Reality (AR)-Anwendungen ist.
Was ist ein Bildsensor?
Der Sensor ist im Grunde nur ein Siliziumwafer, von dem viel abhängt. Der Sensor empfängt Licht und wandelt es in elektrische Signale um. Ein Sensor kann mehrere Millionen Pixel haben. Wie kann man das herausfinden? Wenn Sie eine 100- oder 200-MP-Kamera sehen, bedeutet das, dass der betreffende Sensor 100 oder sogar 200 Megapixel hat. Erreicht das Licht des Objektivs den Bildpunkt nicht, registriert der Sensor diesen Bildpunkt als schwarz. Erhält der Bildpunkt viel Licht, wird er vom Sensor als weiß erfasst. Die Graustufen, die der Sensor registrieren kann, werden als Bittiefe bezeichnet.
Die meisten Telefone verfügen über eine 8-Bit-Tiefe, einige jedoch auch über eine 10-Bit-Tiefe. Im Vergleich dazu bedeutet eine 8-Bit-Tiefe, dass die Kamera 256 Farbtöne für jeden Primärfarbkanal erfassen kann, der zum Mischen des Farbspektrums (Rot, Grün und Blau) verwendet wird. Das sind 256 Rot-, Grün- und Blautöne. Insgesamt sind das 16,7 Millionen mögliche Farbtöne. 10-Bit-Kameras können mehr als eine Milliarde Farbtöne erfassen.
Wie nimmt eine Kamera ein Farbfoto auf? Jeder Pixel verfügt über einen Farbfilter, der nur bestimmte Farben durchlässt. Mit seltenen Ausnahmen, wie z. B. Huawei-Telefonen, die RYYB (gelbe statt grüne Filter) verwenden, ist das am häufigsten verwendete Farbfilter-Array das Bayer-Array, das jedes Quadrat (2×2) des Pixels in einen roten, einen blauen und zwei grüne (RGGB) Filter unterteilt.
Normalerweise summiert eine Kamera, die einen Satz Bayer-Filter verwendet, alle diese Farbdaten zu einem Wert, aber durch Pixel-Binning ist das nicht möglich. Die Hersteller brauchten eine Möglichkeit, jede Farbe einzeln zu erfassen.
Zu diesem Zweck entwarfen sie ein sogenanntes Quad-Bayer-Array, bei dem jeder Gruppe von Pixeln (2×2) eine einzelne Farbe zugewiesen wird. Vier davon werden dann – ähnlich wie beim ursprünglichen Bayer-Filter-Array – miteinander kombiniert: 2x Grün, 1x Blau, 1x Rot.
Das neue Set ermöglicht es Smartphone-Herstellern nicht nur, Farbdaten beim Kombinieren von Pixeln beizubehalten, sondern ermöglicht ihnen auch die Einführung anderer innovativer Funktionen wie des HDR-Modus.
Kommen wir zurück zu den Sensoren. Bei Sensoren muss man auf deren Größe und die Größe der Pixel selbst achten. Größere Sensoren können bessere Fotos aufnehmen, da sie mehr Pixel haben, die wiederum größer sind. In letzter Zeit sind Smartphones bzw. deren Kameras in die 1-Zoll-Welt vorgedrungen. Xiaomi 13 Pro Das vivo X90 Pro gehört beispielsweise zu den ersten Geräten mit 1-Zoll-Sensoren.
Pixel werden in Mikrometern (µm) gemessen. Größere Pixel können mehr Licht absorbieren, was für Nachtaufnahmen gut ist. Machen Sie sich keine Sorgen, wenn Ihr Telefon kleinere Pixel als andere Telefone hat. Außerhalb der Nachtfotografie wird es dennoch gute Ergebnisse liefern können. Selbst die besten Samsung-Handys haben mit kleineren Pixeln zu kämpfen. Das Galaxy S23 Ultra verfügt über einen 200-MP-Sensor mit 0,6 µm Pixeln, während das iPhone 15 Pro Max über einen 48 MP-Sensor mit 1,22 µm Pixeln verfügt. Daher haben Hersteller damit begonnen, die Pixel-Binning-Technologie einzusetzen. Das Galaxy S23 Ultra kombiniert 16 Pixel in einem, um Fotos mit einer Endauflösung von 12 MP aufzunehmen.
Optische und elektronische Stabilisierung
Für die Aufnahme guter Fotos und Videos ist auch die Stabilisierung wichtig: optisch oder elektronisch.
OIS ist eine Hardwarelösung, die ein Gyroskop eines mikroelektromechanischen Systems (MEMS) verwendet, um Bewegungen zu erkennen und das Kamerasystem entsprechend anzupassen. Beispiel: Wenn Sie ein Smartphone halten und Ihre Hand leicht nach links bewegt, erkennt das OIS-System dies und bewegt die Kamera leicht nach rechts. Dies ist besonders wichtig bei Nachtaufnahmen, wenn die Kamera lange braucht, um das Licht einzufangen, und Vibrationen während dieser Zeit die Qualität des Fotos beeinträchtigen können.
Die elektronische Bildstabilisierung (EIS) nutzt den Beschleunigungsmesser des Telefons, um Bewegungen zu erkennen. Anstatt Teile der Kamera zu bewegen, werden Bildausschnitte oder Beleuchtung verschoben. Da die Belichtungen auf der Grundlage des Bildinhalts und nicht des Bildsensorrahmens ausgerichtet werden, weist das endgültige Bild oder der endgültige Videoclip eine reduzierte Auflösung auf.
Was macht die Software?
Nachdem der Bildsensor das Licht in elektrische Signale umgewandelt hat, ist es die Aufgabe des Bildsignalprozessors (ISP), diese Zahlen in ein Bild umzuwandeln. Die Daten in elektrischen Signalen sind im Wesentlichen ein Schwarzweißbild. Der ISP muss zunächst die Farbdaten basierend auf einem Satz Farbfilter (Bayer oder etwas anderes) zurückgeben. Dadurch entsteht ein Bild, aber die Pixel haben unterschiedliche Intensitäten von Rot, Grün oder Blau. Darauf folgt die Farbrekonstruktion, bei der der ISP die Farben der Pixel basierend auf den Farben benachbarter Pixel ändert. Wenn beispielsweise in einem bestimmten Bereich viele grüne und rote Pixel und nur sehr wenige blaue Pixel vorhanden sind, werden diese von den Farbrekonstruktionsalgorithmen in Gelb umgewandelt.
ISP verfügt außerdem über Algorithmen zur Rauschunterdrückung und Schärfung nach der Farbrekonstruktion. Jedes Telefon verfügt dann über seine eigenen spezifischen Algorithmen zur Erstellung des endgültigen Fotos.
Wenn Sie das nächste Mal Ihr Telefon in die Hand nehmen, die Kamera einschalten und ein Foto aufnehmen, wissen Sie, was währenddessen im Hintergrund passiert ist. Das könnte Sie interessieren: Wie funktionieren Smartwatches? oder ihre Sensoren?