- Das Pixel 8A beeindruckt für 500 Dollar, aber die Real Tone-Funktion liefert gemischte Ergebnisse im Vergleich zu Konkurrenzprodukten.
- Florian Koenigsberger und sein Team verbessern kontinuierlich die Bildverarbeitungsalgorithmen von Real Tone.
- In der digitalen Ära bestehen weiterhin Herausforderungen bei der korrekten Belichtung dunkler Hauttöne.
- Das Pixel 9 macht signifikante Fortschritte bei der Hautfarbenerkennung und der Belichtung von Gesichtern in Fotos und Videos.
- Google integriert zunehmend generative Künstliche Intelligenz in ihre Kameras, um die Bildbearbeitung zu revolutionieren.
Google’s mittleres Smartphone, das Pixel 8A, liefert für 500 Dollar eine beachtliche Leistung, jedoch war die Real Tone-Funktion, die genauere Hauttöne insbesondere bei Menschen mit dunklerer Haut verspricht, ein zweischneidiges Schwert. Als meine Familie und ich Selfies verglichen, stellten wir fest, dass andere Telefone im selben Preissegment bessere Ergebnisse lieferten. Florian Koenigsberger und sein Team haben seit der Einführung von Real Tone kontinuierlich an der Optimierung der Bildverarbeitungsalgorithmen gearbeitet. Real Tone im neuesten Modell soll seit dem Launch die bedeutendsten Verbesserungen mit sich bringen.
Filmgeschichte und Technik
In der Mitte bis späten 1900er Jahren war die korrekte Belichtung dunkler Hauttöne für Kamerasysteme kaum eine Priorität. Kodaks Shirley Card, die als Standard zur Kalibrierung der Farbentwicklung diente, war ein wichtiger Faktor für diesen Missstand. Viele Probleme wurden in der digitalen Ära zwar angegangen, aber es gibt nach wie vor Kritik. Beispielsweise hatten HP-Webcams Schwierigkeiten, eine schwarze Person zu erkennen, während eine weiße Frau problemlos erkannt wurde.
Für Koenigsberger, dessen Vater weißer Deutscher und dessen Mutter eine dunkelhäutige Jamaikanerin ist, hat Real Tone eine besondere Bedeutung. “Eine anständige Familienfoto zu bekommen, war auf jedem Gerät historisch gesehen schwierig,” sagt er. “Jedes Jahr erlebe ich das hautnah zu Hause.” Die Tests zur Verfeinerung der Algorithmen finden in einem kleinen Fotostudio in Brooklyn statt. Die Technik im Studio, einschließlich sprachgesteuerter Lichter und Google Wi-Fi, ermöglicht es, verschiedene Lichtbedingungen nachzustellen, um die Real Tone-Algorithmen zu verfeinern.
Algorithmische Feinheiten
Das Team schießt Fotos von Modellen mit unterschiedlichsten Ethnien und Hauttönen. Das Ziel ist es, eine möglichst genaue Darstellung der Hautfarbe zu erzielen. Koenigsberger erwähnt, dass hierbei auch hellere Hauttöne verbessert werden. Im neuen Pixel 9 bietet Real Tone einige der bedeutendsten Fortschritte seit seiner Einführung. Eine der markanten Verbesserungen ist die Belichtung von Gesichtern in Videos und Fotos. So werden beispielsweise bei Gegenlichtsituationen die Gesichtszüge dunkler Menschen besser sichtbar und es gibt weniger extreme Belichtungswechsel.
Ein weiteres Beispiel ist die Aufnahme einer Person, die eine Maske trägt. Die Hauttöne der Pixel 9 Pro bleiben stabiler und es gibt weniger drastische Belichtungsveränderungen. Der Algorithmus zur automatischen Weißabgleichssegmentation sorgt dafür, dass die Farben der Menschen im Foto nicht durch die Umgebung beeinflusst werden. Dies führt zu einer genauereren Darstellung der tatsächlichen Hauttöne.
Technologische Evolution
Das Pixel 9 ist das erste Google-Gerät, dessen Hautfarbenerkennung vollständig mit der 10-farbigen Skala übereinstimmt, die eine breite Palette von Hauttönen repräsentiert. Dies ermöglicht sehr feine Farbkorrekturen. Zudem wurde Real Tone auf alle “Hero”-Funktionen der Pixel-Serie angewendet. Koenigsberger hofft, dass die Skalierung dieses Prozesses dazu beiträgt, die Real Tone-Technologie zu einer festen Größe in Googles Betriebsphilosophie zu machen.
Isaac Reynolds, Produktmanager für die Pixel-Kamera seit der Einführung des ersten Pixels im Jahr 2015, erkennt die Bedeutung der neuen technologischen Fortschritte für die Erfassung von Erinnerungen an. Laut Reynolds verschiebt sich der Fokus zunehmend auf spezifische Szenarien anstatt auf allgemeine Kameraerlebnisse. Zum Beispiel ermöglicht die “Add Me”-Funktion, dass zwei Personen nacheinander Bilder machen, die dann kombiniert werden, als ob beide zusammen auf dem Foto stehen würden. Die Überarbeitung des Panoramamodus und die Integration der HDR+ Technologie sorgen für bessere Nachtaufnahmen und nahtlose Bildqualität.
KI-gesteuerte Funktionen
Die Kamera von heute ist mehr als ein simples Werkzeug zur Aufnahme von Bildern. Google integriert zunehmend generative Künstliche Intelligenz in ihre Geräte. Funktionen wie der “Magic Editor” ermöglichen es, den Bildinhalt nachträglich zu ändern, indem Objekte eingefügt oder die Tageszeit gewechselt wird. Für Reynolds und das Google-Kamera-Team geht es darum, die Erinnerung festzuhalten und nicht um die technische Perfektion des Fotos.
Das Beispiel einer “Nicht-Kamera” eines MIT-Professors umfasst nur einen Knopf, der den Standort und die Zeit aufzeichnet und ein Bild generiert, indem es diese Daten nutzt, um die Szene zu rekonstruieren. Solche Entwicklungen könnten die Fotografie, wie wir sie kennen, revolutionieren. Dennoch glaubt Reynolds, dass wir zunehmend in der Lage sein werden, schöne Erinnerungen leichter festzuhalten. Dies könnte zu einer glücklicheren Nutzerbasis führen, die ihre Erinnerungen genauso erleben, wie sie diese im Gedächtnis behalten haben.