Die Kamera des Google Pixel und des Google Pixel XL hat seit ihrem Erscheinen viel Lob geerntet. Die Fotos gehören qualitativ zum Besten, was aktuell auf dem Smartphone-Markt zu haben ist. Das liegt neben der Sensor-Technik auch an einer besonderen Software, die ursprünglich für die Smart-Brille Google Glass entwickelt wurde.
Die Kamera des Google Pixel „ist eine der besten, die jemals hergestellt wurden“, hieß es letztes Jahr auf der Image-Rating-Website DxOMark. Bei der Hardware des Pixel setzt Google auf zwei verschiedene Hersteller: Die 12-MP-Hauptkamera bietet einen Sony-IMX278-Sensor, während die 8‑MP-Selfie-Kamera mit einem S5K4H8/Omnivision-OV8856-Sensor von Samsung arbeitet. Doch auch die Software überzeugt und schöpft die gebotene Technik aus. Kein Zufall, wie gizbot.com berichtet. Denn die Software wurde für ein Wearable entwickelt, bei dem der Platz für die Hardware begrenzt ist: Google Glass.
Google Pixel: Mehrere Bilder für den perfekten Schnappschuss
Googles Problem bei dem Wearable bestand in der Größe. Die Kamera sollte winzig sein, um auf dem Brillengestell möglichst wenig aufzutragen. Der Sensor für Google Glass war entsprechend kleiner als jene, die in Smartphones genutzt werden. Also entwickelten die Google-Ingenieure die Software Gcam, um den kleinen Sensor auszugleichen. Das Entwicklungs-Projekt begann laut 9to5google.com 2011, die Software feierte ihr Glass-Debüt 2013. Als HDR+ tauchte die Funktion im Smartphone-Sektor beim Nexus 5 und 6 als zusätzliches Feature auf. Im Google Pixel und Google Pixel XL ist HDR+ nun das erste Mal als Default-Modus voreingestellt und arbeitet ähnlich wie HDR: Es werden mehrere Varianten ein- und desselben Fotos geschossen und anschließend zu einem Foto zusammengesetzt. Die Technologie soll demnächst auch auf anderen Android-Geräten sowie bei Apps wie YouTube und Google Photos zum Einsatz kommen.