In der Theorie erhalten Besitzer eines iPhone 11 oder iPhone 11 Pro schon bald Deep Fusion als neues Kamera-Feature. Die Funktion, die per Softwareverarbeitung mit dem Neuralnetz-System des A13-Prozessors bessere Bilder ermöglichen soll, kommt mit iOS 13.2 in der Beta zu den Nutzern. Der Release dieses Updates für Entwickler hat sich allerdings verzögert.
Deep Fusion soll mithilfe der dedizierten Hardware des A13 mit seiner Bionic Engine funktionieren. Das neue Feature wird bei Fotos mit den neuesten iPhones immer aktiv sein, schreibt unter anderem MacRumors. Vor allem für Fotos innerhalb von Gebäuden und bei geringem Außenlicht sorgt die KI dann für eine bessere Bildqualität. Das funktioniert, indem das gesamte Bild direkt Pixel für Pixel analysiert wird, um Textur und Details zu verbessern. Die Analyse sorgt gleichzeitig dafür, Störungen zu minimieren.
Deep Fusion soll immer aktiv sein und sich nur dann abschalten, wenn viel Licht auf eine Aufnahme – etwa der Weitwinkel-Linse – fällt. Dann schaltet die Kamera-App automatisch auf Smart HDR um. Bei geringerem Licht und Bildern mit der Telefoto-Linse hingegen ist Deep Fusion künftig Standard.
Im Gegensatz zum Nachtmodus soll der Nutzer das Feature gar nicht ein- und ausschalten können – Apple geht davon aus, dass es für alle Fotos nützlich und sinnvoll sein wird. Die Verarbeitung dauert dann allerdings eine volle Sekunde – in dieser Zeit gibt es vom Foto erst einmal nur eine Vorschau zu sehen.
Eigentlich hätte Apples Deep Fusion bereits in dieser Woche mit der Entwickler-Beta von iOS 13.2 ersten Nutzern zur Verfügung stehen sollen. Der Release des Updates hat sich nun allerdings verzögert. Es sollte dieser Tage kommen und dann, so hofft Apple, eine weitere Revolution in Sachen Smartphone-Fotografie einläuten.