Anzeige schließen

iPhone 11 und iPhone 11 Pro (Max) sind seit der zweiten Woche im Angebot, aber ihnen fehlt immer noch eine der interessantesten Funktionen – Deep Fusion. Aktuellen Berichten zufolge hat Apple die Funktion jedoch bereit und wird sie bald in der kommenden Beta-Version von iOS 13 anbieten, höchstwahrscheinlich in iOS 13.2.

Deep Fusion ist der Name des neuen Bildverarbeitungssystems für die iPhone 11 (Pro)-Fotografie, das die Fähigkeiten des A13 Bionic-Prozessors, insbesondere der Neural Engine, voll ausnutzt. Mit Hilfe von maschinellem Lernen wird das aufgenommene Foto Pixel für Pixel verarbeitet und so Texturen, Details und mögliches Rauschen in jedem Teil des Bildes optimiert. Die Funktion erweist sich daher insbesondere beim Fotografieren in Gebäuden oder bei mittlerer Beleuchtung als nützlich. Es wird völlig automatisch aktiviert und der Benutzer kann es nicht deaktivieren – er weiß praktisch nicht einmal, dass Deep Fusion in der jeweiligen Situation aktiv ist.

Das Aufnehmen eines Fotos wird mit Deep Fusion nicht anders sein. Der Benutzer drückt einfach den Auslöser und wartet kurz, bis das Bild erstellt wird (ähnlich wie bei Smart HDR). Obwohl der gesamte Vorgang nur etwa eine Sekunde dauert, schafft das Telefon bzw. der Prozessor eine Reihe komplexer Vorgänge.

Der gesamte Prozess ist wie folgt:

  1. Noch bevor Sie den Auslöser der Kamera drücken, werden im Hintergrund drei Bilder mit kurzer Belichtungszeit aufgenommen.
  2. Anschließend werden beim Drücken des Auslösers im Hintergrund drei weitere klassische Fotos aufgenommen.
  3. Unmittelbar danach macht das Telefon ein weiteres Foto mit Langzeitbelichtung, um alle Details einzufangen.
  4. Ein Trio aus klassischen Fotos und einem Langzeitbelichtungsfoto werden zu einem Bild kombiniert, das Apple als „synthetische Langzeitaufnahme“ bezeichnet.
  5. Deep Fusion wählt die einzelne Kurzbelichtungsaufnahme mit der besten Qualität aus (wählt aus den drei Aufnahmen aus, die vor dem Drücken des Auslösers aufgenommen wurden).
  6. Anschließend wird der ausgewählte Frame mit dem erstellten „synthetischen Long“ kombiniert (zwei Frames werden also zusammengeführt).
  7. Die Zusammenführung der beiden Bilder erfolgt in einem vierstufigen Verfahren. Das Bild entsteht Pixel für Pixel, Details werden hervorgehoben und der A13-Chip erhält Anweisungen, wie genau die beiden Fotos zusammengefügt werden sollen.

Obwohl der Vorgang recht komplex ist und zeitaufwändig erscheinen mag, dauert er insgesamt nur wenig länger als die Aufnahme eines Bildes mit Smart HDR. Dadurch wird dem Nutzer direkt nach dem Drücken des Auslösers zunächst ein klassisches Foto angezeigt, das jedoch kurz darauf durch ein detailliertes Deep Fusion-Bild ersetzt wird.

Beispiele von Deep Fusion- (und Smart HDR-)Fotos von Apple:

Es ist zu beachten, dass die Vorteile von Deep Fusion hauptsächlich vom Teleobjektiv genutzt werden, aber auch bei Aufnahmen mit einem klassischen Weitwinkelobjektiv wird sich die Neuheit als nützlich erweisen. Im Gegensatz dazu unterstützt das neue Ultraweitwinkelobjektiv Deep Fusion überhaupt nicht (und auch keine Nachtfotografie) und verwendet stattdessen Smart HDR.

Das neue iPhone 11 wird somit drei verschiedene Modi bieten, die unter unterschiedlichen Bedingungen aktiviert werden. Wenn die Szene zu hell ist, verwendet das Telefon Smart HDR. Deep Fusion wird bei Innenaufnahmen und bei mäßig schlechten Lichtverhältnissen aktiviert. Sobald Sie abends oder nachts bei wenig Licht fotografieren, wird der Nachtmodus aktiviert.

iPhone 11 Pro Rückkamera FB

Quelle: The Verge

.