Anzeige schließen

Die dritte Entwickler-Betaversion des Systems iOS 13 verbirgt viele neue Gadgets. Eine davon ist die automatische Augenkontaktkorrektur. Der Gesprächspartner hat dann den Eindruck, dass Sie ihm direkt in die Augen schauen.

Wenn Sie nun mit jemandem ein FaceTime-Gespräch führen, kann der andere Teilnehmer sehr oft sehen, dass Sie den Blick gesenkt haben. Das liegt daran, dass sich die Kameras nicht direkt im Display, sondern am oberen Rand darüber befinden. Allerdings wartet Apple mit iOS 13 auf eine unkonventionelle Lösung, bei der das neue ARKit 3 eine führende Rolle spielt.

Das System passt die Bilddaten nun in Echtzeit an. Auch wenn Ihr Blick nach unten gerichtet ist, zeigt Ihnen iOS 13, als ob Sie der anderen Person direkt in die Augen schauen würden. In den sozialen Netzwerken sind bereits mehrere Entwickler aufgetaucht, die das neue Feature getestet haben.

Einer von ihnen war beispielsweise Will Sigmon, der klare Fotos lieferte. Das linke Foto zeigt die Standardsituation bei FaceTime unter iOS 12, das rechte Foto zeigt die automatische Korrektur durch ARKit in iOS 13.

iOS 13 kann Augenkontakt während FaceTime korrigieren

Die Funktion nutzt ARKit 3, sie wird für das iPhone X nicht verfügbar sein

Mike Rundle, der auf Abruf war, ist mit dem Ergebnis zufrieden. Darüber hinaus ist es eines der Merkmale, die er bereits 2017 vorhergesagt hat. Interessant ist übrigens seine gesamte Liste der Vorhersagen:

  • Das iPhone wird in der Lage sein, 3D-Objekte in seiner Umgebung durch kontinuierliches Scannen des Weltraums zu erkennen
  • Eye-Tracking, das es Software ermöglicht, Bewegungen vorherzusagen und die Benutzeroberfläche des Systems mit Augenbewegungen zu steuern (Apple kaufte 2017 SensoMotoric Instruments, das in diesem Bereich als führend gilt)
  • Biometrische und Gesundheitsdaten, die durch Scannen des Gesichts gewonnen werden (wie ist der Puls der Person usw.)
  • Erweiterte Bildbearbeitung, um beispielsweise bei FaceTime direkten Blickkontakt zu gewährleisten (was jetzt geschehen ist)
  • Maschinelles Lernen wird es dem iPhone nach und nach ermöglichen, Objekte zu zählen (die Anzahl der Personen im Raum, die Anzahl der Bleistifte auf dem Tisch, wie viele T-Shirts ich in meinem Kleiderschrank habe …)
  • Sofortige Messung von Objekten, ohne dass ein AR-Lineal verwendet werden muss (wie hoch ist die Wand, ...)

Unterdessen bestätigte Dave Schukin, dass iOS 13 ARKit verwendet, um den Augenkontakt zu korrigieren. Bei langsamerer Wiedergabe kann man beobachten, wie sich die Brille plötzlich verzerrt, bevor sie auf die Augen gesetzt wird.

Entwickler Aaron Brager fügt dann hinzu, dass das System eine spezielle API nutzt, die nur in ARKit 3 verfügbar und auf die neuesten iPhone XS/XS Max- und iPhone XR-Modelle beschränkt ist. Das ältere iPhone X unterstützt diese Schnittstellen nicht und die Funktion wird darauf nicht verfügbar sein.

Source: 9to5Mac

.