Anzeige schließen

Letzte Woche stellte Apple mehrere neue Produkte vor, darunter das neue iPad Pro. Neben einem neuen (und etwas leistungsstärkeren) SoC und einer erhöhten Betriebsspeicherkapazität bietet es auch ein aktualisiertes Kamerasystem, das durch einen neuen LIDAR-Sensor ergänzt wird. Auf YouTube ist ein Video aufgetaucht, das anschaulich zeigt, was dieser Sensor kann und wofür er in der Praxis eingesetzt wird.

LIDAR steht für Light Detection And Ranging und wie der Name schon sagt, zielt dieser Sensor darauf ab, den Bereich vor der Kamera des iPads durch Laserscannen der Umgebung abzubilden. Das kann man sich nur schwer vorstellen, und ein neu veröffentlichtes YouTube-Video, das Echtzeit-Mapping in Aktion zeigt, hilft dabei.

Dank des neuen LIDAR-Sensors ist das iPad Pro in der Lage, die Umgebung besser zu kartieren und zu „lesen“, wo sich alles in der Umgebung befindet, wobei das iPad als Mittelpunkt des kartierten Bereichs gilt. Dies ist insbesondere im Hinblick auf die Nutzung von Anwendungen und Funktionen, die für Augmented Reality konzipiert sind, von großer Bedeutung. Denn sie können die Umgebung besser „lesen“ und können den Raum, in den Dinge aus der Augmented Reality projiziert werden, deutlich genauer und gleichzeitig besser nutzen.

Der LIDAR-Sensor hat noch keinen großen Nutzen, da die Möglichkeiten von Augmented Reality in Anwendungen noch relativ begrenzt sind. Es ist jedoch der neue LIDAR-Sensor, der maßgeblich dazu beitragen dürfte, dass AR-Anwendungen deutlich verbessert und unter normalen Nutzern verbreitet werden. Darüber hinaus ist zu erwarten, dass LIDAR-Sensoren auf die neuen iPhones ausgeweitet werden, was die Nutzerbasis deutlich vergrößern wird, was Entwickler umso mehr zur Entwicklung neuer AR-Anwendungen motivieren dürfte. Davon können wir nur profitieren.

.