Auf der WWDC 2018 im Juni hat Apple ARKit 2 vorgestellt. Die Erweiterung der Augmented Reality-Bibliothek bieten zusätzlich zu den „alten“ Funktionen einige neue Möglichkeiten, von denen hier eine kleine Auswahl und deren Anwendungsbereiche vorgestellt werden:
ImageDetection
- Beispiel: An einer Wand hängen Urlaubsfotos. Die App erfasst die Fotos und blendet über jedem Bild einen Beschreibungstext oder ein dazu passendes Video ein.
- Vorbereitung: Die Urlaubsfotos müssen als ARReferenceImage in der App vorliegen. (Foto als CGImage und die Originalmaße des Fotos werden benötigt).
- Link: https://developer.apple.com/documentation/arkit/recognizing_images_in_an_ar_experience
ObjectDetection
- Beispiel: In einem Möbelhaus stehen verschieden Möbel. Die App erfasst diese und zeigt dem Nutzer Zusatzinfos.
- Vorbereitung: Die Möbel müssen vorher gescannt werden und als ARReferenceObject in der App vorliegen. Zum Scannen von Gegenstände (und der Generierung von ARReferenceObjects) bietet Apple Beispielcode an.
- Link: https://developer.apple.com/documentation/arkit/scanning_and_detecting_3d_objects
ARWorldSharing
- Beispiel: Nutzer A platziert in einem Raum ein 3D-Objekt und teilt die ARWorldMap. Somit können andere Nutzer, die auch in diesen Raum gehen das von Nutzer A platzierte Objekt sehen.
- Vorbereitung: Die Nutzer müssen auf irgendeine Art und Weise die ARWorldMap untereinander teilen. In Apples Beispiel wird dazu die Technologie des MultipeerConnectivity-Frameworks (Bonjour) verwendet.
- Link: https://developer.apple.com/documentation/arkit/creating_a_multiuser_ar_experience
Voraussetzungen Augmented Reality
Um Augmented Reality auf dem iPhone oder iPad zu verwenden, wird mindestens ein A9-Chip benötigt. Verbaut sind diese ab dem iPhone 6s. Außerdem muss mindestens iOS 11 installiert sein.