Am Mittwoch wurde mit der Veröffentlichung des visionOS SDK ein wichtiger Schritt zur Umsetzung des Apple Vision Pro-Headsets von einer Ankündigung in ein Versandprodukt unternommen. Dieses Paket enthält die Software-Tools, die Entwickler verwenden werden, um Anwendungen für das AR-Headset zu schreiben, das Apple bereits in diesem Monat vorgestellt hat.
Zudem kündigte Apple an, in Kürze Entwicklerlabore auf der ganzen Welt zu eröffnen, um Codern die Möglichkeit zu geben, Vision Pro hautnah zu erleben, das jedoch erst 2024 auf den Markt kommt.
Apple veröffentlicht visionOS SDK für Entwickler
Das Headset ist Apples erster Schritt in das, was das Unternehmen „Spatial Computing“ nennt. Vision Pro konzentriert sich auf erweiterte Realität, bei der computergenerierter Inhalt auf die reale Welt überlagert wird. Konkurrenten wie das Meta Quest 3 sehen ähnlich aus, konzentrieren sich jedoch auf virtuelle Realität, die die reale Welt vollständig ersetzt. Zudem bietet das kommende Apple-Headset Funktionen, die es auszeichnen, wie einen nach vorne gerichteten Bildschirm, auf dem das Gesicht des Trägers angezeigt werden kann.
Jetzt, da das visionOS SDK verfügbar ist, können Entwickler mit dem Schreiben von Apps für das Gerät beginnen, die wahrscheinlich entscheidend für den Erfolg oder Misserfolg des Headsets sein werden.
„Apple Vision Pro definiert neu, was auf einer Computing-Plattform möglich ist“, sagte Susan Prescott, Apples Vice President of Worldwide Developer Relations, in einer Erklärung am Mittwoch. „Entwickler können damit beginnen, visionOS-Apps mithilfe der leistungsstarken Frameworks zu erstellen, die sie bereits kennen, und ihre Entwicklung mit neuen innovativen Tools und Technologien wie Reality Composer Pro weiter vorantreiben, um völlig neue Erfahrungen für ihre Nutzer zu gestalten. Durch die Nutzung des Raums um den Benutzer herum eröffnet Spatial Computing unseren Entwicklern neue Möglichkeiten und ermöglicht es ihnen, sich neue Wege vorzustellen, wie sie ihren Nutzern bei der Vernetzung, Produktivität und Unterhaltung helfen können. Wir sind gespannt, was unsere Entwicklergemeinschaft sich einfallen lässt.“
Gleich, aber anders
Viele der Tools, die zur Erstellung von visionOS-Anwendungen verwendet werden, werden den aktuellen Apple-Entwicklern bekannt sein. Das SDK verwendet Xcode, SwiftUI, RealityKit, ARKit und TestFlight.
Das bedeutet, dass nicht jede App für das Headset neu geschrieben werden muss. Apples Entwicklernotizen für das AR-Headset besagen: „visionOS unterstützt die meisten Technologien wie iOS, sodass viele Apps, die für das iPad oder iPhone entwickelt wurden, unverändert auf visionOS-Geräten ausgeführt werden können“.
Aber ein AR-Headset bringt natürlich seine eigenen speziellen Bedürfnisse und Möglichkeiten mit sich. Der von Prescott erwähnte neue Reality Composer Pro ermöglicht es Entwicklern, 3D-Modelle, Animationen, Bilder und Sounds zu überprüfen und vorzubereiten.
Eröffnung der Vision Pro Entwicklerlabore
Mit der Veröffentlichung von Vision Pro noch so weit entfernt, benötigen Entwickler Zugang zum Produkt, um ihre Anwendungen zu testen. Das visionOS SDK enthält zwar einen visionOS Simulator, aber das wird wahrscheinlich von begrenztem Nutzen sein. Apples Lösung ist eine Reihe von Entwicklerlaboren mit der AR-Brille.
Das Unternehmen hat zugesagt, diese in Cupertino, London, München, Shanghai, Singapur und Tokio zu eröffnen. Die Türen werden im Juli geöffnet sein.
Welches Tool steht den Entwicklern zur Verfügung, um Apps für das Apple Vision Pro-Headset zu schreiben?
Das visionOS SDK bietet den Entwicklern die nötigen Software-Tools, um Apps für das Apple Vision Pro-Headset zu schreiben.
- Passe das Control Center auf dem Vision Pro an, um es nützlicher und weniger störend zu machen - 16. Februar 2024
- Wie man die Augen- und Handverfolgung bei Vision Pro repariert - 16. Februar 2024
- Wie lade ich den Akku meiner Vision Pro auf? - 15. Februar 2024