Vollständige Spezifikationen, Funktionen und Details zu Apple Vision Pro

Vollständige Spezifikationen, Funktionen und Details zu Apple Vision Pro

Heute hat Apple endlich Vision Pro vorgestellt, sein 3500 US-Dollar teures AR/VR-Headset, das 2024 auf den Markt kommt. Hier finden Sie eine Übersicht über die vollständigen Spezifikationen und Funktionen.

VisionPro ist ein Ultra-High-End-Headset mit der höchsten Auflösung und den meisten Sensoren, die es je in einem AR/VR-Produkt gab. Es führt neue Funktionen ein, die noch nie zuvor veröffentlicht wurden, und sein visionOS überdenkt die Grenze zwischen 2D, AR und VR neu.

Leichtes Design mit angeschlossenem Akku

Vision Pro verfügt über einen maßgeschneiderten, leichten Rahmen aus Aluminiumlegierung, der eine gebogene „dreidimensional geformte“ Frontplatte aus laminiertem Glas trägt, um ein dünnes Design zu erreichen.

Vollständige Spezifikationen, Funktionen und Details zu Apple Vision Pro PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Was das Vision Pro außerdem leicht macht, ist die Trennung des Akkus vom Headset. Einige andere Headsets mögen MetaQuest Pro und Pico 4 haben ihre Batterie auf der Rückseite des Kopfbands, aber das Design von Apple nimmt sie Ihnen komplett vom Kopf ab, mit einer externen Batterie, die an einen magnetischen Anschluss auf der linken Seite des Kopfbands befestigt ist.

Apple gibt an, dass der externe Akku unter den folgenden Testbedingungen 2 Stunden gehalten hat:

Videowiedergabe, Surfen im Internet, räumliche Videoaufnahme und FaceTime. Die Videowiedergabe wurde in Verbindung mit einer Umgebung getestet, wobei 2D-Filminhalte verwendet wurden, die über die Apple TV-App gekauft wurden. Das Surfen im Internet wurde anhand von 20 beliebten Websites getestet. FaceTime wurde zwischen zwei Apple Vision Pro-Geräten mit aktivierten Personas getestet. Getestet mit WLAN, das mit einem Netzwerk verbunden ist.

Alternativ kann Vision Pro dauerhaft ohne Batterie verwendet werden, indem es an eine Stromquelle angeschlossen wird. Welche Quellen unterstützt werden und ob der Adapter dafür im Lieferumfang enthalten ist, hat Apple bislang nicht näher erläutert.

Eine Fülle von Kameras und Sensoren

Vision Pro verfügt über insgesamt zwölf Kameras, vier Tiefensensoren, einen LiDAR-Sensor und sechs Mikrofone.

Passthrough-AR

Sechs der zwölf Kameras befinden sich unter der Frontscheibe.

Zwei dieser sechs erfassen hochauflösende Farben, um die Passthrough-Ansicht des Headsets auf die reale Welt zu ermöglichen und „über eine Milliarde Farbpixel pro Sekunde“ zu streamen.

Die anderen vier Frontkameras übernehmen die Positionsverfolgung des Headsets und andere allgemeine Computer-Vision-Aufgaben.

Handverfolgung

Ein Zweck der vier Tiefensensoren ist die Handverfolgung. Apple beschreibt die Qualität der Handverfolgung als „so präzise, ​​dass Ihre Hände völlig von der Notwendigkeit umständlicher Hardware-Controller befreit sind.“

Vision Pro verfügt über keine verfolgten Controller, unterstützt jedoch das Spielen von 2D-Spielen auf einem virtuellen Bildschirm mit einem Gamepad.

Umgebungsvernetzung

Der LiDAR-Sensor wird verwendet, um in Verbindung mit den anderen Frontkameras eine „Echtzeit-3D-Kartierung“ Ihrer Umgebung durchzuführen.

Apple behauptet, dass Vision Pro über ein „detailliertes Verständnis“ Ihrer Böden, Wände, Oberflächen und Möbel verfügt, das Apps nutzen können. Ein Beispiel, das Apple anführte, waren virtuelle Objekte, die Schatten auf reale Tische warfen, aber das kratzt nur an der Oberfläche dessen, was möglich sein sollte.

Gesichts- und Augenverfolgung für FaceTime und mehr

Zwei nach unten gerichtete Kameras verfolgen Ihr Gesicht, während vier interne IR-Kameras daneben Ihre Augen verfolgen, unterstützt durch einen Ring aus LED-Beleuchtungen um die Linsen.

Das Eye-Tracking von Vision Pro dient drei Zwecken: Authentifizierung, Foveated-Rendering und Steuerung Ihres FaceTime-Avatars.

Apple nennt seine neue Iris-Scan-Authentifizierung OpticID und folgt damit dem Namensschema von TouchID und FaceID seiner anderen Geräte. Mit OpticID entsperren Sie Vision Pro und es funktioniert auch mit Apple Pay-Käufen und dem automatischen Ausfüllen von Passwörtern. Wie bei TouchID und FaceID werden die biometrischen Daten, die OpticID zugrunde liegen, auf dem Gerät von einem Secure Enclave Processor verarbeitet.

Beim Foveated-Rendering handelt es sich um eine Technik, bei der nur der kleine Bereich des Displays, den Ihre Augen gerade betrachten, in voller Auflösung gerendert wird, wodurch Leistung freigesetzt wird, da der Rest eine niedrigere Auflösung aufweist. Freigewordene GPU-Ressourcen können für eine bessere Leistung, eine höhere Rendering-Auflösung oder eine Erhöhung der Grafikeinstellungen genutzt werden. Es macht sich die Tatsache zunutze, dass unsere Augen nur in der Mitte der Fovea mit hoher Auflösung sehen.

Schließlich wird Eye-Tracking mit den nach unten gerichteten Kameras kombiniert, um Ihre Gesichtsausdrücke in Echtzeit zu verfolgen und so Ihre FaceTime Persona, Apples Version fotorealistischer Avatare, zu steuern. Meta war Seit über vier Jahren prahlen wir mit der diesbezüglichen Forschung, aber es sieht so aus, als ob Apple der Erste sein wird, der dies ausliefert – wenn auch nicht in der gleichen Qualität wie Metas Forschung.

R1-Chip für extrem niedrige Latenz

Um die Eingaben all dieser Kameras, Sensoren und Mikrofone zusammenzuführen, hat Apple einen benutzerdefinierten Chip namens R1 entwickelt.

Vollständige Spezifikationen, Funktionen und Details zu Apple Vision Pro PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Apple behauptet, dass R1 „Verzögerungen praktisch eliminiert und neue Bilder innerhalb von 12 Millisekunden auf die Displays streamt“.

Zum Vergleich der Gründer des französischen Headset-Startups Lynx aus aller Welt Die Passthrough-Latenz von Meta Quest Pro beträgt 35–60 Millisekunden. Es ist jedoch unklar, ob es sich hierbei um einen vergleichbaren Vergleich handelt.

AR-VR Digitale Krone

Vision Pro verfügt nur über zwei physische Bedienelemente, beide oben. Eine Schaltfläche zum jederzeitigen Aufnehmen von „räumlichen Videos“ und „räumlichen Fotos“ und eine digitale Krone.

Durch Drücken der Digital Crown wird die Home-Ansicht des Systems aufgerufen. Aber durch Drehen steuern Sie den Grad der Immersion, von vollständiger AR bis hin zu vollständiger VR. Wenn Sie beispielsweise die halbe Strecke zurücklegen, sehen Sie VR vor sich und AR hinter sich.

Bei vorhandenen Headsets wie Meta Quest und Pico 4 ist Passthrough eine Umschaltoption, was bedeutet, dass Sie zwischen vollständiger und keiner Immersion wählen müssen. Stattdessen möchte Apple Ihnen die Möglichkeit geben, genau zu entscheiden, wie sehr Sie sich auf Ihre reale Umgebung einlassen möchten.

Sehkraft und Personenbewusstsein

Eine völlig einzigartige Funktion von Vision Pro ist ein externes Display, das Ihre Augen den anderen Personen im Raum zeigt und anzeigt, wie aufmerksam Sie auf sie sind. Apple nennt diese Technologie EyeSight.

Wenn Sie sich in einer AR-App befinden, zeigt EyeSight ein farbiges Muster vor Ihren Augen, und wenn Sie sich in einer VR-App befinden, zeigt es nur das Muster, ohne dass Ihre Augen unsichtbar sind.

Wenn sich Ihnen jemand nähert, zeigt Vision Pro einen Ausschnitt der Person und EyeSight zeigt der Person Ihre Augen.

Apple bezeichnete es als eines seiner „grundlegenden Designziele“ für Vision Pro, sicherzustellen, dass Sie „niemals von den Menschen um Sie herum isoliert“ sind, und das Unternehmen sieht darin ein klares Unterscheidungsmerkmal zu völlig undurchsichtigen Headsets wie Meta Quests.

Micro-OLED-Displays mit insgesamt 23 Millionen Pixeln

Vision Pro verfügt über zwei Micro-OLED-Panels mit beispielloser Pixeldichte. Apple sagt, jedes sei „so groß wie eine Briefmarke“, doch zusammen hätten sie 23 Millionen Pixel, also weniger als wurde gemunkelt.

Apple hat die genaue Auflösung nicht bekannt gegeben, aber 23 Millionen Gesamtpixel würden eine Auflösung pro Auge von etwa 3400 x 3400 für ein quadratisches Seitenverhältnis oder etwa 3200 x 3600 für das normalerweise in Headsets verwendete Seitenverhältnis von 9:10 bedeuten. Das genaue Seitenverhältnis von Vision Pro kennen wir jedoch nicht.

Apple bestätigte, dass die Displays des Vision Pro einen großen Farbraum und einen hohen Dynamikbereich unterstützen, gab jedoch keine detaillierten Spezifikationen wie die Spitzenhelligkeit bekannt.

M2-Chip für „beispiellose“ Leistung

Vision Pro wird von demselben Apple Silicon M2-Chip angetrieben, der auch in neueren Macs verwendet wird.

Apple sagt, dass dies eine „beispiellose Standalone-Leistung“ liefert und es Vision Pro ermöglicht, „eine angenehme Temperatur aufrechtzuerhalten und praktisch geräuschlos zu laufen“.

Vollständige Spezifikationen, Funktionen und Details zu Apple Vision Pro PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Im Vergleich zu den gemunkelt Spezifikationen des Qualcomm Snapdragon-Chipsatzes der nächsten Generation Metaquest 3 verwenden wird, sollte Apples M2 etwa 25 % schnellere Single-Threaded-CPU-Leistung, 75 % schnellere Multi-Threaded-Leistung und etwa 15 % mehr GPU-Leistung liefern.

Ohne die genauen Taktraten der Prozessoren in den einzelnen Headsets zu kennen, ist dies jedoch nur ein sehr grober Vergleich.

visionOS mit Hand- und Augensteuerung

visionOS ist Apples maßgeschneidertes „räumliches Betriebssystem“ für Vision Pro und vermutlich auch für zukünftige Headsets der Vision-Reihe.

Apple beschreibt visionOS als „vertraut und dennoch bahnbrechend“. Es präsentiert Ihnen schwebende 2D-Apps, durch die Sie mit einer Fingerbewegung scrollen können. Sie wählen Menüpunkte mit Ihren Augen aus, indem Sie sie einfach ansehen, und Sie verwenden Ihre Finger zum Klicken.

Viele der Erstanbieter-Apps und -Dienste von Apple sind in visionOS verfügbar, darunter Notizen, Nachrichten, Safari, Keynote, Fotos, FaceTime und Apple Music.

[Eingebetteten Inhalt]
Apple führt uns durch visionOS

Anstatt nur in ihrem 2D-Rahmen zu existieren, werden viele Apps von Apple „räumlich“ und nehmen den Raum um Sie herum ein. Bei FaceTime-Gruppenanrufen beispielsweise wird die Webcam-Ansicht jeder Person zu einem eigenen schwebenden Rechteck, wobei von jeder Person räumlicher Ton kommt. Apple führte auch das Beispiel an, dass es möglich sei, 3D-Modelle aus Nachrichten in den realen Raum zu ziehen.

Mit Vision Pro können Sie das Display Ihres Mac auch drahtlos zu einem riesigen virtuellen Display erweitern, indem Sie einfach darauf schauen.

Ein Hauptaugenmerk von visionOS liegt auf dem Ansehen von Filmen und Fernsehsendungen auf einem riesigen virtuellen Bildschirm, einschließlich der Unterstützung für die Anzeige von 3D-Filmen aus der Apple-Bibliothek mit Tiefe.

Personalisiertes räumliches Raytracing-Audio

Vision Pro verfügt an seiner Seite über „Audio-Pods“ mit jeweils zwei Treibern. Apple beschreibt es als „das fortschrittlichste Spatial Audio-System aller Zeiten“.

Wenn Sie ein iPhone mit einem TrueDepth FaceID-Sensor besitzen, können Sie Ihr Gesicht scannen, um personalisiertes räumliches Audio zu aktivieren, wobei das System den Klang an Ihre Kopf- und Ohrgeometrie anpasst, um den präzisesten räumlichen Klang zu erzielen.

Vision Pro verwendet außerdem eine Technik namens Audio Ray Tracing, bei der die Merkmale und Materialien Ihres Raums gescannt werden, um „den Klang genau an Ihren Raum anzupassen“. Diese Technik kommt auch bei den HomePod-Lautsprechern von Apple zum Einsatz.

Apple behauptet, Käufer des Vision Pro seien „völlig davon überzeugt, dass Geräusche aus der Umgebung um sie herum kommen“.

Preise & Verfügbarkeit

Apple Vision Pro wird Anfang 2024 in den USA ab 3500 US-Dollar erhältlich sein. Es wird online und in den Apple Stores erhältlich sein.

Apple sagt, dass „später im nächsten Jahr“ weitere Länder Vision Pro erhalten werden, gab jedoch nicht genau bekannt, um welche Länder es sich handelt.

Zeitstempel:

Mehr von UploadVR