Apple Vision Pro Pełna specyfikacja, funkcje i szczegóły

Apple Vision Pro Pełna specyfikacja, funkcje i szczegóły

Dzisiaj Apple w końcu ujawniło Vision Pro, jego zestaw słuchawkowy AR / VR za 3500 USD, który zostanie wprowadzony na rynek w 2024 roku. Oto podsumowanie jego pełnej specyfikacji i funkcji.

Wizja Pro to ultra high-endowy zestaw słuchawkowy z najwyższą rozdzielczością i większością czujników w produkcie AR/VR. Wprowadza nowe funkcje, które nigdy wcześniej nie były dostarczane, a jego system wizyjny na nowo analizuje granicę między 2D, AR i VR.

Lekka konstrukcja z akumulatorem na uwięzi

Vision Pro ma niestandardową lekką ramę ze stopu aluminium, podtrzymującą zakrzywioną „trójwymiarowo uformowaną” przednią płytę z laminowanego szkła, aby uzyskać cienką konstrukcję.

Pełna specyfikacja, funkcje i szczegóły Apple Vision Pro PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

To, co sprawia, że ​​Vision Pro jest lekki, to oddzielenie baterii od zestawu słuchawkowego. Niektóre inne zestawy słuchawkowe, takie jak MetaQuest Pro i Pico 4 mają baterię z tyłu paska, ale konstrukcja Apple całkowicie usuwa ją z głowy za pomocą zewnętrznej baterii podłączonej do złącza magnetycznego po lewej stronie opaski.

Apple twierdzi, że zewnętrzna bateria działała przez 2 godziny w następujących warunkach testowych:

Odtwarzanie wideo, przeglądanie Internetu, przestrzenne przechwytywanie wideo i FaceTime. Odtwarzanie wideo przetestowane w połączeniu ze środowiskiem przy użyciu filmów 2D zakupionych w aplikacji Apple TV. Przeglądanie Internetu przetestowane na 20 popularnych stronach internetowych. Test FaceTime między dwoma urządzeniami Apple Vision Pro z włączoną funkcją Personas. Testowane z Wi-Fi powiązanym z siecią.

Alternatywnie, Vision Pro może być używany wiecznie bez baterii, podłączając go do źródła zasilania. Firma Apple nie podała jeszcze szczegółów na temat obsługiwanych źródeł ani tego, czy adapter do tego jest dołączony.

Mnóstwo kamer i czujników

Vision Pro ma łącznie dwanaście kamer, cztery czujniki głębokości, czujnik LiDAR i sześć mikrofonów.

Przejściówka AR

Sześć z dwunastu kamer znajduje się pod przednią szybą.

Dwa z tych sześciu przechwytują kolory w wysokiej rozdzielczości, aby zapewnić przechodni obraz świata rzeczywistego przez zestaw słuchawkowy, przesyłając strumieniowo „ponad miliard kolorowych pikseli na sekundę”.

Pozostałe cztery przednie kamery wykonują śledzenie pozycji zestawu słuchawkowego i inne ogólne zadania widzenia komputerowego.

Śledzenie ręki

Jednym z celów czterech czujników głębokości jest śledzenie dłoni. Apple opisuje jakość śledzenia dłoni jako „tak precyzyjną, że całkowicie uwalnia ręce od niezdarnych kontrolerów sprzętowych”.

Vision Pro nie ma żadnych śledzonych kontrolerów, chociaż obsługuje gry 2D na wirtualnym ekranie za pomocą gamepada.

Tworzenie siatki środowiska

Czujnik LiDAR służy do wykonywania „mapowania 3D w czasie rzeczywistym” twojego otoczenia w połączeniu z innymi przednimi kamerami.

Apple twierdzi, że Vision Pro ma „szczegółowe zrozumienie” twoich podłóg, ścian, powierzchni i mebli, które aplikacje mogą wykorzystać. Jednym z przykładów, które podał Apple, były wirtualne obiekty rzucające cienie na prawdziwe stoły, ale to tylko zarysowuje powierzchnię tego, co powinno być możliwe.

Śledzenie twarzy i oczu dla FaceTime i nie tylko

Dwie skierowane w dół kamery śledzą twoją twarz, a cztery wewnętrzne kamery na podczerwień obok nich śledzą twoje oczy, wspomagane przez pierścień oświetlaczy LED wokół soczewek.

Śledzenie wzroku w Vision Pro służy trzem celom: uwierzytelnianiu, renderowaniu preferowanemu i sterowaniu awatarem FaceTime.

Apple nazywa swoje nowe uwierzytelnianie skanowania tęczówki OpticID, zgodnie ze schematem nazewnictwa TouchID i FaceID z innych urządzeń. OpticID to sposób, w jaki odblokowujesz Vision Pro, a także współpracuje z zakupami Apple Pay i autouzupełnianiem hasła. Podobnie jak w przypadku TouchID i FaceID, dane biometryczne zasilające OpticID są przetwarzane na urządzeniu przez procesor Secure Enclave.

Renderowanie foveated to technika, w której tylko mały obszar wyświetlacza, na który aktualnie patrzą twoje oczy, jest renderowany w pełnej rozdzielczości, uwalniając w ten sposób wydajność, ponieważ reszta ma niższą rozdzielczość. Zwolnione zasoby GPU można wykorzystać w celu uzyskania lepszej wydajności, zwiększenia rozdzielczości renderowania lub zwiększenia ustawień graficznych. Wykorzystuje fakt, że nasze oczy widzą w wysokiej rozdzielczości tylko w samym środku dołka.

Wreszcie, śledzenie wzroku łączy się z kamerami skierowanymi w dół, aby śledzić mimikę twarzy w czasie rzeczywistym, aby sterować FaceTime Persona, fotorealistycznymi awatarami firmy Apple. Meta była popisuje się badaniami w tym kierunku od ponad czterech lat, ale wygląda na to, że Apple jako pierwszy dostarczy – choć nie do takiej samej jakości badań Meta.

Chip R1 dla bardzo małych opóźnień

Aby połączyć dane wejściowe ze wszystkich tych kamer, czujników i mikrofonów, Apple opracował niestandardowy układ, który nazywa R1.

Pełna specyfikacja, funkcje i szczegóły Apple Vision Pro PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Apple twierdzi, że R1 „praktycznie eliminuje opóźnienia, przesyłając strumieniowo nowe obrazy na wyświetlacze w ciągu 12 milisekund”.

Dla porównania założyciel francuskiego startupu słuchawkowego Lynx roszczenia Opóźnienie przejścia Meta Quest Pro wynosi 35-60 milisekund. Nie jest jednak jasne, czy jest to porównanie typu „like-for-like”.

Cyfrowa korona AR-VR

Vision Pro ma tylko dwa fizyczne elementy sterujące, oba na górze. Przycisk do robienia „wideo przestrzennych” i „zdjęć przestrzennych” w dowolnym momencie oraz cyfrowa korona.

Naciśnięcie Digital Crown przywołuje systemowy widok główny. Ale obracanie go kontroluje poziom zanurzenia, od pełnego AR do pełnego VR. Jeśli na przykład pójdziesz w połowie, zobaczysz VR przed sobą i AR za sobą.

W istniejących zestawach słuchawkowych, takich jak Meta Quest i Pico 4, przejście jest opcją przełączania, co oznacza, że ​​musisz wybrać między pełnym lub całkowitym zanurzeniem. Zamiast tego Apple chce pozwolić ci wybrać dokładnie, jak bardzo chcesz być zaangażowany w swoje prawdziwe otoczenie.

Wzrok i świadomość osoby

Całkowicie wyjątkową cechą Vision Pro jest zewnętrzny wyświetlacz, który pokazuje Twoje oczy innym osobom w pomieszczeniu i wskazuje, jak bardzo jesteś ich świadomy. Apple nazywa tę technologię EyeSight.

Kiedy jesteś w aplikacji AR, EyeSight pokazuje kolorowy wzór przed twoimi oczami, a kiedy jesteś w aplikacji VR, pokazuje tylko wzór z twoimi oczami niewidocznymi.

Kiedy ktoś się do ciebie zbliży, Vision Pro pokaże wycinek tej osoby, a EyeSight odsłoni jej oczy.

Apple opisał upewnienie się, że „nigdy nie jesteś odizolowany od ludzi wokół ciebie” jako jeden z „fundamentalnych celów projektowych” dla Vision Pro, a firma postrzega to jako wyraźny wyróżnik w pełni nieprzezroczystych zestawów słuchawkowych, takich jak Meta Quests.

Wyświetlacze Micro OLED o łącznej liczbie 23 milionów pikseli

Vision Pro jest wyposażony w dwa panele micro-OLED o niespotykanej gęstości pikseli. Apple twierdzi, że każdy jest „wielkości znaczka pocztowego”, ale razem mają 23 miliony pikseli, mniej niż krążyły plotki.

Apple nie ujawnił dokładnej rozdzielczości, ale łącznie 23 miliony pikseli sugerowałoby rozdzielczość na oko około 3400 × 3400 dla kwadratowego współczynnika proporcji lub około 3200 × 3600 dla współczynnika proporcji 9:10, zwykle używanego w zestawach słuchawkowych. Nie znamy jednak dokładnych proporcji obrazu w Vision Pro.

Apple potwierdziło, że wyświetlacze Vision Pro obsługują szeroką gamę kolorów i wysoki zakres dynamiki, ale nie ujawniły szczegółowych specyfikacji, takich jak maksymalna jasność.

Chip M2 zapewniający „niezrównaną” wydajność

Vision Pro jest zasilany tym samym chipem Apple Silicon M2, który jest używany w najnowszych komputerach Mac.

Apple twierdzi, że zapewnia to „niezrównaną samodzielną wydajność” i pozwala Vision Pro „utrzymywać komfortową temperaturę i działać praktycznie bezgłośnie”.

Pełna specyfikacja, funkcje i szczegóły Apple Vision Pro PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

W porównaniu do plotki specyfikacje nowej generacji chipsetu Qualcomm Snapdragon Meta zadanie 3 będzie używany, Apple M2 powinien zapewniać około 25% wyższą wydajność jednowątkowego procesora, 75% wyższą wydajność wielowątkową i około 15% większą moc GPU.

Jednak bez znajomości dokładnych częstotliwości zegara procesorów w każdym zestawie słuchawkowym jest to tylko bardzo przybliżone porównanie.

VisionOS z kontrolą dłoni i oczu

VisionOS to niestandardowy „przestrzenny system operacyjny” firmy Apple dla Vision Pro i prawdopodobnie również dla przyszłych zestawów słuchawkowych z linii Vision.

Apple opisuje system VisionOS jako „znany, ale przełomowy”. Przedstawia Ci pływające aplikacje 2D, które przewijasz jednym ruchem palca. Pozycje menu wybierasz oczami, po prostu na nie patrząc, a palcami klikasz.

Wiele własnych aplikacji i usług firmy Apple jest dostępnych w systemie VisionOS, w tym Notatki, Wiadomości, Safari, Keynote, Zdjęcia, FaceTime i Apple Music.

[Osadzone treści]
Apple przeprowadza nas przez system wizyjny

Zamiast istnieć tylko w ramach 2D, wiele aplikacji Apple „staje się przestrzennych”, zajmując miejsce wokół ciebie. Na przykład w rozmowach grupowych FaceTime widok z kamery internetowej każdej osoby staje się własnym ruchomym prostokątem, z przestrzennym dźwiękiem dochodzącym od każdej osoby. Apple podał też przykład możliwości wyciągania modeli 3D z wiadomości w rzeczywistą przestrzeń.

Vision Pro pozwala również bezprzewodowo rozszerzyć wyświetlacz komputera Mac do ogromnego wirtualnego wyświetlacza, po prostu na niego patrząc.

Głównym celem systemu VisionOS jest oglądanie filmów i programów telewizyjnych na ogromnym wirtualnym ekranie, w tym obsługa oglądania filmów 3D z biblioteki Apple z głębią.

Spersonalizowany dźwięk przestrzenny oparty na ray tracingu

Vision Pro ma z boku „strąki audio”, z których każdy ma po dwa przetworniki. Apple opisuje go jako „najbardziej zaawansowany system dźwięku przestrzennego w historii”.

Jeśli masz iPhone'a z czujnikiem TrueDepth FaceID, możesz zeskanować swoją twarz, aby włączyć spersonalizowany dźwięk przestrzenny, w którym system dostosuje dźwięk do geometrii twojej głowy i ucha, aby uzyskać jak najbardziej precyzyjny dźwięk przestrzenny.

Vision Pro wykorzystuje również technikę o nazwie Audio Ray Tracing, która skanuje cechy i materiały Twojej przestrzeni, aby „dokładnie dopasować dźwięk do Twojego pokoju”. Ta technika jest również stosowana w głośnikach HomePod firmy Apple.

Apple twierdzi, że nabywcy Vision Pro będą „całkowicie przekonani, że dźwięki dochodzą z otoczenia”.

Cennik i dostępność

Apple Vision Pro trafi do sprzedaży w USA na początku 2024 roku w cenie od 3500 USD. Będzie dostępny online i w sklepach Apple Store.

Apple twierdzi, że więcej krajów otrzyma Vision Pro „później w przyszłym roku”, ale nie ujawniło dokładnie, które kraje.

Znak czasu:

Więcej z UploadVR