Uniwersytet Duke prezentuje EyeSyn – „wirtualne oczy”, które naśladują ruch ludzkiego oka PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Uniwersytet Duke przedstawia EyeSyn – „wirtualne oczy”, które naśladują ruch ludzkiego oka

 

Połączenia metawszechświat zapowiada się na kolejną wielką rzecz po rewolucji mobilnego internetu. Łączenie ludzi to za mało – ambitne firmy chcą zebrać ich w wirtualnym świecie, który doskonale odwzorowuje prawdziwy. Awatary będą ze sobą współdziałać, robić interesy i bawić się tak, jak w świecie fizycznym.

.u3464dafacf4c5fdae348defae1970fc7 { dopełnienie: 0px; margines: 0; padding-top:1em!ważne; padding-bottom:1em!ważne; szerokość:100%; Blok wyświetlacza; grubość czcionki:pogrubiona; kolor tła:#FFFFFF; granica:0!ważne; obramowanie po lewej stronie: 4px stałe #E74C3C!ważne; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); dekoracja tekstu: brak; } .u3464dafacf4c5fdae348defae1970fc7:active, .u3464dafacf4c5fdae348defae1970fc7:hover { nieprzezroczystość: 1; przejście: nieprzezroczystość 250ms; przejście do webkita: krycie 250 ms; dekoracja tekstu: brak; } .u3464dafacf4c5fdae348defae1970fc7 { przejście: kolor tła 250 ms; przejście do webkita: kolor tła 250 ms; nieprzezroczystość: 1.05; przejście: nieprzezroczystość 250ms; przejście do webkita: krycie 250 ms; } .u3464dafacf4c5fdae348defae1970fc7 .ctaText { waga czcionki:pogrubiona; kolor:#000000; dekoracja tekstu: brak; rozmiar czcionki: 16 pikseli; } .u3464dafacf4c5fdae348defae1970fc7 .postTitle {kolor:#2C3E50; dekoracja tekstu: podkreślenie!ważne; rozmiar czcionki: 16 pikseli; } .u3464dafacf4c5fdae348defae1970fc7:hover .postTitle { dekoracja tekstu: podkreślenie!ważne; }

Zobacz także:  Powstanie wirtualnych awatarów: od mediów społecznościowych po biznes i rozrywkę

Aby się tam dostać, istnieje ciągła potrzeba trenowania zbiorów danych AI i rozwijać platformy Metaverse. I Duke University właśnie dostarczył ważny element układanki. Zespół inżynierów komputerowych opracował niedawno EyeSyn – wirtualne oczy, które naśladują ruch i skupienie prawdziwych ludzkich oczu.

Dlaczego warto skupić się na rozwijaniu wirtualnych oczu?

Rozwój metaverse zależy od tego, jak użytkownicy wchodzą w interakcję ze światem wirtualnym i na czym się skupiają. Ruch gałek ocznych to najodpowiedniejszy sposób oceny tego, co użytkownicy uważają za interesujące, intrygujące i warte uwagi. Oczy potrafią powiedzieć więcej o uczuciach, zainteresowaniach, preferencjach i uprzedzeniach danej osoby niż jakikolwiek inny rodzaj komunikacji niewerbalnej.

„Jeśli jesteś zainteresowany wykryciem, czy dana osoba czyta komiks lub zaawansowaną literaturę, patrząc w same oczy, możesz to zrobić” powiedziany adiunkt Nortel Networks inżynierii elektrycznej i komputerowej na Duke University, Maria Gorlatova, wyjaśniając koncepcję programu EyeSyn. “To, w jaki sposób nadajesz priorytet swojej wizji, również wiele mówi o tobie jako osobie. Może nieumyślnie ujawnić uprzedzenia seksualne i rasowe, zainteresowania, o których nie chcemy, aby inni wiedzieli, oraz informacje, których możemy nawet nie wiedzieć o sobie”.

Znaczenie ruchu gałek ocznych w rozwoju Metaverse

Wysiłki włożone w opracowanie platformy symulowanego ruchu ludzkiego oka EyeSyn są dobrze uzasadnione. Twórcy i programiści treści AR i VR mogą się wiele dowiedzieć o preferencjach użytkowników. Dzięki temu są w stanie:

  • Podaj im dostosowane treści;
  • Zmniejsz rozdzielczość widzenia peryferyjnego, aby zaoszczędzić moc obliczeniową;
  • Pozwól użytkownikom dostosować ich interakcje z wirtualnymi zasobami zgodnie z ich preferencjami.
przegląd wirtualnych oczu EyeSyn
Przegląd EyeSyn; Źródło: EyeSyn: Inspirowana psychologią synteza ruchu gałek ocznych do rozpoznawania aktywności w oparciu o spojrzenie

Dzięki wirtualnym oczom opracowanym przez zespół naukowców z Duke University firmy pracujące nad budowaniem metaverse mogą trenować swoje platformy i oprogramowanie AR i VR bez konieczności uzyskiwania dostępu do danych śledzenia ruchu gałek ocznych rzeczywistych użytkowników.

EyeSyn Virtual Eyes otwiera możliwości dla mniejszych firm

Jednocześnie wirtualne oczy pozwolą mniejszym twórcom treści uzyskać dostęp do cennych danych śledzenia ruchu gałek ocznych, bez przeprowadzania kosztownych testów z prawdziwymi użytkownikami.

„Chcieliśmy stworzyć oprogramowanie, które … pozwoli mniejszym firmom, które nie mają takich zasobów, wejść do gry w Metaverse” powiedziała Gorłatowa. “Mniejsze firmy mogą z niego korzystać, zamiast tracić czas i pieniądze na tworzenie własnych zbiorów danych w świecie rzeczywistym (z udziałem ludzi).”

Jak dokładne są wirtualne oczy?

Zespół z Duke University przetestował EyeSyn na filmach dr Anthony Fauci podczas konferencji prasowych i porównał wyniki z rzeczywistymi ruchami oczu widzów. Wyniki wskazują na ścisłe dopasowanie ostrości oczu wirtualnych i prawdziwych ludzi.

„Sam syntetyczne dane nie są doskonałe, ale to dobry punkt wyjścia” - powiedziała Gorłatowa. „Jeśli podasz EyeSyn wiele różnych danych wejściowych i uruchomisz go wystarczająco dużo razy, utworzysz zestaw danych syntetycznych ruchów oczu, który jest wystarczająco duży, aby nauczyć klasyfikatora (uczącego się maszynowo) dla nowego programu”.

Korzystanie z EyeSyn rozwiązuje problem obaw o prywatność

Firmy mają jeszcze jeden powód, by uciekać się do wirtualnych oczu opracowanych przez Duke University. Rejestrowanie ruchów gałek ocznych prawdziwych ludzi oznacza zbieranie danych osobowych – obecnie bardzo delikatna sprawa.

.u0ca47cb158a024e7b9870a5c6b4fd098 { dopełnienie: 0px; margines: 0; padding-top:1em!ważne; padding-bottom:1em!ważne; szerokość:100%; Blok wyświetlacza; grubość czcionki:pogrubiona; kolor tła:#FFFFFF; granica:0!ważne; obramowanie po lewej stronie: 4px stałe #E74C3C!ważne; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); dekoracja tekstu: brak; } .u0ca47cb158a024e7b9870a5c6b4fd098:aktywny, .u0ca47cb158a024e7b9870a5c6b4fd098:hover { nieprzezroczystość: 1; przejście: nieprzezroczystość 250ms; przejście do webkita: krycie 250 ms; dekoracja tekstu: brak; } .u0ca47cb158a024e7b9870a5c6b4fd098 { przejście: kolor tła 250 ms; przejście do webkita: kolor tła 250 ms; krycie: 1.05; przejście: nieprzezroczystość 250ms; przejście do webkita: krycie 250 ms; } .u0ca47cb158a024e7b9870a5c6b4fd098 .ctaText { waga czcionki:pogrubiona; kolor:#000000; dekoracja tekstu: brak; rozmiar czcionki: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098 .postTitle {kolor:#2C3E50; dekoracja tekstu: podkreślenie!ważne; rozmiar czcionki: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098:hover .postTitle { dekoracja tekstu: podkreślenie!ważne; }

Zobacz także:  XRSI publikuje raport o zagrożeniach związanych z gromadzeniem danych XR

Wirtualne oczy nie należą do żadnej osoby – nie ma zatem potencjalnego naruszenia prywatności danych przy tworzeniu i wykorzystywaniu w ten sposób zbiorów danych.

Pełny raport na temat wirtualnych oczu EyeSyn zostanie przedstawiony przez zespół badawczy na Międzynarodowa Konferencja Przetwarzania Informacji w Sieciach Sensorowych, które odbędzie się praktycznie w dniach 4-6 maja.

Znak czasu:

Więcej z Poczta AR