metavers lover at blive den næste store ting efter mobilinternetrevolutionen. Det er ikke nok at forbinde mennesker – ambitiøse virksomheder ønsker at bringe dem sammen i en virtuel verden, der perfekt gentager den virkelige. Avatarer vil interagere med hinanden, gøre forretninger og have det sjovt ligesom i den fysiske verden.
For at nå dertil er der et konstant behov for, at datasæt trænes AI og udvikle metaverse platforme. Og Duke University har netop leveret en vigtig brik i puslespillet. Et team af computeringeniører har for nylig udviklet EyeSyn – virtuelle øjne, der efterligner bevægelsen og fokus af rigtige menneskelige øjne.
Hvorfor fokusere på at udvikle virtuelle øjne?
Udviklingen af metaverset afhænger af, hvordan brugerne interagerer med den virtuelle verden, og hvad de fokuserer på. Menneskelige øjenbevægelser er den mest relevante måde at evaluere, hvad brugerne finder interessant, spændende og værd at se på. Øjnene har evnen til at fortælle mere om en persons følelser, interesser, præferencer og fordomme end nogen anden form for non-verbal kommunikation.
"Hvis du er interesseret i at opdage, om en person læser en tegneserie eller avanceret litteratur ved at se på deres øjne alene, kan du gøre det," sagde Nortel Networks Assistant Professor of Electrical and Computer Engineering ved Duke University, Maria Gorlatova, forklarer konceptet bag EyeSyn-programmet. “Hvor du prioriterer dit syn, siger også meget om dig som person. Det kan utilsigtet afsløre seksuelle og racemæssige skævheder, interesser, som vi ikke ønsker, at andre skal vide om, og information, som vi måske ikke engang ved om os selv.”
Betydningen af øjenbevægelse i udviklingen af metaverset
Anstrengelserne i udviklingen af den simulerede menneskelige øjenbevægelsesplatform EyeSyn er velbegrundede. AR- og VR-indholdsskabere og -udviklere kan lære meget om brugernes præferencer. Således er de i stand til at:
- Server dem skræddersyet indhold;
- Reducer opløsningen af det perifere syn for at spare computerkraft;
- Tillad brugere at tilpasse deres interaktioner med virtuelle aktiver i henhold til deres præferencer.
Med de virtuelle øjne udviklet af teamet af forskere ved Duke University kan virksomheder, der arbejder på at opbygge metaverset, træne deres AR- og VR-platforme og -software uden at skulle få adgang til rigtige brugeres eye-tracking-data.
EyeSyn Virtual Eyes åbner muligheder for mindre virksomheder
Samtidig vil de virtuelle øjne give mindre indholdsskabere adgang til værdifulde eye-tracking-data uden at udføre dyre tests med virkelige brugere.
"Vi ønskede at udvikle software, der ... gør det muligt for mindre virksomheder, der ikke har disse niveauer af ressourcer at komme ind i det metaverse spil," sagde Gorlatova. “Mindre virksomheder kan bruge det i stedet for at bruge tid og penge på at prøve at bygge deres egne datasæt fra den virkelige verden (med menneskelige emner).
Hvor nøjagtige er de virtuelle øjne?
Duke University-teamet testede EyeSyn på videoer af Dr. Anthony Fauci under pressekonferencer og sammenlignede resultaterne med faktiske øjenbevægelser fra menneskelige seere. Resultaterne indikerer et tæt match mellem fokus for de virtuelle øjne og virkelige menneskers.
"De syntetiske data alene er ikke perfekte, men det er et godt udgangspunkt," sagde Gorlatova. "Hvis du giver EyeSyn en masse forskellige input og kører det nok gange, vil du skabe et datasæt af syntetiske øjenbevægelser, der er stort nok til at træne en (machine learning) klassifikator til et nyt program."
Brug af EyeSyn løser problemet med privatlivsproblemer
Virksomheder har endnu en grund til at ty til de virtuelle øjne udviklet af Duke University. Optagelse af rigtige menneskers øjenbevægelser betyder indsamling af personlige data – i øjeblikket et meget følsomt emne.
De virtuelle øjne tilhører ikke nogen person – der er således ingen potentiel brud på databeskyttelse ved at oprette og bruge datasæt på denne måde.
Den fulde rapport om EyeSyn virtuelle øjne vil blive præsenteret af forskerholdet på International konference om informationsbehandling i sensornetværk, som vil finde sted stort set den 4.-6. maj.
- Om
- adgang
- Ifølge
- præcis
- aktiv
- aktivitet
- adresser
- fremskreden
- En anden
- AR
- Aktiver
- Assistant
- avatars
- Bloker
- grænse
- brud
- bygge
- Bygning
- virksomhed
- Indsamling
- Kommunikation
- Virksomheder
- sammenlignet
- computing
- computerkraft
- Konceptet
- Konference
- konferencer
- indhold
- Oprettelse af
- skabere
- data
- databeskyttelse
- datasæt
- udvikle
- udviklet
- udviklere
- udvikling
- Udvikling
- forskellige
- Skærm
- Duke
- indsats
- Engineering
- Ingeniører
- øje
- Fokus
- fuld
- sjovt
- spil
- godt
- have
- Hvordan
- HTTPS
- menneskelig
- betydning
- vigtigt
- oplysninger
- interesser
- Internet
- spørgsmål
- IT
- stor
- LÆR
- læring
- litteratur
- leder
- maskine
- machine learning
- Match
- Medier
- metaverse
- Mobil
- penge
- mere
- mest
- bevægelse
- net
- åbent
- Muligheder
- Andet
- Mennesker
- personale
- Personlig data
- fysisk
- stykke
- perron
- Platforme
- Punkt
- potentiale
- magt
- trykke
- Beskyttelse af personlige oplysninger
- Program
- puslespil
- Læsning
- Udgivelser
- relevant
- indberette
- forskning
- forskere
- Resort
- Ressourcer
- Resultater
- Kør
- Said
- sæt
- Social
- sociale medier
- Software
- udgifterne
- hold
- tests
- tid
- sammen
- universitet
- brug
- brugere
- Videoer
- Virtual
- virtuel verden
- vision
- vr
- Hvad
- hvorvidt
- WHO
- uden
- Arbejde
- world
- værd