L'Université Duke présente EyeSyn – Les « yeux virtuels » qui imitent le mouvement de l'œil humain PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Duke University présente EyeSyn - Les «yeux virtuels» qui imitent le mouvement de l'œil humain

 

Les métaverse promet d'être la prochaine grande chose après la révolution de l'Internet mobile. Connecter les gens ne suffit pas – les entreprises ambitieuses veulent les réunir dans un monde virtuel qui reproduit parfaitement le monde réel. Les avatars interagiront les uns avec les autres, feront des affaires et s'amuseront comme dans le monde physique.

.u3464dafacf4c5fdae348defae1970fc7 { rembourrage : 0px ; marge : 0 ; padding-top:1em!important; padding-bottom:1em!important; largeur : 100 % ; bloc de visualisation; font-weight:gras; couleur de fond :#FFFFFF ; bordure:0!important; border-left:4px solid #E74C3C!important; boîte-ombre : 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow : 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow : 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow : 0 1px 2px rgba(0, 0, 0, 0.17) ; décoration de texte : aucune ; } .u3464dafacf4c5fdae348defae1970fc7:active, .u3464dafacf4c5fdae348defae1970fc7:hover { opacité : 1 ; transition : opacité 250 ms ; transition webkit : opacité 250 ms ; décoration de texte : aucune ; } .u3464dafacf4c5fdae348defae1970fc7 { transition : couleur d'arrière-plan 250 ms ; transition webkit : couleur d'arrière-plan 250 ms ; opacité : 1.05 ; transition : opacité 250 ms ; transition webkit : opacité 250 ms ; } .u3464dafacf4c5fdae348defae1970fc7 .ctaText { font-weight:bold; couleur :#000000 ; décoration de texte : aucune ; taille de police : 16 px ; } .u3464dafacf4c5fdae348defae1970fc7 .postTitle { color:#2C3E50; décoration de texte : soulignement ! important ; taille de police : 16 px ; } .u3464dafacf4c5fdae348defae1970fc7:hover .postTitle { text-decoration: underline!important; }

Voir aussi:  L'essor des avatars virtuels : des médias sociaux aux affaires et au divertissement

Pour y arriver, il y a un besoin constant d'ensembles de données pour s'entraîner AI et développer des plates-formes de métaverse. Et Duke University vient de fournir une pièce importante du puzzle. Une équipe d'ingénieurs en informatique a récemment développé EyeSyn - des yeux virtuels qui imitent le mouvement et la mise au point de vrais yeux humains.

Pourquoi se concentrer sur le développement d'yeux virtuels ?

Le développement du métaverse dépend de la façon dont les utilisateurs interagissent avec le monde virtuel et de ce sur quoi ils se concentrent. Le mouvement de l'œil humain est le moyen le plus pertinent d'évaluer ce que les utilisateurs trouvent intéressant, intrigant et intéressant à regarder. Les yeux ont la capacité d'en dire plus sur les sentiments, les intérêts, les préférences et les préjugés d'une personne que tout autre type de communication non verbale.

"Si vous souhaitez détecter si une personne lit une bande dessinée ou de la littérature avancée en ne regardant que ses yeux, vous pouvez le faire", a affirmé Valérie Plante. la professeure adjointe de Nortel Networks en génie électrique et informatique à l'Université Duke, Maria Gorlatova, expliquant le concept derrière le programme EyeSyn. "La priorité que vous accordez à votre vision en dit également beaucoup sur vous en tant que personne. Cela peut révéler par inadvertance des préjugés sexuels et raciaux, des intérêts que nous ne voulons pas que les autres connaissent et des informations que nous ne connaissons peut-être même pas sur nous-mêmes.

L'importance du mouvement des yeux dans le développement du métaverse

Les efforts déployés pour développer la plateforme de simulation de mouvements oculaires humains EyeSyn sont bien justifiés. Les créateurs et développeurs de contenu AR et VR peuvent en apprendre beaucoup sur les préférences des utilisateurs. Ainsi, ils sont capables de :

  • Leur proposer un contenu personnalisé ;
  • Réduisez la résolution de la vision périphérique pour économiser la puissance de calcul ;
  • Permettez aux utilisateurs de personnaliser leurs interactions avec les actifs virtuels en fonction de leurs préférences.
aperçu des yeux virtuels EyeSyn
Présentation d'EyeSyn ; Source : EyeSyn : Synthèse des mouvements oculaires inspirée de la psychologie pour la reconnaissance d'activité basée sur le regard

Grâce aux yeux virtuels développés par l'équipe de chercheurs de l'Université Duke, les entreprises qui travaillent à la construction du métaverse peuvent former leurs plates-formes et logiciels AR et VR sans avoir à accéder aux données de suivi oculaire des utilisateurs réels.

EyeSyn Virtual Eyes ouvre des opportunités pour les petites entreprises

Dans le même temps, les yeux virtuels permettront aux petits créateurs de contenu d'accéder à de précieuses données de suivi oculaire, sans effectuer de tests coûteux avec des utilisateurs réels.

"Nous voulions développer un logiciel qui… permette aux petites entreprises qui ne disposent pas de ces niveaux de ressources d'entrer dans le jeu du métaverse", dit Gorlatova. "Les petites entreprises peuvent l'utiliser plutôt que de consacrer du temps et de l'argent à essayer de créer leurs propres ensembles de données du monde réel (avec des sujets humains).

Quelle est la précision des yeux virtuels ?

L'équipe de l'Université Duke a testé EyeSyn sur des vidéos du Dr Anthony Fauci lors de conférences de presse et a comparé les résultats avec les mouvements oculaires réels de spectateurs humains. Les résultats indiquent une correspondance étroite entre la focalisation des yeux virtuels et celle des personnes réelles.

"Les données synthétiques seules ne sont pas parfaites, mais c'est un bon point de départ", dit Gorlatova. "Si vous donnez à EyeSyn de nombreuses entrées différentes et que vous l'exécutez suffisamment de fois, vous créerez un ensemble de données de mouvements oculaires synthétiques suffisamment volumineux pour entraîner un classificateur (apprentissage automatique) pour un nouveau programme."

L'utilisation d'EyeSyn résout le problème des problèmes de confidentialité

Les entreprises ont encore une autre raison de recourir aux yeux virtuels développés par Duke University. Enregistrer les mouvements oculaires de personnes réelles signifie collecter des données personnelles – actuellement une question très sensible.

.u0ca47cb158a024e7b9870a5c6b4fd098 { rembourrage : 0px ; marge : 0 ; padding-top:1em!important; padding-bottom:1em!important; largeur : 100 % ; bloc de visualisation; font-weight:gras; couleur de fond :#FFFFFF ; bordure:0!important; border-left:4px solid #E74C3C!important; boîte-ombre : 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow : 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow : 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow : 0 1px 2px rgba(0, 0, 0, 0.17) ; décoration de texte : aucune ; } .u0ca47cb158a024e7b9870a5c6b4fd098 : actif, .u0ca47cb158a024e7b9870a5c6b4fd098 : survol { opacité : 1 ; transition : opacité 250 ms ; transition webkit : opacité 250 ms ; décoration de texte : aucune ; } .u0ca47cb158a024e7b9870a5c6b4fd098 { transition : couleur d'arrière-plan 250 ms ; transition webkit : couleur d'arrière-plan 250 ms ; opacité : 1.05 ; transition : opacité 250 ms ; transition webkit : opacité 250 ms ; } .u0ca47cb158a024e7b9870a5c6b4fd098 .ctaText { font-weight:bold; couleur :#000000 ; décoration de texte : aucune ; taille de police : 16 px ; } .u0ca47cb158a024e7b9870a5c6b4fd098 .postTitle { color:#2C3E50; décoration de texte : soulignement ! important ; taille de police : 16 px ; } .u0ca47cb158a024e7b9870a5c6b4fd098:hover .postTitle { text-decoration: underline!important; }

Voir aussi:  XRSI publie un rapport sur les dangers de la collecte de données XR

Les yeux virtuels n'appartiennent à personne - il n'y a donc aucune violation potentielle de la confidentialité des données dans la création et l'utilisation d'ensembles de données de cette manière.

Le rapport complet sur les yeux virtuels EyeSyn sera présenté par l'équipe de recherche au Conférence internationale sur le traitement de l'information dans les réseaux de capteurs, qui se déroulera virtuellement du 4 au 6 mai.

Horodatage:

Plus de Post AR