Duke University präsentiert EyeSyn – die „virtuellen Augen“, die menschliche Augenbewegungen imitieren PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Duke University präsentiert EyeSyn – die „virtuellen Augen“, die die Bewegung des menschlichen Auges nachahmen

 

Das metaverse verspricht, das nächste große Ding nach der Revolution des mobilen Internets zu werden. Menschen zu verbinden ist nicht genug – ambitionierte Unternehmen wollen sie in einer virtuellen Welt zusammenbringen, die die reale perfekt nachbildet. Avatare werden miteinander interagieren, Geschäfte machen und Spaß haben, genau wie in der physischen Welt.

.u3464dafacf4c5fdae348defae1970fc7 { padding:0px; Rand: 0; padding-top:1em!important; padding-bottom:1em!important; Breite: 100 %; Bildschirmsperre; Schriftdicke: fett; Hintergrundfarbe:#FFFFFF; Grenze:0!wichtig; border-left:4px solide #E74C3C!important; Box-Shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); Textdekoration: keine; } .u3464dafacf4c5fdae348defae1970fc7:active, .u3464dafacf4c5fdae348defae1970fc7:hover { opacity: 1; Übergang: Deckkraft 250 ms; Webkit-Übergang: Deckkraft 250 ms; Textdekoration: keine; } .u3464dafacf4c5fdae348defae1970fc7 { Transition: Hintergrundfarbe 250 ms; Webkit-Übergang: Hintergrundfarbe 250 ms; Deckkraft: 1.05; Übergang: Deckkraft 250 ms; Webkit-Übergang: Deckkraft 250 ms; } .u3464dafacf4c5fdae348defae1970fc7 .ctaText { Font-weight:bold; Farbe:#000000; Textdekoration: keine; Schriftgröße: 16px; } .u3464dafacf4c5fdae348defae1970fc7 .postTitle { color:#2C3E50; Textdekoration: unterstrichen!wichtig; Schriftgröße: 16px; } .u3464dafacf4c5fdae348defae1970fc7:hover .postTitle { text-decoration: underline!important; }

Siehe auch:  Der Aufstieg virtueller Avatare: Von Social Media zu Business und Unterhaltung

Um dorthin zu gelangen, müssen ständig Datensätze trainiert werden AI und Metaverse-Plattformen entwickeln. Und Duke University hat gerade ein wichtiges Puzzleteil geliefert. Ein Team von Computeringenieuren hat kürzlich EyeSyn entwickelt – virtuelle Augen, die die Bewegung und den Fokus echter menschlicher Augen nachahmen.

Warum sich auf die Entwicklung virtueller Augen konzentrieren?

Die Entwicklung des Metaversums hängt davon ab, wie Benutzer mit der virtuellen Welt interagieren und worauf sie sich konzentrieren. Die menschliche Augenbewegung ist die relevanteste Methode, um zu bewerten, was Benutzer interessant, faszinierend und sehenswert finden. Die Augen haben die Fähigkeit, mehr über die Gefühle, Interessen, Vorlieben und Vorurteile einer Person zu sagen als jede andere Art der nonverbalen Kommunikation.

„Wenn Sie daran interessiert sind festzustellen, ob eine Person ein Comic oder fortgeschrittene Literatur liest, indem Sie allein auf ihre Augen schauen, können Sie das tun.“ sagte die Nortel Networks Assistant Professor of Electrical and Computer Engineering an der Duke University, Maria Gorlatova, erklärt das Konzept hinter dem EyeSyn-Programm. „Wo Sie Ihre Vision priorisieren, sagt auch viel über Sie als Person aus. Es kann versehentlich sexuelle und rassistische Vorurteile, Interessen, von denen wir nicht wollen, dass andere sie kennen, und Informationen, die wir vielleicht nicht einmal über uns selbst kennen, aufdecken.“

Die Bedeutung der Augenbewegung bei der Entwicklung der Metaverse

Der Aufwand für die Entwicklung der Augensimulationsplattform EyeSyn ist durchaus gerechtfertigt. Ersteller und Entwickler von AR- und VR-Inhalten können viel über die Vorlieben der Benutzer lernen. Somit sind sie in der Lage:

  • Bieten Sie ihnen maßgeschneiderte Inhalte;
  • Reduzieren Sie die periphere Sichtauflösung, um Rechenleistung zu sparen;
  • Ermöglichen Sie Benutzern, ihre Interaktionen mit virtuellen Assets gemäß ihren Präferenzen anzupassen.
Überblick über die virtuellen Augen von EyeSyn
Überblick über EyeSyn; Quelle: EyeSyn: Psychologie-inspirierte Augenbewegungssynthese für blickbasierte Aktivitätserkennung

Mit den vom Forscherteam der Duke University entwickelten virtuellen Augen können Unternehmen, die am Aufbau des Metaversums arbeiten, ihre AR- und VR-Plattformen und Software trainieren, ohne auf die Eye-Tracking-Daten echter Benutzer zugreifen zu müssen.

EyeSyn Virtual Eyes eröffnen Möglichkeiten für kleinere Unternehmen

Gleichzeitig ermöglichen die virtuellen Augen kleineren Inhaltserstellern den Zugriff auf wertvolle Eye-Tracking-Daten, ohne teure Tests mit realen Benutzern durchführen zu müssen.

„Wir wollten eine Software entwickeln, die … es kleineren Unternehmen, die nicht über diese Ressourcen verfügen, ermöglicht, in das Metaverse-Spiel einzusteigen.“ sagte Gorlatova. „Kleinere Unternehmen können es verwenden, anstatt Zeit und Geld für den Versuch aufzuwenden, ihre eigenen Datensätze aus der realen Welt (mit menschlichen Probanden) zu erstellen.“

Wie genau sind die virtuellen Augen?

Das Team der Duke University testete EyeSyn an Videos von Dr. Anthony Fauci während Pressekonferenzen und verglich die Ergebnisse mit tatsächlichen Augenbewegungen menschlicher Zuschauer. Die Ergebnisse zeigen eine enge Übereinstimmung zwischen dem Fokus der virtuellen Augen und dem von echten Menschen.

„Die synthetischen Daten allein sind nicht perfekt, aber ein guter Ausgangspunkt“, sagte Gorlatova. „Wenn Sie EyeSyn viele verschiedene Eingaben geben und es oft genug ausführen, erstellen Sie einen Datensatz synthetischer Augenbewegungen, der groß genug ist, um einen (maschinellen Lern-)Klassifikator für ein neues Programm zu trainieren.“

Die Verwendung von EyeSyn behebt das Problem der Datenschutzbedenken

Unternehmen haben noch einen weiteren Grund, auf die von der Duke University entwickelten virtuellen Augen zurückzugreifen. Die Aufzeichnung der Augenbewegungen von echten Menschen bedeutet das Sammeln persönlicher Daten – derzeit ein sehr sensibles Thema.

.u0ca47cb158a024e7b9870a5c6b4fd098 { padding:0px; Rand: 0; padding-top:1em!important; padding-bottom:1em!important; Breite: 100 %; Bildschirmsperre; Schriftdicke: fett; Hintergrundfarbe:#FFFFFF; Grenze:0!wichtig; border-left:4px solide #E74C3C!important; Box-Shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); Textdekoration: keine; } .u0ca47cb158a024e7b9870a5c6b4fd098:active, .u0ca47cb158a024e7b9870a5c6b4fd098:hover { opacity: 1; Übergang: Deckkraft 250 ms; Webkit-Übergang: Deckkraft 250 ms; Textdekoration: keine; } .u0ca47cb158a024e7b9870a5c6b4fd098 { Transition: Hintergrundfarbe 250 ms; Webkit-Übergang: Hintergrundfarbe 250 ms; Deckkraft: 1.05; Übergang: Deckkraft 250 ms; Webkit-Übergang: Deckkraft 250 ms; } .u0ca47cb158a024e7b9870a5c6b4fd098 .ctaText { Font-weight:bold; Farbe:#000000; Textdekoration: keine; Schriftgröße: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098 .postTitle { color:#2C3E50; Textdekoration: unterstrichen!wichtig; Schriftgröße: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098:hover .postTitle { text-decoration: underline!important; }

Siehe auch:  XRSI veröffentlicht Bericht über die Gefahren der XR-Datenerfassung

Die virtuellen Augen gehören keiner Person – somit liegt bei der Erstellung und Nutzung von Datensätzen auf diese Weise keine potenzielle Verletzung des Datenschutzes vor.

Der vollständige Bericht über die virtuellen Augen von EyeSyn wird vom Forschungsteam auf der präsentiert Internationale Konferenz zur Informationsverarbeitung in Sensornetzwerken, die vom 4. bis 6. Mai virtuell stattfinden wird.

Zeitstempel:

Mehr von AR-Post