Duke University는 사람의 눈 움직임 PlatoBlockchain 데이터 인텔리전스를 모방한 "가상 눈"인 EyeSyn을 선보입니다. 수직 검색. 일체 포함.

Duke University, EyeSyn - 인간의 눈 움직임을 모방한 "가상 눈" 발표

 

XNUMXD덴탈의 메타 버스 모바일 인터넷 혁명 이후의 차세대 혁신을 약속합니다. 사람들을 연결하는 것만으로는 충분하지 않습니다. 야심 찬 회사는 실제 세계를 완벽하게 복제하는 가상 세계에서 사람들을 하나로 모으려 합니다. 아바타는 실제 세계에서처럼 서로 상호 작용하고 비즈니스를 하며 즐겁게 지낼 것입니다.

.u3464dafacf4c5fdae348defae1970fc7 { padding:0px; margin: 0; padding-top:1em!important; padding-bottom:1em!important; width:100%; display: block; font-weight:bold; background-color:#FFFFFF; border:0!important; border-left:4px solid #E74C3C!important; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); text-decoration:none; } .u3464dafacf4c5fdae348defae1970fc7:active, .u3464dafacf4c5fdae348defae1970fc7:hover { opacity: 1; transition: opacity 250ms; webkit-transition: opacity 250ms; text-decoration:none; } .u3464dafacf4c5fdae348defae1970fc7 { transition: background-color 250ms; webkit-transition: background-color 250ms; opacity: 1.05; transition: opacity 250ms; webkit-transition: opacity 250ms; } .u3464dafacf4c5fdae348defae1970fc7 .ctaText { font-weight:bold; color:#000000; text-decoration:none; font-size: 16px; } .u3464dafacf4c5fdae348defae1970fc7 .postTitle { color:#2C3E50; text-decoration: underline!important; font-size: 16px; } .u3464dafacf4c5fdae348defae1970fc7:hover .postTitle { text-decoration: underline!important; }

참조 :  가상 아바타의 부상: 소셜 미디어에서 비즈니스 및 엔터테인먼트로

거기에 도달하려면 훈련할 데이터 세트가 지속적으로 필요합니다. AI 메타버스 플랫폼을 개발합니다. 그리고 듀크 대학 방금 퍼즐의 중요한 조각을 제공했습니다. 컴퓨터 엔지니어 팀은 최근 실제 사람 눈의 움직임과 초점을 모방한 가상 눈인 EyeSyn을 개발했습니다.

왜 가상 눈 개발에 집중해야 합니까?

메타버스의 발전은 사용자가 가상 ​​세계와 상호 작용하는 방식과 사용자가 집중하는 대상에 따라 다릅니다. 사람의 눈 움직임은 사용자가 흥미롭고 흥미롭고 볼 가치가 있다고 생각하는 것을 평가하는 가장 적절한 방법입니다. 눈은 다른 유형의 비언어적 의사 소통보다 사람의 감정, 관심, 선호도 및 편견에 대해 더 많이 말할 수 있는 능력이 있습니다.

"사람의 눈만 보고 만화책인지 고급 문학인지 확인하고 싶다면 그렇게 할 수 있습니다." 말했다 Nortel Networks 듀크 대학교의 전기 및 컴퓨터 공학 조교수인 Maria Gorlatova가 EyeSyn 프로그램의 개념을 설명하고 있습니다. "비전에 우선 순위를 두는 위치는 한 사람으로서의 당신에 대해서도 많은 것을 말해줍니다. 성적 및 인종적 편견, 다른 사람들에게 알리고 싶지 않은 관심사, 우리 자신에 대해 알지도 못하는 정보를 의도치 않게 드러낼 수 있습니다.”

메타버스 개발에서 안구 운동의 중요성

시뮬레이션된 인간 안구 운동 플랫폼 EyeSyn을 개발하기 위한 노력은 충분히 정당화됩니다. AR 및 VR 콘텐츠 제작자와 개발자는 사용자의 선호도에 대해 많은 것을 배울 수 있습니다. 따라서 다음을 수행할 수 있습니다.

  • 그들에게 맞춤형 콘텐츠를 제공하십시오.
  • 컴퓨팅 성능을 절약하기 위해 주변 시야 해상도를 줄입니다.
  • 사용자가 기본 설정에 따라 가상 자산과의 상호 작용을 사용자 지정할 수 있습니다.
EyeSyn 가상 눈 개요
EyeSyn 개요; 출처: EyeSyn: 시선 기반 활동 인식을 위한 심리학에서 영감을 받은 안구 운동 합성

Duke University의 연구원 팀이 개발한 가상 눈을 사용하여 메타버스를 구축하는 회사는 실제 사용자의 시선 추적 데이터에 액세스하지 않고도 AR 및 VR 플랫폼과 소프트웨어를 훈련할 수 있습니다.

EyeSyn Virtual Eyes는 소규모 회사를 위한 기회를 엽니다.

동시에 가상 눈을 통해 소규모 콘텐츠 제작자는 실제 사용자와 값비싼 테스트를 수행하지 않고도 귀중한 시선 추적 데이터에 액세스할 수 있습니다.

"우리는 ... 그러한 수준의 리소스가 없는 소규모 회사가 메타버스 게임에 참여할 수 있도록 하는 소프트웨어를 개발하고 싶었습니다." 고르라토바가 말했다. "소규모 회사는 실제 데이터 세트(인간 대상 포함)를 구축하는 데 시간과 돈을 들이는 대신 사용할 수 있습니다.”

가상 눈은 얼마나 정확합니까?

Duke University 팀은 기자 회견에서 Anthony Fauci 박사의 비디오에서 EyeSyn을 테스트하고 그 결과를 인간 시청자의 실제 안구 움직임과 비교했습니다. 결과는 가상 눈의 초점과 실제 사람의 초점이 밀접하게 일치함을 나타냅니다.

"합성 데이터만으로는 완벽하지 않지만 좋은 출발점입니다." 고르라토바가 말했다. "EyeSyn에 다양한 입력을 제공하고 충분한 시간 동안 실행하면 새로운 프로그램에 대해 (머신 러닝) 분류기를 훈련시킬 수 있을 만큼 충분히 큰 합성 안구 움직임 데이터 세트를 생성할 수 있습니다."

EyeSyn을 사용하여 개인 정보 보호 문제 해결

기업이 Duke University에서 개발한 가상 눈에 의존해야 하는 또 다른 이유가 있습니다. 실제 사람의 눈 움직임을 기록한다는 것은 현재 매우 민감한 문제인 개인 데이터를 수집하는 것을 의미합니다.

.u0ca47cb158a024e7b9870a5c6b4fd098 { padding:0px; margin: 0; padding-top:1em!important; padding-bottom:1em!important; width:100%; display: block; font-weight:bold; background-color:#FFFFFF; border:0!important; border-left:4px solid #E74C3C!important; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); text-decoration:none; } .u0ca47cb158a024e7b9870a5c6b4fd098:active, .u0ca47cb158a024e7b9870a5c6b4fd098:hover { opacity: 1; transition: opacity 250ms; webkit-transition: opacity 250ms; text-decoration:none; } .u0ca47cb158a024e7b9870a5c6b4fd098 { transition: background-color 250ms; webkit-transition: background-color 250ms; opacity: 1.05; transition: opacity 250ms; webkit-transition: opacity 250ms; } .u0ca47cb158a024e7b9870a5c6b4fd098 .ctaText { font-weight:bold; color:#000000; text-decoration:none; font-size: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098 .postTitle { color:#2C3E50; text-decoration: underline!important; font-size: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098:hover .postTitle { text-decoration: underline!important; }

참조 :  XRSI, XR 데이터 수집의 위험성에 대한 보고서 발표

가상 눈은 누구의 소유도 아닙니다. 따라서 이러한 방식으로 데이터 세트를 생성하고 사용할 때 데이터 개인 정보 보호를 침해할 가능성이 없습니다.

EyeSyn 가상 눈에 대한 전체 보고서는 센서 네트워크의 정보 처리에 관한 국제 회의, 4월 6-XNUMX일에 가상으로 진행됩니다.

타임 스탬프 :

더보기 AR 포스트