愛伊米

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果

日前,來自中國北京大學、香港大學及美國馬里蘭大學的研究團隊釋出了

《DGaze:動態場景中基於CNN的注視預測》

研究論文,進一步擴充套件了關於注視點預測模型的探索工作。

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果

TVCG 作為計算機圖形學和視覺化領域的頂級期刊之一,在國際上有著重要的學術 影響力,該論文的釋出無疑推動了眼動分析領域的又一次進步。

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果

研究團隊採用七鑫易維VR眼動分析系統對動態虛擬場景中的使用者注視行為進行了創新性的分析

,提出了一種基於CNN的演算法模型DGaze,用於在虛擬現實頭盔(HMD)應用中進行注視點預測。

DGaze模型結合了運動物體位置序列,頭部速度序列和場景內容的顯著性特徵來預測使用者的注視點位置。該模型不僅可以估算實時的注視點位置,還可以預測一段時間後的注視點位置,同時擁有更好的演算法效能。在實時估算方面,以角距離作為評估指標時,

DGaze模型的估算準確度在動態場景中比現有模型提高了22.0%,在靜態場景中則提高了9.5%。

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果

學者們還提出了一種名為DGaze_ET的模型變體,基於七鑫易維眼動儀,收集眼動儀在過去時刻的高精度追蹤資料,以此最佳化模型的注視點預測演算法,進而提升模型預測的準確度。

在現有的眼動儀中,主要功能是測量當前的視線方向,不能直接對使用者一段時間之後的視線方向進行預測。

因此不難想象,該注視點預測模型對於眼動追蹤領域的技術革新和產品升級有著劃時代的意義。

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果

七鑫易維 VR 眼動分析系統為本次科研工作提供了可靠的資料支撐,不僅能夠精確記錄瞳孔 半徑、瞳孔位置、眼瞼距離、注視深度、注視點位置等眼動資料指標,還可以提供 3D 內容 建立及美工模型匯入 3D 引擎服務,助力實現更加豐富的實驗設計方式和途徑。

科技的發展促進著人類科學的不斷進步。眼球追蹤+5G+XR 技術的融合將全面升級現有的終 端裝置,在日常娛樂、智慧手機、醫療健康、心理評估、汽車出行等與人們息息相關的生活 場景中發揮巨大作用,彌補傳統互動模式的侷限性,開拓屬於未來生活的新領域。

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果

七鑫易維將與各界專家學者共同努力,繼續探索這一領域的前進方向,為科研工作者提供相 關的眼動實驗支援,幫助其在學術研究上實現更大突破

。同時,七鑫易維也將密切和 XR 裝置廠商展開積極合作,為消費者帶來全新的眼動互動體驗,推動 5G 與 XR 行業應用的落地, 為虛擬現實等新興技術帶來更多可能。

-END-

七鑫易維眼動儀助力北大研究團隊釋出基於 CNN 的注視點預測科研成果