愛伊米

【Metaverse讀本第二篇】將世界連結到底需要什麼硬體?

編者按:

本篇是“METAVERSE讀本”的第二部分,重點介紹 硬體 在 虛擬世界(Metaverse)中的作用。在這裡,硬體 被定義為:用於訪問,互動,或開發 Metaverse的物理技術和裝置的銷售以及售後服務。包括但不限於 面向消費者的硬體(如 VR眼鏡、手機和觸覺手套)以及企業硬體(如用於操作或建立虛擬或基於AR的環境的硬體,如工業攝像機、投影和跟蹤系統以及掃描感測器)。本文英文原文作者為Matthew Ball,由Max Zhou周喆吾(MetaApp)進行系列編譯。

目錄:

【Metaverse讀本】第一篇:Metaverse的理論框架

消費級硬體

消費級硬體的發展每年都會受益於效能更好/功能更強大的感測器、更長的電池壽命、更復雜/多樣的觸覺反饋、更豐富的螢幕和更清晰的攝像頭等。我們看到智慧裝置的數量不斷增加,如智慧手錶、VR眼鏡(以及未來的AR眼鏡)。這些硬體進展都提升和延伸了使用者的

沉浸感

,並透過軟體給使用者帶來魔法般的體驗。

【Metaverse讀本第二篇】將世界連結到底需要什麼硬體?

PlayStation 5的手柄

我們舉諸如 Bitmoji、Animoji 和 Snapchat AR 之類的實時化身應用作為一個小例子。這些應用不僅依賴於功能相當強大的CPU/GPU以及複雜的軟體(見第#3節),它們還依賴強大的面部跟蹤攝像頭和感測器硬體的不斷改進。

近幾代的新款 iPhone 可以透過紅外感測器追蹤 30,000 個點。這主要被運用在面部識別的功能上,同時現在它也能夠連線到 Epic Games 的 Live Link 面部應用程式等應用,從而使任何消費者都能夠建立,並流式傳輸實時、

基於虛幻引擎的高保真化身

。很明顯,Epic的下一步將是使用此功能將一位堡壘之夜玩家的臉實時對映到他們的遊戲角色上。

window。DATA。videoArr。push({“title”:“UE5虛幻引擎和 iPhone 面部識別聯調”,“vid”:“o3277yr10fm”,“img”:“http://puui。qpic。cn/vpic/0/o3277yr10fm。png/0”,“desc”:“”})

UE5虛幻引擎和 iPhone 面部識別聯調

與此同時,蘋果的

Object Capture(模型掃描)

功能使使用者能夠在幾分鐘內使用標準版iPhone上的照片建立高保真的虛擬物件。然後他們可以將這些物件移植到其他虛擬環境中,從而降低成本並提高合成產品的保真度;或者為了藝術、設計或其他AR體驗的目的,將虛擬物件疊加到真實環境中。

window。DATA。videoArr。push({“title”:“蘋果的模型掃描”,“vid”:“e3277vrltc1”,“img”:“http://puui。qpic。cn/vpic/0/e3277vrltc1。png/0”,“desc”:“”})

蘋果的模型掃描

包括 iPhone11 和 iPhone12 在內的許多新智慧手機都配備了新的每秒可發射 500,000,000 個雷達脈衝的超寬頻晶片,以及可處理返回資訊的接收器。這使得智慧手機能夠建立從家裡到辦公室以及你所走過的街道的,各種各樣的雷達地圖,並能將你放置在這些地圖中,以幾釐米的精確度連結到其他本地裝置。這意味著

當你從外面接近房門時它能夠自動解鎖,而從裡面靠近房門時不會解鎖

。使用實時雷達地圖,你可以在

不摘下VR眼鏡的情況下在家中自由走動

令人驚訝的是,所有這些都已經透過標準的

消費級硬體實現

。這些功能在我們日常生活中的作用越來越大,這也解釋了為什麼 iPhone 能夠

年年漲價

,將其平均售價從 2007 年的 450美元 左右提高到了 2021 年的 750美元 以上。

XR頭顯是在硬體方面已經取得的進展、和未滿足的需求的另一個很好的例子。

第一款消費級產品 Oculus(2016)的解析度為每隻眼睛 1080×1200,而四年後釋出的 Oculus Quest 2 的解析度為每隻眼睛 1832×1920(大致相當於4K)。

Oculus 的創始人 Palmer Luckey 認為,要使虛擬現實克服畫素色差問題併成為主流裝置,需要

比4K再高兩倍以上的解析度

。Oculus Rift 的重新整理率達到了 72hz 的峰值,而最新版本的重新整理率達到了 90hz,在透過 Oculus Link 連線到遊戲PC時最高可達 120hz。許多人認為 120hz 是一些使用者避免頭暈和噁心的最低閾值。理想情況下,這將

不再需要

高效能主機PC

插著連線線

就能實現。

【Metaverse讀本第二篇】將世界連結到底需要什麼硬體?

扎克伯格:“我們這個時代最艱鉅的技術挑戰,可能是將一臺超級計算機安裝到普通眼鏡的框架中。但這是把我們的物理世界和數字世界聯絡在一起的關鍵。“

人類的可視視角為 210°,但微軟的 Hololens2 顯示器僅能顯示 52°(之前僅為34°)。Snap 即將推出的眼鏡僅能顯示 26。3°。為了實現未來願景,我們可能需要更廣泛的視角。這主要是硬體上的挑戰,而不是軟體上的挑戰。更重要的是,我們需要在取得這些進步的同時,提高可穿戴裝置內部其他硬體(如揚聲器、處理器、電池)的質量,並在理想情況下縮小它們的體積。

【Metaverse讀本第二篇】將世界連結到底需要什麼硬體?

Unity CEO 預測:“AR - VR 頭顯 2030 年將像遊戲機一樣普及”

另一個例子是谷歌的Starline專案,這是一個基於硬體的展臺,旨在讓在影片對話中的人感覺和其他參與者身處在同一個房間。這個專案由十幾個深度感測器和攝像頭,基於織物的多維光場顯示和空間音訊揚聲器共同組成。這將透過體積資料處理和壓縮實現,然後透過 webRTC 交付,因此硬體對於捕獲和呈現“看起來真實”的詳細程度至關重要。

【Metaverse讀本第二篇】將世界連結到底需要什麼硬體?

Google的Starline裝置,能夠裸眼3D通話

專業級硬體

考慮到消費級裝置已經這麼牛了,工業/企業硬體在價格和尺寸上的倍數會令人震驚也就不足為奇了。徠卡現在銷售 2 萬美元的攝影測量相機,擁有高達 36 萬個“鐳射掃描設定點每秒”,用來捕捉整個商場、建築物和家庭更清晰和細節(一般人永遠不會看到的精細度)。與此同時, Epic Games 的 Quixel 使用專有相機生成由數百億畫素精確三角形組成的環境 “Mega Scans”。

window。DATA。videoArr。push({“title”:“Epic Quixel”,“vid”:“w3277kcm7wm”,“img”:“http://puui。qpic。cn/vpic/0/w3277kcm7wm。png/0”,“desc”:“Epic Quixel”})

Epic Quixel

這些裝置使公司更容易、更便宜的製作高質量的“映象世界”或現實世界的

“數字孿生”

,並使用對現實世界的掃描來製作質量更高、成本更低的幻想世界。

15年前,谷歌能夠捕獲(並商務提供)世界上每一條街道的 360°2D影象,這曾讓我們感到震撼。如今,更多企業可以透過購買和使用鐳射雷達相機和掃描器,以構建

地球上任何場景和事物的完全沉浸式三維攝影測量複製品。

當這些相機超越靜態影象捕獲和虛擬化,進入實時渲染和更新現實世界時,它們會變得特別有趣。例如,今天,亞馬遜的 Amazon Go 零售店的攝像頭能夠透過程式碼同時跟蹤數十名消費者。未來,這種跟蹤系統將用於在虛擬映象世界中實時再現這些使用者。然後,谷歌的 Starline 等技術將允許遠端員工從某種離岸 “Metaverse 呼叫中心” 進入商店(或博物館、DMV或賭場)提供服務 —— 或許只需要透過一部手機。

當你去迪士尼樂園時,你可能會在家裡看到你朋友的虛擬(甚至是機器人)形象,並與他們合作擊敗奧創或集齊無限寶石。這些體驗需要的遠不止硬體 —— 但一切始於強力硬體。

以上是由九個部分組成的《Metaverse 讀本》的第二部分。