IT之家 6 月 10 日訊息,蘋果釋出了 iOS 16、iPadOS 16 系統,並且已經發布了首個開發者預覽版 Beta。
iOS 16 引入了多個新 API,允許開發人員擴充套件其應用程式的功能。例如,有用於鎖屏小元件、步話機、互動式地圖、天氣資料等的新 API。有趣的是,蘋果還更新了 Nearby Interaction API (附近互動)以將 U1 晶片整合到 ARKit 中,因為有傳言稱蘋果將推出一款新的混合現實 MR 裝置。
Nearby Interactions API 是在 iOS 14 中引入的,它允許開發人員利用 iPhone 11 及更高版本中提供的超寬頻 U1 晶片。U1 晶片可實現裝置的精確定位和空間感知,可用於檢測一部 iPhone 與另一部 iPhone 之間的距離等事情。
在 iOS 15 和 watchOS 8 中,蘋果已將這些功能擴充套件到 Apple Watch,因為 Apple Watch Series 6 及更高版本也配備了 U1 晶片。今年,iOS 16 為使用 Nearby Interaction API 的開發人員帶來了有趣的新選項,即透過 ARKit 將 U1 晶片與增強現實整合的能力。
正如該公司在 WWDC22 會議上所詳述的那樣,iOS 已經使用 U1 晶片與 ARKit 結合使用精確查詢功能來定位 AirTag。藉助 U1 晶片提供的資料與 iPhone 的攝像頭相結合,Find My 應用能夠精確地引導使用者找到他們的 AirTag。
現在,開發人員還可以使用 U1 晶片和 ARKit 在他們的應用程式中建立類似的體驗,這使得有關距離和方向的資訊更加一致和準確。蘋果表示,此 API 的最佳用例是引導使用者到特定附近物件的體驗,例如放錯位置的物品、感興趣的物件或使用者想要與之互動的物件。
例如,應用程式可以告訴使用者他們正在尋找的物件是在面前還是在身後。
U1、ARKit 和蘋果 AR / VR 裝置
最近有多個謠言指出,蘋果公司將在 2022 年末或 2023 年初的某個時間釋出一款新的混合現實裝置。儘管該產品並未在 WWDC22 上宣佈,而且該公司在 WWDC 開幕主題演講中有很多關於 AR 和 VR 的內容。
對於預計具有多個攝像頭和先進感測器(包括超寬頻晶片)的裝置而言,顯然它具有精確的空間感知能力。儘管由於尚未正式宣佈新裝置且沒有 SDK,但蘋果似乎真的希望開發人員在 MR 裝置釋出之前為這種互動準備他們的應用程式。
當該公司首次釋出 iPhone 11 的 U1 晶片時,它提到更快的 AirDrop 等體驗只是開始。U1 現在用於錢包應用程式中的車鑰匙和查詢 AirTag 等功能,但該晶片肯定會在蘋果的混合現實裝置中發揮重要作用。
與此相關的是,ARKit 在 iOS 16 中也進行了更新,包括對 4K HDR 影片和高階室內掃描的支援,這是向 AR / VR 裝置邁出的重要一步。