谷歌的ARCore深度API為非專用設備帶來了深度映射和遮擋
現在可以在關閉預覽,ARCore深度API允許創建深度地圖使用一個相機。谷歌說,這一功能以前只能在帶有深度傳感器的設備上使用,它使在物理環境中真實地混合虛擬對象以及構建更自然、更交互和更有幫助的體驗成為可能。
ARCore深度API使用深度從運動算法創建一個深度地圖的環境。
深度圖是通過從不同的角度拍攝多幅圖像,并在移動手機以估計到每個像素的距離時進行比較來創建的。
深度圖基本上允許您確定哪些對象離您更近,從而確定您放置在環境中的虛擬對象是否應該被某個真實世界的對象重疊。這解決了一個常見的AR體驗問題,其中虛擬對象似乎只是漂浮在現實世界的頂部。
在ARCore深度API中的關鍵點是它不需要任何專門的硬件,例如配備iPhoneX和以后型號的深度傳感器,這些硬件由A11、A12Bionic、A12X Bionic和A13Bionic芯片供電。事實上,蘋果今年早些時候在ARKit3中引入了對人遮擋的支持,以及其他先進功能,但只適用于集成其True Depth相機和至少使用A12仿生處理器的設備。相反,ARCore深度API可以在大約2億臺設備上運行,谷歌說。
我們將開始在SceneViewer中提供遮擋,這是一個為搜索中的AR提供電源的開發工具,到今天,最初的一組超過2億個支持ARCore的Android設備。
遮擋檢測僅僅是通過擁有一個環境深度圖而解鎖的可能性之一。事實上,谷歌在一段視頻中展示了虛擬物體如何有可能沿著真實的路徑,與物理物體互動,例如彈跳或撞擊它們,在使用家具躲避和隱藏的同時玩耍等等。
由于谷歌計劃以更有計劃的方式推出,ARCore深度API尚未完全與Android兼容。愿意嘗試它的開發人員可以填寫谷歌的呼吁合作者表格,以訪問這一新工具。