蘋果在 WWDC 2020 期間介紹了面向 iOS 14 和 macOS Big Sur
開發(fā)者的視覺框架更新,現(xiàn)已支持圖像和視頻中的人體與手部姿勢檢測。應(yīng)用程序可借此分析目標(biāo)人物的姿勢、動作和手勢,為潛在的交互體驗開辟了更多的可能。由官方提供的示例可知,健身應(yīng)用將可自動追蹤用戶是否有效地完成了鍛煉動作。
手勢檢測有望帶來用戶與 App 交互的新方式,比如安全培訓(xùn) App 可幫助員工檢查其是否學(xué)習(xí)到位、媒體編輯軟件亦可基于姿勢的相似性而找到對應(yīng)的照片或視頻。
此外蘋果官方演示了一個人如何在半空中捏起拇指和食指,然后在不觸碰 iPhone 屏幕的情況下進行繪制。
App 開發(fā)者能夠基于新的視覺框架,在比出特定手勢的用戶手上覆蓋顯示相應(yīng)的圖形或表情符號。
或者在相機應(yīng)用中引入這一功能,當(dāng)檢測到用戶比出手勢時自動觸發(fā)拍照。

此前蘋果已經(jīng)在 ARKit 中提供了類似的功能,但僅限于增強現(xiàn)實會議類應(yīng)用,并且只能在兼容的 iPhone 或 iPad 設(shè)備上使用后置攝像頭來實現(xiàn)。
現(xiàn)在,新版視覺框架可在一個場景中檢測多只手或多人的身體動作。但在用戶佩戴了手套、彎腰、倒立、穿著長袍、靠近畫面邊緣、或部分被遮擋的情況下,效果有可能打一定的折扣。