在8月初舉行的東京奧運會女子投擲項目比賽中,中國選手鞏立姣和劉詩穎發揮出色,分獲鉛球和標槍金牌。鞏立姣更以20米58創造了個人最好成績,也為中國隊贏得奧運會田賽項目首枚金牌。

賽後,中國田徑協會發來感謝信,感謝北京體育大學用科技手段為中國投擲運動員在技術環節上找到了實現自我突破的“關鍵一招”。

“我們用人工智慧技術對運動員的動作技術進行分析,提出改進建議,以科技手段助運動員一臂之力。”北京體育大學運動與健康研究院院長劉卉教授説。據了解,這項在東京奧運會嶄露頭角的技術系統,目前也正在為積極備戰北京冬奧會的中國運動員不斷改進升級提供服務。

突破傳統動作捕捉方法局限

用生物力學方法研究人體運動,需要對所做動作進行定量分析,基礎前提離不開數據。

快速高品質地獲得運動員動作技術數據,是當前急需攻克的一項關鍵瓶頸。傳統動作捕捉技術,要麼需要在人體固定反游標記點或慣性感測器,要麼需要人工識別人體關節點。

“前者不能在比賽中使用,後者則因為工作量大、耗時長、重復性差,嚴重影響動作技術分析的反饋速度和可靠性,限制了生物力學在助力競技體育中的應用。”劉卉解釋道。

如何破困局?劉卉團隊利用基於深度學習原理的人工智慧技術,建立神經網路模型,實現對動作視頻中人體關節點的電腦自動識別,進而建立起適用於競技體育和一般生物力學研究的電腦系統——無反光點人體運動自動捕捉人工智慧系統。

作為科技冬奧重點專項“冬季項目運動員專項能力特徵和科學選材關鍵技術研究”課題負責人,劉卉表示,該系統已應用在國家速度滑冰和越野滑雪項目的訓練中,獲得超過8000人次的賽時動作技術數據,使機器深度學習越發“得心應手”,對於滑冰與滑雪運動員的動作捕捉與技術分析,既能精準到具體細節,又能快速反饋分析結果。

多項演算法技術確保自動識別快速準確

研究中,劉卉團隊發現,運動視頻自動解析至少需要解決“跟得住”“識別準”“精度高”3個問題。

運動現場拍攝視頻,畫面環境複雜多樣。課題組在常用的運動人體跟蹤演算法中結合了光流跟蹤技術,即通過動作量的多少、動作幅度的大小來準確鎖定主ID(身份人物),有效規避快速運動造成的影像模糊,減小複雜背景等因素干擾,確保能夠“跟得住”。

同時,對大量已標記的訓練數據進行機器學習,利用電腦系統形成神經網路,可識別不同運動姿態的人體關節點,達到“識別準”。

此外,該系統具有對每一幀圖像的關節點進行獨立計算的功能。如何減小獨立計算時關節點位置的隨機誤差?劉卉介紹,運用演算法增加對連續運動的時間約束,即識別出各個關節點的高頻誤差並把它排除掉,以此修正關節點位置坐標,最終獲得高精度計算結果。

“從2019年起,經過數個版本的迭代升級,該系統已能快速準確地自動識別運動視頻中的人體關節點,對旋轉、翻滾等人體動作也能進行比較好的自動識別。”劉卉説,系統合成並輸出所有識別點的三維坐標,支援多視頻批量自動解析與指標計算。

如果系統採用的是工業錄影機,數據的傳輸與處理往往在1—3分鐘就可完成。“這將對技巧類運動員深刻體驗競技狀態、掌握技術要領起到至關重要的作用。”劉卉説。

高空動作捕捉不再是難事

據了解,這一系統還提供多種空間三維標定方案,可解決大範圍、高空動作的數據採集問題。

這是多大範圍?劉卉表示,縱橫20—30米的空間範圍都可覆蓋。尤其是針對跳臺滑雪空中技巧類的項目,能夠為教練員很難用肉眼識別的技術細節找尋改進的空間。

目前,該系統已被用於鋼架雪車、花樣滑冰、跳臺滑雪等項目的國家隊備戰訓練工作,將為運動員備戰北京冬奧會提供重要科技支撐。


責任編輯:白雨