近年來,我國數字經濟快速發展,以大數據、雲計算、人工智慧、物聯網等為代表的新技術日新月異,在交通領域中發揮著越來越顯著的作用,城市交通管控水準也得到顯著提升。
為更好地助推智慧交通建設,打造“更懂車主”的車聯網生態圈,2020年10月28日,廣州亞美資訊科技有限公司(簡稱“亞美科技”)全資子公司廣州亞美智造科技有限公司(簡稱“亞美智造”)林輝、李景、楊樂超三位技術大咖作為亞美科技參賽代表參加了2020“市長杯”中國(溫州)工業設計大賽數字設計(杭州)專項賽決賽,其參賽方案作品《基於圖像視覺的AI碰撞檢測系統》成功晉級決賽,並獲得銅獎殊榮。
此次大賽由溫州市人民政府、中國工業設計協會主辦,溫州市經濟和資訊化局、溫州市投資促進局、溫州大學承辦,共718份作品參與比賽,10份作品入圍本次決賽,邀請19位專家選舉,以項目的技術成熟度、項目與溫州本土企業的聯動性以及項目市場前景作為本次賽事的選舉標準。
檢測準確度高達99.49%
人類通過肉眼可以了解到物體的具體活動,但肉眼所見的範圍和速度受限,無法準確判斷物體的位置及動作變化,例如駕車過程或當車輛發生碰撞的時候,人用肉眼未必完全看到事實。因此專業的檢測系統能幫助人類看到事物本質,比如G-SENSOR感測器、AI圖像碰撞檢測系統。
據了解,圖像視覺的AI碰撞檢測系統主要由硬體載體、AI演算法以及車載技術三部分構成,是基於智慧後視鏡,融合多感測器(G-SENSOR姿態數據,GPS定位數據,OBD總線數據)、圖像AI演算法以及車聯網大數據技術的AI碰撞檢測系統,是一個意外事故預防和檢測駕駛輔助系統,就如同第三隻眼,能檢測到車輛的碰撞情況。
碰撞檢測系統究竟是如何檢測車輛碰撞的呢?據負責人介紹,碰撞檢測系統是通過實時採集智慧後視鏡記錄碰撞前後10秒的視頻數據,並逐幀輸入深度學習模型進行檢測,運用了目前主流的YoloV4-Tiny目標檢測演算法、車載視覺演算法等,測算出車輛、車頭位置等資訊。要想有效地識別出輕、中、強等車輛碰撞強度,該行業方案還通過多感測器技術與圖像技術相融合,將行車碰撞準確度提高到99.49%以上,同時結合多幀圖像,進行目標跟蹤、圖像抖動分析、車頭畸變檢測、圖像異常檢測,最終輸出圖像AI碰撞檢測結果,並利用大數據技術對碰撞檢測結果進行精準分析,解決車輛碰撞誤報、漏報,以及無效的緊急視頻導致頻寬、存儲資源的嚴重浪費等問題。
應用前景趨好
隨著通信技術、車聯網技術、視覺技術等不斷發展,以其精確感知道路交通環境的能力和實時行車風險預警的能力都將有可能表明基於圖像視覺的AI碰撞檢測系統有巨大的應用前景。
第一,根據亞美科技大數據分析,AI碰撞演算法較傳統碰撞演算法,顯著降低了誤報以及漏報數量,截止2020年10月15日,行車碰撞識別準確度提高到了99.49%;
第二,該技術方案含有5項發明專利,分別是《一種基於AI技術的車輛碰撞檢測方法》、《一種基於哈希編碼的車輛碰撞檢測方法》、《一種基於FAST特徵點匹配的前方車輛移動檢測方法》、《一種基於深度學習和音頻的車輛碰撞檢測方法》、《車輛碰撞檢測處理方法、裝置、車載終端和存儲介質》;
第三,該技術方案不僅能節約企業運營成本,更節約因碰撞誤識別帶來超過80%的網路頻寬和伺服器存儲資源;
第四,該技術方案具有更加豐富的事故大數據分析,以及潛在的商業價值提煉,如能幫助車主提供事故處理初步分析報告、保險理賠、4S門店、緊急救援等服務。
(責任編輯:解絢)