我是廣告 請繼續往下閱讀
本次鴻海研究院與香港城市大學所提出的QCNet是一種智慧型軌跡預測模型,其主要優勢在於能夠理解真實駕駛場景的全局資訊,活用和ChatGPT相同技術基礎的Transformer架構,將其修改為適用於自動駕駛場景,使其學習車輛歷史軌跡,車輛間交互行為、道路環境等多樣性與不確定性,得到豐富的場景反饋。
QCNet可在複雜的道路環境捕捉車輛的多種潛在意圖、超長距離預測未來6至8秒內的運動軌跡、可同時對場景中的多個目標進行準確的預測,並可將編碼器的計算效率提升85%以上。
除了高效精準的預測,QCNet為交通場景中包括車道、斑馬線、車輛、行人等在內的每一個場景元素分別建立了一套局部座標系,在場景元素所對應的局部座標系下學習表徵,並通過相對時空位置編碼來捕捉不同場景元素之間的相對關係,從而得以避免大量重複的計算並最終提升模型的即時計算效率。
鴻海研究院人工智慧研究所所長栗永徽表示,鴻海研究院在AI與自動駕駛領域投入大量人力,從基礎模型以及算法核心精進技術,QCNet能夠在Argoverse 1與Argoverse 2取得排名第一的佳績,並且將於今年六月全世界AI領域享譽全球的頂級會議CVPR發表,很欣慰看到本所自駕團隊的研發成果受到世界級的肯定,未來QCNet可應用於集團電動車自動駕駛系統,大幅提升自動駕駛決策的實時性與安全性。