投入人工智慧研究 引領自動駕駛創新突破

發布日期

June 23, 2025

我們正見證智慧車輛技術的革命性進展。人工智慧研究所開發的AI模型QCNet,在全球自駕車軌跡預測挑戰中獲得傲人成績,大力推動自動駕駛車輛的進步,亦透過持續提升自然語言處理、環境感知等技術的傑出表現,打造更先進的智慧座艙,提供即時駕駛輔助及個人化舒適空間。

無論是在自駕或智慧座艙領域,鴻海研究院人工智慧研究所近年皆繳出亮眼成績,例如2023年首度推出與香港城市大學合作的新世代自駕AI模型QCNet。QCNet在全球規模最大,且最具挑戰性的兩大自駕車軌跡預測挑戰排行榜Argoverse 1與Argoverse 2,取得排名第一的佳績,準確度優於業界,未來應用於鴻海集團電動車自動駕駛系統,將能大幅提升自駕決策的即時性與安全性。

發表自駕軌跡預測模型QCNet  大幅降低誤差率

自動駕駛進展大致分為3個階段,依序為車輛感知(Perception)、軌跡預測(Trajectory Prediction)、運動規劃(Motion planning)。車輛感知是指透過車輛的各個感測器感知其他車輛、行人、道路標線等等;第二階段進展至軌跡預測,舉例來說,自駕車在感知前後左右其他車輛的存在後,必須能夠預測這些車輛在接下來數秒內的行為及可能路徑;第三階段則是根據軌跡預測結果規劃因應行為及路徑,以確保彼此行車安全。

QCNet模型的提出,為第二階段提供了更理想的解決方案。鴻海研究院人工智慧研究所所長栗永徽說明:「QCNet能夠非常準確地預測自駕車周遭所有會動的物件,包括車輛、行人或腳踏車等等在接下來6至8秒的軌跡,預測結果與實際車輛行駛的軌跡高度吻合,大幅降低了錯誤率。」這是自駕車軌跡預測的重要突破。QCNet模型在2023年電腦視覺與圖形識別會議(CVPR)發表後引起各方矚目。QCNet的突破之處,在於能夠理解真實駕駛場景的全局資訊,活用和ChatGPT相同技術基礎的Transformer,將其修改為適用於自動駕駛任務,使其學習車輛歷史軌跡,以及車輛之間的交互行為、道路環境等多樣性與不確定性,由豐富的場景反饋資料持續自我優化。

在自動駕駛系統的行為預測中,對周圍資訊進行有效編碼非常重要。QCNet為交通場景中的車道、斑馬線、車輛、行人等在內的每個場景元素分別建立局部座標系,在場景元素所對應的局部座標系下學習表徵,藉由相對時空、位置的編碼,捕捉不同場景元素之間的相對關係,可避免大量重複的計算,進而將模型的即時計算效率提升85%以上。

強敵環伺下  長期霸榜Argoverse 排行榜冠軍

QCNet在自駕車軌跡預測挑戰排行榜(Argoverse)的長期霸榜,說明了QCNet至今的「無敵」表現。Argoverse是用於訓練及測試自動駕駛中感知及軌跡預測模型的公開數據集。這些數據涵蓋自動駕駛汽車的3D追蹤、軌跡預測、地圖與其他感知任務,為汽車軌跡預測提供成千上萬個場景。全球眾多投入軌跡預測的團隊,力求降低在這些場景的預測錯誤,爭取排行榜名列前茅的位置,彼此競爭相當激烈。

「這是一個開放的擂台,所有人都可以挑戰,排行榜的名次是時時變動的,第一名位置通常坐不久,因為所有資訊都是公開的,所以只要有足夠的GPU和Data,其他團隊可以持續精進模型表現,總是在短時間之後有團隊挑戰成功。」栗永徽說明這排行榜的殘酷,而根據過往歷史來看,冠軍能維持2週就算非常厲害,「我們的QCNet從2023年6月到2024年7月已穩居第一名超過1年之久,這在AI界可說是非常罕見的。」

特殊演算法奏效  減輕算力負擔

QCNet穩坐冠軍寶座,來自於第一代QCNet及第二代QCNet的接力傑出表現。軌跡預測技術與時俱進,不僅考量車輛自身的過去數據和周邊車輛的當前位置,還要預測這些周邊車輛未來的動作將如何影響自身的駕駛決策。例如,若偵測到左側車輛在未來3秒內可能會切入前方,則自身車輛可能需要減速或調整行駛路線來避免潛在碰撞。可以想見,如此的進步來自於更加複雜及精確的整體系統決策,需要更強大的算力支持,也就是得採用更多的GPU。

基於Quer y- Centr ic(QC)演算法,QCNet模型可在使用較少GPU資源的情況下進行有效訓練,模型的規模相對較小。栗永徽強調車載硬體的空間和處理能力是有限的,「一台車不可能放進幾百張GPU卡,所以將AI模型縮小,同時又維持精確度,這是全球自動駕駛領域共同追求的目標。」鴻海研究院推出的第二代模型QCNet做到了,大大推進全球自動駕駛技術的進展,其發表的相關論文在不到1年內已被引用約70次之多,足見此研究的影響力。

強化自然語言處理  智慧座艙更能溝通

不僅在自動駕駛取得突破性成果,人工智慧研究所在智慧座艙領域也迭有亮眼成績,例如自然語言處理(NLP)方面的研究,讓駕駛者及乘客能夠更自然地與車輛「交談」,打造更沉浸、更直覺的座艙體驗。研究論文已於2023年底舉行的Empirical Methods in Natural Language Processing(EMNLP)上發表,同樣引來高度矚目。在此篇論文中,AI所與中央研究院團隊共同開發一個多模態車用模型LocaVQG,讓AI智慧車可以根據周圍的場景、物件、地標等多樣資訊,與乘客進行有趣的對話。想像一下,你正在開一趟長途旅行,車子能根據周圍的場景以及地理位置,生成一些有趣的問題來開啟對話,使整個旅程瞬間從無聊變成生動有趣。研究團隊不但成功訓練出LocaVQG,也使用創新的Model Distillation 的方法大幅縮小模型參數量,甚至可以安裝在智慧手機上。這項研究為未來更智能、更安全的駕駛體驗開闢了一條新路,可能會在不久的未來改變我們的人車互動(Human-Vehicle Interaction)方式。

研究所將透過資料擴增方式快速擴充資料庫,提升模型的訓練效果及降低執行難度與成本。

採用資料擴增法  快速生成高品質數據

鴻海研究院人工智慧研究所持續致力運用AI賦能車輛,而關於車輛智慧化發展,大量及高品質的數據是關鍵所在,然而,栗永徽直言在數據收集方面,鴻海的確不若特斯拉等電動車先行者擁有優勢,「畢竟愈早開始收集,累積的數據資料量愈龐大。」不過,這個問題有解,研究所將透過資料擴增(Data Augmentation)方式快速擴充資料庫,「透過生成式AI技術,我們能夠從有限的數據中生成大量的訓練數據,不僅能提升模型的訓練效果,還能有效減輕在現實世界中收集大規模高品質數據的難度和成本。」

除了數量之外,資料擴增的重要挑戰,還在於如何確保擴增後的數據仍能保持高品質,也就是如同真實數據一般自然,如此才有實用價值,這是人工智慧研究所接下來的重要任務之一。透過不斷挑戰及突破技術門檻,並且結合鴻海集團的研發實力及製造資源,更先進的自動駕駛和智慧座艙應用,指日可待。

鴻海研究院人工智慧研究所持續致力運用AI賦能車輛。

研究中心

人工智慧研究所