設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

自動駕駛理論新突破登 Nature 子刊!清華、密歇根聯(lián)合提出三條技術(shù)路線,劍指「稀疏度災難」

新智元 2024/6/26 18:23:31 責編:問舟

近日,清華大學與密歇根大學聯(lián)合提出的自動駕駛汽車安全性「稀疏度災難」問題,發(fā)表在了頂刊《Nature Communications》上。

研究指出,安全攸關(guān)事件的稀疏性導致深度學習模型訓練難度大增,提出了密集學習、模型泛化改進和車路協(xié)同等技術(shù)路線以應對挑戰(zhàn)。

隨著自動駕駛技術(shù)的快速發(fā)展,交通系統(tǒng)迎來了前所未有的變革。盡管自動駕駛技術(shù)在過去二十年中取得了顯著進步,但 L4 級別自動駕駛汽車尚未實現(xiàn)商業(yè)化,其主要原因是安全性能尚未達到大規(guī)模應用的要求。

自動駕駛汽車(Autonomous Vehicle,AV)在真實道路上的測試已達數(shù)百萬公里,但仍無法有效處理多種安全攸關(guān)事件,這些事件的概率分布呈現(xiàn)長尾特征,稱為自動駕駛汽車安全性的長尾挑戰(zhàn)(Long-Tail Challenge)。

然而,此問題在已有文獻中尚未正式定義,這種理解的缺乏嚴重阻礙了解決這一問題的進程。

為此,清華大學助理教授封碩和密歇根大學 Mcity 主任、講席教授劉向宏(Henry Liu)合作在國際上首次提出了自動駕駛汽車安全性挑戰(zhàn)背后的關(guān)鍵科學問題 —— 稀疏度災難(Curse of Rarity,CoR),該研究成果作為評論文章(Comment)發(fā)表在 Nature 子刊《Nature Communications》

論文鏈接:https://doi.org/ 10.1038 / s41467-024-49194-0
前序工作:https://www.tsinghua.edu.cn/ info / 1175/102314.htm

研究證明,隨著安全攸關(guān)事件的稀疏度增加,深度學習梯度的估計方差會指數(shù)增加,使得模型訓練所需數(shù)據(jù)量和計算量指數(shù)增加,嚴重阻礙了模型在安全攸關(guān)任務的學習能力。

由于深度學習在自動駕駛領(lǐng)域應用的廣泛性,稀疏度災難廣泛存在于自動駕駛的感知、預測、決策、測試等安全攸關(guān)任務中,造成了自動駕駛汽車的安全性挑戰(zhàn)。

在此基礎(chǔ)上,研究提出了三種解決稀疏度災難的技術(shù)路線,包括使用安全攸關(guān)數(shù)據(jù)進行密集學習、改善模型泛化和推理能力以及利用車路協(xié)同等技術(shù)降低安全風險事件發(fā)生概率。

什么是稀疏度災難?

通俗地講,稀疏度災難是指真實駕駛環(huán)境高維空間中的安全攸關(guān)事件(Safety-critical Events)的發(fā)生概率極低,導致車輛駕駛數(shù)據(jù)中包含的安全攸關(guān)事件的信息極端稀疏,安全攸關(guān)事件的信息被大量的常規(guī)駕駛數(shù)據(jù)所掩蓋,導致深度學習模型難以對這些安全攸關(guān)事件進行學習。

更糟糕的是,自動駕駛汽車更好的安全性能也意味著安全攸關(guān)事件的發(fā)生頻率進一步降低,導致深度學習模型更加難以對安全攸關(guān)事件進行學習。

理論上分析,稀疏度災難是指深度學習的梯度方差隨著安全攸關(guān)事件的稀疏度增加而指數(shù)增加,導致深度學習所需數(shù)據(jù)和計算量相應指數(shù)增加。

深度學習的關(guān)鍵在于獲得神經(jīng)網(wǎng)絡(luò)的最優(yōu)參數(shù),梯度下降方法在每個訓練步使用一批數(shù)據(jù)來估計損失函數(shù)的梯度,然而隨著安全攸關(guān)事件稀疏度的增加,梯度估計的方差可能會呈指數(shù)增長,導致稀疏度災難。

圖 1 深度學習模型的稀疏度災難示意圖。

稀疏度災難給自動駕駛帶來哪些挑戰(zhàn)?

由于深度學習方法在自動駕駛領(lǐng)域應用的廣泛性,稀疏度災難廣泛存在于自動駕駛的感知、預測、決策、測試等安全攸關(guān)任務中,導致自動駕駛汽車面臨安全性挑戰(zhàn)。

1. 感知

自動駕駛的感知任務是從周圍環(huán)境中獲取信息并提取相關(guān)知識。在這一任務中,不少研究者討論了數(shù)據(jù)不平衡的問題,即只有一小部分的數(shù)據(jù)類別具有大量樣本,而其他類別只有非常少的樣本。

然而,對于自動駕駛汽車的安全攸關(guān)感知任務來說,不平衡比(Imbalance Ratio)往往極高(例如,可能達到),而現(xiàn)有的方法,如類再平衡、信息增強 - 和模塊改進等方法,往往不足以解決這一問題,因為它們只能處理有限的不平衡比(通常小于)。

不平衡比的這種數(shù)量級上的顯著差異導致不平衡數(shù)據(jù)的問題轉(zhuǎn)變?yōu)橄∈瓒葹碾y的問題。此外,即使每個感知錯誤看起來都微不足道,一系列感知錯誤的累積效應將會十分危險。

例如,單幀的對象分類錯誤可能不是什么問題,而連續(xù)多幀的分類錯誤則可能導致安全攸關(guān)事件發(fā)生,這種序列的發(fā)生概率遠低于任何單個錯誤的發(fā)生概率,因此稀疏度災難的問題會更加嚴重。

2. 預測

自動駕駛汽車的高安全性能要求需要對周圍交通參與者的行為進行精確的建模和準確的預測。在安全攸關(guān)場景下,即使是預測中的微小錯誤也是不可接受的。

例如,在亂穿馬路的情況下,行人軌跡的精確預測對于自動駕駛汽車避免碰撞至關(guān)重要。一個小的預測誤差可能會導致誤報或漏報,讓自動駕駛汽車的駕駛決策過于謹慎或過于自信,從而導致事故。

同樣的,駕駛行為仿真中的不準確性可能導致低估或高估自動駕駛汽車的安全性能,從而誤導自動駕駛汽車的研發(fā)過程。

3. 決策

深度模仿學習和深度強化學習等深度學習技術(shù)已被應用于自動駕駛汽車的決策過程。然而,當涉及到安全攸關(guān)場景時,由于缺乏真實世界的數(shù)據(jù),深度學習模型可能會受到稀疏度災難的影響。

這種稀疏性導致策略梯度估計方差較大,阻礙深度學習進行有效學習。另一類確保決策安全的方法則基于一系列假設(shè)。

典型假設(shè)包括可獲得自動駕駛汽車的系統(tǒng)模型,其特征可能是是有界的未知動力學和噪聲。但是由于存在稀疏度災難問題,當遇到高維駕駛環(huán)境中的安全攸關(guān)事件時,這些假設(shè)往往難以保證。

4. 測試

自動駕駛汽車安全性的測試評估對自動駕駛汽車的廣泛部署至關(guān)重要?,F(xiàn)階段通常將仿真測試、封閉場地測試和道路測試相結(jié)合,在自然駕駛環(huán)境中測試自動駕駛汽車。然而,由于稀疏度災難,評估自動駕駛汽車的安全性往往需要數(shù)十億英里。

為了加速這一過程,研究者提出了多種方法,如基于場景測試方法,這些方法側(cè)重于在定制化生成的場景中測試自動駕駛汽車。然而,稀疏度災難給生成時空復雜的安全攸關(guān)場景帶來了嚴峻的挑戰(zhàn)。

例如,由于生成復雜安全攸關(guān)場景時的較大方差,基于重要性采樣的方法可能會出現(xiàn)嚴重的低效性,因此許多現(xiàn)有方法僅限于處理具有有限動態(tài)對象的短場景片段,有較強的時空局限性,無法捕捉真實世界安全攸關(guān)事件的全部復雜性和隨機性。

如何解決稀疏度災難?

針對自動駕駛汽車的稀疏度災難,研究給出了給出三種可能的技術(shù)路線,三種技術(shù)路線可以互相補充。

路線 1:使用更多安全攸關(guān)事件數(shù)據(jù)進行有效訓練

第一條技術(shù)路線從數(shù)據(jù)入手,旨在通過更好地利用額外數(shù)據(jù)來不斷提升對安全攸關(guān)事件的 - 處理能力。

一種思路是只利用與安全攸關(guān)事件相關(guān)的數(shù)據(jù)進行密集學習(Dense Learning),這可以顯著降低估計方差,證明過程可以參考文章方法部分的定理 1。

隨之而來的一個問題是,如何定義并識別安全攸關(guān)事件?這一問題極具挑戰(zhàn)性,因為安全攸關(guān)事件依賴于特定問題的目標函數(shù),并且受到駕駛環(huán)境時空復雜性的影響。

更重要的是,目前仍缺乏能夠指導安全攸關(guān)事件數(shù)據(jù)利用的相關(guān)理論。針對自動駕駛汽車的安全性驗證,作者之前的工作已經(jīng)嘗試通過開發(fā)密集深度強化學習方法 (Dense Deep Reinforcement Learning, D2RL) 來解決稀疏度災難問題。

理論和實驗結(jié)果表明,密集深度強化學習方法可以顯著降低策略梯度估計的方差,這是解決稀疏度災難的關(guān)鍵一步。

另一個問題是如何收集或生成更多稀疏的事件數(shù)據(jù)。特斯拉提出了影子模式測試(Shadow Mode Testing)的概念,通過比較人類駕駛和自動駕駛的行為來識別稀疏事件,但文獻中沒有給出具體細節(jié)。除了從自然駕駛環(huán)境中收集數(shù)據(jù)外,還可以采用各種數(shù)據(jù)增強方法來生成安全攸關(guān)場景。

路線 2:改善模型泛化和推理能力

第二條技術(shù)路線則聚焦提高機器學習模型的 - 泛化和推理能力。直覺上,人類可以通過有限的駕駛經(jīng)驗(通常不到一百小時的訓練)掌握駕駛技術(shù),未來的自動駕駛汽車也可能在不依賴大量特定任務數(shù)據(jù)的情況下克服稀疏度災難。

這需要自動駕駛汽車同時具備自下而上的推理(感知數(shù)據(jù)驅(qū)動)和自上而下的推理(認知-期望驅(qū)動)能力,來彌合數(shù)據(jù)中沒有的信息差距。

這些要求符合通用人工智能 AGI 的發(fā)展。近年來,語言大模型和視覺語言模型等基礎(chǔ)模型通過采用全監(jiān)督微調(diào)、上下文學習和思維鏈等技術(shù),在自然語言處理、視覺理解和推理方面表現(xiàn)出了顯著的泛化和推理能力。

盡管目前仍有幻覺等問題需進一步研究,語言大模型和視覺語言模型通過利用廣泛的數(shù)據(jù),為實現(xiàn)自上而下的 - 推理進而解決稀疏度災難問題提供了可能的技術(shù)路線。

路線 3:降低安全攸關(guān)事件發(fā)生概率

第三條技術(shù)路線則通過降低安全攸關(guān)事件的發(fā)生概率來減輕稀疏度災難對自動駕駛汽車的影響。

一種方法是將傳統(tǒng)的基于模型的方法與深度學習方法相結(jié)合以更好地發(fā)揮兩者的優(yōu)勢,例如,形式化方法(Formal Methods)基于抽象模型來防止自動駕駛汽車的不安全行為。當然,如相關(guān)文獻所述,想要充分利用形式化驗證方法的潛力,仍需要解決多種挑戰(zhàn)。

另一種方法是通過利用車路協(xié)同等技術(shù),基于基礎(chǔ)設(shè)施的傳感器或協(xié)同感知來增強態(tài)勢感知 -,幫助自動駕駛汽車克服其自身車載傳感器的局限性。

例如,通過車載人工智能實現(xiàn) 4-5 個 9 的安全可靠性,通過車路協(xié)同等技術(shù)再實現(xiàn) 1-2 個 9 的安全可靠性,使得系統(tǒng)整體安全性達到大規(guī)模落地應用要求。然而,如何有效利用這些額外信息來提高性能仍然是一項具有挑戰(zhàn)性的任務,特別是在安全攸關(guān)場景中。

參考資料:

  • https://doi.org/10.1038/s41467-024-49194-0

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:自動駕駛深度學習

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知