CVPR2020:Waymo和Uber帶來新的技術革命
近日,計算機視覺與模式識別頂級會議 CVPR 2020 在全球線上開幕了。在一個關于自主駕駛研討會上,Waymo和Uber專家提出了新研究,用來提高可靠性、安全的自動駕駛系統(tǒng)。
Waymo的首席科學家Drago Anguelov詳細介紹了ViDAR,這是一種攝像機和以范圍為中心的框架,涵蓋場景幾何,語義和動態(tài)。Uber先進技術集團首席科學家Raquel Urtasun展示了利用車輛間通信進行導航,交通建模等功能的技術。
ViDAR,是Waymo與Google的幾個AI實驗室之一Google Brain的合作的成果,是從運動中推斷出結構。它通過利用運動視差(運動引起的位置變化)從圖像序列(即車載攝像機捕獲的幀)中學習3D幾何形狀。給定一對圖像和激光雷達數據,ViDAR可以預測未來的攝像機視點和深度數據。
根據Anguelov的說法,ViDAR使用快門定時來解決滾動快門問題,這是一種相機捕獲方法,其中場景的所有部分均未同時記錄。除了支持多達五個攝像頭之外,該緩解步驟還使框架能夠避免在較高速度下發(fā)生位移,同時提高了精度。
Waymo內部使用ViDAR來提供最新的以相機為中心的深度,例如運動(估計相機相對于場景的運動)和動力學模型。這導致創(chuàng)建了一個模型,該模型可以根據攝像機圖像估算深度,并可以預測障礙物(包括行人)的行進方向,以及其他一些進步。
V2網絡
優(yōu)步(Uber)先進技術小組(ATG)的研究人員創(chuàng)建了一個名為V2VNet的系統(tǒng),該系統(tǒng)使自動駕駛汽車能夠通過空中彼此高效地共享信息。使用V2VNet,網絡中的汽車交換包含數據集,時間戳和位置信息的消息,使用AI模型補償時間延遲,并從數據集中智能地僅選擇相關數據(例如,激光雷達傳感器讀數)。
為了評估V2VNet的性能,ATG使用“激光模擬器”系統(tǒng)編譯了大型的車-車語義數據庫。具體來說,該團隊從現實世界的激光雷達掃描中生成了5500個原始的重構(總共進行了46,796個訓練和4,404個驗證幀),并從多達7輛車的角度進行了模擬。
幾個實驗的結果表明,與單車相比,V2VNet的錯誤率低68%。隨著網絡中車輛數量的增加,性能得到了提高,顯示出遠處和被遮擋的物體以及高速行駛的汽車“顯著”改善。
目前尚不清楚V2VNet是否將在現實世界的汽車中投入生產,但是Uber競爭對手Waymo的無人駕駛克萊斯勒Pacifica小型貨車通過雙調制解調器無線交換有關危險和路線變更的信息。Waymo的首席技術官Dmitri Dolgov在去年的一次演講中說:“ [我們的汽車]仍然必須依靠車載計算來處理對安全至關重要的任何事情,但是[5G]將成為加速器。
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞