国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

賽道Hyper | 自動(dòng)駕駛通用大模型:UniAD技術(shù)遠圖

北美時(shí)間6月21日,在CVPR(國際計算機視覺(jué)和模式識別頂級會(huì )議)上,出現該會(huì )議有史以來(lái)首篇以自動(dòng)駕駛為主題的最佳論文。 

這有點(diǎn)像ChatGPT應用,底層技術(shù)源頭Transformer模型,來(lái)自Google在2017年的神經(jīng)信息處理系統大會(huì )上發(fā)表的一篇論文,在最終成了如今AGI(通用人工智能)技術(shù)的應用突破口,在CVPR上獲得“最佳”桂冠的這篇論文,也可能會(huì )成為未來(lái)自動(dòng)高階駕駛的技術(shù)應用推進(jìn)器。 


(資料圖片)

對高階自動(dòng)駕駛技術(shù)的意義在于,首次提出了感知決策一體化的自動(dòng)駕駛通用大模型——被稱(chēng)為“UniAD”——開(kāi)創(chuàng )了以全局任務(wù)為目標的自動(dòng)駕駛大模型架構先河,為自動(dòng)駕駛技術(shù)與產(chǎn)業(yè)發(fā)展提出了全新的方向和空間。 

40年來(lái)首篇自駕主題最佳 

CVPR,由IEEE舉辦的計算機視覺(jué)和模式識別領(lǐng)域的專(zhuān)業(yè)技術(shù)會(huì )議,英文全稱(chēng)“Conference on Computer Vision and Pattern Recognition”,是AI領(lǐng)域最有學(xué)術(shù)影響力頂級技術(shù)會(huì )議中的一個(gè),每年舉辦一次。 

在2023年這屆會(huì )議上,共有9155篇技術(shù)論文參與“最佳”角逐。 

最終的結果,出現兩篇“最佳論文”,另外一篇是最佳學(xué)生論文。也就是在9155篇論文中,總共有3篇獲得“最佳”獎(Best Paper Award)的技術(shù)論文。 

其中,有1篇由上海AI實(shí)驗室、武漢大學(xué)和商湯科技三方聯(lián)合研究的主題最佳論文,即“Planning-oriented Autonomous Driving”(以路徑規劃為導向的自動(dòng)駕駛),是CVPR從1983年開(kāi)始舉辦40年以來(lái),第一篇以自動(dòng)駕駛為主題的最佳論文;同時(shí)也是該會(huì )議最近10年以來(lái),作者第一單位來(lái)自中國機構的最佳。 

值得一提的是,這篇最佳論文的作者方之一,商湯科技,在本屆CVPR中,另有1篇最佳論文候選、7篇Highlight論文和54篇被收錄論文。業(yè)內人士告訴華爾街見(jiàn)聞,上海AI實(shí)驗室參與這篇論文撰寫(xiě)的核心人士,均有商湯科技從業(yè)背景。 

論文提出的“感知決策一體化的自動(dòng)駕駛通用大模型”,被稱(chēng)為“UniAD”,其核心技術(shù)價(jià)值是建立了一套端到端感知決策一體框架,融合多任務(wù)聯(lián)合學(xué)習新范式,可實(shí)現更有效的信息交換、協(xié)調感知預測決策,進(jìn)而能進(jìn)一步提升路徑規劃能力。這也是該文獲得Best Paper Award稱(chēng)號的理由。 

相當多的自動(dòng)駕駛業(yè)內人士在談及高階自動(dòng)駕駛技術(shù)時(shí),均有類(lèi)似觀(guān)點(diǎn),即“高階自動(dòng)駕駛在技術(shù)上并非難以逾越或不可解決,但法規難以同步”。這話(huà)除了字面意思,另外還隱含著(zhù)技術(shù)涵義,也就是高階自動(dòng)駕駛在行駛時(shí),與其他車(chē)輛或行人,還難以形成高效交互。這在本質(zhì)上屬于多任務(wù)應用需求范疇。 

這層涵義,其隱含的意思,也就是承認高階自動(dòng)駕駛的技術(shù),仍未實(shí)現有效突破。此前,大部分技術(shù)均著(zhù)眼于解決模塊化問(wèn)題,比如提升雷達掃描范圍和精度、域控制器性能或自動(dòng)駕駛算力芯片性能等等。這些努力都很難兼顧“多任務(wù)”和“高性能”應用需求,尤其是前者。 

UniAD(自動(dòng)駕駛通用算法框架:Unified Autonomous Driving)由4個(gè)基于Transformer解碼器的感知預測模塊以及1個(gè)規劃模塊組成,整體上是一套自動(dòng)駕駛通用模型框架。 

UniAD首次將感知、預測和規劃等3大類(lèi)主任務(wù),以及包括目標檢測、目標跟蹤、場(chǎng)景建圖、軌跡預測、柵格預測和路徑規劃在內的6小類(lèi)子任務(wù),整合到統一的基于Transformer的端到端網(wǎng)絡(luò )框架內,成為一個(gè)全棧關(guān)鍵任務(wù)駕駛的通用模型。 

在NuScenes真實(shí)場(chǎng)景數據集框架內,UniAD所有相關(guān)任務(wù)都達到SoTA(最佳性能:State of The Art),尤其是預測和規劃效果遠超其他模型。 

簡(jiǎn)單來(lái)說(shuō),就解決“多任務(wù)”問(wèn)題,通過(guò)多個(gè)Transformer模塊,UniAD實(shí)現了多任務(wù)層級式結合。對不同任務(wù)間的信息,也能實(shí)現全角度、多方位交互。通過(guò)多組查詢(xún)向量,UniAD達成了物體與地圖的建模,隨之將預測結果傳遞至規劃模塊,用于規劃安全路徑。 

應用這套框架的自動(dòng)駕駛全棧解決方案,能提升多目標跟蹤準確率提升20%,車(chē)道線(xiàn)預測準確率提升30%,預測運動(dòng)位移和規劃的誤差分別降低38%和28%。 

強在哪?能搞定多任務(wù) 

若觀(guān)察該文的獲獎理由,不難發(fā)現,解決“多任務(wù)”需求,UniAD從規劃入手,將全棧關(guān)鍵任務(wù)從端到端,融合進(jìn)一個(gè)統一的框架內。 

應當承認,高階自動(dòng)駕駛技術(shù)應用,在此前并非全是模塊化解決方案,也有相當多的國際公司做了很多框架模式。 

比如,美國Waymo和Cruise等自駕公司采用“獨立并行模型” 架構設計,美國特斯拉和中國小鵬汽車(chē)等,提出“多任務(wù)共享網(wǎng)絡(luò )”架構模式,美國英偉達、德國馬克斯普朗克研究所(MPI)和英國Wayve自駕公司等,用了“直接”端到端方案。 

UniAD首次將全棧關(guān)鍵任務(wù)端到端地包含在一個(gè)統一的網(wǎng)絡(luò )架構中,提出了全新的“全??煽亍倍说蕉朔桨?,通過(guò)系統聯(lián)合調優(yōu),取得比此前所有架構都要更優(yōu)的應用效果。 

從技術(shù)角度看,UniAD用了多組查詢(xún)向量(Query)串聯(lián)起多個(gè)任務(wù),實(shí)現網(wǎng)絡(luò )信息傳遞,隨后將所有融合的信息傳至最終的規劃模塊。同時(shí),每個(gè)模塊的Transformer架構,通過(guò)注意力機制,可有效實(shí)現對查詢(xún)向量的交互。 

在實(shí)際應用層面,UniAD能顯著(zhù)節省計算資源,避免不同任務(wù)模塊的累積誤差(此前單一模塊化解決方案在多次運行后形成難以解決的冗余誤差問(wèn)題)。通過(guò)UniAD證明,一旦采用能兼顧“多任務(wù)”和“高性能”全??煽囟说蕉私鉀Q方案的框架,前序多任務(wù)能與后繼任務(wù)相互支持,最終提升了駕駛安全的體驗度。 

事實(shí)上,大多數端到端自動(dòng)駕駛解決方案,也都關(guān)注了感知、決策和規劃三部分。但是,推進(jìn)這三部分形成的多任務(wù)在發(fā)揮實(shí)際作用時(shí),存在較大差異,沒(méi)有誰(shuí)取設計一個(gè)統一框架,將這些滿(mǎn)足不同應用需求的任務(wù),融合進(jìn)一個(gè)整體。 

為何UniAD能解決多任務(wù)融合問(wèn)題? 

研究團隊采用了多組查詢(xún)向量的全Transformer模型,同時(shí),團隊還立足于“規劃”目標做全棧設計。 

舉個(gè)實(shí)際應用例子,在車(chē)輛于晴天直行時(shí),UniAD能感知左前方等待的黑色車(chē)輛,預測其未來(lái)軌跡(即將左轉駛入自車(chē)的車(chē)道),并立即減速實(shí)現避讓?zhuān)谏傠x后再恢復正常速度直行。 

若處于雨天轉彎場(chǎng)景,在視野干擾較大且場(chǎng)景復雜的十字路口,UniAD能通過(guò)分割模塊生成十字路口的整體道路結構,做到大幅度左轉規劃。 

UniAD號稱(chēng)自動(dòng)駕駛通用大模型,這個(gè)應該如何理解? 

這個(gè)框架奠定了多任務(wù)端到端自動(dòng)駕駛大模型的基礎,具有很強的可擴展性。通過(guò)增加模型參數與擴充海量數據雙輪驅動(dòng),可進(jìn)一步實(shí)現自動(dòng)駕駛大模型,賦能行業(yè)應用與相關(guān)自駕產(chǎn)品落地。 

這段話(huà)是上海人工智能(AI)實(shí)驗室李弘揚博士的解釋。 

華爾街見(jiàn)聞注意到,UniAD解決多任務(wù)應用需求的能力,與商湯科技在今年3月14日發(fā)布的多模態(tài)多任務(wù)通用大模型“書(shū)生(INTERN)2.5”很可能有內在聯(lián)系。 

“書(shū)生(INTERN)2.5”,商湯科技稱(chēng)之“有良好的圖文跨模態(tài)開(kāi)放任務(wù)處理能力,可為自動(dòng)駕駛、機器人等通用場(chǎng)景任務(wù)提供高效精準的感知和理解能力支持”。其初代版本,由商湯科技、上海人工智能實(shí)驗室、清華大學(xué)、香港中文大學(xué)和上海交通大學(xué),于2021年11月首次共同發(fā)布,并持續聯(lián)合研發(fā)。 

商湯科技稱(chēng),書(shū)生(INTERN)2.5致力于多模態(tài)多任務(wù)通用模型的構建,可接收處理各種不同模態(tài)的輸入,并采用統一的模型架構和參數處理各種不同的任務(wù)。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: