• 歡迎光臨車網世界!

    微信 | 微博 車網中國公眾號二維碼

    當前位置:首頁 > 車頭條 > 產經新聞 > 返回

    于乾坤:上汽Robotaxi——安心舒心放心的出行伙伴   

    發布日期:2022-11-16 21:37   瀏覽次數:6804

    2022年11月8日-10日,由中國汽車工業協會主辦的第12屆中國汽車論壇在上海嘉定舉辦。作為黨的“二十大”召開后的汽車行業首場盛會,本屆論壇以“聚力行穩 蓄勢新程”為主題,共設置“1場閉門峰會+1個大會論壇+16個主題論壇”,以汽車產業的高質量發展為主線,與行業精英一起貫徹新精神,研判新形勢,共商新舉措。其中,在11月9日下午舉辦的“主題論壇12:跨界融合,賦能自動駕駛落地”上,上汽集團人工智能實驗室技術負責人于乾坤發表精彩演講。以下內容為現場演講實錄:
    圖片1  
    感謝主持人的介紹,我在演講之前先介紹一下我們在做的事情。

    上汽Robotaxi,Robotaxi是上汽集團在2021年年中面向汽車行業變革特設的四大戰略項目之一,智己、飛凡、Robotaxi,以及商用車L4智能駕駛智能重卡。

    今天,我給大家分享是其中的Robotaxi項目,L4級智能駕駛乘用車開發的情況。我們要打造的是一款能夠提供安心、舒心、放心的能跟乘客進行交互的出行伙伴車隊,這是開發的初衷。

    一、L4自動駕駛解決方案2.0技術架構

    今年所打造的L4自動駕駛解決方案,主要強調一點,隨著前兩天工信部新的準入政策發布,L3、L4引入國家試點慢慢提上日程。我們提前布局,早已關注到了這一點。所以,在做今年架構設計時提出自動駕駛解決方案是自主研發的、軟硬件一體,而且偏重于冗余的一套技術架構。

    從傳感器配置上來說:

    (1)感知冗余。

    目前這套Robotaxi的方案包括6個固態激光雷達,大家在安亭、蘇州智能網聯的示范區內可能會看到很多Robotaxi車輛,基本上面都有一個很大的“炮塔”,我們去年也是這樣的,今年把所有機械式的激光雷達給取消掉了,直接一步到位,放置了6個固態的激光雷達。雖然說數量有所提升,但是無論是成本還是穩定性,都相較去年有了很大的提升。

    視覺感知方面,一共布置了周視相機5個,前視相機3個,和很多量產不一樣的是今年把測試相機從一邊2個,降為了1個,加1個后視,一共構成了5路的周視感知融合。還有4路環視,以及5個Radar,和12路超聲波雷達。

    利用所有傳感器相互之間的優勢,比如說激光雷達對深度的感知能力比較強,但是視覺對于紋理的感知信息又比較強。充分利用不同傳感器的優勢,實現覆蓋近距離、遠距離、中距離的感知,這是今年在感知冗余上所做的工作。

    今年還特意在感知之外設置了一層感知“墻”的概念。以前很少有人把超聲波雷達也拿過來作為行車時的傳感器,今年特意開發了基于環視+超聲超近距離的感知方法,能夠實現在近距離的情況下,達到厘米級高精度的融合結果,而且處理的通路也是獨立的一條通路,跟前視、周視、激光雷達是相互獨立的,能夠在極限距離下非常安全的通行。

    和人類駕駛員相比,在一些比較極限的場景,比如說小區的場景,對距離判斷準確度,人測試出來是30、40厘米,而我們的平均值可以達到5、6厘米。能夠實現窄距離通行的效果。

    (2)計算冗余。

    第一級:在計算平臺上,今年一共提出四層功能降級策略,今年定制了大算力的計算平臺,算力超過了1000tops,采用X86CPU,120GB內存和2TSSD儲存,號稱“武裝到牙齒”的一套智能駕駛計算平臺。

    第二級:采用了一套基于Xavier的64Tops算力L2++功能降級系統,如果L4系統失效,能夠通過L2++的NOP(領航狀態)、AEB(自動緊急剎車)的功能實現靠邊停車,或者最小風險模式的運行。

    第三級:搭建了6核ASIL-D的MCU,作為整套系統的安全島,對系統狀態進行管理,并能實現基本的AEB功能。

    第四層:今年特意打造了基于5GV2X的遠程駕控系統,是面向未來Robotaxi,走向真無人?,F在所有的Robotaxi主駕駛位上都是有安全員的,接下來行業發展的趨勢是逐步走向不再需要安全員的無人駕駛。今年基于遠程駕控系統進行了一定程度的開發,為將來真正實現全無人自動駕駛出行奠定了技術基礎。這是今天所構建的四個層次的計算冗余系統。

    (3)遠程駕控。

    在車上專門布置了一套為遠程駕控所設計的圖像處理系統,因為遠程監控很重要的概念是通信質量的穩定性,因此專門給它做了一套適配的圖像壓縮系統,并根據當前的通信質量,自主切換到底是哪一路圖像傳到云端,在云平臺采用一套邊緣云系統。時間延遲可以控制在300毫秒以內,在比較及時的情況下實現遠程接管、遠程輔助。除了5G之外,還放置了一套4G系統。

    二、軟硬件一體算法優化

    在算法的設計上,除了傳感器之外,也在算法軟件設計上遵循冗余基本設計思路。比如說在感知上,采用的是多傳感器冗余融合感知,混合了前融合和后融合的機制。

    在我們的系統里,除了前融合外,傳統后融合的鏈路仍然保留。在其中一個鏈條或者幾個鏈條失效的時候,仍然能夠保持比較穩定的感知結果。在車上做了很多壓力測試,比如把攝像頭直接蒙住,把激光雷達直接蓋住,甚至在上面噴了水、霧,在這樣的情況下仍然能夠保持相對穩定的感知結果。

    在定位上,多元定位冗余總共提出了三套冗余降級機制:

    第一套是基于GPS結合車輛的輪速,獲得當前車的位置。但在隧道、閘道、輔路上時,GPS信號比較差,所以在此之外,還開發了一套基于激光雷達的地圖匹配定位,以及基于視覺語義的匹配定位,三套定位方式互為彌補,現在定位的精度可以達到厘米的量級。

    第二套是規控決策上,一共有四層的冗余,除了底層的遠程駕控之外,在L4系統、L2++系統、L1系統做了三套冗余基于功能降級的規控體系,在其中做共同的決定,根據當前傳感器、車輛的運行狀態,進行最佳決策。

    以上是在算法和軟件方面所做的工作。

    此外,也引入一套數據工廠系統。像周院長所講,數據真正走入汽車行業是近幾年的事情。我們在數據上比較重視,一共搭建了兩套閉環體系、一個數據工廠。

    閉環一:基于面向感知的感知閉環,所提供的功能包括從車端數據采集,一直到云端處理,包括數據前處理、數據自動標注,最終形成數據庫,甚至包括模型訓練、模型部署、模型評測,整個過程都能在這套數據工廠里自動轉起來。

    閉環二:搭建了一套面向規控的閉環,除了感知之外,交通場景的復雜性也是現在做自動駕駛L4所面臨的非常棘手的問題。經過數據處理之后,完成場景生成的工作,自動識別出場景。到目前為止,場景庫已經形成了上萬個不同的交通場景。比如說變道場景大概有上千種case,如果進行一定泛化之后,可以泛化到上萬個場景,每次工程師在發了相應的版本之后,都要經過場景庫的評測,只有達到相關的標準之后,才會真正釋放到車端。

    智能駕駛之所以會設置這么多冗余,主要的目標是想提供比較安全的服務。乘客坐在車上,想要的不光是安全,還有方便、有趣、生動,所以我們打通了車端所有的信號,接入所有傳感器信號,在后排實現視覺、聽覺、觸覺等多維度的一套智能交互系統。除了智能座艙之外。在前不久發布的一款新車里,引入了全新的一套全息影像系統,讓乘客坐在車上的時候跟它進行互動,這顯得非常有趣。第一次乘坐這輛車,大家都覺得蠻驚艷的。

    三、由整車廠主導的前裝“智”造

    我們做Robotaxi和很多公司不太一樣,是以上汽集團OEM來主導的項目,跟傳統車廠的制造結合比較緊密?,F在用的是飛凡的Marvel R。今天很多Robotaxi都是偏后端改制為主,而我們直接在產線上把需求輸入給產線工程部門,直接從產線上拉下來。相比去年很多后端改制的車輛狀態而言,在產線上以傳統汽車的方式方法組織車隊生產,讓車輛一致性和工藝完整性都達到了更高的層次。

    右邊這張圖展示了車輛的對比狀態,去年車輛也是頂著高高的“炮塔”,高度達到了至少2.3米以上,在通過隧道、地下車庫的時候都是非常危險的。今年采用了這套架構后,車輛狀態從尖尖的,變成相對平一點,整車集中度也會更好。此外,整車散熱等其他方面都相比去年有了很大的提升。今年年底12月份就會真正把第二代Robotaxi車在安亭、臨港投放運營。歡迎大家前去體驗。

    此外,還有流程標準化的工作,還有從設計開發、物料生產、下線標定、閉環測試、道路測試的流程,引入了一套基于傳統整車廠的質保體系,建立面向智駕的測試和質量檢查體系。不僅包括智駕硬件方面的質保,也提出構建智駕軟件算法上的質保,并把此跟功能安全結合起來,最大限度充分發揮主機廠優勢,真正實現L4無人駕駛。

    除了臨港和安亭繼續加大投放外,今年我們會在深圳增加試點,如果有深圳的朋友可以關注一下,大概在今年12月底將在深圳發布,歡迎深圳的朋友們前去體驗。

    以上是我的分享,謝謝大家!

    (注:本文根據現場速記整理,未經演講嘉賓審閱) 

    上一篇:圓桌論壇:ESG助力中國汽車行業可持續發展進程   

    下一篇:李月:仿真賦能、數據驅動,X-In-Loop®技術體系推動智能駕駛安全落地

    熱門文章

    關于我們 聯系方式 招賢納士 隱私政策 車網歷程

    Copyright?2004-2030 車網世界版權所有 原-京ICP證040347號-1 技術支持:想象力

    ?
    国产av综合影院_樱花草在线观看视频WWW_中文字幕无线在线视频_国产免费黄色网站