技術分享 | 無人駕駛汽車的眼睛
發布時間 : 2022-11-24 閱讀量 : 2913
根據智能化程度的不同,自動駕駛被分為5個等級:L1輔助駕駛、L2部分自動駕駛、L3有條件自動駕駛、L4高度自動駕駛、L5完全自動駕駛,即真正的無人駕駛。
日漸活躍于公眾視野的“無人駕駛”概念,往往是指L3及以上級別的自動駕駛。目前L4的試點屬于高度自動駕駛。那么無人駕駛是如何實現這些功能的呢?
無人駕駛的核心技術體系主要可分為感知、決策、執行三個層面。
感知系統 相當于人的眼睛、耳朵、負責感知周圍的環境,并進行環境信息與車內信息的采集與處理,主要包括車載攝像頭、激光雷達、毫米波雷達、超聲波雷達等技術。
決策系統 相當于人的大腦,負責數據整合、路徑規劃、導航和判斷決策,主要包括高精地圖、車聯網等核心技術。
執行系統 相當于人的小腦和四肢,負責汽車的加速、剎車和轉向等駕駛動作,主要包括線控底盤等核心技術。
其中無人駕駛的視覺感知系統都基于神經網絡的深度學習視覺技術,應用于無人駕駛領域,主要分為四個模塊:動態物體檢測(DOD:Dynamic Object Detection)、通行空間(FS:Free Space)、車道線檢測(LD:Lane Detection)、靜態物體檢測(SOD:Static Object Detection)。
動態物體檢測 DOD: Dynamic Object Detection
動態物體檢測的目的是對車輛(轎車、卡車、電動車、自行車)、行人等動態物體的識別。
檢測的難點包括 檢測類別多、多目標追蹤、測距精度;外界環境因素復雜,遮擋情況多,朝向不一;行人、車輛類型種類眾多,難以覆蓋,容易誤檢;加入追蹤、行人身份切換等眾多挑戰。

通行空間 FS: Free Space
空間檢測是對車輛行駛的安全邊界(可行駛區域)進行劃分,主要針對車輛、普通路邊沿、側石邊沿、沒有障礙物可見的邊界、未知邊界等進行劃分。
檢測的難點包括 復雜環境場景時,邊界形狀復雜多樣,導致泛化難度較大。
不同于其它有明確的單一的檢測類型的檢測(如車輛、行人、交通燈),通行空間需要準確劃分行駛安全區域,以及對影響車輛前行的障礙物邊界。但是在車輛加減速、路面顛簸、上下坡道時,會導致相機俯仰角發生變化,原有的相機標定參數不再準確,投影到世界坐標系后會出現較大的測距誤差,通行空間邊界會出現收縮或開放等問題。
通行空間更多考慮的是邊緣處,所以邊緣處的毛刺、抖動需要進行濾波處理,使邊緣處更平滑。而障礙物的側面邊界點易被錯誤投影到世界坐[標系,導致前車隔壁可通行的車道被認定為不可通行區域,所以邊界點的取點策略和后處理較為困難。

車道線檢測 LD: Lane Detection
車道檢測的目的是對各類車道線(單側/雙側車道線、實線、虛線、雙線)進行檢測,還包括線型的顏色(白色/黃色/藍色)以及特殊的車道線(匯流線、減速線等)等進行檢測。
車道檢測的難點包括 線型種類多,不規則路面檢測難度大。如遇地面積水、無效標識、修補路面、陰影情況下,車道線易被誤檢、漏檢。上下坡、顛簸路面、車輛啟停時,容易擬合出梯形、倒梯形的車道線。彎曲的車道線、遠端的車道線、環島的車道線等情況的擬合難度較大,檢測結果易模糊不清。

靜態物體檢測 SOD: Static Object Detection
靜態物體檢測是對交通紅綠燈、交通標志等靜態物體的檢測識別。
檢測的難點包括 紅綠燈、交通標識屬于小物體檢測,在圖像中所占的像素比極少,尤其遠距離的路口,識別難度更大。
在強光照的情況下,有時人眼都難以辨別,而停在路口的斑馬線前的汽車,需要對紅綠燈進行正確的識別才能做下一步的判斷。交通標識種類眾多,采集到的數據易出現數量不均勻的情況,導致檢測模型訓練不完善。交通燈易受光照的影響,在不同光照條件下顏色難以區分(紅燈與黃燈)。且在夜晚中,紅燈與路燈、商店的燈顏色相近,易造成誤檢。

深度學習模型離不開數據的加持,缺乏大量的無人駕駛的數據是阻礙視覺感知系統在自動駕駛領域應用的主要原因之一,而現有的數據集無論是在數據量,還是采集環境上都與實際需求相差甚遠。
Magic Data作為全球領先的AI數據解決方案提供商,能夠專業有效的針對具體需求,通過智能化標注平臺Annotator構建規?;臒o人駕駛數據庫。通過基于真實場景下的數據,推動計算機視覺和機器算法在自動駕駛領域的發展。

Annotator智能化標注平臺 3D點云標注

Annotator智能化標注平臺 圖像標注
了解更多智慧出行AI數據解決方案