車廠對於駕駛輔助系統的命名百百種,Ford Co-Pilot 360、Toyota Safety Sense等都是市面上常見的駕駛輔助統稱,特斯拉則更有自信,直接命名為Autopilot全自動駕駛輔助,聽起來是不是更高大上了些?但不管命名怎麼變,「輔助」兩個字肯定會出現在官網、文宣甚至車主手冊中,為的就是告訴車主,駕駛輔助終究只是輔助,系統還是有誤判的機會,車主仍應隨時關注路況,必要時甚至得出手介入,將行車安全掌握自己手中才行。
人類透過眼睛看路,那車呢?在探究輔助系統前,讓我們先回想自己開車時如何「看路」?是不是透過雙眼盡可能看遠蒐集前方路況,加上後視鏡輔助,再透過大腦憑著經驗與駕駛意志做出判斷,決定手中的汽車到底該加速、減速還是轉向。這段「資料蒐集-決策-執行動作」的過程對於有駕駛經驗的人類很容易,但對於有一做一、說一不二,冷冰冰的電腦來說可就難度倍增了。
汽車的雙眼-雷達、攝影機為了能夠確實了解路況,駕駛輔助系統往往匹配各式各樣的感應器,舉例來說ACC主動定速通常利用中、長程雷達掃描前方路況,蒐集前方金屬障礙物(其他車輛)資訊。AEB主動煞停則整合ACC雷達與前方攝影鏡頭,進行畫面判讀與資料庫比對。這些各式各樣的感應器便等同駕駛輔助系統的「眼睛」,負責資料蒐集的前端動作。有了充分資料,便可交由駕駛輔助電腦比照人類進行判斷與決策,再利用電子油門訊號、電控煞車、電子轉向輔助等控制元件,執行「開車」這項精密又複雜的動作。儘管現今電腦執行速度飛快,駕駛輔助系統也早已普及,但因為路況實在千變萬化,電腦又沒辦法像人類一樣能夠憑「經驗」做出「預判」,因此駕駛輔助系統開的車往往有些慢半拍,總是與當下路況存在些許時間差,至於如何讓電腦開車有如老司機般線性又順暢,那就是各家車廠調校的功力所在了!
電腦也會看不清 當然也會犯錯在進入下個段落前,先幫我分辨上面左右圖片有甚麼不同之處,相信只要視力正常的駕駛都能夠看出左邊是前方空無一物的高速公路、右邊是單純的白色圖片,但在駕駛輔助系統眼中,兩張圖片可能「完全沒有區別」!這是因為我們的眼睛性能不論在明暗寬容度或是畫面分辨率,基本遠超過任一款相機,而大腦的運算效能更是遠勝市面任何電腦,許多我們習以為常的光影變換或道路狀況,對於駕駛輔助系統來說可能根本無能為力。
白色是自駕系統的大敵舉例來說,2016年特斯拉首起啟用Autopilot所衍生的死亡車禍,便是因為攝影機無法分辨橫在車道的「白色貨櫃車」與「白色天空」,導致車輛毫無減速鑽進貨櫃車下方,且類似案例不分國內外至今依然層出不窮,足夠說明以攝影鏡頭為主要判斷依據之一的駕駛輔助系統,對於顏色過度接近的物體/背景,或者複雜的光影變換是沒辦法確實分辨前方狀況的,這時如果駕駛人過度依賴駕駛輔助系統,意外便很容易就此產生。
雷達無法偵測靜止物除了攝影鏡頭有可能犯錯,ACC主動定速所搭載的中長程雷達也是一項容易犯錯的配備,由於ACC雷達並無法分辨前方靜止障礙物究竟是車輛?大型路標?或者路旁變電箱?因此多數ACC軟體在設計之初便將靜止物忽略不計,以免頻繁誤作動,減速、急煞造成更大的安全隱患。僅有前車逐漸減速、ACC雷達才能正確而精準的偵測並做出反應,一旦速度落差太大,系統很容易就將其識別成靜止物而「直直撞」。其次,由於雷達特性主要偵測物體反射,藉此計算出前方物體的方向、高度、大小與速度,因此若是非正常車輛的障礙物,例如平台拖車、機車、行人等,很可能因為軟體資料庫「不認識」導致「視而不見」,無法下達正確指令讓車輛減速。
人類與駕駛輔助該是1+1大於2開車這回事,人類與機器該是互補的存在,人類有絕佳的眼睛與大腦,能快速對應各種路況,但缺點則是容易疲累與分心;駕駛輔助有很多硬體限制,特定情況下也會看不見,但機器不會疲憊也不容易受到外在因素影響,兩者搭配之下才能真正提升行車安全!想像我們開著Level 2系統行駛在黃昏逆光的快速道路,前方一輛故障車沒開燈在車道上靜止,考量上面所說的攝影機、雷達作動限制,這時前擋攝影機可能因為光線反差過大而看不清楚,ACC雷達也忽略前方靜止物體而持續加速,唯一能避免事故的僅有持續關注路況、坐在駕駛座的人類駕駛!看到這裡,你還敢一邊開著Level 2系統,一邊滑手機嗎?