更安全的自動(dòng)駕駛車(chē)輛意味著要向他們提出正確的問(wèn)題
自動(dòng)駕駛汽車(chē)需實(shí)現(xiàn)零失誤運(yùn)行,這無(wú)疑承載著巨大壓力 —— 每一次失誤都會(huì)削弱公眾信任,并迫使行業(yè)進(jìn)一步提升安全性。如何幫助自動(dòng)駕駛汽車(chē)克服這些挑戰(zhàn)?
在發(fā)表于 IEEE Transactions on Intelligent Transportation Systems 10月刊的一項(xiàng)研究中,研究人員概述了可解釋人工智能——即向AI模型提出問(wèn)題以理解其決策過(guò)程——如何準(zhǔn)確定位自動(dòng)化車(chē)輛模型在過(guò)程中犯錯(cuò)的具體時(shí)間。這種方法不僅能幫助乘客知道何時(shí)需要控制車(chē)輛,增強(qiáng)他們對(duì)自動(dòng)駕駛車(chē)輛的信任,還能幫助行業(yè)專(zhuān)家開(kāi)發(fā)更安全的自動(dòng)駕駛車(chē)輛。
Shahin Atakishiyev 是一名深度學(xué)習(xí)研究員,這項(xiàng)研究是他在加拿大阿爾伯塔大學(xué)從事博士后工作期間完成的。他指出,自動(dòng)駕駛架構(gòu)通常是一個(gè) “黑箱”。“乘客、路人等普通民眾無(wú)法知曉自動(dòng)駕駛汽車(chē)如何做出實(shí)時(shí)駕駛決策。” 他表示。
但隨著 AI 技術(shù)飛速發(fā)展,如今已能向模型追問(wèn)決策背后的原因。這為深入探究模型內(nèi)部運(yùn)作機(jī)制開(kāi)辟了廣闊空間。例如,車(chē)輛突發(fā)制動(dòng)時(shí),它關(guān)注的是視覺(jué)傳感數(shù)據(jù)中的哪些部分?時(shí)間限制對(duì)其決策影響程度如何?
自動(dòng)駕駛汽車(chē)的實(shí)時(shí)反饋機(jī)制
Shahin Atakishiyev 及其團(tuán)隊(duì)在論文中舉例說(shuō)明,實(shí)時(shí)反饋如何幫助乘客識(shí)別自動(dòng)駕駛汽車(chē)的錯(cuò)誤決策。他們提及另一研究團(tuán)隊(duì)的案例:研究人員在限速 35 英里 / 小時(shí)(56 公里 / 小時(shí))的標(biāo)志上貼貼紙,將數(shù)字 “3” 的中間部分拉長(zhǎng),隨后測(cè)試特斯拉 Model S 的抬頭顯示系統(tǒng)對(duì)修改后標(biāo)志的識(shí)別情況。結(jié)果顯示,車(chē)輛將 35 英里 / 小時(shí)的限速標(biāo)志識(shí)別為 85 英里 / 小時(shí)(137 公里 / 小時(shí)),并在接近和駛過(guò)標(biāo)志時(shí)加速。
Shahin Atakishiyev 的團(tuán)隊(duì)認(rèn)為,若車(chē)輛在接近限速標(biāo)志時(shí),能通過(guò)儀表盤(pán)或用戶(hù)界面實(shí)時(shí)給出決策依據(jù) —— 例如顯示 “當(dāng)前限速 85 英里 / 小時(shí),正在加速”,乘客便可及時(shí)干預(yù),確保車(chē)輛遵守實(shí)際限速規(guī)則。
Shahin Atakishiyev 表示,此處的挑戰(zhàn)在于如何平衡向乘客提供的信息深度,畢竟每個(gè)人的偏好各不相同。“解釋可通過(guò)音頻、可視化圖像、文本或振動(dòng)等形式傳遞,人們會(huì)根據(jù)自身技術(shù)知識(shí)、認(rèn)知能力和年齡選擇不同模式,” 他說(shuō)。
Shahin Atakishiyev 指出,向用戶(hù)提供實(shí)時(shí)反饋能即時(shí)避免事故發(fā)生,而在自動(dòng)駕駛汽車(chē)失誤后分析其決策過(guò)程,同樣有助于科研人員研發(fā)更安全的車(chē)型。
在研究中,Shahin Atakishiyev 團(tuán)隊(duì)開(kāi)展了多項(xiàng)模擬實(shí)驗(yàn):讓自動(dòng)駕駛深度學(xué)習(xí)模型在行駛中做出各類(lèi)決策,隨后就這些決策向模型提問(wèn)。他們特意設(shè)計(jì) “陷阱問(wèn)題”,發(fā)現(xiàn)模型在某些情況下無(wú)法解釋自身行為。這種方式能幫助識(shí)別解釋模塊中需改進(jìn)的關(guān)鍵缺陷。
研究人員還提到一種現(xiàn)有機(jī)器學(xué)習(xí)分析技術(shù) —— 沙普利可加解釋?zhuān)⊿HAP),科研人員可借助該技術(shù)評(píng)估自動(dòng)駕駛汽車(chē)的決策過(guò)程。自動(dòng)駕駛汽車(chē)完成行駛后,SHAP 分析會(huì)對(duì)其決策所用的所有特征進(jìn)行評(píng)分,明確哪些特征對(duì)駕駛決策有用且具影響力。“這種分析有助于剔除影響較小的特征,重點(diǎn)關(guān)注最關(guān)鍵的特征。”Shahin Atakishiyev 說(shuō)。
研究人員還探討了如何通過(guò)解釋厘清自動(dòng)駕駛汽車(chē)撞人事故的法律責(zé)任。核心問(wèn)題包括:車(chē)輛是否遵守交通規(guī)則?事故發(fā)生后,車(chē)輛是否 “意識(shí)到” 撞到人并按規(guī)定完全停車(chē)?是否立即啟動(dòng)應(yīng)急功能(如向當(dāng)局和應(yīng)急服務(wù)報(bào)告事故)?這類(lèi)問(wèn)題能幫助科研人員定位模型中需修正的缺陷。
這些用于理解深度學(xué)習(xí)模型決策過(guò)程的策略在自動(dòng)駕駛領(lǐng)域正逐漸受到重視,有望推動(dòng)道路安全水平提升。
“我認(rèn)為解釋正成為視聽(tīng)技術(shù)的重要組成部分,”Shahin Atakishiyev說(shuō),強(qiáng)調(diào)解釋可以通過(guò)調(diào)試現(xiàn)有系統(tǒng)來(lái)評(píng)估駕駛的作安全性。







評(píng)論