首頁 > 知識分享 > 當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(上)

當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(上)

2019/07/18
目錄

本文發表於會計研究月刊2019年4月號 

2018年12月時,台灣發生首件自動駕駛的車禍,特斯拉的駕駛人疑似精神不濟,未注意車前動態,在開啟自動輔助駕駛功能的情形下,未減速直接在國道撞上警方巡邏車,幸而未造成人員傷亡,但也引發民眾的熱烈討論,未來在進行AI時代,究竟誰該為AI自動駕駛負責?這個問題直指AI立法的核心,所有領域AI應用都有類似的問題,因為過去法律制度的設計,都是圍繞著「行為人」、「因果關係」處理「責任」的議題,當AI由輔助人類開始至可預見的未來將全自動化運作,既有的法律制度難免會有滯礙難行之處。

延續前文談到歐盟AI立法的準備,比較抽象介紹未來AI相關立法應遵循的倫理原則,本文則以目前國際間立法活動較積極的自駕車為主角,向讀者們介紹各領域面臨AI趨勢衝擊時,如何透過責任釐清的討論,達到符合AI發展的產業與社會需求的平衡,以作為國內AI立法的借鏡。

一、「人」還是「AI」?

有關自駕車的立法討論,多數集中在自動駕駛車輛在社會上實際使用時,無論是發生車禍、違反交通規則、違反對車輛安全維護規定等的責任,尤其是發生車禍時,人類由原先控制車輛啟動與前進後退,至少總有一個「人」要為車禍發生負責,然而,若是應用AI愈來愈成熟,坐在駕駛座的那個「人」只是接近「乘客」的角色時,我們還找得到那個該負責的「人」嗎?

我們可以由美國高速公路安全管理局(NHTSA)對於2016年5月在佛羅里達州發生的特斯拉車禍案件的調查,先觀察一下目前像特斯拉所標榜的Autopilot在發生車禍時,如何進行法律上責任的釐清。

該調查報告簡報摘要中提及,發生事故的車輛是2015年6月生產的Tesla Model S 70-D,2015年10月軟體升級後啟用「Autosteer」功能,而在2016年發生事故時,最新版本的firmware是7.1 (2.17.37)版。NHTSA除調查貨車司機、製作現場模擬圖之外,很重要的是調查Autopilot的功能說明(Technology was not intended to replace human driver,該科技並非意圖用以取代人類駕駛),以及使用紀錄(在長達41分鐘的車程,總共有7次螢幕跳出警示畫面,6次發出提醒駕駛人的鐘聲,有長達92%的時間是處於Autopilot的狀態)。依現場模擬圖駕駛人如正常注意行車狀況,在速限65英里的情形應有7.7秒(以當時車速74英里應有6.8秒)可以介入操作,而駕駛人未為任何反應,最後據以作成Tesla Model S並沒有設計上的重大缺陷,無須回收的結論。報告的摘要簡報請參,https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/documents/sae2018hherrera.pdf)。

本案Telsa在事故發生後自行說明因當時特殊的天空及現場狀況,Autopilot未能偵測到貨車而未自動減速等,對於一般民眾來說當然是認為Telsa大有問題,Telsa後續車款也進行改善。然而,NHTSA調查報告將事故原因歸責於駕駛人,關鍵因素則是在於Tesla的Autopilot只是國際自動機工程師學會(SAE International)有關自動駕駛分級Level 2的自動駕駛。若以該學會最新公布的分級圖示來看,還是屬於駕駛人自行開車(You are driving),而且必須經常監控(You must constantly supervise)該等功能的運作。因此,與其說這起事故是自動駕駛的車禍,不如說是駕駛人將「輔助駕駛」的Autopilot,誤以為是「自動駕駛」的車禍。

二、AI應用將使事故發生原因與責任複雜化

由前述特斯拉的車禍案件的調查報告來觀察,當一件涉及自動駕駛的車禍發生時,首先是要先確認是「人」負責開車,還是「AI」負責開車,若是「人」負責開車,再來確認是「人」的駕駛行為是事故發生的原因,還是「人」的駕駛行為以外的因素是事故發生的原因,尤其是是否涉及產品製造有瑕疵的問題;但若是「AI」負責開車,則問題就複雜了。

首先是在什麼樣的條件下,「AI」可以上路開車?這涉及對於AI產品驗證及AI相關機制運行環境整備的問題,政府當然責無旁貸。但政府如果同意某個AI自駕車可以在符合某些條件上路,事後發生車禍時,誰該負責任又是另外一個問題。因為,當「人」駕駛時,法律可以很簡單地把所有的「注意義務」都加諸「人」身上,如同前述特斯拉的車禍案件,調查報告主述的原因簡而言之就是駕駛本身應該注意行車動態而未注意導致車禍發生。但「AI」駕駛時,決定「AI」能夠正常運作的因素,包括演算法、訓練使用的資料、即時輸入的資料、資料解讀的正確性、即時性、資料傳輸或溝通過程是否正確、完整、車體或外在環境的資料感測、接收或發送的設備是否正常運作,或是「AI」因長期「機器學習」而進行道不清說不明的判斷等,最後可能因為技術或主觀故意、過失的缺乏,而沒有辦法如同傳統的法律制度找到最終歸責的對象。

以近日各國傳出停飛波音737 MAX機型的新聞為例,停飛起因於印尼獅航610航班2018年10月與衣索比亞航空302航班2019年3月10日發生空難,分別造成189、157人喪生。我國民航局亦於3月14日晚間發布最新適航指令,說明以該機型「操控特性增益系統」(Maneuvering Characteristics Augmentation System, MCAS)在遇到攻角感測器數據有誤時,水平尾翼將自動微調導致機頭不正常下沉,造成飛行組員操控飛機困難,停止該等機型飛航我國領空。

雖然失事原因還在調查中,但原先設計用以避免因飛機失速的系統MCAS,竟然可能只因為感測器數據有誤,而導致機師無法有效操控飛機而發生空難,亦令多數民眾難以置信。MCAS性質上還是一個飛航駕駛的輔助系統,究竟是機組人員的訓練不足以操控新的輔助系統發生失誤的狀況?還是MCAS設計有疏失?或與737 MAX其他既有系統在發生特定狀況時無法順利「溝通」?都不是容易判斷的事。

同樣的,AI的應用發生事故時,原因是在於使用AI的人(沒有掌控AI應用的能力)?開發AI的廠商(設計或製造有瑕疵)?資料提供的廠商(提供錯誤資料或是標記錯誤)?即時判讀資料的軟體業者(判讀錯誤或無法判讀而未能警示)?製造自駕車的廠商(硬體組裝或製造有瑕疵)?相關零組件供應商?提供相關訊號傳輸的5G業者(服務中斷或訊號錯漏)?還是負責道路標線、信號設置的政府機關(國家賠償)?甚至可能所有「AI」運作系統的參與者都已經盡最大的努力,仍然可能發生這些參與的「人」未能預料的問題,而其造成事故的原因,也可能無法清楚指向單一方向,甚至難以重複驗證,這其實就是我們所要面對人工智慧的未來。


當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(上)(下)

不失控的世界,從歐盟AI立法的準備談起(上)(下) 

如何促進AI的發展—從Data Driven談資料應用的法律(上)(下) 

請輸入關鍵字