資訊科學暨法資訊學


關於版主
站內搜尋 Search

專業部落格 Blog

全域分類 Menu

益思

2019/05/24 09:17
當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(下)

賴文智、王文君

本文發表於會計研究月刊2019年4月號 

 

三、法律會隨著社會對於新科技風險「容許值」而變動

科技的發展,始終不可能是零風險,如果有風險,我們就不採用,那科技的進步對人類社會即難以發揮作用。自西方工業革命以來,無數的科技大量湧入人們的生活中,無論是蒸汽機、內燃機、地下鐵、飛機乃至AI人工智慧,拒絕風險即等同於拒絕科技的發展應用。新的科技進入社會,無疑地會造成新的風險,在漸進式地融入社會的過程中,法律其實是處於因應調整的動態狀況,亦即,法律會隨著社會對於新科技風險「容許值」的調整而改變。


以汽車為例,初期法律並沒有對於什麼樣的交通工具可以上路有任何的規範,但汽車上路後造成交通上極大的改變,法律除了針對有關車輛本身製造、安全、維護等賦予製造人、使用者相應的責任之外,駕照、馬路、交通號誌的規劃、設計,各種汽車保險,甚至以法律通過要求投保第三人強制責任險等,都是因應汽車科技發展社會有不同的「容許值」而以法律呈現。


概括地說,我們可以借鏡汽車科技將新科技對於法律領域的衝擊,區分為幾種類別:一是針對交通工具可以「合法」上路前,有關於生產製造、檢測的標準規範(尤其是安全相關);二是針對交通環境相關的交通號誌、交通規則等交通管理相關的法律;三是針對交通事故相關責任的各種民、刑事責任的規範,包括消費者保護法引進的產品製造人責任;四是其他因交通工具使用衍生週邊的配套規範,最重要的就是保險機制的引進。這些法律規範都不是在汽車開始商業應用時一步到位,以史為鏡,AI相關的立法也要有長期磨合的準備。

 

四、AI自駕車國際間相關立法的發展

AI自駕車立法的討論,前期主要聚焦在解決AI自駕車上路的行政管制,包括AI自駕車開發應遵守的技術、倫理規範,符合什麼樣的條件可以讓AI自駕車在什麼樣的限制下上路測試或正式運行(例如:德國要求AI自駕車仍然必須有人類駕駛,但駕駛可以將雙手離開方向盤做其他事,只有在必要時須接管車輛,約相當於前述SAE Level 3;美國則各州並不同調,田納西州SB151法案認為自動駕駛系統(ADS)也算「車輛駕駛」,而德克薩斯州SB2205法案則認為車輛駕駛操必須是「自然人」,喬治亞州SB219法案將駕駛定義為操作ADS的人員,並不一定要坐在車內);交通事故責任的釐清也是法律規範的重點,引進如飛航器「黑盒子」的設備,紀錄相關的駕駛及車輛的數據,以作為後續釐清法律責任的基礎,而要求廠商投保適當的保險也是法律因應責任可能難以釐清的方式;比較值得注意的是傳統汽車不會去規範的車輛相關「資料」的法律議題,除前述事故責任釐清的紀錄需求之外,車輛駕駛相關數據的分享對於初期該領域AI發展及管制扮演極重要的角色,但因此所帶來隱私權議題也不容忽視,可算是AI時代特殊的法律議題。


日本國土交通省則於2019年3月8日發布內閣會議已通過「道路運送車両法の一部を改正する法律案」,目標是2020年東京奧運時能夠實現在高速道路及特定區域上Level 3的自動駕駛,其主要修法的內容大致上包括:符合一定標準的交通工具得安裝自動駕駛相關裝置,以代替人類駕駛感知、預測、判斷及操作、須安裝記錄自動駕駛的設備、允許自動駕駛的環境條件由國土交通大臣另行發布,但不會要求各自動駕駛的公司都採用一致的環境條件、自動駕駛系統需要通過有線或無線方式更新以符合性能或瑕疵改善之需求、相關電子檢查由日本獨立行政法人自動車技術総合機構負責、常規的檢查也將各類的傳感器(例如攝像機和雷達)更換或維修納入,汽車製造商則有義務提供該等檢查、維修所需的技術資訊等,相當值得交通環境類似的台灣參考。

 

五、立法釐清遊戲規則以促進AI發展

由AI自駕車相關立法的發展,我們其實可以看到目前離真正的AI自駕車還有相當大的距離,然而,美、歐、日等汽車製造的大國,早已肯定AI自駕車可能對於交通、能源、物流、城市規劃等各領域帶來的正向社會利益,而透過立法的方式促進相關產業在AI領域的投入。相較於投資的獎勵或補助,立法的鼓勵來自於責任的釐清。若是廠商推出AI自駕車只要有任何問題,即如現行有關消費者保護的法律要求廠商必須要自行證明「無過失」,如前述Telsa或波音737 MAX的事故,Telsa或波音公司是否能勇於面對這些產品可能在設計、製造或測試階段難以發現的潛在風險,而向市場推出新的產品?難免就會令人猶豫。


政府機關透過制定各種安全標準、自駕車測試或上路有條件的設定,其實就是設置明確的技術門檻,讓相關廠商得以在遵循明確法律規範的情形下,得以向社會說明其已符合「當時科技或專業水準可合理期待之安全性」,其實就是一種透過法律降低原先廠商可能面臨不確定民事、刑事、行政責任的風險的方式。而因應AI發展的特殊性,例如:傳統的因果關係或責任理論未必足以因應AI時代、AI訓練的原始資料仍來自於既有人類判斷,未必正確(如Amazon的自動化人力招聘系統發生性別歧視的重大缺失)等,這些都有賴於逐一檢視現行法規與技術限制,以確認責任的分配,以及是否有無法分散或難以歸責的風險,應該評估是否轉由保險等機制由社會整體共同承擔,或是暫時應該予以擱置,待社會可以容許該等風險的存在時再行推動,這也是AI在醫療或其他涉及人民生命安全或重大權益領域可以參考的方式。

 

 

當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(上)(下)

不失控的世界,從歐盟AI立法的準備談起(上)(下) 

如何促進AI的發展—從Data Driven談資料應用的法律(上)(下) 


Copyright IS-Law.com
由 王文君研究員 發表於 資訊科學暨法資訊學 | 引用 (0) | 閱讀(535)