資訊科學暨法資訊學

關於版主
站內搜尋 Search

專業部落格 Blog

全域分類 Menu

益思

2019/03/22 08:37
不失控的世界,從歐盟AI立法的準備談起(下)

◎賴文智.王文君

本文刊登於會計研究月刊2019年1月號

  

5. 民主(Democracy。AI開發及應用監管的關鍵決定,應透過民主辯論及公眾參與來決定。確保公眾對於新科技受教育及接取的權利,協助每個人了解因此產生的機會與風險,使其有能力參與決定我們未來發展的決策過程。
這雖然比較像宣示性的原則,但其實是現代民主社會最重要的基礎,所以,包括諸如不可以妨害政治決定的作成(如先前FB劍橋分析事件對於美、英選舉的不當影響,或是台灣政壇最流行的打擊假新聞議題)、不能侵犯言論自由或是干涉接受或傳布資訊權利等,都是民主原則關注的重點。

 

6. 法治及當責(Rule of law and accountability。訴諸司法、獲得賠償的權利及公平審判,乃是確保人權及AI特別管制規範得以被遵守的必要框架,包括對於可能侵害人權(如安全或隱私保護)的自主系統所產生風險的抑制。政府應該儘速投入對於AI領域所面臨一系列法律挑戰提出強有力,且具有公平、明確責任分配和有效約束的法律解決方案。除應釐清自主系統所生非原預期行為而造成損害的責任分配外,亦應建立有效減少該等損害機制。


簡言之,面對AI發展及應用可能造成的風險與損害,必須要明確依法處理,一方面除保護受AI影響民眾的權益之外,二方面也是對於AI產業投資者的保障,有明確的法律規則,才不致因不確定的責任而阻礙AI產業的發展。例如:德國與日本今年提出有關自動車倫理議題的立法討論,都傾向參考既有一般車輛的責任分配原則,將最終法律責任由自動車駕駛者負責,以避免在責任分配上由軟體開發者或製造商負最終責任時,會大幅減緩自動車商業上的投資。當然,除現代社會既有的產品製造人責任之外,難以歸責由自動車駕駛者負責的情形,也設計適度透過保險制度分攤,上述的立法方向,其實就是這個法治及當責原則的具體發展。

 

7. 安全、保障及身心完整性(Security, safety, bodily and mental integrity。自主系統的安全及保障體現為下述三種形式:(1)對其環境和用戶的外部安全;(2)可靠性和內部穩健性,如防止駭客攻擊的設計;及(3)人機互動方面的情感安全。AI開發人員必須考慮到前述所有安全面向,並在發布前進行嚴格測試,以確保自主系統不侵犯前述多方面的安全性。傳統法制上比較接近產品製造人責任的規範,相信也是各國在推動AI立法時,來自民眾最基本的要求之一。

 

8. 資料保護與隱私(Data protection and privacy。身處於數位通訊科技無所不在且大量蒐集資料的時代,個人資料的保護與隱私權遭遇重大的挑戰。無論是作為IoT一環的實體機器人或透過WWW運作的軟體程式,都必須遵守個人資料保護規範,不得在未經同意的情形蒐集或利用個人資料。自主系統不得干涉私人生活,包含個人發展及意見不受影響、與其他人發展、建立關係不受影響及免於監視等權利。


事實上,歐盟於2018年5月施行的GDPR,第13條、第14條、第15條均針對涉及自動化決定(automated decision-making),包括:資料剖析(profiling)與自動化決定邏輯有關具有意義的事項(meaningful information about the logic involved),需要告知當事人或依當事人要求提供;而第22條第1項更明確地規定,「當事人有權不受一個僅依自動化處理(包括資料剖析)決定的拘束,而該決定可能對其產生法律效果或類似之重大影響。」沒有足夠的資料難以發展人工智慧,但過度的蒐集及利用個人資料則將使AI成為資訊隱私權最大的敵人,如何建構一個適合發展人工智慧,又能兼顧個人資料保護的法制,恐怕會是台灣政府在推動AI產業投資時最大的挑戰之一。

 

9. 永續發展(Sustainability。AI科技須與人類相同,將確保地球上的生命、人類繼續繁榮及為子孫後代保護良好環境等基本前提作為其責任。AI發展政策應追求永續發展,以避免未來科技對人類生命和自然產生不利影響、確保環境保護及可持續性列為優先考量。
為了防止發生像電影《駭客任務》、《機械公敵》等影響人類全體生存的情形,艾西莫夫在最後一本機器人系列的小說-《機器人與帝國》(Robots and Empire)加上第零原則,「機器人不得傷害整體人類,或坐視整體人類受到傷害。」永續發展這個原則更進一步擴張到AI科技發展,亦不能自外於人類對於環境永續發展的責任,畢竟人類的生存在可預見的未來是跟地球連結在一起的。

 

立法院在2018年11月30日三讀通過《無人載具科技創新實驗條例》,雖然只是「監理沙盒」的架構,並非全面開放無人載具的應用。但仍可觀察到人工智慧相關的立法早已從「未來式」轉向「進行式」,不再是遙不可及的未來。歐盟科學及新科技倫理委員會透過對於人工智慧發展倫理準則,作為未來AI相關立法的準備,除了希望透過「法律」作為固守人類對於AI發展的主導權之外,也隱約地透露出人們對於AI缺乏信心的跡象。


未來人工智慧會如同網路一樣,成為我們生活的一部分,其實無論是Google、FB、Apple、Amazon等讀者經常接觸的網路巨頭,早就已經運用演算法影響我們的日常生活與決策。缺乏對AI運作必要知識的了解,就難以理解及因應AI所帶來的風險,更不用談對AI的控制或避免其負面的影響。人工智慧相關領域的立法是全民議題,而不只是法律與科技人的工作。最後希望我們每一個人都再問一次自己,「面對人工智慧,我們都準備好了嗎?」


當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(上)(下)

不失控的世界,從歐盟AI立法的準備談起(上)(下) 


Copyright IS-Law.com
由 王文君研究員 發表於 資訊科學暨法資訊學 | 引用 (0) | 閱讀(260)