資訊科學暨法資訊學


關於版主
站內搜尋 Search

專業部落格 Blog

全域分類 Menu

益思

2019/03/18 09:50
不失控的世界,從歐盟AI立法的準備談起(上)

◎賴文智*.王文君**

本文刊登於會計研究月刊2019年1月號

 

21世紀以來,人工智慧(AI)得益於電腦算力的快速成長及網網相連所帶來的大數據(Big Data)趨勢,加上2016年AlphaGo以4:1勝職業棋士頂尖高手李世乭九段,2017年則3:0勝世界冠軍柯潔,引發全球人工智慧熱潮。科幻電影中描繪各式各樣機器人與人類的愛恨情仇,彷彿明天就要在現實的世界中上演,科幻大師艾西莫夫的機器人三大法則,從科幻迷走向一般民眾成為最時尚的話題。無論是擁抱或排斥,我們都不得不正視「人工智慧來了」。


憂心人類所創造的AI機器人會不會失控而造成人類的毀滅或許有點過度,然人工智慧的普及應用勢必對人類世界造成影響,如何儘可能導向正面,減少負面的衝擊,則是各方必須面對的議題。法律作為道德的邊界,制衡AI機器人或許沒有那個能力,但設法形塑人類對於人工智慧發展的「共識」,則在AI普及應用之前,將扮演重要的角色。


歐盟科學及新科技倫理委員會(European Group on Ethics in Science and New Technologies, EGE)在2018年3月所發布有關人工智慧、機器人及自主系統的聲明(Statement on Artificial Intelligence, Robotics and ‘Autonomous' Systems)[1]。該聲明中提出有關未來AI相關立法應遵循的9項倫理原則及民主前提(Ethical principles and democratic prerequisites)。這些原則很值得我們作為未來思考AI立法的參考,以下即逐一向讀者們介紹:

 

1. 人性尊嚴(Human dignity。須尊重人之所以為人的尊嚴,演算法或自主系統不得以歧視或分類方式對待人類。簡言之,人本身即為「目的」,不可以將人當作是演算法或自主系統處理的「客體」。因為若是將人當成客體,就會有評價的問題,再接著就會有A的生命價值高於B的生命價值,而對人類產生重大的衝擊。

舉例來說,Amazon在2017年棄用其自2014年起審核應徵者履歷表的自動化系統,2015年發現該系統分析軟體開發者和其他技術職位的應徵者時,會出現性別歧視(即履歷表出現「女性」一詞會扣分),原因在於Amazon投入用以訓練的資料來自該公司10年來的聘用紀錄,大部分獲聘的都是男性,造成系統直接反映此情況,雖Amazon嘗試改變系統以減少偏見,但無法確保不會重複出現類似的問題。


2. 自主決定權(Autonomy)。即應確保人類決定的自由,演算法或自主系統應尊重人類決定,包括是否使用、如何使用、何時使用等,而演算法或自主系統的透明度及可預測性即是確保人類能夠享有決定自由的前提。

Google在稍早於Google I/O展示語音助理協助餐廳訂位的服務,餐廳服務人員並沒有認出是人工智慧助理很自然地完成訂位的服務。但是,會不會覺得有點怪怪的?對,因為語音助理並沒有事先告知身分。我們聽到政治人物拜票等電話語音行銷,會很自然地反應過來只是電話語音,即使覺得煩,掛掉就好,總還是能接受。但未來我們能否接受在不知情的狀況下跟AI打交道?這個原則正是在確保除了我們自行決定使用AI的情境之外,也包括他人與我們交流時使用AI須先揭露身分,可說是人性尊嚴的延伸。


3. 責任原則(Responsibility)。責任原則是AI研究與應用的基礎。自主系統只能在審議式民主程序所決定對全球社會及環境有益的結果下開發及應用。亦即,人工智慧、機器人及自主系統在設計及開發時應向人類基本價值與權利看齊,不應對於人類造成不可接受的損害風險,也不應以不法、暗中降低獲取公民知識及選擇權利的方式,損害人類自由及自主權,而應增進接近、獲取知識的機會。

現代公民社會所信賴的審議式民主程序(Deliberative Democratic Processes),是否如大家所預期地發揮作用?以本次公民投票的議題及結果而言,許多人都深深感受到「同溫層」之厚,遠超出自己的想像。在實體及虛擬的社群中充斥各種資訊,實體世界還有親人這個無法自行選擇的連繫,虛擬世界中則因演算法而只看到得系統評估使用者可能「更願意」閱讀的資訊,這是好的現象嗎?沒有充分的選擇權獲取其他自己可能不是那麼願意接觸的資訊,其實就是系統主動幫人們做出選擇,是否是人類自己真正的選擇?即令不是面對AI的議題,你我也都應該審慎思考。

 

4. 正義、衡平及人類團結的促進(Justice, equity, and solidarity。AI應對於全球正義及公平取得人工智慧、機器人及自主系統所能帶來的福利及優勢作出貢獻,並應儘量在早期階段即預防、偵測、報告及消除用以訓練及運行AI系統資料集的歧視性偏差。包括建構公平分配與利益共享的新模式以回應自動化、數位化及AI所帶來的經濟轉型,確保AI核心技術的可及性,以及促進STEM、數位課程的教育訓練,尤其是弱勢地區及團體。應對於詳細、大量個人資料積累的負面影響保持警惕,如社會保險、健康保障等互助系統。


典範移轉所帶來社會利益的重分配是AI相關立法必須配套考量的因素,無論是對於勞工(因AI導致部分領域工作消失或大量減少)或其他個人決定權等。若民眾對於AI了解愈少,就愈難期待透過民眾的「選擇」達到公平分配及利益共享的目標。就如同Uber進入台灣市場所引發的兩極論戰,政府難以停留在Uber搶計程車生意這樣的思維處理爭議。當國外無人車都已經準備上路,整個交通法規立法當年對於「公共運輸」的認知基礎已逐漸發生變化,持續停留在對於計程車司機生計保護的立場依法行政,只會引發更高的對立衝突,未來AI相關的立法同樣也會面臨新、舊利益的衝突,如何在這個過程中衡平利益分配、保障受衝擊的弱勢團體,則是促成社會團結、避免極端個人主義的關鍵。



當自動駕駛時代來臨 AI立法的核心—責任釐清與分配(上)(下)

不失控的世界,從歐盟AI立法的準備談起(上)(下) 

如何促進AI的發展—從Data Driven談資料應用的法律(上)(下) 



 

* 作者為益思科技法律事務所律師

** 作者為益思科技法律事務所研究員、台大建城所博士候選人

[1] 聲明全文的英文版可於下述網址取得:https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf


Copyright IS-Law.com
由 王文君研究員 發表於 資訊科學暨法資訊學 | 引用 (0) | 閱讀(704)