首頁 > 知識分享 > 人工智慧的「歧視」與「解釋」法規困境-從反托拉斯法到歐盟通用資料保護規則-

人工智慧的「歧視」與「解釋」法規困境-從反托拉斯法到歐盟通用資料保護規則-

2019/03/21
目錄

2017年6月27日歐盟執委會對Google濫用搜尋引擎的市場獨占地位,對於其比價購物服務給予不當優勢,違反歐盟反托拉斯法規定對Google處以24億歐元罰鍰,而歐盟有關個人資料保護的新規範-通用資料保護規則(General Data Protection Regulation, GDPR)[1]亦將於2018年5月25日正式實施,這二則新聞有什麼共通點?有,都跟歐盟有關係,確實也是這樣,歐盟似乎是人類與主宰網路世界的眾巨頭們爭鬥的最後希望,但還有一個更有趣的議題,就是Google的案件和GDPR,都對人工智慧相關產品或服務未來的發展有重大的影響。

一、Google未能合理說明搜尋演算法,得罪歐盟執委會遭重罰?  

Google對於其搜尋引擎排序的演算法,一直以來均以營業秘密抗拒來自政府機關的各種調查與要求,在購物搜尋的反托拉斯法調查案件中,Google除了被指控在搜尋結果呈現頁面不當利用其搜尋引擎的獨占地位為不合理的安排之外,另一個重要的指控即為Google更動其搜尋演算法,致使從事購物搜尋的競爭網站在其搜尋結果頁面的排序結果均被大幅調降,而致使購物搜尋的競爭網站流量大幅下降,嚴重影響市場競爭秩序。雖然Google提出其係因調整演算法中有關原創內容的排序,主要抓取其他電商網站內容的購物搜尋網站被系統認定為非屬原創內容而調降其排序,但這樣的解釋顯然因為「未能提出具體證據」而不被採信,遭到重罰或許也跟Google不願意配合揭露其搜尋引擎演算法有關。雖然「差別待遇(歧視)」未必違反反托拉斯法,但若無法提出正當理由(未能充分說明其演算法之規則),勢將持續遭遇反托拉斯法的挑戰。

二、歐盟新個資規範強化對於自動化處理個資的透明化與評估   

在GDPR的情形也是類似的,GDPR在第13條、第14條、第15條均針對涉及自動化決定(automated decision-making),包括:資料剖析(profiling)與自動化決定邏輯有關具有意義的事項(meaningful
information about the logic involved),需要告知當事人或依當事人要求提供;而第22條第1項更明確地規定,「當事人有權不受一個僅依自動化處理(包括資料剖析)決定的拘束,而該決定可能對其產生法律效果或類似之重大影響。」(The data subject shall have the right not to be subject to a decision based solely on automated processing, including profiling, which produces legal effects concerning him or her or similarly significantly affects him or her.)或許以實例來說明會比較容易了解。若是某家銀行業者所採取含有人工智慧的Fintech進行核准信用貸款的審查,消費者線上申請後,只要提供三個以上的社群網站帳號(如:FB、PTT、IG),30分鐘即可立即決定是否核貸及核貸金額,30分鐘後收到系統的通知拒絕核貸,這時候,消費者會怎麼想?為什麼我被拒絕了?我被拒絕會不會影響我去其他銀行申請貸款?到底我的社群資料是被如何的蒐集、處理及利用?人工智慧初期可能只能由巨量資料分析不同要素間的關聯性,例如:可能在社群網站發文頻率、類型、內容等在某一個評估值的區間是信用最差的,但可能未必能說出一個道理來。而若是採取人工智慧的方式進行個人資料自動化處理與決定,則如何滿足GDPR「告知」的責任?更不用說GDPR第35條還要求要進行資料保護影響評估(Data protection impact assessment)。

三、從對電腦自動化處理友善到對人工智慧的警戒   

就筆者過去的經驗,法院在處理與電腦相關的案件時,經常只要是「歸因於」這是電腦系統自動處理,企業並未故意對特定人侵權,這樣的說法往往為法院所接受,畢竟因為電腦系統大量處理資料,總是不可能為某一個特定個案以人工特別處理,或是設計特別規則,因為那樣反而會創造出更多的「不公平」,就好像教改改到頭昏眼花,有些人就覺得還是過去一試定終身的聯考最「公平」一樣。

然而,為什麼從歐盟執委會有關Google搜尋引擎對競爭業者為差別待遇的認定,到GDPR對於自動化處理的規範,都充滿者一種對於電腦自動處理的「不信任」?這可能是隨著電腦自動運算的演算法愈來愈複雜,一般人或執法者都愈來愈難掌握其背後的「邏輯」所致,遑論更「不透明」的人工智慧,人工智慧執行的結果或許精準、正確,但確難以用法律人熟悉的「因果關係」的角度去理解。人工智慧的系統並不因其不受人類情感因素的影響,即不會有歧視或偏見,因為人工智慧所據以開展的演算法及資料本身,都還是「人類」建構或產出,反而可能會因為人工智慧而更加深其歧視或偏見,就如同出現在我們FB動態頁面的資訊,FB是在觀察我們之後,餵養我們更多同質的訊息一樣。無怪乎立法者或執法者會對人工智慧採取一種比較「敵視」的態度。

四、小結

然而,困難點在於政策上我們是不是要繼續往人工智慧的未來前進?從電腦系統的演算法、機器學習再到人工智慧,法律要如何動態地看待究竟演算法與巨量資料所構築的系統,純粹只是因為營業秘密不能說,還是最後會面臨其實是「說不出來」的困境?就如同AlphaGo團隊也說不出為何AlphaGo會決定下某一步棋一樣?過去微軟因為要進中國市場而將電腦程式原始碼提供予官方檢視,之後人工智慧的成果若要進入市場,官方有能力檢視嗎?或是說,廠商有能力「解釋」嗎?面對反托拉斯法以及個人資料保護相關法規這樣充滿「邏輯」、「模糊」的法律,或許只有對律師來說是個好消息吧!過去律師扮演者協助當事人向法院、主管機關溝通的任務,未來律師可能要更積極地扮演人工智慧相關法政策形成的溝通角色。


[1] 全文可於下述網址取得:http://ec.europa.eu/justice/data-protection/reform/files/regulation_oj_en.pdf,
2017/9/27 visited.

請輸入關鍵字