按Enter到主內容區
:::

財團法人海峽交流基金會

:::

建構AI倫理 臺灣AI法制積極向前◆文/張麗卿( 國立高雄大學講座教授 )《交流雜誌111年8月號第184期(歷史資料)》

  • 更新日期:112-07-13

政府已開始重視AI的基本倫理。2018年「無人載具創新實驗條例」(無人載具條例)、2019年科技部「人工智慧科研發展指引」(AI科研指引),都有AI基本倫理的精神;學界的研究成果,嘗試提出臺灣自駕車發展的倫理指引芻議,以及運用智慧醫療宜遵守的倫理準則,希望能為修法提供方向。

無人載具創新實驗條例展現透明性

201812月,立法院通過無人載具條例,該條例第3條第1款定義無人載具為「透過遠端駕駛或自動操作而運行」,且具備感測、定位、監控、決策及控制技術的「無人駕駛交通運輸工具」,如自駕車。無人載具條例中,雖無專條或專章規範AI的基本倫理原則,但從部分條文可看到AI的倫理色彩,諸如確保人類安全、保護個人資料等。

無人載具條例第1條可知,立法目的之一是「建構完善且安全之創新實驗環境」。無人載具條例第5條以下,要求研發單位向主管機關提出實驗研發計畫,應提出「已評估潛在風險並定有相關因應措施,及其他與創新實驗計畫相關之安全或風險控管措施」;待提出申請後,經過政府機關審核計畫為安全,方得進行實驗。第16條明文申請人於實驗期間,應採行適當及充足之資訊安全措施,確保資訊蒐集、處理、利用及傳輸之安全;第20條規定,實驗時期若有違規等情事,若有危及人類生命、身體或財產安全等情況,主管機關得限期改善,或情節重大,直接廢止實驗進行。這些規定,都在體現AI的國際基本倫理,確保人類安全。

此外,無人載具條例第17條,「申請人蒐集、處理或利用個人資料,應遵守個人資料保護法之相關規定。」因無人載具的研發過程中,可能蒐集、處理或利用個資,恐涉及個人資料的侵犯,應遵守個人資料保護法的規定,藉以達到尊重人類的自主性。

無人載具條例第11條規定,主管機關於創新實驗期間,應將申請人名稱、創新實驗內容、期間、範圍、排除適用之法律、法規命令或行政規則及其他相關資訊,「揭露」於機關網站。同法第16條規定,申請人應於創新實驗開始執行測試前,於媒體或電子網站公告實驗相關資訊,並於無人載具或實驗場域以適當方式進行「告示」。這些條例都在展現AI的透明性,藉由在無人載具的實驗階段,讓人們知悉AI研發可能帶來的各項危險。

人工智慧科研發展指引以人為本

至於學術研究與產業發展,AI科研指引是很重要的具體表現,使相關專業人員有所依循。AI發展複雜度極高,若不謹慎利用恐造成重大歧視、濫用現象,使研發人員心血浪費,AI益處無法充分發揮。為避免前述風險,科技部以「以人為本」、「永續發展」、「多元與包容」3個面向,建構8項指引:

1.共榮共利。強調AI的發展,應該達成保障人類身心健康、創建全體人民利益、總體環境躍升。

2.公平性與非歧視。AI應平等尊重人性尊嚴、基本人權,AI系統的決策,應以人為本,避免產生偏差與歧視等風險,並建立外部回饋機制。

3.自主權與控制權。AI的應用是為了輔助人類決策,而非替代人類,應致力讓人類能擁有完整且有效的自主權與控制權。

4.安全性。科研發展,安全是基本要求,AI也不例外,AI科研人員應注意AI系統是否合理且善意的使用。

5.個人隱私與數據治理。AI科研人員,在AI的研發與應用上,「應致力注意個人資料蒐集、處理及利用符合相關法令規範,以保障人性尊嚴與基本權,並有適當的管理措施。

6.透明性與可追溯性。AI的決策,可能對利害關係人有重大影響,應建立相關紀錄保存制度,一旦發生事故,有救濟及釐清的可能。

7.可解釋性。AI的發展與應用,應使AI決策具有可解釋性,以兼顧使用者及受影響者權益,應盡力以文字或視覺等方式,讓人可以理解。

8.問責與溝通。基於社會公益與關係人利益之維護,應在發展AI的過程中,建立問責與溝通的方式。

自駕車與智慧醫療應遵守倫理

 自駕車應以人類安全為首要目標,程式設計時優先保護人。智慧醫療應以人為本,尊重自主權利,例如智慧醫療系統的使用,需由醫師向病人說明,再由病人決定是否使用。在個人資料保護及平等利用層面,自駕車使用者為數據權利人。為優化自駕車系統以及測試、驗收系統,個人資料應當被保護。同樣,智慧醫療的大數據,可能對醫學研究的價值與侵犯個人隱私產生拉扯,因此,從設計廠商到使用端的醫師,須特別注意個資規範,非醫療人員取得病患資料的問題。

    另外,當自駕車發生事故時,有賴案發時的紀錄,才能快速釐清相關責任及找出待修正的錯誤資訊,公眾有權利瞭解新的科學技術,及使用自駕車的方式。對於智慧醫療,演算法不透明,影響醫學上極為重要的「告知後同意原則」的落實,只有當智慧醫療系統的判斷與使用過程的透明化及具可理解性,病人才能完全信任智慧醫療的應用。

衡平科技發展與法規範倫理。科技的運用存有各種風險,可能發生在相關使用者或科技研發者,法律不能過度保護任何一方,應關照社會各層面,取得平衡點。例如,使用自駕車,若發生事故,找不到歸責對象,法律不應強行規範應由誰承擔責任,應考慮補償及回復機制。智慧醫療的使用也要重視公平多元,例如考量族裔基因不同,可能會影響藥物的作用,同時要避免影響保險公司的承保意願、就業歧視,以及污名化疾病的歧視等。

長遠來看,臺灣AI的發展,應建立在法制之上。現行的無人載具條例、AI科研指引,已對AI倫理進行相當的思考,惟欠缺更全面、整體的規範,完成AI基本法的立法工作,確立我國AI基本倫理,刻不容緩。AI倫理規範,為發展AI的根本,臺灣正在逐步跟上世界AI發展的潮流,積極正向建構AI社會。

回頁首