按Enter到主内容区
:::

财团法人海峡交流基金会

:::

建构AI伦理 台湾AI法制积极向前◆文/张丽卿( 国立高雄大学讲座教授 )《交流杂志111年8月号第184期(历史资料)》

政府已开始重视AI的基本伦理。2018年「无人载具创新实验条例」(无人载具条例)、2019年科技部「人工智慧科研发展指引」(AI科研指引),都有AI基本伦理的精神;学界的研究成果,尝试提出台湾自驾车发展的伦理指引刍议,以及运用智慧医疗宜遵守的伦理准则,希望能为修法提供方向。

无人载具创新实验条例展现透明性

201812月,立法院通过无人载具条例,该条例第3条第1款定义无人载具为「透过远端驾驶或自动操作而运行」,且具备感测、定位、监控、决策及控制技术的「无人驾驶交通运输工具」,如自驾车。无人载具条例中,虽无专条或专章规范AI的基本伦理原则,但从部分条文可看到AI的伦理色彩,诸如确保人类安全、保护个人资料等。

无人载具条例第1条可知,立法目的之一是「建构完善且安全之创新实验环境」。无人载具条例第5条以下,要求研发单位向主管机关提出实验研发计划,应提出「已评估潜在风险并定有相关因应措施,及其他与创新实验计划相关之安全或风险控管措施」;待提出申请后,经过政府机关审核计划为安全,方得进行实验。第16条明文申请人于实验期间,应采行适当及充足之资讯安全措施,确保资讯搜集、处理、利用及传输之安全;第20条规定,实验时期若有违规等情事,若有危及人类生命、身体或财产安全等情况,主管机关得限期改善,或情节重大,直接废止实验进行。这些规定,都在体现AI的国际基本伦理,确保人类安全。

此外,无人载具条例第17条,「申请人搜集、处理或利用个人资料,应遵守个人资料保护法之相关规定。」因无人载具的研发过程中,可能搜集、处理或利用个资,恐涉及个人资料的侵犯,应遵守个人资料保护法的规定,借以达到尊重人类的自主性。

无人载具条例第11条规定,主管机关于创新实验期间,应将申请人名称、创新实验内容、期间、范围、排除适用之法律、法规命令或行政规则及其他相关资讯,「揭露」于机关网站。同法第16条规定,申请人应于创新实验开始执行测试前,于媒体或电子网站公告实验相关资讯,并于无人载具或实验场域以适当方式进行「告示」。这些条例都在展现AI的透明性,借由在无人载具的实验阶段,让人们知悉AI研发可能带来的各项危险。

人工智慧科研发展指引以人为本

至于学术研究与产业发展,AI科研指引是很重要的具体表现,使相关专业人员有所依循。AI发展复杂度极高,若不谨慎利用恐造成重大歧视、滥用现象,使研发人员心血浪费,AI益处无法充分发挥。为避免前述风险,科技部以「以人为本」、「永续发展」、「多元与包容」3个面向,建构8项指引:

1.共荣共利。强调AI的发展,应该达成保障人类身心健康、创建全体人民利益、总体环境跃升。

2.公平性与非歧视。AI应平等尊重人性尊严、基本人权,AI系统的决策,应以人为本,避免产生偏差与歧视等风险,并建立外部回馈机制。

3.自主权与控制权。AI的应用是为了辅助人类决策,而非替代人类,应致力让人类能拥有完整且有效的自主权与控制权。

4.安全性。科研发展,安全是基本要求,AI也不例外,AI科研人员应注意AI系统是否合理且善意的使用。

5.个人隐私与数据治理。AI科研人员,在AI的研发与应用上,「应致力注意个人资料搜集、处理及利用符合相关法令规范,以保障人性尊严与基本权,并有适当的管理措施。

6.透明性与可追溯性。AI的决策,可能对利害关系人有重大影响,应建立相关纪录保存制度,一旦发生事故,有救济及厘清的可能。

7.可解释性。AI的发展与应用,应使AI决策具有可解释性,以兼顾使用者及受影响者权益,应尽力以文字或视觉等方式,让人可以理解。

8.问责与沟通。基于社会公益与关系人利益之维护,应在发展AI的过程中,建立问责与沟通的方式。

自驾车与智慧医疗应遵守伦理

 自驾车应以人类安全为首要目标,程式设计时优先保护人。智慧医疗应以人为本,尊重自主权利,例如智慧医疗系统的使用,需由医师向病人说明,再由病人决定是否使用。在个人资料保护及平等利用层面,自驾车使用者为数据权利人。为优化自驾车系统以及测试、验收系统,个人资料应当被保护。同样,智慧医疗的大数据,可能对医学研究的价值与侵犯个人隐私产生拉扯,因此,从设计厂商到使用端的医师,须特别注意个资规范,非医疗人员取得病患资料的问题。

    另外,当自驾车发生事故时,有赖案发时的纪录,才能快速厘清相关责任及找出待修正的错误资讯,公众有权利了解新的科学技术,及使用自驾车的方式。对于智慧医疗,演算法不透明,影响医学上极为重要的「告知后同意原则」的落实,只有当智慧医疗系统的判断与使用过程的透明化及具可理解性,病人才能完全信任智慧医疗的应用。

衡平科技发展与法规范伦理。科技的运用存有各种风险,可能发生在相关使用者或科技研发者,法律不能过度保护任何一方,应关照社会各层面,取得平衡点。例如,使用自驾车,若发生事故,找不到归责对象,法律不应强行规范应由谁承担责任,应考虑补偿及回复机制。智慧医疗的使用也要重视公平多元,例如考量族裔基因不同,可能会影响药物的作用,同时要避免影响保险公司的承保意愿、就业歧视,以及污名化疾病的歧视等。

长远来看,台湾AI的发展,应建立在法制之上。现行的无人载具条例、AI科研指引,已对AI伦理进行相当的思考,惟欠缺更全面、整体的规范,完成AI基本法的立法工作,确立我国AI基本伦理,刻不容缓。AI伦理规范,为发展AI的根本,台湾正在逐步跟上世界AI发展的潮流,积极正向建构AI社会。

回页首