按Enter到主内容区
:::

财团法人海峡交流基金会

:::

穿越演算法的迷雾—AI时代的危机与转机◆文/林昕璇(中国文化大学法律学系助理教授)《交流杂志111年10月号第185期(历史资料)》

  • 更新日期:112-07-13

马克.祖克伯正扪心自问一个前代未闻的问题:
我的公司是否应该成为全球20亿人的真理与公义的裁决者?

Evan Osnos

公私协力的监控资本主义

互联网、大数据、监控社会、人工智慧与演算法,无疑是近年来最受瞩目的科技议题,以各式复杂演算法为基础的预测、分类或决策系统工具受到各国政府机关运用,协助甚至取代公部门日常功能,甚或制定足以影响人民基本权利与义务的政策。

哈佛大学商学院Shoshana Zuboff教授曾以「监控资本主义」(Surveillance Capitalism)描述人工智慧社会由跨国网路媒体宰制的新兴监控模式。这种新兴监控的特征在于,科技业者通常出于自身商业目的,协助搜集政府想要获取的资讯,政府部门再从科技业者获取资讯。

 此「公私协力」监控,对公众隐私和个人资料保护构成程度不一的威胁,带来不可回避的偏见与预断。例如,网路服务供应商以付费高低为依据,决定某些特定数据的传输,且支付越高传输速度越快。演算法也为企业在商业获利和资本积累上提供协助,如Google搜集分析用户留言、网页搜寻或观看及点阅纪录,投放客制化广告;Facebook利用动态消息演算法,以提升使用者经验的名义,主动代替读者筛选新闻资讯;Amazon透过分析大量消费者数据来确定成功产品,并推出自有品牌的同类产品,以较低的售价获得竞争力。

由上可知,公、私部门交相利用人工智慧提升决策效率及获利,在法律与伦理层面带给人类社会广泛的冲击。相关法律规范及其解释适用,近年来相当程度呈现无法与时俱进的规范漏洞,法律与现实脱轨,俨然是人类社会今后必须正视的严肃课题。

中共利用演算法引导亲中舆论

「布鲁金斯学会」(Brookings Institution)与「保障民主联盟」(The Alliance for Securing Democracy)近日报告指出,中共善于利用监管措施,引导Google、YouTube等搜寻引擎的推荐系统,推播关于新疆等议题的官方观点;另一方面,中共透过数位平台与社群媒体产制符合其意识形态的内容,加强党国意识的巩固,也屡见不鲜。这些操作模式的途径,除日渐扩张的网路服务中介者外,亦包括在社群媒体设立假帐号攻击与讥讽异议人士,如前美国总统川普首席策略长巴农(Steve Bannon),都在假帐号的砲火攻击之列。

「资讯韧性中心」(Centre for Information Resilience)于2021年发布调查报告指出,由假帐号组成且发动的亲中舆论引导,有逐步系统化、集团化的发展态势。中共在Facebook、Instagram和YouTube宣扬有利于官方的言论,成为政治宣传的利器,除诋毁异议人士的信誉,也削弱西方民主政治的合法性,并提升中国大陆在海外的影响力。

「情绪辨识」系统 可能侵害人权

中共近年来尤具争议的AI运用模式,以「情绪辨识」为首,借由AI系统检测人类在某个特定时点,包括生理及心理特征如人类面部表情变化,语调高低及肌肉活动、呼吸、心跳乃至声纹等生物特征数据,可判读被检测者当下情绪。根据2021年BBC报导,情绪辨识系统在中国大陆境内被广泛运用于预警、针对少数族群(如新疆维吾尔族)或异议人士的打压,以及对潜在威胁人员实施监控与审讯,若欠缺适当课责与监督机制,很有可能因为科技发展的不可预测性与威权政体的加乘,产生对人权侵害的潜在威胁,人权学者Rebecca MacKinnon便以「网路威权主义」(Networked Authoritarianism)形容中国大陆日渐成熟的监控制度,是一种数位时代下威权主义的崭新模式。

相对于西方民主政权强调的「网路中立」和「科技中立」基本法理,新兴科技在中国大陆往往成为政府实施大规模监控的利器。随著中国大陆人脸辨识及情绪辨识技术日臻成熟,中共对于异议人士之箝制力道随之上升,从而对于该等人士的资讯自决权、政治参与权乃至意见表达自由,构成复合式的侵害。倘若政权更进一步结合网路审查与AI「深伪」技术,透过AI的深度学习,创造并散播「假」讯息,就长远发展,恐触发强制凝视(Compulsory Visibility)效果,扩大中国式「边沁式圆形监狱」的监控效应。

如何避免被演算法绑架

人工智慧因为自我学习、黑箱本质、缩短或绕过人类决策的特性,演算法或隐或显地反映出人类心理的隐性偏差。学者Amanda Levendowski研究Google在使用「Word2vec」此一用来产生词向量的相关模型后发现:「女性」这个词更接近与家庭相关的领域,以及与艺术相关的职业和人文;相对而言,「男性」这个词更接近与数学和工程相关的专业。这些深植于社会结构性因素所产制的偏见很有可能基于机器学习的黑箱及不透明,使得既存于社会系统中的隐性歧视,在未经适当检验及监督下,透过演算法被过滤或放大,从而产生难以发现的再制。

演算法的渗透力与影响力,反映发展中的AI科技尚无公认的评测指标和规范准据,呈现AI相关的多元价值与各方利害关系人的竞合利益。值得观察的是,相较于资料治理法制建设尚处于萌芽阶段的中国大陆,美国的法制作法是透过业者自律和自我规范为主,从「评测指标与行为准据」、「数据影响评估」、「吹哨者保护条款」等3个面向「由内」检视究责的可能性。

在建构评测指标上,近来诸多科技巨头如Amazon、Facebook、IBM、微软和Alphabet尝试制定符合伦理的规范以制约AI,朝向制定「可课责、可解释性、准确度、可检视性、公平性」的伦理准则与纲领目标迈进;美国法学者Sonia Katyal则主张《营业秘密防护法案》(Defend Trade Secrets Act)针对企业防弊之吹哨者,订定联邦吹哨者保护条款,作为解决企业利用商业秘密遮掩演算法的透明与课责方案之一。

由产业或公司内部自主检视演算法的公平性与透明性,作为整合科技发展与法律机制的杠杆基点,虽非最佳选择,但或许能发挥一定程度的市场机制,成为引导资讯隐私架构规范发展的引路指标。

回页首