按Enter到主內容區
:::

財團法人海峽交流基金會

:::

穿越演算法的迷霧—AI時代的危機與轉機◆文/林昕璇(中國文化大學法律學系助理教授)《交流雜誌111年10月號第185期(歷史資料)》

  • 更新日期:112-07-13

馬克.祖克伯正捫心自問一個前代未聞的問題:
我的公司是否應該成為全球20億人的真理與公義的裁決者?

Evan Osnos

公私協力的監控資本主義

互聯網、大數據、監控社會、人工智慧與演算法,無疑是近年來最受矚目的科技議題,以各式複雜演算法為基礎的預測、分類或決策系統工具受到各國政府機關運用,協助甚至取代公部門日常功能,甚或制定足以影響人民基本權利與義務的政策。

哈佛大學商學院Shoshana Zuboff教授曾以「監控資本主義」(Surveillance Capitalism)描述人工智慧社會由跨國網路媒體宰制的新興監控模式。這種新興監控的特徵在於,科技業者通常出於自身商業目的,協助蒐集政府想要獲取的資訊,政府部門再從科技業者獲取資訊。

 此「公私協力」監控,對公眾隱私和個人資料保護構成程度不一的威脅,帶來不可迴避的偏見與預斷。例如,網路服務供應商以付費高低為依據,決定某些特定數據的傳輸,且支付越高傳輸速度越快。演算法也為企業在商業獲利和資本積累上提供協助,如Google蒐集分析用戶留言、網頁搜尋或觀看及點閱紀錄,投放客製化廣告;Facebook利用動態消息演算法,以提升使用者經驗的名義,主動代替讀者篩選新聞資訊;Amazon透過分析大量消費者數據來確定成功產品,並推出自有品牌的同類產品,以較低的售價獲得競爭力。

由上可知,公、私部門交相利用人工智慧提升決策效率及獲利,在法律與倫理層面帶給人類社會廣泛的衝擊。相關法律規範及其解釋適用,近年來相當程度呈現無法與時俱進的規範漏洞,法律與現實脫軌,儼然是人類社會今後必須正視的嚴肅課題。

中共利用演算法引導親中輿論

「布魯金斯學會」(Brookings Institution)與「保障民主聯盟」(The Alliance for Securing Democracy)近日報告指出,中共善於利用監管措施,引導Google、YouTube等搜尋引擎的推薦系統,推播關於新疆等議題的官方觀點;另一方面,中共透過數位平臺與社群媒體產製符合其意識形態的內容,加強黨國意識的鞏固,也屢見不鮮。這些操作模式的途徑,除日漸擴張的網路服務中介者外,亦包括在社群媒體設立假帳號攻擊與譏諷異議人士,如前美國總統川普首席策略長巴農(Steve Bannon),都在假帳號的砲火攻擊之列。

「資訊韌性中心」(Centre for Information Resilience)於2021年發布調查報告指出,由假帳號組成且發動的親中輿論引導,有逐步系統化、集團化的發展態勢。中共在Facebook、Instagram和YouTube宣揚有利於官方的言論,成為政治宣傳的利器,除詆毀異議人士的信譽,也削弱西方民主政治的合法性,並提升中國大陸在海外的影響力。

「情緒辨識」系統 可能侵害人權

中共近年來尤具爭議的AI運用模式,以「情緒辨識」為首,藉由AI系統檢測人類在某個特定時點,包括生理及心理特徵如人類面部表情變化,語調高低及肌肉活動、呼吸、心跳乃至聲紋等生物特徵數據,可判讀被檢測者當下情緒。根據2021年BBC報導,情緒辨識系統在中國大陸境內被廣泛運用於預警、針對少數族群(如新疆維吾爾族)或異議人士的打壓,以及對潛在威脅人員實施監控與審訊,若欠缺適當課責與監督機制,很有可能因為科技發展的不可預測性與威權政體的加乘,產生對人權侵害的潛在威脅,人權學者Rebecca MacKinnon便以「網路威權主義」(Networked Authoritarianism)形容中國大陸日漸成熟的監控制度,是一種數位時代下威權主義的嶄新模式。

相對於西方民主政權強調的「網路中立」和「科技中立」基本法理,新興科技在中國大陸往往成為政府實施大規模監控的利器。隨著中國大陸人臉辨識及情緒辨識技術日臻成熟,中共對於異議人士之箝制力道隨之上升,從而對於該等人士的資訊自決權、政治參與權乃至意見表達自由,構成複合式的侵害。倘若政權更進一步結合網路審查與AI「深偽」技術,透過AI的深度學習,創造並散播「假」訊息,就長遠發展,恐觸發強制凝視(Compulsory Visibility)效果,擴大中國式「邊沁式圓形監獄」的監控效應。

如何避免被演算法綁架

人工智慧因為自我學習、黑箱本質、縮短或繞過人類決策的特性,演算法或隱或顯地反映出人類心理的隱性偏差。學者Amanda Levendowski研究Google在使用「Word2vec」此一用來產生詞向量的相關模型後發現:「女性」這個詞更接近與家庭相關的領域,以及與藝術相關的職業和人文;相對而言,「男性」這個詞更接近與數學和工程相關的專業。這些深植於社會結構性因素所產製的偏見很有可能基於機器學習的黑箱及不透明,使得既存於社會系統中的隱性歧視,在未經適當檢驗及監督下,透過演算法被過濾或放大,從而產生難以發現的再製。

演算法的滲透力與影響力,反映發展中的AI科技尚無公認的評測指標和規範準據,呈現AI相關的多元價值與各方利害關係人的競合利益。值得觀察的是,相較於資料治理法制建設尚處於萌芽階段的中國大陸,美國的法制作法是透過業者自律和自我規範為主,從「評測指標與行為準據」、「數據影響評估」、「吹哨者保護條款」等3個面向「由內」檢視究責的可能性。

在建構評測指標上,近來諸多科技巨頭如Amazon、Facebook、IBM、微軟和Alphabet嘗試制定符合倫理的規範以制約AI,朝向制定「可課責、可解釋性、準確度、可檢視性、公平性」的倫理準則與綱領目標邁進;美國法學者Sonia Katyal則主張《營業秘密防護法案》(Defend Trade Secrets Act)針對企業防弊之吹哨者,訂定聯邦吹哨者保護條款,作為解決企業利用商業秘密遮掩演算法的透明與課責方案之一。

由產業或公司內部自主檢視演算法的公平性與透明性,作為整合科技發展與法律機制的槓桿基點,雖非最佳選擇,但或許能發揮一定程度的市場機制,成為引導資訊隱私架構規範發展的引路指標。

回頁首