按Enter到主內容區
:::

財團法人海峽交流基金會

:::

AI浪潮人權與倫理的挑戰◆文/甘偵蓉( 清華大學動力機械工程學系副研究學者 )《交流雜誌111年8月號第184期(歷史資料)》

提到人工智慧(Artificial Intelligence,以下簡稱AI)時,您會想到什麼?是電影中有著跟人類能力差不多甚或更強的全功能機器人或仿生人?還是比特斯拉更強大的自駕車?抑或將晶片植入腦中,透過人機介面及演算法來操作的體外裝置?

上述各種可能使用的AI技術,不是還在測試階段,就是存在電影或科幻小說中。然而,日常生活AI早已隨處可見,只要有網路與雲端儲存數位資料庫就能運行。目前AI多使用機器學習技術,機器必須從大數據或一定資料量中驅動學習及建模,因此往往只有那些擁有大量資料且有技術處理者,亦即資料、技術、資本、政治權力/影響力都到位者,才能在此波AI發展中占一席之地。本文就高科技巨頭、專制政體、服務或利用「零工經濟」等3類型的AI技術或相關產品,探討其中的倫理問題。

高科技巨頭AI造成社會與民主問題且過度蒐集個資

AI高科技巨頭泛指GoogleMeta(前臉書)、亞馬遜、微軟、蘋果或IBM等公司,也包含推特及TikTok等知名社群平臺公司。這些AI高科技巨頭有3項共通點:第一,產品免費供人下載使用,追求最大使用人數;第二,產品依據使用者搜尋偏好或與他人連結情況,以演算法向使用者推薦查詢資訊排列或推文、圖片、影音等觀看順序;第三,產品使用者遍及世界多國,但主要在美國創立或主營運。

AI高科技巨頭所開發的AI技術或產品,最常為人詬病的涉及倫理層面問題大致可歸類為3類。第1是影音或社群軟體對於青少年及兒童的不良影響。例如,2021年臉書前員工揭露依據臉書的內部文件顯示,該公司早在20192021年的內部研究中得知,近4成的美國青少年從IG中感到自己沒吸引力或體型不如他人,危害其心理健康。TikTok近日爭議則是以繩子勒住自己直到昏迷的「昏迷挑戰」影片,模仿的7名兒童意外死亡而被家長提告,類似爭議已發生多起,令教師與家長相當頭疼,防不勝防。

2類是搜尋平臺與社群軟體對於民主體制的多元價值負面衝擊。科技公司都會根據他們自行定義的使用者偏好,逕自以演算法向使用者排列推文或推薦影片,造成人們在資訊的取得上出現同溫層效應(或稱為回音室、過濾氣泡、資訊繭房等),進而加劇兩極化立場的社群出現。有美國研究指出,YouTube的演算法依據使用者偏好進行自動推播功能,可能與被視為極右派的政治頻道逐漸獲得支持有密切關聯。又Google搜尋平臺以演算法自動列出使用者常用的搜尋文字串與圖片功能,被發現有性別、種族歧視與文化偏見,例如鍵入黑人青少年,出現的關聯文字與圖片常常是警察,但鍵入白人青少年則出現微笑的白人年輕人。而推特與臉書可逕自刪除使用者的推文或停用帳號,包含政治競選候選人,刪文或停用帳號卻無任何第三方公正單位或外部人員的參與監督,常引發爭議。

3類是個人資訊的不當運用。搜尋平臺與社群軟體為精準預測用戶偏好,提升使用黏著度,往往過度蒐集個人資訊,很容易被有心單位或人士竊取個資,看似合法,卻對個人隱私嚴重侵害,例如劍橋分析公司在臉書放置免費心理測驗APP、未經同意而獲取使用者個資,並針對特定使用者投放廣告,使臉書被控干預2016年美國總統大選及英國脫歐公投。除了GoogleMata兩家AI巨頭外,Amazon的智慧型助理Alexa、微軟的Cortana、蘋果的Siri等,恐怕也不遑多讓。

專制政體下的AI為政權服務

AI技術或產品為非民主體制國家及專制威權國家所發展時,涉及的倫理問題主要包括:

利用AI技術進行社會監控。例如人臉辨識系統,又如中國大陸社會信用評分體系的社會監控系統,把人民在金融、交通、司法、生活消費等生活各面向數據都串連起來,而個人信用評分高低會影響能否買車票、移動到其他城市、找工作、甚至下一代能否進入好學校等。這類AI監控系統的使用目的,不僅讓人民朝著政府期待/指導人民如何生活的方向改變,更重要的是有利於政府監控異議人士及排除異己,強化政權穩定。

2項倫理問題則是,AI科技較為先進的專制國家會將其所開發的人臉辨識等社會監控系統,轉賣給技術較為落後的專制政府監控人民及異議人士;或者與這些國家以技術合作開發產品為名,取得這些國家的人民包含影像等各種數據,以利提升自身產品的使用準確度及適用範圍。

3項倫理問題是,AI科技先進的專制政府,以保護公眾利益為名所使用的AI系統出錯時,相較於民主政府,開發及使用過程不透明,且缺乏課責機制,往往投訴無門。更別提專制政府體制下的民間企業,即便自行開發AI系統,有可能被迫與政府共享其系統運作所儲存下來的數據資料庫,或在政府有需要時必須全數交出。

「零工經濟」的AI涉及剝削勞動力

這裡所謂服務「零工經濟」(gig economy)的AI,是指利用AI技術來優化服務的線上平臺,像是食物外送、共享汽車、貨物遞送的行車路線與時間等。而提供線上平臺者,可以是跨國企業如Uber、亞馬遜,亦可是當地寡頭企業。

另有所謂利用「零工經濟」的AI,指線上眾包平臺如MTurk或數據公司等提供數據標註的跨國線上派遣工作,以利機器學習或自然語言處理。這類工作重複性高,且不使用AI技術,卻是撐起AI「傳奇」功能不可或缺的一環。因為要讓電腦辨識數據內容前、提升AI模型的準確率、或是以人工補救AI辨識錯誤或無法辨識等,往往需要線上派遣零工的手動協助。而提供這類工作的派遣平臺或數據公司,通常是來自英美澳等西方國家巨頭企業或新創,而工作承接方的員工往往經濟條件與基本薪資則遠差於派遣方。

上述公司所產生的倫理問題,主要涉及對勞動力的嚴重剝削。勞工從事各國多不受勞動法規保障卻需長時待命的臨時派遣工作,可能因為技巧好或願意長時間接受派遣,而賺取比當地較高薪酬及彈性工時,但卻沒有機會與派遣平臺討論工作內容,也常承擔平臺片面修改勞動條件與薪酬,讓個人自費購買的機汽車或電腦等花費血本無歸,既無申訴管道,即使有也是申訴無效。

「零工經濟」的數位勞動剝削模式,被稱為AI/數位/資料殖民主義,彷彿新的剝削模式,但與傳統殖民主義以剝削手段奪取貧困地區的土地與資源,其實並無二致:亦即擁有AI技術與知識的資本方,在提供極端不對等的勞動條件下,犧牲窮人利益,賺取巨大財富。

高科技巨頭、專制政體、或是與「零工經濟」有關的AI技術與產品,若仔細探究它們所衍生的倫理問題,雖然有些確實是AI此技術特點所產生的新問題,但有不少是延續既有政治體制與經濟差異導致的舊問題,只是表面形式不同而已。

回頁首