按Enter到主內容區
:::

財團法人海峽交流基金會

:::

誰在說話?生成式AI正在改變民主討論◆文/林伯雍(政治大學國際關係研究中心助理研究員)

  • 更新日期:115-02-11

2023年5月,一張疑似描繪美國五角大廈周遭發生巨大爆炸的影像,在社群平臺X(原Twitter)上迅速流傳。畫面中,濃煙直竄天空,場景駭人,該影像立即喚醒人們對2001年911恐怖攻擊的陰影。在接下來短短幾分鐘內,該貼文被迅速大量轉傳,引發市場短暫震盪,美股甚至一度下挫。事後證實,這張影像是由生成式AI製作的假圖像。儘管事件很快被釐清,但該事件已清楚的凸顯了一個事實:在高度即時、相互連結的資訊年代中,AI生成的錯假內容,即使只存在片刻,也足以產生真實的政治與經濟後果。

這起事件並非孤立案例,而是AI資訊操弄逐步進入公共視野的縮影。隨著生成式AI技術快速成熟,資訊的生產、擴散與再製方式正發生結構性改變。過去需要大量人力、時間與資源才能完成的宣傳、帶風向與輿論操縱行為,如今可以在極短時間內完成,且內容品質之高,足以混入日常資訊流之中。對民主社會而言,這不只是「假新聞變多」的問題,而是公共討論的基本條件正在逐漸改變中。

AI輔助下 產製內容與操作假帳號成本顯著降低

AI帶來的基本改變有以下至少三項。首先,生成式AI顯著降低政治內容的生產成本。大型語言模型能快速生成大量文字,並依不同語境、語言與受眾調整語氣與敘事,使政治訊息更容易被包裝成自然、理性,甚至像是一般民眾的意見。在社群媒體與新聞網站的留言區中,這類內容往往不是以單一錯誤資訊出現,而是以大量彼此呼應、論點高度一致的留言呈現,逐步製造出某種看似存在的社會共識。

其次,AI正在提高資訊操弄的持續性。過去的政治水軍或假帳號操作,往往受限於人力、語言能力與管理成本,較容易留下破綻。例如,在人力上,真人操作的水軍有固定上下班與午休時間,因此調查者過去曾按照特定發文時間進行判斷。然而,在AI的輔助下,操作者可以同時維持多個帳號的敘事一致性,又能在細節上保有差異,使行動更隱蔽,更難被即時辨識。這類操作不需透過戲劇性的謊言,而是透過長時間、跨平臺的留言與互動,逐步引導討論方向,讓特定立場看起來越來越合理、越來越主流。

第三,深偽技術的成熟,使公眾面臨更嚴峻的識讀能力挑戰。當影像、聲音與文字都可以被高度逼真地合成,公眾不僅更容易被誤導,也更容易對真實資訊產生懷疑。這種真假難辨的狀態,可能削弱人們對媒體、政府與公共機構的基本信任,並在政治衝突或選舉期間放大混亂與不確定性。即使深偽內容最終被揭穿,其短期造成的信任侵蝕,往往已對政治過程產生影響。

AI操弄資訊之政治後果 學界仍有分歧

上述三項發展固然真切的威脅民主社會的穩定、信任與公眾討論。然而,學界對AI資訊操弄的實際影響與政治後果,仍存在重要分歧。

第一個核心爭論,在於生成式AI帶來的能力躍升,是否構成資訊操弄的根本性改變,而不只是加速傳播。較為警覺的研究指出,生成式AI不僅提升內容產製速度,更改變影響力行動的組織邏輯,使原本高度仰賴人力的操作,轉變為人機協作的規模化,甚至讓小型行為者具備接近國家級影響力操作的能力。換句話說,假訊息的傳播方式、影響力,以及衍生的辨識方式,已進入全新的紀元。但另一類研究謹慎的提醒,AI在資訊操弄的討論,多半建立在技術潛力之上,仍然缺乏長期、可重複的實證支持。這類研究認為,即使AI 提升了內容品質與數量,受限於人的注意力與既存心理需求,例如「可欲性偏誤」(desirability bias)、「確認偏誤」(confirmation bias),或「選擇性曝光」(selective exposure)等,大規模的假訊息要轉化為大規模態度改變,仍高度依賴平臺演算法、媒體環境與社會極化程度,而並非假訊息本身。

第二類研究方向,則把假訊息的研究焦點從單一內容轉向為塑造或改變整體輿論。研究發現,政治上的「偽造草根民意」(astroturfing)行動在依賴人力的情況下往往呈現高度協調的行為模式,這種偽造共識本身,即足以影響人們對輿論走向的判斷。研究者針對這一協調的現象,發展特定的方法追蹤這些帳號。AI的出現使原本的追蹤技術需要更新,但偽造民意的研究向來是假訊息研究的重要方向之一,實證研究顯示,假訊息的實際接觸與分享高度集中於特定族群,其影響並非均勻擴散至整體社會,這使得其塑造輿論的效果是否被高估,成為一個辯論中的問題。

第三類研究方向,聚焦在AI生成的留言對公眾的影響。研究指出,人們在判斷政治議題時,往往依賴對多數意見的感知線索,而非僅評估內容本身的真偽與論證品質。當留言區呈現出高度一致的立場時,使用者容易重新評估何為主流意見,進而調整自身態度。

第四類研究方向,則探討生成式AI對國際衝突的影響。透過研究非洲衝突與聯合國維和行動,顯示生成式AI的假資訊惡化剛果與盧安達的關係,並且煽動人們的暴力傾向,甚至威脅國際組織的可信度,進而威脅聯合國維和人員的安全。最後,也有學者提醒,對AI資訊操弄的恐慌過度宣傳,可能產生另一種政治影響。若社會普遍相信資訊已被全面操縱,反而可能削弱公民參與,使得民主討論更加貧弱,或為過度管制提供正當性。

錯假內容 已侵蝕公眾對民主討論的信賴

總體而言,AI資訊操弄是一種仍在快速演化中的技術與政治實踐。現有研究大致可以確認,生成式AI確實提升資訊操弄行為者的能力,並透過心理機制,在特定條件下產生政治影響;但其影響的類型與擴散範圍,仍有必要加以細緻區分。當前的實證證據顯示,AI生成的錯假內容往往更傾向於強化既有信念,而非全面改變公眾態度。即便如此,這一趨勢仍對民主社會構成警訊,因為它已然侵蝕民主討論中所仰賴的信任與溝通基礎。與此同時,若對AI資訊操弄的風險過度恐慌,也可能進一步削弱公眾對資訊環境的信賴,甚至為過度管制提供正當性。因此,對民主社會而言,當前的關鍵或許不在於過早下定論,而在於持續運用科學、可檢驗的研究方法,審慎評估其實際影響,與社群媒體平臺緊密配合,逐步重建社會對開放資訊的信心。

回頁首