按Enter到主內容區
:::

財團法人海峽交流基金會

:::

AI技術加速新型犯罪與認知作戰◆文/魏權隆(社會觀察家)

  • 更新日期:112-06-29

AI技術點亮新一代的科技前景,為產業與生活帶來許多便利,同時也是一把雙面刃,易被有心人士濫用於犯罪活動,包括大規模社交工程攻擊、破解密碼、惡意軟體等。深偽(Deepfake)的泛濫、ChatGPT引發的熱潮,使得網路世界更加真假難辨,甚至成為認知作戰的利器。

犯罪組織利用AI侵犯隱私及人權

AI是近年最熱門的話題之一,廣泛運用於生物醫學、能源科技、多媒體創作、企業行銷等領域,另一方面,也被不肖人士「應用」於犯罪行為,侵犯他人的隱私與人權。

早在2017年,浙江紹興破獲中國大陸首例利用AI技術竊取民眾個資的案件,犯罪組織利用AI破譯驗證碼,取得10億多組個資。以往的電信詐騙依賴人工,現在則利用AI,偽冒能力更加逼真,數以千計的受害者聲稱被冒充親人的頂替者所騙,蒙受高額財物損失。

與傳統犯罪不同,數位領域的犯罪可輕易地分享、複製、再現,甚至出售,犯罪技術可推廣,犯罪也能當成服務提供。去年12月,刑事局偵破臺灣治安史上首宗利用AI語音技術來撥打詐騙電話的案件,主嫌以5萬元的價格,透過AI語音科技公司客製化詐騙電話AI機器人模組,該模組可根據民眾回答內容,判斷是否對投資有興趣,進而對潛在客群發送詐騙簡訊,11個月間送出高達6千萬則詐騙簡訊,不法所得逾新臺幣1億元。

「眼見」不一定為憑

「深偽」是AI威脅排行榜的第一名,不但辨識不易,也很難反制,容易被惡意攻擊者用來損害特定人士的名聲,或是冒充親人或信賴的人向受害者加以詐騙。

在所有深偽影片中,利用AI換臉技術製作的偽造色情圖片、影片,對當事人的傷害性最強。去年中國大陸發生多起在網路上分享生活照,遭到有心人士以AI「一鍵脫衣」功能惡搞成裸照,上傳網路散布,被造謠的當事人蒙受無妄之災,影響其正常生活與工作。除了侵害隱私以外,背後更隱含惡質的性羞辱文化,不論受害者是男性或是女性,這種影像性暴力的行為都應受到嚴厲譴責。

去年「照片一鍵改漫畫」掀起熱潮,手指一點就能輕鬆製圖,受到許多年輕人喜愛。隨著繪圖技術不斷進化,AI現已能製作逼真的肖像、風景和靜物等圖像,程式版本不斷更新,已修正AI畫不好人類手指的缺點,致使辨別圖片真偽愈形困難,僅憑肉眼幾乎無法區別與真實照片有何不同。由AI繪圖工具MidJourney生成的「川普被逮捕」、「習近平會見普丁親吻照」、「教宗方濟各穿名牌羽絨外套」等圖片,製作者原始的出發點雖非惡意,但確實影響部分人們對於事件的認知。

從Deepfake到Cheapfake,製作成本與傳播成本越來越低,增強使用AI作為犯罪手段的動機。今年2月揚子晚報報導,有不肖業者以AI仿真人的性感女僕照片,標榜開價人民幣3千元就能享有女僕遊艇派對的貼身服務,被踢爆海報中的女僕全都是AI繪圖而非真人,在警方約談處置後,活動宣布取消,差一點成為中國大陸AI繪圖領域首起詐騙事件。該事件雖告落幕,但難保類似情事未來不會再重演。

ChatGPT爆紅 犯罪手法再升級

美國人工智慧研究實驗室 OpenAI,2022年11月底推出一種先進的AI技術─ChatGPT,透過大量資料的訓練,藉此學習並內化,擁有巨量知識以及與人類相似的語言能力,功能遠勝於市面上出現過的 AI 聊天機器人,發布後迅速風靡全球。

由於強大的生產效率,ChatGPT深獲網路詐騙犯青睞,幾秒鐘內就能編寫一封情書,利用生成式AI創建虛擬角色後,透過電子郵件引誘被害人談一場「虛擬戀愛」,先取得信任,再設法詐騙錢財。這種手法並不新鮮,但現在已難以分辨網路的另一端到底是人還是機器。

ChatGPT快速製作逼真文本的能力,使犯罪者不需花費太大力氣,便可產出、散布特定論述。今年4月25日,甘肅多地傳出「甘肅一輛火車撞上修路工人致9人死亡」的文章,追查發現都來自於廣州深圳一間自媒體公司所編造散布的假新聞,負責人以科技手段編造假新聞,藉以非法獲利,行為已涉嫌「尋釁滋事罪」,是中國大陸第一起因濫用ChatGPT遭逮捕的案件。

不法份子藉由AI技術偽造、傳播色情影片,或利用錯誤訊息、仇恨與偏見言論訓練AI,產出嚴重誤導公眾的內容。相關法律除了關注智慧財產權、隱私權問題,也不可忽視AI傳遞偏見與特定意識形態所造成的威脅。

不實訊息研究機構《First Draft》創辦人克萊爾‧瓦杜(Claire Wardle)在2019年就曾指出,隨著科技進步,製作深偽影片將越來越容易而且便宜,影片愈趨氾濫,散布者的罪惡感將會減少,最大的危機是造成民眾對所見所聞、乃至於對整個社會產生不信任,一點一點地破壞民主制度。

AI成為認知作戰的利器

去年Meta平臺出現烏克蘭總統澤倫斯基向俄國投降的影片,事後證實為深偽技術製作的假訊息。近期美國研究機構發現,利用深偽技術製作的親中反美宣傳片在網路盛傳,影片中的主播是AI合成的虛擬人物,進行特定宣傳,企圖影響民眾政治上的偏好。

日本媒體也指出,過去由於國外情報機關難找到大批語文人才,撰寫流暢的日文文章,因此日本少有遭到資訊統戰的案例。但ChatGPT已能產出論述清晰、文字運用通順的日文文章,使得中國大陸、俄羅斯等國操控日本輿論、發動資訊戰變得更為簡單,形成極大的安全隱憂。

從前述例子來看,AI技術已在認知戰和資訊戰戰場上大顯身手,發展速度也超乎想像,威脅性不容小覷,且其負面效應有朝一日可能反噬操作者本身。一旦深偽攻擊泛濫,人們可能會開始對任何圖像、語音或影片失去信任,導致對真實事件和新聞的可信度失去信心,真實世界恐將遭到深偽建立的虛假世界所取代。

防範AI犯罪與認知作戰刻不容緩

潘朵拉的盒子一旦被打開,就很難再關上,如何防止人類與民主價值不被科技巨頭、極權國家侵犯,各國都必須嚴陣以待。

雖然說科技是中性的,關鍵在於什麼人、如何去使用它,但平臺方已意識到AI犯罪問題的嚴重性,思考如何避免情況進一步惡化。美國人工智能企業OpenAI日前宣布,從圖像生成工具DALL-E中移除可能被用戶用以創建色情圖像的內容;Google宣布在其AI搜索工具Bard中添加過濾器,篩查仇恨言論等訊息。

「以AI制AI」是另一種嘗試,一款名為Glaze的程式透過「誤導」AI的方式,阻撓AI學習藝術創作者的風格,從而限制利用AI進行藝術抄襲。也有一些研究團隊,透過分析語音特徵分辨真偽,試圖防範層出不窮的語音詐騙案件。

實際上,到目前為止,與AI的對抗,還是「人」之間的交鋒。除了依照AI的風險等級,制定相對應的管制法規以外,如何開發出與人類價值觀、道德觀一致的AI系統,使其不被濫用、誤用,是防範AI犯罪的關鍵課題。

對抗認知作戰,假訊息的攻防是重中之重,需提升全民數位素養,不要轉傳未經查證的消息,並強化媒體識讀,增加民眾獨立思辨能力,避免醞釀社會衝突,破壞國家安定。

回頁首