近年來隨著人工智慧(以下稱 AI)的高速發展,漸漸深入到生活各個層面,而人工智慧作為犯罪工具所造成的威脅,擴及個人、企業乃至國家整體安全。
10 月 2 日美國國土安全部情報系統發布今年的《 2025 國土威脅評估》(PDF完整報告)(2025 Homeland Threat Assessment, HTA),就認為俄羅斯、伊朗和中國對 2024 年 11 月 5 日的美國第 60 屆總統大選的威脅越來越大。包括利用人工智慧傳播虛假或造成分裂的訊息。
非營利性媒體〈對話〉(The Conversation)在 10 月 16 日也發表專欄分析 AI 對美國選舉的影響,微軟與趨勢科技也分別在 23 日與 24 日發表報告討論此問題。
ChatGPT 自 2022 年推出,讓大眾意識到生成式 AI 的前景和危險。美國格林內爾學院(Grinnell College)政治學教授 Barbara A. Trish 在〈對話〉撰文指出,AI 在 2024 年選舉中被使用和濫用的 4 種方式,茲摘要如下:
生成式 AI 可以根據使用者的提示產生文字回應,當然也能提供有關 2024 年選舉的資訊。雖說 Google 的 AI 聊天機器人 Gemini 會拒絕回答有關候選人和投票的問題。
不過有些則否,例如 Facebook 的 AI 工具 Llama 會回應相對準確的資訊。但生成式 AI 也會產生錯誤訊息。
在最極端的情況下,AI 可能會產生假象,提供極其不準確的資訊。跟其他網路工具一樣,人們應該驗證 AI 搜尋的結果。
像 ChatGPT 這樣的大型語言模型已經有大規模的發展,可以被犯罪分子用來欺騙選民。他們可以篩選社群媒體資料來識別潛在受害者,同時兩極分化社群媒體的受眾,並大規模製作個人化的網路釣魚訊息。
由於網路罪犯使用高效的 AI 工具在社群媒體佈局並冒充,因此選舉期間網路犯罪有可能增加。
事實證明,這些工具能夠植入錯誤記憶並助長「假新聞」。雖然假資訊活動並不新鮮,但選舉期間為假資訊操作者提供了一個獨特的平台,因為選民對政治資訊更加開放。
深度偽造(deepfake,下稱深偽)是由生成式 AI 製作的假圖、音檔和影片。深偽現在已成為政治廣告商創意工具箱的一部分。早期的深偽多為了說服,而不是公然欺騙。
趨勢科技的報告則更近一步指出,包括深偽和大型語言模型(LLM)在內的 AI 工具提供網路罪犯破壞政治格局和大規模詐騙的有效手段,特別是在選舉季。
有兩種類型的攻擊者會利用深偽進行操縱,分別是政治人物用來攻擊對手,以及網路罪犯利用目標的影響力來詐騙,例如假加密貨幣或募款活動。
在當今的社群媒體時代,深度造假可以扭曲政治人物的聲譽,以操縱選舉結果,這是一個嚴峻的現實。
在 2023 年波蘭全國大選中,最大的反對黨播放了一條競選廣告,其中混合了總理所說的真實言論片段和 AI 生成的假言論。
同年,一段英國工黨候選人施凱爾(Keir Starmer)咒罵工作人員的假音檔片段在社群媒體上瘋傳,並有數百萬次點擊。在 2024 年美國大選前夕,也有出現川普被捕的深偽影片。
在選舉期中,有心人士可能會利用 AI 來消耗選務人員的注意力,將他們埋葬在無聊的各種資料審查中。
例如,德州的保守派監票組織「True the Vote」在過去十年中僅透過志工和 App 挑戰數十萬選民的投票資格。如果類似的組織以 AI 來自動化工作過程,勢必會對選務工作量造成遠大的影響。
俄羅斯對 2016 年大選的干預凸顯出外國干預美國政治的威脅。針對此次 2024 年的美國總統大選,美國司法部 7 月查封了兩個網域,並蒐索了近 1,000 個俄羅斯「社群媒體機器人農場」的帳號,這些帳號就是用來影響數億臉書用戶的選舉意向,而 AI 可以讓進化這些干預行為。
微軟的報告也指出,俄羅斯特務不斷在干擾賀錦麗支持者的族群,投放用 AI 製作的深偽影片,例如一則賀錦麗被指控在尚比亞非法偷獵,以及搭擋華茲(Tim Walz)假資訊的影片,這則影片最初 24 小時內在 X 上有超過 500 萬次觀看。
雖然大多數影片的互動度很低,但它們突顯俄羅斯正在用傳統內容和 AI 生成的內容來影響美國觀眾並煽動政治對立。此外,有一些操作者將內容發布策略從 Telegram 轉向 X,來擴大美國受眾。
而來自中東攻擊主要是伊朗,伊朗儘管與以色列的緊張關係不斷升級,仍在努力影響美國觀眾。
最近,伊朗偽裝成 Bushnell’s Men(美國空軍軍人 Bushnell 抗議加薩戰爭在以使館外自焚)的活動,呼籲美國人抵制選舉,因為美國候選人支持以色列。
該組織先前在大學煽動反以色列抗議活動表明,他們利用分裂性的社會問題在美國社群之間煽動衝突。
此外還有證據表明,中國在這次選舉中利用 AI 傳播有關美國的惡意訊息。
而中國的目標是主張反中政策的共和黨候選人和國會議員,中國的策略是宣揚反猶太主義,放大對腐敗的指控,並提拔反對派候選人。
雖然這些行動並不總是有效,但顯示中國正在全面影響美國政治。
由於 AI 工具的日益複雜和實用性,選舉格局正在不斷變化。生成式 AI 讓網路罪犯可以創建逼真的候選人虛擬角色,可能會欺騙選民捐款、投資詐欺計劃或假募款活動。
再則,鑑於選舉候選人受到廣泛的關注,選舉期間變成是網路罪犯的活躍期。
在地下數位世界中,大型語言模型越來越常被用於非法活動,例如 ChatGPT 等常規服務。犯罪分子可以利用大型語言模型來策劃複雜的騙局。以下是三例:
策劃詐騙選民的第一步是選定正確的利益群體。由於選民派系往往兩極化,犯罪分子即可利用這種分歧。在此過程中,大型語言模型非常有用。
例如,他們可以分析社群媒體資料來識別具有特定興趣的個人。透過公開訊息,大型語言模型可以根據一個人的社群媒體活動推斷出他的政治傾向或政策偏好。
大型語言模型還可以協助在社群媒體平台上形成群組。例如,犯罪分子可以建立一個 Facebook 群組「總統候選人 X 佛羅里達分會」,貼有爭議的帖子來吸引潛在的受害者。
許多選民習慣於接收來自候選人的官方訊息,這些訊息是以最低度個人化向所有選民發送。然而,犯罪分子可以大規模創建針對個別受害者的網路釣魚訊息。
由於主題並不多樣化,因此針對特定利益群體內的受害者可以提供更有針對性的資訊。
ChatGPT 等工具就能整合選民興趣、欺詐訊息以及選民社群媒體帳戶中的元素,來製造高度準確、有針對性的文本,甚至可以使用不同的語言。
現代深度換臉工具只需要很少的技術知識或算能就能大規模生成個人化影片。
Deepfake 3D Pro 就是這樣的工具之一,該工具可以製作具有可以模仿任何人的 3D 人像影片,可以背誦腳本或模仿錄製的音檔,只需幾秒鐘候選人的原始聲音。
AI 工具影響選舉歷歷在目,已有 19 個國家已禁止或限制政治競選活動中的深度造假。有些網路平台也進行輕度自我調節。
Google 的 Gemini 在回答詢問基本選舉問題時會說:「我現在無法回答有關選舉和政治人物的問題。」
選舉相關人士也可能會進行一些自我監管。在 2024 年 5 月舉行的選舉技術會議上,幾位發言人表示擔心,如果選民得知競選活動正在使用 AI,就會出現抵制。
從這個意義上來看,大眾對 AI 的關注可能是富有成效的,創造了某種保護傘,但也可能進一步削弱人們對選舉的信任。
參考資料來源:
2024/10/03 Reuters Russia, Iran, China expected to use AI to try to influence US election, report says
2024/10/16 The Conversation 4 ways AI can be used and abused in the 2024 election, from deepfakes to foreign interference
2024/10/24 Trend Micro Generative AI in Elections: Beyond Political Disruption
2024/10/23 Microsoft As the U.S. election nears, Russia, Iran and China step up influence efforts