來源:環球時報
新加坡《海峽時報》5月15日文章,原題:政治中用於對抗的機器人:人工智慧製造的虛假信息帶來的新挑戰德國2021年大選時,綠黨總理候選人貝爾伯克成為虛假信息的目標。這位現任外長當時被描繪成一個無情、討厭寵物的怪物和性工作者。
據稱,貝爾伯克希望禁止孩子在家養寵物,以減少德國的碳足跡。另一種說法是:她想從寡婦基金中拿錢捐給難民。在一次特別令人反感的攻擊中,她的臉被換到一名裸體模特的照片上,標題暗示她是一名性工作者。
目前尚不清楚這些內容是誰始發的,但它們很快在社交媒體上傳播開來。德國戰略對話研究所表示,虛假信息運動扭曲了貝爾伯克在選民心目中的形象,這使她在民意調查中最初的領先優勢化為烏有。一項調查顯示,超過一半的德國選民至少聽說過一個關於她的虛假報道。
不知不覺被操縱
如果那次大選在今天舉行,在這個人工智慧的時代,貝爾伯克的情況會更糟嗎?如今,造謠者能做的遠不止合成裸照。在幾分鐘內,聰明的聊天機器人就能編造出數千個貌似可信、有說服力的故事,並配有支持文件、圖片、視頻和音頻剪輯。民眾可能會感到困惑、心神不寧,並在不知不覺中被操縱,作出違背自己利益的選擇。
「你對德國下屆選舉不存在虛假信息有多大信心?」我向德國議員凱薩琳·布德問道。她回答說,「如果讓我在1到10之間打分,我會說5分。」這一令人沮喪的回答暗示著,不僅是德國,未來幾年將舉行選舉的許多其他地方,包括美國、印度、韓國等,都可能面臨各種壓力。
為了預測未來的政治,2017年美國聯邦通信委員會就網絡中立性問題徵求公眾反饋,共收到2170萬份回復。皮尤研究中心的一項研究發現,這些評論中只有6%是獨一無二的,其餘都是重複的。其中有9次在一秒內出現了超過7.5萬條評論。
如果今天進行類似的調查,那麼用人工智慧製造出的虛假內容將更難被發現。布魯金斯學會2020年的一項實驗驗證了這一點。在這項實驗中,人和聊天機器人同時向州議員發送電子郵件,隨後研究人員觀察議員們的反應。實驗報告作者克雷普斯和克里納表示,「總體而言,反應率的差異僅為2%。學者們通常用反應率來衡量政府對選民關注的反應程度。調查結果表明,議員們很容易受到人工智慧技術濫用的影響」。
紛至沓來的謊言
OpenAI公司執行長山姆·阿爾特曼近日出席參議院一個委員會的聽證會,該委員會既希望保持人工智慧的創新潛力,又希望人工智慧不要顛覆活動本身。阿爾特曼並沒有試圖淡化這種威脅,他在3月份的採訪中說,「我特別擔心這些人工智慧被用於大規模製造虛假信息。」
2018年,德國頒布了開創性的《網絡執行法》,被新加坡、馬來西亞和菲律賓視為「反假新聞法」的典範。該法要求社交媒體平台迅速刪除仇恨言論和極端主義信息等「非法內容」,否則將面臨高達5000萬歐元的罰款。即便如此,這項法律並沒有大大削弱社交媒體上紛至沓來的謊言、半真半假的陳述和欺騙行為。
這是一場馬拉松
分析人士認為,人工智慧也可以用來打擊虛假信息。可以通過使用關鍵詞分析內容的方式發現問題,找到可疑內容,並測試內容是否由機器人製造。它還可以通過創建事實核查文章,或揭穿社交媒體上的虛假言論來提供幫助。如今,日本和德國的外交部門已經開始利用人工智慧來檢測虛假信息。
烏克蘭記者瓦季姆·米什吉表示,對於「虛假信息紊亂」,沒有靈丹妙藥。在他看來,這是一場馬拉松,而不是短跑,虛假信息也許永遠不會消失。資深記者、普林斯頓大學客座教授喬瓦尼·里奧塔表示,「虛假信息的強大也反映了社會的兩極分化。」他認為,當彼此存在疑慮時,虛假信息可以很容易地傳播。里奧塔表示:「最終的解決方案是重建對彼此的信任,當然,這是一項長期戰略。」(作者加雷卡爾·巴加什里,陳欣譯)