| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

假作真時真亦假:伊朗戰事陷入AI信息迷霧


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
海灣戰爭是在新興有線電視網絡,尤其是24小時新聞頻道環境下,第一場被實時直播的大型戰爭。現在,美以伊戰爭則正值人工智能(AI)媒體時代的早期,AI生成的輿論戰場正在與導彈穿梭的交戰空間平行展開。


上周末,一架美軍F-15戰機在伊朗(专题)上空被擊落,隨後美方發起了一場大規模搜救行動,以尋找從飛機上彈射逃生的兩名機組人員。美國總統特朗普(专题)在其社交平台Truth Social上發帖稱,一名飛行員很快獲救,但另一人在偏遠的山坡上避難近兩天,最終被特種部隊救出。

在特朗普宣布成功營救消息後僅幾小時,社交平台X上流傳一張美國大兵手捧星條旗的照片,配文稱“這是昨天獲救的英勇上校的照片”。首發圖片獲得了超過500萬次瀏覽,隨後被得州州長格雷格·阿博特、得州總檢察長肯·帕克斯頓、紐約(专题)州眾議員邁克·勞勒等多名共和黨人轉發。阿博特寫道:“這太棒了”,勞勒則發帖稱:“上帝保佑美國!”


多個在線檢測工具已高度確定飛行員圖像並非真實,且獲救的飛行員尚未公開身份。

三名共和黨官員刪除了轉發的帖子,仍遭到大量批評和嘲諷。“或許當你身為國會議員時,應該設法確保沒轉發不靠譜右翼網紅的AI垃圾。”美國進步派媒體MeidasTouch總編輯羅恩·菲利普科夫斯基寫道,並分享了勞勒的發帖截圖。

諷刺的是,戰爭的真實影像卻在AI的誤導之下被人們懷疑。3月2日,伊朗南部米納布一所學校遭空襲後,一張俯瞰照片顯示,當地為遇難者新挖的墳墓整齊地排列成行,直白地記錄了這場戰爭造成的毀滅性平民傷亡。然而,谷歌旗下AI服務Gemini和X公司的AI助手Grok均認定這張照片並非來自伊朗。此後,多方研究人員將墓穴照片與衛星圖像以及視頻片段進行交叉比對,確認了其真實性。

自戰爭開始以來,虛假聲明、AI生成的視頻和回收再利用的戰爭影像一直在網上流傳,既有國家敘事的一部分,也有個人為了獲取流量牟利的行為,其結果是影響了公眾對戰爭的認知。同時,當AI被用於混淆真相,一些戰爭暴行被誤認為是偽造的,真相被掩埋將導致對現實世界的傷害無力追責。

被塑造的戰爭敘事

3月1日,伊朗伊斯蘭革命衛隊發布7號公告,稱美國“亞伯拉罕·林肯”號航空母艦遭到伊朗四枚彈道導彈襲擊。這在社交平台上引發了大量AI生成的虛假視頻傳播,大多描繪了艦艇在火焰中燃燒的畫面,並配以各種語言傳播。

當天晚些時候,美國軍方表示,“亞伯拉罕·林肯”號航母未遭伊朗襲擊,伊朗發射的導彈“甚至沒有接近”該艦。

除此之外,傳播較為廣泛的AI深偽視頻內容還包括特拉維夫發生大規模爆炸、迪拜哈利法塔燃起大火等,充斥著巨大的火焰、蘑菇雲和音爆。其中,3月2日,一個冒用伊朗新任最高領袖穆傑塔巴·哈梅內伊名字的虛構賬號發布的哈利法塔起火視頻,被數百個賬號轉發。

美國社交媒體情報公司Cyabra聲稱,其網絡活動研究顯示,大多數關於戰爭的AI視頻往往是為了虛假地展示伊朗的軍事優勢和先進水平。

據路透社報道,特朗普3月15日聲稱伊朗利用AI作為“虛假信息武器”,歪曲其在戰爭中的勝利和支持。他還在社交平台上發帖,指責西方媒體與伊朗“密切協調”,散布AI生成的“假新聞”,但他並未提供任何證據。

事實上,美國在數字輿論宣傳方面更是不加掩飾。白宮在X和TikTok上已發布了十幾段“宣傳視頻”,將《使命召喚》的連殺獎勵、《鋼鐵俠》、《壯志凌雲》、《勇敢的心》和《海綿寶寶》的影像片段與真實的空襲畫面疊加剪輯在一起,完全沒有區分虛構與實戰。其中一段現已刪除的視頻甚至在每次擊中伊朗目標時都疊加了《使命召喚》的“+100”得分提示。


這種審美邏輯甚至延伸到了橢圓形辦公室內部。據美國全國廣播公司(NBC)報道,美國軍方官員每天都會為特朗普制作一段兩分鍾的視頻,展示最成功的空襲行動,一位官員將其描述為“爆炸場面”。這引發了盟友的擔憂,他們擔心特朗普可能無法全面了解戰爭情況。

在此背景下,機會主義者也加入進來,包括名為“傑西卡·福斯特”(Jessica Foster)的美軍軍官賬號,發布了其與特朗普合影的帖子,在Instagram上獲得超過百萬粉絲,隨後將粉絲引向付費賬號,賬號發布了一系列AI生成的虛假合成圖像,內容包含特朗普以及其他國家首腦。

美媒調查發現,名為傑西卡·福斯特的美國軍官並不存在,是由匿名創作者控制的AI生成虛擬形象,Meta最終刪除了該賬號。



悉尼大學媒體與傳播系教授凱瑟琳·蘭比指出,美國一直通過使用迷因(memes)、流行文化和“使命召喚”風格的視頻素材來聚焦軍事行動的成功,從而使死者去人性化。這一策略會面臨反噬的風險,戰爭可能被轉變成一種迷因化和游戲化的競賽。


AI內容檢測技術的“武器化”

在戰場上,AI生成內容帶來的問題不再局限於普通社交媒體用戶被誤導,其規模甚至已經超過了專業新聞編輯室的核查能力。當受眾無法區分真實證據與操縱證據時,關於戰爭代價的關鍵問題,被海量的視覺奇觀所掩蓋。

在本已困難重重的局面中,一種新的現象正在出現,核查工具和方法被應用,不是為了確認素材的真實性,而是為了給既定結論提供“科學權威”的外衣。這也意味著AI檢測和取證分析本身的武器化。

在社交平台上一個被廣泛分享的帖子中,“熱力圖”被用來質疑3月1日德黑蘭東部尼盧法爾廣場襲擊事件的真實圖像,該照片由伊朗官方背景的學生通訊社(SNN)的記者埃爾凡·庫查裡(Erfan Kouchari)拍攝,後來被多家國際媒體作為空襲現場的真實新聞照片發表。

在空襲現場圖像在網上流傳後不久,X平台上一名自稱視覺效果師的用戶發布了所謂的“熱力圖疊加層”以及來自Gemini和ChatGPT的輸出結果,聲稱這些照片“極有可能全是AI生成的圖像”。這些可視化圖表迅速傳播,並被當作圖像造假的證據。

隨後有專家出面反向“打假”,指出熱力圖本身就是AI生成結果。原圖拍攝者庫查裡在Instagram上通過並排發布爭議圖像的“原圖”和“編輯版”來回應指控,顯示X用戶發的原圖經過了重度後期處理,這會幹擾核查系統。庫查裡在發文中流露出了無奈:“即使上傳原片和數百個其他證據,對於那些想把這些照片歸於AI生成的群體來說也無濟於事,明知這些但我還是進行了對比。”

紐約時報》3月9日發布的伊朗當地照片也被指有“數字操縱”跡象,圖片記錄了在宣布穆傑塔巴·哈梅內伊為伊朗新任最高領袖後,德黑蘭民眾聚集的畫面。質疑圖片真實性的社交媒體用戶分享了包括錯誤級別分析(ELA)在內的取證分析截圖,在X上的瀏覽量超過60萬。

紐約時報》發表了公開回應,指出上述分析“歪曲了標准的圖像壓縮行為”。但在截圖流傳最廣的海外伊朗人社區,關於圖像是AI生成的結論已經根深蒂固。

國際人權組織WITNESS的AI技術專家希林·安倫撰文表示,捏造技術性的取證證據來支持某種說法,其結果是一個危險的反饋循環:真實證據的信任被破壞,而偽造的取證分析進一步侵蝕了對核查本身的信心,檢測工具被用來加深對真實事件甚至傷亡的懷疑與困惑。
不錯的新聞,我要點贊     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.2219 秒 and 5 DB Queries in 0.0049 秒