| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

新興詐騙三件套,批量湧入直播間


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
“誰知道對方拿著照片做了什麼呢?”


當技術被用來作惡,人性的幽暗便有了最鋒利的武器。

看別人掙錢太多?那就把她移花接木到不雅視頻


制作裸照能賺錢?那就批量偽造裸照到境外平台售賣。

沒能和暗戀女生在一起?那就AI換臉進行報復......



只要一個人暴露了自己的長相,就有可能被AI換臉。

去年,韓國Deepfake事件震驚全球——犯罪者通過付費群組上傳女性照片偽造色情內容,進而廣泛傳播。

受害者涵蓋未成年人、教師、軍人、明星等各個年齡和職業的人群,甚至還有以女性家人為目標的“家庭群組”“近親群組”。

也就是說,許多女性根本不知道自己什麼時候就被盯上,而制作AI換臉的人可能是身邊的朋友、同學,也有可能是完全不認識的陌生人。


這種威脅的恐怖之處就在於它的無孔不入與隨機性。

當惡意從熟悉或陌生的角落襲來,受害者甚至來不及辯解,就已墜入深淵。

被AI換臉的網友表示不敢再前往人群,日常生活遭受嚴重幹擾。

Deepfake受害者的心理創傷植入日常,只要收到短信通知或匿名電話的鈴聲,就會心跳加速,陷入恐懼。




除了肖像權侵害、名譽損害,AI換臉還被廣泛用於詐騙。

與早期粗劣的詐騙方式不同,騙子們如今早就准備好了高度定制化專屬劇本。

一位母親會收到“女兒”的多條語音,催著繳納報名費,焦急之下立即向騙子賬戶轉賬3.5萬元;

經常聯系的“朋友”會給你打來視頻哭著借錢,幾秒鍾就騙走幾十萬......


覺得新聞不錯,請點個贊吧     還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0329 秒 and 5 DB Queries in 0.0017 秒