阿聯酋警方正在調查一起銀行搶劫案,犯罪分子據稱使用 Deepfake 人工智能 (AI) 克隆公司董事的聲音並說服銀行經理進行轉賬3500萬美元。
隨著深度造假技術的發展帶來新的機遇,隨之而來的威脅也隨之而來。雖然我們中的一些人認為自動化導致的失業將是人工智能支持的社會中最大的擔憂,但新一波的挑戰已經出現。正如最新的欺詐案件所示,面部識別、音頻和視頻深度偽造(通過操縱聲音和外表創建)一旦被濫用,可能會對個人的隱私和安全構成嚴重威脅。
深沉的聲音精心方案
2020 年初,香港的一名銀行經理接到了他認為是一家公司董事打來的語音電話,他認識該公司的董事,而且他曾多次與該董事交談過。這位董事打電話來分享好消息並請求幫忙 – 經理授權轉讓價值 3500 萬美元的資金以實現公司收購。
該董事聲稱他聘請了一位名叫馬丁·澤爾納的律師來協調此次收購。銀行經理可以在他的收件箱中看到來自董事和澤爾納的電子郵件,確認轉賬的確切金額。他不知道深度語音技術,並且在他面前有書面確認,因此他採取了相應的行動。他將全部金額轉入美國各地的多個賬戶,眨眼間,3500萬美元就消失了。領導調查的阿聯酋調查人員認為,至少有 17 人參與了這一精心策劃的計劃。
目前,我們正處於惡意行為者將專業知識和資源轉移到使用最新技術來操縱那些天真地不知道深度造假技術領域甚至不知道其存在的人們的風口浪尖。
首次報告的此類欺詐嘗試發生在 2019 年的英國,當時欺詐者試圖從一家能源公司竊取 240,000 美元在人工智能的幫助下模仿首席執行官的聲音。與香港不同的是,這次嘗試並沒有成功,因為及時被成功認定為詐騙行為。
人工智能已經跨越了恐怖谷
如果你覺得香港的方案不令人信服,並且相信你有能力區分人類的聲音或面孔與人工智能創建的聲音或面孔,一項新研究發表在《美國國家科學院院刊》上的這篇文章將打破你的信念。這項由加州大學伯克利分校教授 Hany Farid 和英國蘭卡斯特大學講師 Sophie J. Nightingale 進行的研究表明,我們正處於人類無法再區分真實面孔和人工智能生成面孔之間差異的階段。
欺詐性的在線個人資料就是一個很好的例子。偽造的護照照片。儘管如此,照片還是有一些邪惡的用途……但事情變得真正棘手的是視頻和音頻。
漢尼·法里德 (Hany Farid),加州大學教授
根據這項研究,如果我們擲硬幣,我們在真實圖像和合成圖像之間做出準確選擇的機會會稍大一些。研究參與者能夠識別假圖像的概率不到一半。準確來說,平均分是48.2%。我們可以自信地說,當代人工智能創作已經跨越了恐怖谷。
然而,最令人毛骨悚然的部分是研究中顯示,人們對人工智能生成的圖像的信任度比真實面孔高出 7.7%。當被要求根據可信度對一組真實和虛構的面孔進行評分時,參與者發現人工智能生成的面孔比真實面孔的可信度高 7.7%。這一發現為整個“這永遠不會發生在我身上”的誤解提供了新的線索,這種誤解在當今不斷發展的世界中可能非常危險。
我們對這個結果感到非常驚訝,因為我們的動機是找到一種間接的途徑來提高績效,並且我們認為信任就是這樣,真實的面孔會引發更值得信賴的感覺。
Sophie J. Nightingale,英國蘭開斯特大學講師
保護自己
儘管這些發現令人不安,但我們仍然可以養成一些習慣,以盡量減少成為深度偽造技術和其他騙局受害者的機會:
