国产萌白酱在线一区二区|亚洲无线码一区二区三区在线观看|热视频精品在线视频精品|综合视频中文字幕

    悉尼大學:你的大腦比你更擅長識破"人造臉"

    悉尼大學
    2022-07-14 16:32 8093

    這一發(fā)現可為打擊虛假信息開拓新的研究方向

    悉尼2022年7月14日 /美通社/ -- 近期,悉尼大學的一項研究表明,雖然觀察者無法有意識地識別"真假臉"之間的差異,但他們的大腦可以。

    在興起的"換臉術"(deepfakes)黑科技使用中,如何區(qū)分真實的人臉和仿造的人臉呢?悉尼大學的神經科學家發(fā)現了一種新方法:人們的大腦可以檢測出人工智能(AI)生成的假臉,即使人們無法口頭分辨出哪些臉是真、哪些是假。這項研究的論文近期被發(fā)表在 Vision Research 期刊上。

    "換臉"視頻、圖像、音頻或文本看起來極其真實,但實際上是計算機生成的克隆程序,旨在誤導讀者并左右公眾輿論。他們是虛假信息傳播手段中的常見手段,極度普遍 -- 出現在政治、網絡安全、造假等領域。

    你能分辨真假嗎?左邊的照片是真實的。來源:Michoel L. Moshel等人。
    你能分辨真假嗎?左邊的照片是真實的。來源:Michoel L. Moshel等人。

    悉尼大學的研究人員在觀察參與者的大腦活動時發(fā)現,大腦在54%的情況下可以識別出"假臉"。然而,只有37%的概率參與者可以口頭識別"假臉"。

    悉尼大學心理學院的高級研究員副教授Thomas Carlson說:"雖然這項研究中的大腦展示出得準確率較低,僅為54%,但從統(tǒng)計學的角度上看是可靠的。"

    "這告訴我們,大腦是可以識別出虛假和真實圖像之間的差異的。"

    機器人和詐騙手段的識別

    研究人員表示,他們的發(fā)現可為打擊假冒偽劣提供一個跳板。

    Carlson副教授說:"大腦能夠檢測到‘人造臉',這意味著當前的‘換臉術'是有缺陷的。如果我們能夠了解大腦如何識別虛假圖像,我們可以利用這些信息創(chuàng)建算法,在臉書(Facebook)和推特(Twitter)等社交平臺上標記出潛在的‘人造臉'。"

    在未來,基于現有和類似研究發(fā)現,相關人員預計可開發(fā)出一種可以實時提示虛假信息的技術。例如,安保人員可通過戴上腦電圖功能(EEG)的頭盔,識別正在面對的虛假圖像。

    研究人員在研究中使用了腦電圖(EEG),這是一種顯示大腦表層活動的檢測方法。

    Carlson副教授表示:"EEG頭盔可有助于防止類似迪拜和英國最近發(fā)生的銀行盜竊和企業(yè)欺詐案件的發(fā)生。在這些案件中,騙子利用克隆語音技術竊取了數千萬美元。在這些案件中,財務人員認為他們聽到了可信客戶或同事的聲音,從而被欺騙轉移了資金。"

    眼睛vs大腦

    研究人員進行了兩個實驗:一個是行為實驗,另一個是神經成像實驗。在行為實驗中,研究人員向參與者展示了50張真實和計算機生成的假臉圖像。他們被要求辨別哪些是真的,哪些是假的。

    然后,另一組參與者在不知道一半的圖像為虛假的情況下,觀察相同的圖像,并使用腦電圖記錄他們的大腦活動。

    研究人員隨后比較了兩個實驗的結果,發(fā)現人們的大腦比眼睛更善于識別虛假圖像。

    這只是一個開始

    研究人員強調,鑒于這一研究領域的新穎性,他們發(fā)表在《Vision Research》上的研究只是一個起點。它不會立即(甚至可能永遠)保證識別"人造臉"的絕對可靠方法。

    Carlson副教授說:"更多的深度研究是必要的。讓我們看到希望的是,deepfakes"換臉術"是由計算機程序創(chuàng)造的,因此這些程序會留下可以被檢測到的電子‘指紋'。"

    "我們對大腦識別‘人造臉'能力的發(fā)現意味著我們可能會有另一種途徑來打擊‘換臉術'和虛假信息的傳播。"

    論文鏈接:https://www.sciencedirect.com/science/article/abs/pii/S0042698922000852?via%3Dihub

    消息來源:悉尼大學
    China-PRNewsire-300-300.png
    全球TMT
    微信公眾號“全球TMT”發(fā)布全球互聯網、科技、媒體、通訊企業(yè)的經營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
    collection