飛象網(wǎng)訊 據(jù)央視網(wǎng)報道,一些不法分子利用“AI換臉”技術(shù)實施詐騙,已成為一種新型騙局。一張“肖像照片”、一段“貌似熟人的視頻”,都可能被不法分子利用作為詐騙的手段和工具。
“不法分子首先會通過各種公開的渠道獲取受害人的個人肖像或視頻,然后利用AI技術(shù),對這些照片中的面容特征進行學(xué)習(xí),從而模仿眨眼、搖頭等動作,實現(xiàn)以假亂真的效果。”工業(yè)和信息化部反詐工作專班專家李坤表示,除了讓照片上的人像活化,AI換臉技術(shù)還能實現(xiàn)在即時視頻通信狀態(tài)下的實時換臉。
利用AI技術(shù)制作換臉視頻或合成聲音來實施詐騙的確讓人防不勝防,那么如何防范這種風(fēng)險呢?李坤表示,我們正在會同行業(yè)內(nèi)的手機終端企業(yè),將推出AI換臉詐騙風(fēng)險提醒功能。這項功能僅在手機端來本地運行,能夠有效保護用戶數(shù)據(jù)不泄露,經(jīng)過用戶授權(quán)后,可為用戶提供AI換臉詐騙風(fēng)險預(yù)警提醒。
當用 AI 換了臉的技術(shù)人員與記者發(fā)起視頻通話時,測試手機終端提示“對方疑似假冒身份”。點擊檢測按鈕,經(jīng)過圖像掃描,系統(tǒng)提示“AI 換臉合成概率 93%”。
據(jù)了解,AI換臉主要是使用深度合成技術(shù)。《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》提出了算法備案、安全評估的手段,要求深度合成服務(wù)提供者對深度合成的內(nèi)容添加顯式或隱式水印。
中國信通院人工智能所安全與元宇宙部專家陳文弢表示,要對生成合成的內(nèi)容去添加一些水印,這個水印的本質(zhì)其實就是要一方面去提示公眾這個內(nèi)容是由AI生成或者合成的,另一方面也是要追溯它的來源。
專家提醒,AI詐騙是隱私信息泄露與詐騙陷阱的結(jié)合,要加強對個人隱私的保護,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等,尤其涉及“朋友”“領(lǐng)導(dǎo)”等熟人要求轉(zhuǎn)賬、匯款的,務(wù)必通過多種途徑核實確認,不要未經(jīng)核實隨意轉(zhuǎn)賬匯款。