臺北市
20°C
18°C
地區
廖炳棋 / 報導
2023/ 08/ 26 17:41

AI深偽詐騙來臨 刑事局女警拍攝影片變臉給你看

刑事警察局今天提醒,隨著科技進步,利用AI深偽(Deepfake)變臉技術假冒親友、同事或名人的詐騙手法,未來將越來越多;民眾若與熟人視訊察覺有異,或與生活中未見過的人或自稱檢警公務人員視訊,可以要求對方轉頭、變換姿勢、在臉前揮手,察覺破綻避免被騙。

 

刑事局表示,所謂的AI深偽(Deepfake)變臉技術,可以製造出逼真的虛假影像和音訊,仿真度極高,從正面觀看以假亂真,很容易讓民眾誤以為偽冒者是被害者本人、檢警或名人,引發社會治安的隱憂與製造假訊息。

 

目前可先破解AI變臉詐騙的方式是側臉、脖子部位,現今軟體不會偵測分析及套用,因此側面影像會產生模糊狀,臉部跟脖子也會產生色差。

 

刑事局特別拍攝「拆解AI深偽(Deepfake)變臉詐騙影片」,一名女警官正在說話,揮手間瞬間變臉,變男變女沒有難度,其中一張男性面容還神似特斯拉執行長馬斯克;刑事局指出科技進步,任何事情不能再「眼見而憑」,現今AI變臉軟體內建許多不同人種的臉部圖片,連名人、明星照片也有,軟體使用者還可以自由選擇性別及種族。

 

警方說,未來與熟人視訊,或與未見過的人或自稱檢警公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手,就可藉由影像破綻分辨對方是否使用深偽AI技術變臉,千萬不要因為鏡頭的那端是熟人就受騙上當,接獲各項影音訊息務必提高警覺,也謹記「談到錢要警覺、談借錢要查證、談投資金錢要當心」,發現深偽犯罪或遇有疑慮,請打防詐專線165諮詢查證保荷包。

影/北市8旬失智婦走失 誤認「電梯是自己家」管理員無助報警影/天雨路滑?大漢橋下堤外道 轎車自撞翻覆母子受傷嚇壞影/行人地獄!基隆七堵這路口 半月來2婦走斑馬線被撞飛摔傷影/男花生糖卡喉陷車陣 台南警鳴笛開車送醫驚險搶命影/基隆小黃運將酒後逆向猛撞影片曝 目擊者:整輛車飛起來
討論區
top