警惕利用“換臉”技術詐騙

2024-04-16 11:01:13 作者:李丹丹

20240416091826174-67-fb07e.jpg

近期多地警方披露利用“AI換臉”等技術實施詐騙的案例,新技術發(fā)展的安全隱患引發(fā)廣泛關注。

生成式AI技術的快速發(fā)展,讓人們眼見也未必為實。不法分子借助智能AI換臉和擬聲技術,融合他人面孔和聲音、制造虛假圖像和音視頻,就可仿冒他人身份,輕松實現遠程視頻詐騙,給群眾造成不小的經濟損失。

對于公眾而言,提高反詐防范意識,保護好個人信息是關鍵。應盡量避免在社交賬戶上過多暴露人臉、聲音、位置等信息,及時注銷不用的網絡賬號等。涉及轉賬交易等行為時,務必通過多渠道核實確認,不輕易透露自己的身份證、銀行卡、手機驗證碼等信息。

技術發(fā)展帶來的問題,還要靠發(fā)展技術來解決。AI偽造后的通話和視頻雖然能夠逼真地模仿人物的語言和行為,但仍存在破綻。例如眨眼頻率過低、面部表情較為單一、唇形不匹配、手部動作僵硬等。要加快相關技術研發(fā),開發(fā)更為先進的反詐系統(tǒng),利用大數據與機器學習算法來識別和攔截詐騙信息,以AI反制AI。

預防和懲治AI詐騙還需多方聯動,形成打擊治理合力。監(jiān)管部門要持續(xù)完善相關法律法規(guī),明確AI技術的合法使用范圍和禁止事項,為打擊利用AI進行的犯罪活動提供更充分的法律依據。要統(tǒng)籌各方力量實現監(jiān)管,加大對違法行為的懲處力度,提高違法成本,形成威懾。此外,還要在全社會加強宣傳力度,普及網絡安全知識,增強個人信息保護意識和風險防范意識,引導AI等新興技術向上向善發(fā)展。

(來源:經濟日報)

責任編輯:陳平

掃一掃分享本頁