AI偷聲,壞的不止明星名聲

2024-03-05 11:08:21 作者:辛音

20240305092631219-38-50382.jpg

3月1日,劉德華電影公司映藝娛樂發(fā)布兩份聲明,其中一份直指微信用戶“華仔共享團(tuán)”及其關(guān)聯(lián)視頻號“華仔集結(jié)號”通過信息技術(shù)手段偽造劉德華聲音,于微信平臺連續(xù)發(fā)布其剪輯拼湊視頻,利用劉先生的知名度吸引流量、售賣商品、從中營利。

“請大家多多關(guān)注賬號,因為他是我私下里很好的一個小兄弟?!碑?dāng)劉德華極具辨識度的聲音響起,不少粉絲都會放松警惕,繼而受騙。殊不知,這些語音片段,其實是利用AI技術(shù)合成的——騙的就是對劉德華音色十分熟悉的人。

技術(shù)疊加話術(shù),足以使AI音頻以假亂真。此前就有“假靳東”給中老年女粉灌迷魂湯,如今又有“假德華”號召粉絲購買商品和門票。一個是AI換臉,一個是AI擬聲,不懷好意者對智能技術(shù)的不當(dāng)利用,沖擊網(wǎng)絡(luò)安全的底線。再好的科技也得有明確的應(yīng)用限制,否則就會成為詐騙的得力工具。

AI應(yīng)用呈指數(shù)級增長,相關(guān)亂象層出不窮,法律法規(guī)也密集出臺。根據(jù)《民法典》,仿冒他人聲音,可參照適用肖像權(quán)保護(hù)的有關(guān)規(guī)定?!痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確規(guī)定,“任何組織和個人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息”;“可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識”等。然而,從出沒于網(wǎng)絡(luò)平臺的各種AI詐騙案例來看,這些律條并沒有產(chǎn)生理想的震懾效果。一方面需要進(jìn)一步完善法律規(guī)范配套措施,讓法律條款的落實更加簡便易行,一方面需要政府、企業(yè)、社會、網(wǎng)民等主體積極參與AI治理,共同防范深度合成技術(shù)產(chǎn)生的安全隱患。

高科技不會變壞,但得防著壞人利用高科技使壞;“換臉、偷聲”不止,既侵權(quán)明星等當(dāng)事人,也在敗壞AI名聲。

(來源:北京晚報)

責(zé)任編輯:陳平

掃一掃分享本頁