“有圖有真相”的時代結(jié)束了嗎?

2024-02-29 12:11:37 作者:呂歸亞

20240229100103704-51-a8dd2.jpg

一段時間以來,與人工智能(AI)深偽相關(guān)的新聞時不時出現(xiàn),受害者眾多。前段時間最受關(guān)注的AI深偽事件顯然是美國人氣女歌手泰勒·斯威夫特的不雅照在社交平臺上大量傳播。與以往不雅照的出處不同,泰勒的照片并非是由狗仔偷拍或從個人電腦泄露,而是使用了AI技術(shù)生成。該事件在互聯(lián)網(wǎng)上一時甚囂塵上,泰勒的粉絲自發(fā)組成了“網(wǎng)軍”在各大社交平臺維護(hù)偶像形象,平臺也采取了刪除推文、禁止關(guān)鍵詞搜索等手段,但依舊難以阻止照片在網(wǎng)絡(luò)上的病毒式傳播。事件引發(fā)了公眾對深偽技術(shù)的擔(dān)憂,擔(dān)心AI圖片生成技術(shù)將侵害人們的正常生活。

這并非深偽技術(shù)首次被推到風(fēng)口浪尖,相關(guān)爭議從未停止?,F(xiàn)在AI生成的圖片、有聲視頻,幾乎可以亂真。泰勒其實(shí)此前就深受其害,有人曾使用AI生成一段泰勒帶貨的視頻實(shí)施詐騙。相比十幾年前滿是破綻的PS,現(xiàn)今生成式AI產(chǎn)出的內(nèi)容不僅真假難辨,而且把假照片假視頻的門檻大大降低了,普通用戶簡單輸入字段和圖片就能創(chuàng)造新的內(nèi)容。比如,曾經(jīng)需要數(shù)十名技術(shù)人員花費(fèi)數(shù)月才能制作出的影視特效場景,如今僅需一臺電腦聯(lián)網(wǎng)便可以完成。各類應(yīng)用如井噴般出現(xiàn),無疑給技術(shù)的監(jiān)管帶來了巨大的挑戰(zhàn)。

以泰勒的事件為例,管控主要有兩個重點(diǎn),分別是源頭和傳播節(jié)點(diǎn)。源頭指的是最初制作假照片的不法分子,而傳播節(jié)點(diǎn)則是在互聯(lián)網(wǎng)上進(jìn)行傳播的各個賬號。

傳播節(jié)點(diǎn)的限制相對容易,各國也都有既有法律來保護(hù)個人隱私,阻止隱私或私密圖像在公共場合的傳播。但源頭的管控則相對困難。一方面,如全面禁止在社交媒體上發(fā)布由AI生成或者AI參與修改的圖片,乃至于全面禁止相關(guān)應(yīng)用的開發(fā)及發(fā)布,這類的“一刀切”管控顯然并不合適。另一方面,AI生成的圖片目前已非常真實(shí),很難簡單辨別哪些圖片是由AI生成而哪些又是“原生”。問題的關(guān)鍵在于要讓公眾及平臺運(yùn)營方了解圖片的真實(shí)性,以及確保對AI生成的內(nèi)容進(jìn)行溯源。目前看來,最好的解決方案可能是此前OpenAI、微軟、谷歌、Meta、亞馬遜等多家技術(shù)巨頭提出的AI生成內(nèi)容水印技術(shù),即在AI生成內(nèi)容中添加可識別的水印,標(biāo)明作品信息及出處,以確保公眾可以區(qū)分AI生成內(nèi)容。當(dāng)類似泰勒隱私遭受侵害的事件發(fā)生時,可以追溯源頭。在具體治理場景中,可能還需要政府、AI技術(shù)公司、傳播平臺進(jìn)行聯(lián)合治理,才能確保內(nèi)容生成技術(shù)不被用來作惡。

回顧歷史,公眾接收信息的方式一直在隨著科技的發(fā)展而變化,技術(shù)的進(jìn)步幫助人們不斷拓展信息獲取的維度。無線電聲波、電視畫面、互聯(lián)網(wǎng)傳播都對社會進(jìn)步起到了重要的推動作用,AI亦是如此。AI模糊了現(xiàn)實(shí)與虛擬的邊界,終結(jié)了“有圖有真相”的時代,但同時,AI也在豐富著信息的維度,可以配合文字內(nèi)容生成的圖片乃至視頻,給閱讀者帶來更沉浸的體驗(yàn),也可以提供包含專家評論和歷史信息在內(nèi)的增強(qiáng)內(nèi)容。比如,對于歷史學(xué)家來說,AI生成內(nèi)容就可以幫助其更好地還原歷史的細(xì)節(jié)。技術(shù)本身無關(guān)善惡,維護(hù)公眾利益的關(guān)鍵還是在于規(guī)范使用者。只有通過監(jiān)管部門、信息傳播平臺以及AI技術(shù)公司多方的通力合作,才能找回公眾對于信息真實(shí)性的信任,在更高的層次上回歸“有圖有真相”。

(來源:環(huán)球時報(bào))

責(zé)任編輯:陳平

掃一掃分享本頁