生成式人工智能(AI)橫空出世,可能給人類帶來巨大的影響。美國高盛集團今年早些時候警告稱,超過3億個全職工作崗位可能會受到波及。美國國會研究服務(wù)局5月發(fā)布的一份報告指出,AI的最新創(chuàng)新也提出了新的版權(quán)問題,即如何界定AI創(chuàng)建或使用的內(nèi)容屬于侵權(quán)還是合理使用等。
美國《福布斯》網(wǎng)站在6月9日的報道中指出,另一個令人擔(dān)憂的問題已經(jīng)浮出水面:生成式AI能被用于社交媒體上的虛假信息運動。虛假信息運動指蓄意制造和傳播帶有政治目的的謊言,這與一個人犯錯誤或說謊不同。虛假信息運動可使用各種策略,還可利用各種新技術(shù)、新媒體以及傳統(tǒng)媒體來擴大分歧和煽動動亂。
美國塔爾薩大學(xué)網(wǎng)絡(luò)安全教授約翰·希爾表示,眾所周知,臉書、推特、TikTok等平臺現(xiàn)在是信息戰(zhàn)的前線,生成式AI“染指”這一領(lǐng)域既造成了新的危險,也放大了現(xiàn)有的危險。
“深度造假”:假作真時真亦假
2017年,當(dāng)名為“深度造假”(Deepfake)的用戶在互聯(lián)網(wǎng)上首次發(fā)布合成視頻時,也許不曾想到,他已經(jīng)打開了“潘多拉魔盒”。隨著“深度造假”技術(shù)在缺少監(jiān)管的狀態(tài)下野蠻生長,已逐漸危害經(jīng)濟和社會的穩(wěn)定。
所謂“深度造假”技術(shù),是一種利用AI將現(xiàn)有圖像、音頻或視頻中的人物替換成他人的技術(shù)。一些經(jīng)過操縱的圖像、視頻和音頻等“深度造假”內(nèi)容,曾經(jīng)需要專業(yè)人士才能完成,但在生成式AI的加持下,現(xiàn)在很多人都能更容易地創(chuàng)建出來。
希爾指出,“深度造假”使別有用心之人可竊取或盜用他人的聲音,將其嵌入圖像或視頻中,或者以無法檢測的方式操縱或更改數(shù)字內(nèi)容。這一切才剛剛開始,隨著技術(shù)的不斷進步,“深度造假”技術(shù)制作的內(nèi)容與真實事物之間的差距會越來越小。而且,隨著制作出“深度造假”內(nèi)容變得越來越簡單,社交媒體會隨時向大眾傳播此類內(nèi)容。
希爾強調(diào)稱,隨著這些“深度造假”內(nèi)容在社交媒體平臺上不受限制、不受管理地傳播,將導(dǎo)致一場虛假信息運動,以影響、說服和誤導(dǎo)他人或特定受眾。隨著相關(guān)技術(shù)的不斷發(fā)展,未來可能會發(fā)生什么令人非常擔(dān)憂。
侵蝕對政治選舉的信任
《福布斯》雜志指出,生成式AI再加上“深度造假”,可能會給2024年美國總統(tǒng)選舉帶來真正可怕的后果。
美國公共廣播服務(wù)網(wǎng)站在5月份的報道中指出,生成式AI不僅可快速生成有針對性的競選電子郵件、文本或視頻,還可能被用來誤導(dǎo)選民、冒充候選人并以前所未有的規(guī)模和速度破壞選舉,誹謗候選人,甚至煽動暴力。
中佛羅里達大學(xué)研究生院教授兼副院長提摩太·塞爾諾博士表示,AI制造出的“深度造假”內(nèi)容看起來非常真實,即使對專家來說,確定它們的真實性也是一個挑戰(zhàn)。
與此同時,選民們被AI捏造的視頻淹沒,如果社交媒體平臺故意或錯誤地允許AI修改或生成的信息在其網(wǎng)絡(luò)上逗留并肆意傳播,選民對其信任度可能會進一步降低。美國網(wǎng)絡(luò)安全公司預(yù)測,試圖干預(yù)美國選舉的團體將利用AI和合成媒體作為侵蝕信任的一種方式。
“內(nèi)容認證”標(biāo)準(zhǔn)亟待制訂
《福布斯》網(wǎng)站在報道中指出,生成式AI相關(guān)行業(yè)正在制定“內(nèi)容認證”標(biāo)準(zhǔn),使用戶驗證數(shù)字內(nèi)容的來源,但開發(fā)和采納這些標(biāo)準(zhǔn)還需要一些時間。
希爾指出,這是數(shù)字媒體發(fā)展的必經(jīng)階段,盡管如此,用戶在瀏覽或使用社交媒體平臺上的內(nèi)容時,必須更加謹慎。此外,社交媒體網(wǎng)站應(yīng)更積極地監(jiān)管AI操縱的帖子。
AI提供了顛覆性進步的強大能力,但這種能力也必須被謹慎使用,以便更大程度發(fā)揮科技向善的力量。
相關(guān)稿件