“有圖有真相,這都是專家認(rèn)證過的?!?/p>
近日,天津市民李萌(化名)與母親就一篇“科普文章”發(fā)生了激烈的爭吵:母親堅(jiān)信文章中有視頻、有圖,還有各種所謂博士、醫(yī)療團(tuán)隊(duì)得出的研究結(jié)論,不可能是假的;李萌仔細(xì)辨別文章發(fā)現(xiàn),文章為AI生成,平臺也進(jìn)行了辟謠,肯定是假的。
這篇文章的內(nèi)容與貓有關(guān)——有一名女生抱著貓玩,得了一種絕癥叫“毛病”,后期整個(gè)人變得面目全非。也正是因?yàn)檫@篇文章,李萌母親堅(jiān)決反對她養(yǎng)貓,因?yàn)楹ε滤不忌稀懊 薄@蠲葘Υ丝扌Σ坏?#xff0c;“真希望我媽能少上點(diǎn)網(wǎng)”。
被AI謠言坑騙的遠(yuǎn)不止李萌母親。近期,多地公安機(jī)關(guān)發(fā)布了多起利用AI工具實(shí)施造謠的相關(guān)案件,如發(fā)布“西安突發(fā)爆炸”虛假新聞的賬號所屬機(jī)構(gòu),最高峰一天能生成4000至7000篇假新聞,每天收入在1萬元以上,而公司實(shí)際控制人王某某經(jīng)營著5家這樣的機(jī)構(gòu),運(yùn)營賬號達(dá)842個(gè)。
接受《法治日報(bào)》記者采訪的專家指出,便利的AI工具大幅降低了造謠的制造成本,提升了謠言的數(shù)量級和傳播力。AI造謠呈現(xiàn)出門檻低、批量化、識別難等特點(diǎn),亟待加強(qiáng)監(jiān)管,斬?cái)啾澈罄骀湕l。
用AI編造不實(shí)消息
傳播迅速多人受騙
6月20日,上海警方發(fā)布通報(bào),兩名品牌營銷人員為蹭熱度,編造了“中山公園地鐵站捅人”等不實(shí)信息,相關(guān)人員已被警方行政拘留。通報(bào)中,有個(gè)細(xì)節(jié)引人注意:一名造假者使用AI軟件生成視頻技術(shù),編造了地鐵行兇的虛假視頻等不實(shí)信息。
記者梳理發(fā)現(xiàn),近年來,利用AI造謠現(xiàn)象頻發(fā),且傳播速度極快,一些謠言造成不小的社會恐慌和危害。
去年,在上海一女童走失事件中,一團(tuán)伙以“標(biāo)題黨”“震驚體”方式,惡意編造炒作“女孩父親系繼父”“女孩被帶往溫州”等謠言。該團(tuán)伙利用AI工具等生成謠言內(nèi)容,通過114個(gè)賬號矩陣,在6天內(nèi)發(fā)布268篇文章,多篇文章點(diǎn)擊量超過100萬次。
公安部網(wǎng)安局近期公布一起案例。2023年12月以來,一條“西安市鄠邑區(qū)地下涌出熱水”的信息頻繁在網(wǎng)絡(luò)上傳播,出現(xiàn)如“地下出熱水是因?yàn)榘l(fā)生了地震”“是因?yàn)榈叵聼峁艿榔屏选钡戎{言。經(jīng)查,相關(guān)謠言是通過AI洗稿方式生成的。
近日,“濟(jì)南一高層住宅樓起火,多人跳樓逃生”“晨練大爺在濟(jì)南英雄山附近發(fā)現(xiàn)墳中活人”……這些離譜的“重磅消息”在網(wǎng)上廣泛傳播,引起大量關(guān)注。濟(jì)南市委網(wǎng)信辦第一時(shí)間通過濟(jì)南互聯(lián)網(wǎng)聯(lián)合辟謠平臺進(jìn)行辟謠,但還是有不少人被“有圖有真相”的表象迷惑。
清華大學(xué)新聞與傳播學(xué)院新媒體研究中心今年4月發(fā)布的一份研究報(bào)告顯示,近兩年的AI謠言中,經(jīng)濟(jì)與企業(yè)類謠言占比最高,達(dá)43.71%;近一年來,經(jīng)濟(jì)與企業(yè)類AI謠言量增速高達(dá)99.91%,其中餐飲外賣、快遞配送等行業(yè)更是AI謠言重災(zāi)區(qū)。
那么,利用AI制造一篇假新聞究竟有多簡單?
記者用市面上流行的多款人工智能軟件測試發(fā)現(xiàn),只要給出關(guān)鍵詞,就能在幾秒鐘內(nèi)立刻生成一篇“新聞報(bào)道”,包括事情詳細(xì)經(jīng)過、評論觀點(diǎn)、后續(xù)做法等,只要加上時(shí)間地點(diǎn),再配上圖片和背景音樂,一篇以假亂真的新聞報(bào)道便制作完成。
記者發(fā)現(xiàn),很多AI生成的謠言中,都夾雜著“據(jù)報(bào)道”“相關(guān)部門正對事故原因進(jìn)行深入調(diào)查,并采取措施進(jìn)行搶修”“提醒廣大市民在日常生活中要注意安全”等內(nèi)容,在網(wǎng)上發(fā)布后人們往往難辨真?zhèn)巍?/p>
除了AI新聞,科普文章,圖片、配音視頻、換臉后模仿聲音,這些都可以利用AI產(chǎn)生,在人工進(jìn)行微調(diào)并融入一些真實(shí)的內(nèi)容后,它們就會變得難以辨別。
中國人民大學(xué)新聞與社會發(fā)展中心研究員曾持說,“生成式AI”的拼接本質(zhì)和謠言有很強(qiáng)的親近性,二者都屬于“無中生有”——?jiǎng)?chuàng)造看起來真實(shí)合理的信息。AI讓造謠更加簡單和“科學(xué)”了,AI根據(jù)熱點(diǎn)事件總結(jié)規(guī)律、拼接情節(jié),很快就能制作出符合人們“期待”的謠言,傳播更加迅速。
“網(wǎng)絡(luò)平臺可以用AI技術(shù)反向?qū)D像和視頻的拼接進(jìn)行檢測,但很難對內(nèi)容進(jìn)行審查。當(dāng)下人們并沒有能力完全攔截謠言,更何況有許多未經(jīng)證實(shí)或無法證實(shí)、模棱兩可的信息。”曾持說。
為獲流量牟利造假
涉嫌構(gòu)成多種罪名
有些AI軟件的“造謠效率”非常驚人。比如,出現(xiàn)了“一天能生成19萬篇文章”的造假軟件。
據(jù)查獲該軟件的西安警方介紹,警方提取了該軟件7天保存的文章,發(fā)現(xiàn)總量超過100萬篇,涉及時(shí)事新聞、社會熱點(diǎn)、社會生活等各方面。賬號的使用者有組織地將這些“新聞”發(fā)布到相關(guān)平臺,再利用平臺的流量獎(jiǎng)勵(lì)制度等獲利。目前,該案涉及的賬號已被平臺查封,有關(guān)軟件和服務(wù)器也被關(guān)閉,警方還在對案件進(jìn)行深挖。
在多起AI造謠事件背后,造謠者的動(dòng)機(jī)主要源于引流和借此牟利。
“用AI批量生產(chǎn)爆款文案,突然你就變有錢了”“讓AI幫我寫推廣文,1分鐘搞定3篇”“圖文創(chuàng)作,AI自動(dòng)寫文章,單號輕松日產(chǎn)500+,可多號操作,小白輕松上手”……記者檢索發(fā)現(xiàn),很多社交平臺上都有類似“致富”文章流傳,評論區(qū)還有不少博主在推送。
今年2月,上海公安機(jī)關(guān)發(fā)現(xiàn),在一家電商平臺上出現(xiàn)了某藝人“命運(yùn)多舛、含恨離世”等短視頻,引發(fā)大量點(diǎn)贊和轉(zhuǎn)發(fā)。
經(jīng)查,該視頻內(nèi)容系偽造。視頻發(fā)布者到案后交代,他在某電商平臺上經(jīng)營一家土特產(chǎn)網(wǎng)店。由于銷量不佳,他便通過編造奪人眼球的虛假新聞給網(wǎng)店賬號吸引流量。他不會視頻剪輯,便利用AI技術(shù)生成文本和視頻。
北京瀛和律師事務(wù)所合伙人張強(qiáng)告訴記者,利用AI編造網(wǎng)絡(luò)謠言,尤其是編造、故意傳播虛假的險(xiǎn)情、疫情、災(zāi)情、警情,可能涉嫌刑法編造、故意傳播虛假信息罪。如果影響到個(gè)人或企業(yè)的名譽(yù),可能涉嫌刑法誹謗罪和損害商業(yè)信譽(yù)、商業(yè)名譽(yù)罪。如果影響到股票證券、期貨交易,擾亂交易市場,可能涉嫌刑法編造并傳播證券、期貨交易虛假信息罪。
持續(xù)完善辟謠機(jī)制
明確標(biāo)注合成內(nèi)容
為治理AI造假亂象,深化網(wǎng)絡(luò)生態(tài)治理,近年來相關(guān)部門和平臺出臺多項(xiàng)政策和措施。
早在2022年,中央網(wǎng)信辦等就發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,規(guī)定任何組織和個(gè)人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務(wù)從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟(jì)和社會秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動(dòng)。深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息。
今年4月,中央網(wǎng)信辦秘書局發(fā)布《關(guān)于開展“清朗·整治‘自媒體’無底線博流量”專項(xiàng)行動(dòng)的通知》,要求加強(qiáng)信息來源標(biāo)注展示。使用AI等技術(shù)生成信息的,必須明確標(biāo)注系技術(shù)生成。發(fā)布含有虛構(gòu)、演繹等內(nèi)容的,必須明確加注虛構(gòu)標(biāo)簽。
針對疑似使用AI技術(shù)的內(nèi)容,一些平臺會在下方貼上“內(nèi)容疑似AI生成,請謹(jǐn)慎甄別”的提示,并對包含虛構(gòu)、演繹等環(huán)節(jié)的內(nèi)容,明確加注虛構(gòu)標(biāo)簽,對違規(guī)賬號采取“封號”等舉措。部分大模型開發(fā)者也表示,會通過后臺設(shè)置的方式,對通過大模型生成的內(nèi)容打上水印,告知用戶。
在張強(qiáng)看來,人們對于生成式AI還沒有足夠的了解,也缺乏應(yīng)對經(jīng)驗(yàn)。在這種情況下,通過媒體提醒人們注意甄別AI信息,是非常必要的。同時(shí)需要在執(zhí)法層面加大響應(yīng)力度,對于通過AI造謠、詐騙等行為及時(shí)予以查糾。
中國傳媒大學(xué)文化產(chǎn)業(yè)管理學(xué)院法律系主任鄭寧認(rèn)為,應(yīng)進(jìn)一步完善現(xiàn)有的辟謠機(jī)制,一旦某一條信息被甄別為謠言,要立刻進(jìn)行標(biāo)注,并且向?yàn)g覽過該謠言的用戶再次推送,進(jìn)行辟謠提示,以免該謠言進(jìn)一步傳播,造成更大的傷害。
值得注意的是,有些人主觀上可能并無造謠意識,只是將AI合成內(nèi)容發(fā)布在網(wǎng)絡(luò)上,結(jié)果被大量轉(zhuǎn)發(fā),讓不少人相信,從而產(chǎn)生危害。
對此,曾持認(rèn)為,一個(gè)最簡單的防范方式就是通過有關(guān)部門或平臺制定規(guī)定,必須在所有AI合成內(nèi)容中都標(biāo)明“此圖片/視頻為AI合成”。(張守坤)
相關(guān)稿件