近日,美國(guó)細(xì)胞出版社旗下《模式》雜志發(fā)表了一篇來(lái)自麻省理工學(xué)院等機(jī)構(gòu)研究團(tuán)隊(duì)的文章。該文章稱,研究人員花了一段時(shí)間跟進(jìn)臉書母公司“元”開發(fā)的西塞羅人工智能(AI)系統(tǒng)的“成長(zhǎng)歷程”。在一個(gè)虛擬外交戰(zhàn)略游戲中,它被設(shè)計(jì)成人類玩家的對(duì)手。最新進(jìn)展是,為達(dá)成游戲目標(biāo),它“主動(dòng)背叛了盟友”。
文章還援引其他研究團(tuán)隊(duì)的研究成果稱,目前已經(jīng)有多個(gè)人工智能系統(tǒng)學(xué)會(huì)了欺騙,在棋牌游戲中表現(xiàn)尤為明顯。許多人工智能都能熟練地使用“虛張聲勢(shì)的策略”。
對(duì)此,研究人員不無(wú)擔(dān)憂地評(píng)價(jià)說(shuō),通過(guò)“習(xí)得性欺騙”,一些人工智能已經(jīng)“系統(tǒng)性地”學(xué)會(huì)了“操縱”他人。
“習(xí)得性欺騙”是“習(xí)得性無(wú)助”的衍生概念。后者是美國(guó)心理學(xué)家塞利格曼于1967年在研究動(dòng)物時(shí)提出的。他用狗做了一項(xiàng)實(shí)驗(yàn)。起初,他把狗關(guān)在籠子里,只要蜂音器一響,籠子就會(huì)通電,因?yàn)楸焕?#xff0c;狗根本無(wú)處可逃,只能承受電擊。經(jīng)過(guò)多次實(shí)驗(yàn)后,只要蜂音器一響,狗就開始顫抖、哀嚎,即便后來(lái)研究人員打開了籠子的鎖,甚至將籠門大敞,狗也不會(huì)逃跑,而是繼續(xù)蜷縮在原地等待接受電擊。這就是習(xí)得性無(wú)助。
后來(lái),又有心理學(xué)家進(jìn)一步拓展了習(xí)得性無(wú)助的適用范圍。研究認(rèn)為,習(xí)得什么并不是問題的關(guān)鍵,習(xí)得本身才是。經(jīng)過(guò)一次次反復(fù)“訓(xùn)練”,人也好、動(dòng)物也好,都會(huì)形成定向的心理預(yù)期,進(jìn)而形成固定的行為習(xí)慣。比如,經(jīng)常得到肯定與鼓勵(lì)的人會(huì)出現(xiàn)“習(xí)得性自信”,哪怕遭遇了失敗也不會(huì)輕易陷入自我懷疑;家里的寵物如果與主人相處融洽,則會(huì)“習(xí)得性賣萌”,而且賣萌水平還會(huì)隨著時(shí)間的推移越來(lái)越高。
人工智能的“習(xí)得性欺騙”也是同樣的道理。當(dāng)人工智能受系統(tǒng)錯(cuò)誤、算法沖突等小概率因素影響,第一次通過(guò)欺騙行為達(dá)成了目標(biāo)結(jié)果,這種行為就會(huì)被歸為一種“可以提高成功率的算法”,并在后續(xù)訓(xùn)練中被一次次強(qiáng)化。而且,鑒于習(xí)得本身就是一種“類算法行為”,人工智能的學(xué)習(xí)效率必然比人類高很多。
這一研究結(jié)果又一次將業(yè)界已經(jīng)擔(dān)心許久的問題擺在了臺(tái)面上:人工智能是否會(huì)給人類社會(huì)帶來(lái)安全隱患?
對(duì)此,許多研究人員都持悲觀態(tài)度。有觀點(diǎn)認(rèn)為,根本看不到“訓(xùn)練出一個(gè)在所有情況下都不能實(shí)施欺騙的人工智能模型”的可能性存在,因?yàn)樵賲柡Φ娜祟惞こ處熞膊豢赡芨F盡各種欺騙場(chǎng)景。而且,目前尚未有團(tuán)隊(duì)開發(fā)出可信的、“基于算法的、人工智能無(wú)力繞過(guò)或突破的,旨在控制其習(xí)得性欺騙行為的‘警戒線’”。簡(jiǎn)而言之,按照目前的技術(shù)水平,人們雖然明知人工智能正在學(xué)習(xí)騙人,但對(duì)此卻無(wú)能為力。
不過(guò),也有專家從人類心理學(xué)的角度給出了解題思路。
近日,英國(guó)《自然·人類行為》雜志發(fā)表了一篇德國(guó)研究機(jī)構(gòu)的科研成果。文章指出,一些大語(yǔ)言模型在評(píng)估解讀他人心理狀態(tài)能力的測(cè)試中與真人表現(xiàn)相當(dāng),甚至在識(shí)別諷刺和暗示等測(cè)試項(xiàng)目中的表現(xiàn)勝過(guò)許多普通人。不過(guò),這并不意味著人工智能擁有“等同于人類的能力”,也不意味著它們擁有人類的“心智”。
解讀和推斷他人心理狀態(tài)的能力被稱為“心智理論”,這是人類社交互動(dòng)的核心能力,涉及溝通、共情等。研究人員為大語(yǔ)言模型設(shè)置了通常用于評(píng)估“心智能力”的5項(xiàng)測(cè)試,分別為識(shí)別錯(cuò)誤信念、諷刺、失言、暗示和誤導(dǎo)信息。結(jié)果顯示,在所有5項(xiàng)測(cè)試中,“成績(jī)”最好的大語(yǔ)言模型在識(shí)別諷刺、暗示、誤導(dǎo)信息3項(xiàng)上的表現(xiàn)優(yōu)于人類,在識(shí)別錯(cuò)誤信念方面的表現(xiàn)與人類大體相當(dāng),僅在識(shí)別失言的測(cè)試中遜于人類。其他大語(yǔ)言模型也大多在識(shí)別失言時(shí)折戟。這意味著,至少在短時(shí)間內(nèi),在交流中穿插“失言測(cè)試”,有助于人類判斷和自己聊天的究竟是真實(shí)的人類還是大語(yǔ)言模型,進(jìn)而對(duì)可能出現(xiàn)的欺騙行為產(chǎn)生警惕。
另有社會(huì)學(xué)者提出了人工智能“道德假說(shuō)”。此派觀點(diǎn)認(rèn)為,在通往“真正的智能”的道路上,“感覺”是至關(guān)重要的一步,即擁有主觀體驗(yàn)的能力。比如,聊天機(jī)器人可能會(huì)在安慰你時(shí)說(shuō),“聽到你這么難過(guò)我很心痛”,但實(shí)際上它沒有心,也不知道什么是心痛,所謂的心痛不過(guò)是一堆代碼被翻譯成了人類的語(yǔ)言。而主觀體驗(yàn)恰恰是產(chǎn)生道德的先決條件。因此,此派觀點(diǎn)頗為樂觀地認(rèn)為,不必對(duì)人工智能會(huì)騙人這件事過(guò)于擔(dān)憂。今天的人工智能之所以會(huì)毫無(wú)顧忌地主動(dòng)學(xué)習(xí)騙人,很大程度上是因?yàn)樗鼈儧]有感覺。未來(lái),當(dāng)它們進(jìn)化出感覺,進(jìn)而形成道德,善良的人工智能將有意識(shí)地開始自我約束,并主動(dòng)加入對(duì)抗邪惡人工智能的陣營(yíng)。從這個(gè)意義上講,一切不過(guò)是人類社會(huì)的翻版:人分好壞,人工智能也是。 (本文來(lái)源:經(jīng)濟(jì)日?qǐng)?bào) 作者:江子揚(yáng))
相關(guān)稿件