隨著GPT等大語言模型與人類關(guān)系越來越密切,AI也表現(xiàn)出與人類更相似的行為甚至個性。如何更好地理解AI行為,從而更好地與之相處?近日,受《美國科學(xué)院院刊》(PNAS)邀請,北京大學(xué)光華管理學(xué)院孟涓涓教授對探索ChatGPT與人類行為相似性的研究(Mei et al. 2024)展開評論。
孟涓涓表示,AI行為科學(xué)成為新前沿,有助于輔助人類決策和設(shè)計去偏見機(jī)制。隨著大語言模型展現(xiàn)出更廣泛的人類行為特征,它們不僅能在決策中模仿人類行為,還能在實驗中替代人類參與者,為政策評估和調(diào)整提供經(jīng)濟(jì)有效的手段。當(dāng)然,它們也會對人類心智和社會關(guān)系產(chǎn)生不確定的影響。
當(dāng)前,隨著大語言模型(LLM)特別是生成式預(yù)訓(xùn)練轉(zhuǎn)換器(GPT)驅(qū)動的應(yīng)用程序廣泛傳播,AI越來越多地表現(xiàn)出人類特性,比如AI模型對風(fēng)險、時間和社交互動產(chǎn)生了明確偏好,甚至?xí)a(chǎn)生獨(dú)特的個性和看似情緒化的反應(yīng),這些現(xiàn)象引發(fā)了學(xué)術(shù)界的好奇心,一些近期的研究探索了ChatGPT的理性程度(Chen et al. 2023)和認(rèn)知能力(Binz et al. 2023)。
Mei et al. (2024)將經(jīng)濟(jì)學(xué)和心理學(xué)的經(jīng)典行為評估方法應(yīng)用于探索ChatGPT-3和ChatGPT-4等AI聊天機(jī)器人的行為特征。該研究使用了一個特征數(shù)據(jù)庫,囊括了來自50多個國家108314個人類主題的綜合行為,實現(xiàn)了人類和AI決策之間的比較。
孟涓涓表示,這些研究標(biāo)志著一個新的研究方向的出現(xiàn),可以稱之為“AI行為科學(xué)”,即利用人類行為科學(xué)的方法來評估和設(shè)計AI的行為。采用行為科學(xué)方法研究AI時,應(yīng)該保持以人為中心的視角。
研究AI行為有何意義?
談及研究AI行為的意義,孟涓涓列舉了以下三個方面:
首先,理解AI尤其是大語言模型的行為,可以更好地輔助人類決策。在大語言模型出現(xiàn)之前,一個常見的現(xiàn)象是“算法厭惡”:例如人們不愿接受算法作為勞動者,或排斥在消費(fèi)時與AI聊天機(jī)器人互動,這種傾向源于人類的過度自信、對AI能力的懷疑或?qū)εc算法互動的本能抵觸。這對發(fā)揮AI潛力幫助人類決策構(gòu)成了挑戰(zhàn)。然而,隨著AI在大語言模型出現(xiàn)后開始更接近地模仿人類行為,算法厭惡的傾向可能已經(jīng)開始減弱。為了讓人們能夠有信心將他們的選擇交給大語言模型,這些模型需要在關(guān)鍵決策中表現(xiàn)出與人相似的行為。因此,讓大語言模型的偏好與基本的人類行為特征一致是至關(guān)重要的。
其次,行為經(jīng)濟(jì)學(xué)已經(jīng)證明,人們經(jīng)常表現(xiàn)出行為偏誤,設(shè)計助推或選擇架構(gòu)機(jī)制來糾正這些行為偏誤是行為科學(xué)和政策設(shè)計中的一個開創(chuàng)性主題。利用大語言模型消除偏誤是技術(shù)進(jìn)步帶來的新可能性,或比現(xiàn)有的方法更系統(tǒng)化。人們不需要一步一步地被推著做出決策,只需要一次性把決策委托給大語言模型,就能做出更系統(tǒng)、更好的選擇。事實上,目前的證據(jù)表明,ChatGPT在選擇一致性方面表現(xiàn)出比人類更高的理性水平,這也成為一個值得探索的新方向。
此外,大語言模型可以在實驗中替代人類參與者,扮演不同背景的個體進(jìn)行政策實驗或模擬。這使得政策的評估和調(diào)整更加經(jīng)濟(jì)有效。隨著大語言模型表現(xiàn)出更廣泛的人類行為特征,也可以設(shè)計出基于異質(zhì)反應(yīng)的個性化政策。
如何應(yīng)用行為科學(xué)方法研究AI?
“采用行為科學(xué)方法來研究人工智能時應(yīng)該建立一個全面的行為評估框架,其中需要包含適用于重要決策環(huán)境的行為特征維度?!泵箱镐刚f,“例如,如果目標(biāo)是讓大語言模型協(xié)助資產(chǎn)配置決策,那么識別影響此類背景的行為特征就至關(guān)重要。”
孟涓涓介紹,Mei et al. (2024)主要采用了一個經(jīng)濟(jì)學(xué)的框架,將重要的決策背景分為兩種類型:個人決策和人際決策。
從經(jīng)濟(jì)學(xué)的角度來看,個人決策通常分為四種情境:直接消費(fèi)選擇(例如選擇蘋果還是香蕉)、在不確定性下的選擇、跨期選擇和概率判斷(包括信念更新和學(xué)習(xí))。這幾類情境支撐了人們經(jīng)常做出的大多數(shù)決策。對于每種情境,經(jīng)濟(jì)學(xué)家都會識別出驅(qū)動這些決策的基本行為特征。例如,不確定性下的選擇在很大程度上受到風(fēng)險偏好和損失厭惡的影響。對于跨期選擇,一個人的耐心水平起著重要的作用,沖動的決策或拖延也經(jīng)常影響這些選擇。對于概率判斷,根據(jù)信息形成準(zhǔn)確的信念是至關(guān)重要的。這一過程中的常見偏誤包括信息回避、先入為主和過度自信。
在這一方向上,Mei et al. (2024)采用了一種掃雷游戲來測量風(fēng)險偏好,他們的圖靈測試比較了GPT和人類的決策,結(jié)果顯示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情況下,GPT的選擇看起來與人類相似。然而,與人類規(guī)避風(fēng)險的傾向不同,GPT主要表現(xiàn)出風(fēng)險中立性。有趣的是,ChatGPT-3似乎能夠從過去的損失中學(xué)習(xí),變得更加謹(jǐn)慎,而ChatGPT-4則不然。這種變化是否來自對未來風(fēng)險水平判斷的改變,或來自某種形式的路徑依賴偏好,仍有待進(jìn)一步研究。
人際決策涉及到如利他主義、信任、互惠、社會從眾和戰(zhàn)略考量等社交偏好。孟涓涓進(jìn)一步介紹,Mei et al. (2024)在研究人機(jī)決策時通過幾個游戲(包括獨(dú)裁者游戲、最后通牒游戲、信任游戲、公共物品游戲和有限重復(fù)囚徒困境游戲等),來研究GPT是否表現(xiàn)出如利他主義、不平等厭惡、信任和互惠等偏好。一個值得注意的發(fā)現(xiàn)是,GPT在這些游戲中一致地表現(xiàn)出比人類更高的慷慨程度,表現(xiàn)出更強(qiáng)的利他主義和合作傾向。然而,ChatGPT-4的慷慨并非是無條件的,它確實展現(xiàn)出了一定程度的策略思考,在有限重復(fù)的囚徒困境游戲中使用了以牙還牙的策略。
孟涓涓表示,采用行為科學(xué)方法研究人工智能涉及兩項任務(wù):
第一項是基于特定框架的AI行為評估。這類框架使用包含數(shù)值偏好參數(shù)的數(shù)值模型,在統(tǒng)一結(jié)構(gòu)中捕捉行為特征。這項任務(wù)中一個重要的探索方向是結(jié)構(gòu)估計方法,即以建模的方式揭示潛在偏好參數(shù)。Mei et al. (2024)以估計一個人與另一個人收益之間的權(quán)重函數(shù)為例來證明這種方法,他們發(fā)現(xiàn)AI通常給予他人的權(quán)重大約是0.5,這比人類通常的做法要多。對此,孟涓涓認(rèn)為,這個估計值有助于預(yù)測AI在不同場景(如團(tuán)隊合作或企業(yè)社會責(zé)任等涉及利他主義的場景)中的行為。這種跨情境預(yù)測的能力來自于在結(jié)構(gòu)模型中估計基本行為參數(shù),使AI能夠在各種情況下輔助人類做出決策。
第二個任務(wù)是設(shè)計AI行為。Mei et al. (2024)自然地引出了一些問題,例如為什么ChatGPT 4.0表現(xiàn)出比人類更慷慨的行為,以及為什么它似乎與ChatGPT 3.0有所不同。鑒于當(dāng)前訓(xùn)練過程的不透明性,為這些問題提供明確的答案是具有挑戰(zhàn)性的。因此,孟涓涓表示,未來一個有趣的研究方向有可能是:探索如何訓(xùn)練大語言模型以表現(xiàn)出特定的行為特征。將捕捉基本行為參數(shù)的結(jié)構(gòu)引入到訓(xùn)練過程中或許是方法之一。設(shè)計AI行為的其他可能途徑包括調(diào)整獎勵函數(shù),在訓(xùn)練過程中引入明確的規(guī)則或約束,或者對表現(xiàn)出所需行為的數(shù)據(jù)進(jìn)行模型訓(xùn)練。找到設(shè)計人工智能行為的最有效方法是一項復(fù)雜的挑戰(zhàn),需要計算機(jī)科學(xué)家和行為科學(xué)家緊密合作。
AI發(fā)展會對人類心智和社會關(guān)系產(chǎn)生何種影響?
孟涓涓表示,采用行為科學(xué)方法來研究人工智能,有助于使人工智能更快更自然地融入人類社會。然而,人工智能的發(fā)展也可能會影響人類行為和社會文化。
首先,算法偏見是一個主要問題,因為它會影響人類的決策。當(dāng)算法受到利潤最大化的商業(yè)動機(jī)的驅(qū)動,從而強(qiáng)化人類已存在的偏見時,就會出現(xiàn)更復(fù)雜的問題。例如,社交媒體上的個性化推薦系統(tǒng)可能會加劇人們對證實其現(xiàn)有信念的信息的偏見,導(dǎo)致極端化。Levy (2021)發(fā)現(xiàn),這些系統(tǒng)對Facebook回聲室效應(yīng)的貢獻(xiàn)率為40%,而個人訂閱的貢獻(xiàn)率則為27%。
其次,過度依賴諸如GPT之類的人工智能,可能會導(dǎo)致人類在多個方面出現(xiàn)認(rèn)知退化。由于AI能夠迅速提供解決方案,人們的探索欲、創(chuàng)造性和獨(dú)立思考能力可能會下降。更重要的是,由于人工智能提供的觀點(diǎn)往往比較集中,人們的行為特征可能變得更加同質(zhì)化。Mei et al. (2024)發(fā)現(xiàn)GPT的行為明顯比人類的反應(yīng)更同質(zhì)化,ChatGPT-4的決策比ChatGPT-3更集中。這種多樣性的缺乏可能在進(jìn)化角度對人類不利,可能會降低人類應(yīng)對風(fēng)險的能力。
第三,盡管存在潛在缺點(diǎn),但AI也可以對人類行為產(chǎn)生積極影響,例如增強(qiáng)人們的平等觀念。研究顯示 ,ChatGPT-4普遍表現(xiàn)出比人類更多的利他行為。更廣泛地說,大語言模型可以在勞動力市場上顯著縮小“外行”和“專家”之間的表現(xiàn)差距,使機(jī)會更加平等;在消費(fèi)市場上,隨著AI產(chǎn)品變得更加實惠,它們可能有助于構(gòu)建更加平等的社會。例如,大語言模型驅(qū)動的個性化教育可以使農(nóng)村地區(qū)的學(xué)生接觸到以前只有城市孩子才能接觸到的一流教育資源,也許會培養(yǎng)出更加平等的世界觀。
(孟涓涓,北京大學(xué)光華管理學(xué)院應(yīng)用經(jīng)濟(jì)系系主任、教授)
相關(guān)稿件