如今,人機(jī)協(xié)同在業(yè)界有著廣泛的應(yīng)用場景。而人機(jī)協(xié)同在業(yè)界的流行,也促使越來越多的學(xué)者關(guān)注這一領(lǐng)域,以探究人在AI的協(xié)助下會產(chǎn)生什么樣的行為、決策等變化。
北京大學(xué)光華管理學(xué)院市場營銷學(xué)系副教授張穎婕,特別關(guān)注從人機(jī)協(xié)同和共同進(jìn)化的視角來系統(tǒng)性設(shè)計(jì)評估智能策略,在提升商業(yè)價值的同時兼顧社會公平性。研究發(fā)現(xiàn),人機(jī)協(xié)同在提升系統(tǒng)性能和效率方面存在巨大潛力;而在人機(jī)協(xié)同過程中,也需要充分考慮人的因素和作用。
技術(shù)驅(qū)動下的人機(jī)協(xié)同發(fā)展
在AI技術(shù)相對成熟的現(xiàn)階段,張穎婕發(fā)起叩問,人還能發(fā)揮多大的作用呢?人是否能挖掘出AI未能觸及或者未能實(shí)現(xiàn)的價值呢?張穎婕以AI的發(fā)展為切入點(diǎn),思考在人工智能進(jìn)入社會后,人類應(yīng)當(dāng)如何發(fā)揮主觀能動性,由此引出了自身關(guān)于人機(jī)協(xié)作的研究主題,以及人類應(yīng)當(dāng)如何實(shí)現(xiàn)自身價值的問題。
基于這一問題,張穎婕回顧了學(xué)術(shù)界對不同情境下AI應(yīng)用的最新研究,并介紹了AI技術(shù)在業(yè)界受到了哪些挑戰(zhàn)。
張穎婕表示,當(dāng)前人工智能研究領(lǐng)域有兩類學(xué)者:一類關(guān)注技術(shù)方向上的突破與演進(jìn),如借由算法和大數(shù)據(jù)改進(jìn)模型,優(yōu)化股票走勢預(yù)測,促進(jìn)商業(yè)智能化轉(zhuǎn)型;另一類則將目光聚焦在“人”身上,基于現(xiàn)有技術(shù),研究如何更好地配合人工智能,如何在現(xiàn)有技術(shù)條件下與人工智能進(jìn)行互動。她屬于后者。
關(guān)于人在人機(jī)協(xié)作中的行為特點(diǎn),近年來的研究也做了不少探索嘗試:一方面是AI-Aversion現(xiàn)象,即人由于缺乏信任、依賴個人經(jīng)驗(yàn)和直覺、擔(dān)憂低層次工種被取代等原因,對AI存在“抵制”,另一方面是Cyborg Effect現(xiàn)象,這是前者的極端反面,即AI給定決策建議后人的能動性下降,人更加依賴AI而不愿意主動決策。
在她看來,隨著AI的“類人”性以及自身算法能力的不斷提升,再加上AI的“商業(yè)版圖”的不斷壯大,AI和人共存合作的可能性和必要性也在不斷增強(qiáng)。換句話說,人是難以避免和AI產(chǎn)生接觸的。
消費(fèi)者與AI制造
先前的研究表明,消費(fèi)者不太喜歡機(jī)器人客服,因?yàn)闄C(jī)器人客服不夠聰明,無法與消費(fèi)者共情。然而,隨著人工智能技術(shù)的不斷發(fā)展,如ChatGPT等智能AI的出現(xiàn),這些問題正在逐漸解決。現(xiàn)在的AI產(chǎn)品已經(jīng)進(jìn)化到與人相似的程度,消費(fèi)者可能會慢慢接受這些產(chǎn)品。
因此,張穎婕認(rèn)為先前的研究結(jié)論可能不再適用,她想探索的是在新的技術(shù)背景下,消費(fèi)者對于AI產(chǎn)品的態(tài)度和接受度。
當(dāng)AI已經(jīng)成熟了,當(dāng)世界上AI已經(jīng)很普遍了,作為消費(fèi)者的自己,會怎么樣面對?在張穎婕看來,機(jī)器學(xué)習(xí)是一個向上走的趨勢,會越來越智能,這是毋庸置疑的。作為消費(fèi)者或者作為人這個群體來說,對人工智能的態(tài)度,已經(jīng)或者即將不能用“AI不夠聰明”來作為抵制AI產(chǎn)品的理由了。
“但不知道人們的態(tài)度會不會是一個曲線,就是當(dāng)機(jī)器進(jìn)化到一定程度的時候,人們會先欣然接受并享受AI制造,但是當(dāng)AI進(jìn)一步進(jìn)化之后,消費(fèi)者或用戶的態(tài)度又會如何則是一個難以預(yù)測的問題。我們需要持續(xù)跟進(jìn)并及時作出預(yù)測?!睆埛f婕說。
張穎婕表示,在不同領(lǐng)域人與AI之間的合作和決策過程可能因情境而異,需要考慮不同的因素。在金融領(lǐng)域進(jìn)行的研究可能得出的結(jié)論與其他領(lǐng)域不同,因?yàn)椴煌袠I(yè)的工作特點(diǎn)和需求不同。
在某些情況下,人工審核決策可能沒有任何作用,而人工智能能夠以更高的準(zhǔn)確率來做出決策。在另外的場景中,人類仍然具有價值,需要通過刺激來發(fā)揮他們的作用,這可能涉及提供大量數(shù)據(jù)、解釋人工智能的決策以及使用激勵方法。
人機(jī)協(xié)同的應(yīng)用與提升
在張穎婕看來,AI賦能生產(chǎn)力是現(xiàn)階段AI持續(xù)進(jìn)化帶來的一大益處,甚至是最大益處。但AI的賦能同樣離不開有效的人機(jī)協(xié)同。機(jī)器與人如果能發(fā)揮協(xié)同作用,決策的整體效果會更好。
針對這一情況,張穎婕的研究試圖解答三個問題:一是通過系統(tǒng)設(shè)計(jì)探索人類在人機(jī)協(xié)作中的貢獻(xiàn);二是解析這一人機(jī)協(xié)作的生成機(jī)制與原因;三是探討如何利用人類的異質(zhì)性來提升協(xié)作效能。
張穎婕選取亞洲的小額貸款公司為研究對象,對比了人工和AI在批準(zhǔn)借款人違約率方面的決策差異。實(shí)驗(yàn)結(jié)果顯示:在AI與人無合作(分別獨(dú)自決策)的情況下,AI決策比人工決策結(jié)果違約率更低,給AI提供大數(shù)據(jù)能夠顯著降低違約率(但數(shù)據(jù)量對人工決策結(jié)果違約率無顯著影響);而在給人工提供AI決策建議且這一建議與人工決策結(jié)論產(chǎn)生分歧時,有60%—80%的人會選擇接受AI的決策建議改變自己的決策(當(dāng)提供AI決策依據(jù)時這一比例會更高)。
結(jié)果揭示了幾個關(guān)鍵的發(fā)現(xiàn)。首先,當(dāng)人工和AI各自獨(dú)立做決策時,AI的判斷準(zhǔn)確率明顯超過人工,特別是當(dāng)數(shù)據(jù)量大的情況下,人在決策時明顯存在信息過載等問題。其次,在小數(shù)據(jù)情況下,人的參與并不能顯著提升合作效率。并且,在大數(shù)據(jù)環(huán)境下,人類只有在被告知AI決策邏輯的前提下,才能對違約率判斷產(chǎn)生積極的價值。
換言之,如果信息復(fù)雜度(即大數(shù)據(jù)環(huán)境)和AI決策邏輯信息二者不能同時滿足時,人類信審員在AI的輔助下要么全盤聽從,要么錯誤地堅(jiān)持己見,從而使得合作效率與AI獨(dú)自決策時相差無幾;但兩個條件的同時滿足卻能及時激發(fā)人工展現(xiàn)其獨(dú)立思考和糾錯能力,這恰恰體現(xiàn)了人類在人機(jī)協(xié)同場景下的獨(dú)特價值。
“在大數(shù)據(jù)背景下,人工難以有效運(yùn)用如購買記錄等大數(shù)據(jù)信息,并將其與自身決策融合,盡管仍依賴傳統(tǒng)數(shù)據(jù),人工的判斷能力并未顯著提升?!睆埛f婕說。
相比之下,AI在處理大數(shù)據(jù)信息上,顯示出更強(qiáng)的提取、轉(zhuǎn)化和運(yùn)用能力,從而得出更精準(zhǔn)的判斷。另外,當(dāng)面對中間情況且處于糾結(jié)狀態(tài)時,人工更傾向于依賴AI的決策,但當(dāng)申請人的情況較為極端時,人工通常會依賴自己的判斷而非接受AI的建議。
算法面前人的情感不可忽視
張穎婕的研究,揭示了人機(jī)協(xié)同在提升系統(tǒng)性能和效率方面的巨大潛力。在互聯(lián)網(wǎng)金融借貸的實(shí)驗(yàn)中,人機(jī)協(xié)作行為使得整個系統(tǒng)的預(yù)測正確率提升了一倍,系統(tǒng)違約率從原先的6%降低到3.8%。這項(xiàng)研究表明,人機(jī)協(xié)同可以提高系統(tǒng)的性能和效率,同時也需要充分考慮人的因素和作用。
研究發(fā)現(xiàn),在引入機(jī)器學(xué)習(xí)算法進(jìn)行先期預(yù)測推薦后,人工審核員在大部分情況下會傾向于聽從算法的意見。然而,當(dāng)提供了用戶大數(shù)據(jù)以及算法的具體機(jī)制解釋之后,人們會在看到算法建議之后,自發(fā)地進(jìn)行一個重思考的過程,不再一味地認(rèn)為AI是好的,而是對AI進(jìn)行有效修正。
值得關(guān)注的是,人的情感也應(yīng)當(dāng)是人機(jī)協(xié)同中被考量的重要因素,這涉及AI向善和倫理問題。在外賣騎手的例子中,騎手有時候并不會遵從算法規(guī)劃的路線,這可能由于算法決策沒有考慮到騎手的情況,例如騎手位置、疲勞程度、實(shí)際路況等,亦或是騎手的過往經(jīng)驗(yàn)讓他們做出背離算法的決策。
“機(jī)器只能給你建議,最后還得是人來完成?!睆埛f婕表示,算法其實(shí)是非常厲害的,如果騎手能夠按照算法推薦的路線,他的收益一定是最高的。但事實(shí)卻是,百分之七八十的騎手,都不會完全遵從算法的推薦。
在張穎婕看來,這些問題不是人工智能本身造成的,而是使用者和管理者存在的問題,如平臺方和企業(yè)。人機(jī)協(xié)同固然可以提高系統(tǒng)的性能和效率,但也需要充分考慮人的因素和作用。在設(shè)計(jì)和應(yīng)用AI技術(shù)時,需要考慮到人的需求和利益,以確保AI技術(shù)能夠真正為人類服務(wù)。
那么人與AI,什么時候能達(dá)到最優(yōu)的調(diào)和效果呢?
一種新的算法策略出現(xiàn)了:即算法會去預(yù)測人會不會違約,會不會不遵守算法,而把人的情感考慮到算法的模型里邊。在設(shè)計(jì)者看來,這種策略按算法來說可能不是最優(yōu)的,但一定是算法加人最優(yōu)的。
“如果在特定的場景下,只能依靠人來做最后決策的話,你就要考慮全局,把人的情感也考慮進(jìn)去?!睆埛f婕說。
參考文獻(xiàn)
1、Lu, Tian and Zhang, Yingjie, 1 + 1 > 2? Information, Humans, and Machines. Available at SSRN: https://ssrn.com/abstract=4045718
2、Lu, Tian, Zhang, Yingjie, Li, Beibei. Profit vs. Equality? The Case of Financial Risk Assessment and A New Perspective on Alternative Data. MIS Quarterly, 2023, 47(4): 1517-1556.
張穎婕,光華管理學(xué)院市場營銷學(xué)系副教授,卡內(nèi)基梅隆大學(xué)博士(信息管理系統(tǒng)方向),曾就職于美國德州大學(xué)達(dá)拉斯分校,主要研究領(lǐng)域包括跨學(xué)科方法論研究、人機(jī)協(xié)同、共享經(jīng)濟(jì)、社交媒體、用戶行為等。
相關(guān)稿件