測試結(jié)果并不一定意味著人工智能可以“理解”人。
心智理論是指可以理解他人心理狀態(tài)的能力,正是它驅(qū)使著人類社會運(yùn)轉(zhuǎn)。它幫助你決定在緊張的情況下該說什么、猜測其他車輛的駕駛員將要做什么,以及與電影中的角色產(chǎn)生共鳴。一項(xiàng)最新的研究表明,ChatGPT等工具所使用的大語言模型在模仿這一典型人類特征方面表現(xiàn)得非常出色。
“在進(jìn)行這項(xiàng)研究之前,我們都相信大語言模型無法通過這些測試,特別是那些判斷不易察覺的心理狀態(tài)能力的測試。”該研究的合著者克里斯蒂娜?貝奇奧(Cristina Becchio)說,她是德國漢堡-埃彭多夫大學(xué)醫(yī)學(xué)中心的認(rèn)知神經(jīng)科學(xué)教授。這項(xiàng)她認(rèn)為“出乎意料和令人驚訝”的研究結(jié)果發(fā)表在2024年5月20日的《自然?人類行為》雜志中。
貝奇奧和她的同事并不是首先提出證據(jù)表明大語言模型的反應(yīng)能夠表現(xiàn)這種推理能力的人。在2023年發(fā)表的一篇預(yù)印本論文中,斯坦福大學(xué)心理學(xué)家邁克爾?科辛斯基(Michal Kosinski)報告了幾個模型在幾種常見心智理論測試中的測試情況。他發(fā)現(xiàn),其中最好的是OpenAI的GPT-4,它正確完成了75%的任務(wù),他說,這相當(dāng)于過去研究中6歲兒童的表現(xiàn)。不過,這項(xiàng)研究中的方法遭到了其他研究人員的批評,他們進(jìn)行了后續(xù)實(shí)驗(yàn),并得出結(jié)論,大語言模型之所以能得出正確答案,往往是基于“淺顯的啟發(fā)”和捷徑,而不是真正基于心智理論推理。
本研究的作者很清楚這種爭論。“在論文中,我們的目標(biāo)是使用廣泛的心理測試,以更加系統(tǒng)的方式來應(yīng)對機(jī)器心智理論的評估挑戰(zhàn)?!痹撗芯康暮现哒材匪?斯特拉坎(James Strachan)說,他是一名認(rèn)知心理學(xué)家,目前是漢堡-埃彭多夫大學(xué)醫(yī)學(xué)中心的訪問科學(xué)家。他指出,進(jìn)行嚴(yán)謹(jǐn)?shù)难芯恳馕吨獪y試人類和大語言模型處理相同任務(wù)的能力,這項(xiàng)研究比較了1907個人與幾個流行的大語言模型的能力。
大語言模型和人類都完成了5種典型的心智理論測試,前3種是理解暗示、反語和失禮。此外,他們還回答了“錯誤信念”問題,這些問題通常用于確定幼兒心智理論的發(fā)展程度。這些問題是這樣的:如果愛麗絲在鮑勃不在房間的時候移動了某樣?xùn)|西,那么鮑勃回來后應(yīng)該去哪里找這個東西?最后,他們回答了“奇怪故事”中一些相當(dāng)復(fù)雜的問題,這些故事中的人物相互撒謊、操縱并產(chǎn)生了很多誤解。
總體而言,GPT-4占據(jù)了優(yōu)勢。它的得分在錯誤信念測試中與人類相當(dāng),在反語、暗示和奇怪故事方面的總分高于人類,只在失禮測試中表現(xiàn)不如人類。為了理解失禮測試結(jié)果有所不同的原因,研究人員對該模型進(jìn)行了一系列后續(xù)測試,探索了幾種假設(shè)。他們得出的結(jié)論是,GPT-4能夠?qū)τ嘘P(guān)失禮的問題給出正確答案,但在固執(zhí)己見方面受到“極端保守”編程的限制。斯特拉坎指出,OpenAI在模型周圍設(shè)置了許多圍欄,“旨在保持模型真實(shí)、誠實(shí)和正確”,他認(rèn)為,旨在防止GPT-4產(chǎn)生幻覺(即編造內(nèi)容)的策略可能會妨礙它對一些問題輸出觀點(diǎn),比如故事角色是否在高中同學(xué)聚會上無意間侮辱了老同學(xué)。
研究人員很謹(jǐn)慎。他們沒有說自己的研究結(jié)果表明大語言模型實(shí)際上擁有心智理論能力,而是說大語言模型“在心智理論任務(wù)中的表現(xiàn)與人類行為沒有區(qū)別”。這就引出了一個問題:如果一個仿品和真品一樣好,那你怎么知道它不是真品?斯特拉坎說,這是一個社會科學(xué)家以前從未嘗試回答的問題,因?yàn)閷θ祟惖臏y試會假設(shè)這種品質(zhì)在某種程度上是存在的?!拔覀兡壳斑€沒有一種方法甚至是一種理念來測試心智理論的存在,這是一種現(xiàn)象學(xué)品質(zhì)。”他說。
華盛頓大學(xué)計(jì)算語言學(xué)教授艾米麗?本德(Emily Bender)因堅(jiān)持揭露人工智能行業(yè)的膨脹炒作而成為了該領(lǐng)域的傳奇人物。她對這個激勵著研究人員的問題提出了異議?!懊鎸ο嗤瑔栴},文本處理系統(tǒng)能否產(chǎn)生與人類相似的答案為什么如此重要?”她問道,“我們能夠了解大語言模型內(nèi)部是如何運(yùn)作的嗎?它們可能有什么用處,又可能帶來哪些危險?”
本德對論文中的擬人化表示擔(dān)憂,論文研究人員說大語言模型有認(rèn)知、推理和作出選擇的能力,還使用了“大語言模型和人類參與者之間的物種公平比較”這一措辭。本德說,這“完全沒有將軟件囊括在內(nèi)”。
漢堡-埃彭多夫大學(xué)醫(yī)學(xué)中心團(tuán)隊(duì)的研究結(jié)果可能并不表明人工智能真的能理解我們,但值得思考的是,人工智能能夠做出令人信服的行為,這會帶來什么影響。雖然這種大語言模型在與人類用戶交互和預(yù)測用戶需求方面會做得更好,但它們也可能更多地用于欺騙和操縱。它們會引來更多的擬人化,讓人類用戶相信用戶界面的另一端是有思想的。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238212
原文標(biāo)題:人工智能在心智理論測試中戰(zhàn)勝人類
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論