一項新的研究發(fā)現(xiàn),人工智能(AI)或許具備了人類特有的能力之一,即“心智理論”(Theory of Mind,ToM)。
也就是說,在追蹤人類的心理狀態(tài)方面,比如“發(fā)現(xiàn)錯誤想法”“理解間接言語”“識別失禮”等,GPT(GPT-4、GPT-3.5)和 Llama 2 在特定情況下的表現(xiàn),已被證明接近甚至超過了人類。
這些發(fā)現(xiàn)不僅表明大型語言模型(LLMs)展示出了與人類心理推理輸出一致的行為,而且還突出了系統(tǒng)測試的重要性,從而確保在人類智能和人工智能之間進(jìn)行非表面的比較。
相關(guān)研究論文以“Testing theory of mind in large language models and humans”為題,已發(fā)表在 Nature 子刊 Nature Human Behaviour 上。
GPT 更懂“誤導(dǎo)”,Llama 2 更懂“禮貌”
心智理論,是一個心理學(xué)術(shù)語,是一種能夠理解自己以及周圍人類的心理狀態(tài)的能力,這些心理狀態(tài)包括情緒、信仰、意圖、欲望、假裝等,自閉癥通常被認(rèn)為是患者缺乏這一能力所導(dǎo)致的。
以往,心智理論這一能力被認(rèn)為是人類特有的。但除了人類之外,包括多種靈長類動物,如黑猩猩,以及大象、海豚、馬、貓、狗等,都被認(rèn)為可能具備簡單的心智理論能力,目前仍有爭議。
最近,諸如 ChatGPT 這樣的大型語言模型(LLMs)的快速發(fā)展引發(fā)了一場激烈的爭論,即這些模型在心智理論任務(wù)中表現(xiàn)出的行為是否與人類行為一致。
在這項工作中,來自德國漢堡-埃彭多夫大學(xué)醫(yī)學(xué)中心的研究團(tuán)隊及其合作者,反復(fù)測試了兩個系列的 LLMs(GPT 和 Llama 2)的不同心智理論能力,并將它們的表現(xiàn)與 1907 名人類參與者進(jìn)行比較。
他們發(fā)現(xiàn),GPT 模型在識別間接要求、錯誤想法和誤導(dǎo)三方面的表現(xiàn),可以達(dá)到甚至超越人類的平均水平,而 Llama 2 的表現(xiàn)還不如人類。
在識別失禮方面,Llama 2 要強(qiáng)于人類,但 GPT 表現(xiàn)不佳。
研究團(tuán)隊認(rèn)為,Llama 2 表現(xiàn)好是因?yàn)榛卮鸬钠姵潭容^低,而不是因?yàn)檎娴膶κФY敏感,GPT 表現(xiàn)較差其實(shí)是因?yàn)閷猿纸Y(jié)論的超保守態(tài)度,而不是因?yàn)橥评礤e誤。
圖庫版權(quán)圖片,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛
AI 的心智理論已達(dá)人類水平?
在論文的討論部分,研究團(tuán)隊對 GPT 模型在識別不當(dāng)言論任務(wù)中的表現(xiàn)進(jìn)行了深入分析,實(shí)驗(yàn)結(jié)果支持了 GPT 模型在識別不當(dāng)言論方面存在過度保守的假設(shè),而不是推理能力差。當(dāng)問題以可能性的形式提出時,GPT 模型能夠正確識別并選擇最可能的解釋。
同時,他們也通過后續(xù)實(shí)驗(yàn)揭示了 LLaMA2-70B 的優(yōu)越性可能是由于其對無知的偏見,而不是真正的推理能力。
此外,他們還指出了未來研究的方向,包括進(jìn)一步探索 GPT 模型在實(shí)時人機(jī)交互中的表現(xiàn),以及這些模型的決策行為如何影響人類的社會認(rèn)知。
他們提醒道,盡管 LLM 在心智理論任務(wù)上的表現(xiàn)堪比人類,但并不意味著它們具有人類般的能力,也代表它們能掌握心智理論。
盡管如此,他們也表示,這些結(jié)果是未來研究的重要基礎(chǔ),并建議進(jìn)一步研究 LLM 在心理推斷上的表現(xiàn)會如何影響個體在人機(jī)交互中的認(rèn)知。
論文鏈接:
https://www.nature.com/articles/s41562-024-01882-z