版權歸原作者所有,如有侵權,請聯(lián)系我們

Science最新封面:陰謀論的“兔子洞” 被AI大模型粉碎了

學術頭條
原創(chuàng)
一起見證人類探索征途上的每一個重大突破。
收藏

“陰謀論的兔子洞,一旦掉進便很難再出來?”

在信息時代,毫無根據(jù)的陰謀論如同病毒般在全球范圍內(nèi)傳播,對社會信任、科學普及以及個人心理健康造成了嚴重危害。數(shù)據(jù)顯示,美國有超過 50% 的人口相信某種形式的陰謀論。

盡管學者們試圖通過揭露邏輯謬誤和普及科學知識等方式揭穿陰謀論,但這些干預措施缺乏互動性和針對性,大多無效。

如今,人工智能(AI)在破除陰謀論方面取得了新突破,開始大展拳腳——

由 AI 驅(qū)動的聊天機器人可以將陰謀論信眾(即使是那些最頑固的人)的錯誤信念平均減少 20%,且效果至少可以持續(xù) 2 個月,并在各種不相關的陰謀論以及不同的人口統(tǒng)計類別中都有效。

這一成果來自美國麻省理工學院和康奈爾大學聯(lián)合研究團隊,他們通過提出一種利用 AI 聊天機器人來對抗虛假信息的新方法,試圖打破 “陰謀論信仰根深蒂固且無法改變” 這一觀念。

他們探討了 GPT-4 Turbo 等大語言模型(LLMs)是否能利用其強大的信息獲取能力,并通過使用定制的對話反駁,來直接回應陰謀論信眾提出的具體證據(jù),從而有效地揭穿陰謀論。

研究結果表明,LLMs 能夠應對大量虛假信息的“攻擊”,并提供大量反證據(jù),相較于人類難以處理的信息洪流,LLMs 或許可以無限期針對錯誤信息生成反駁。

相關研究論文以 “Durably Reducing Conspiracy Beliefs Through Dialogues with AI” 為題,以封面文章的形式發(fā)表在科學期刊 Science 上。

圖片

在一篇相關的前瞻性(perspective)文章中,Bence Bago 和 Jean-Fran?ois Bonnefon 寫道,“無論好壞,AI 都將深刻改變我們的文化。這項研究展示了生成式 AI 說服能力的潛在積極應用。”

AI 成功粉碎陰謀論

在維基百科上,有關陰謀論(Conspiracy theory)的解釋是,“在其他解釋更有可能的情況下,將事件或現(xiàn)實情況解釋成邪惡而又強力的集團在背后密謀的理論”。

這些理論一般由于缺乏更多可靠的證據(jù)而不可證偽,并且在邏輯上可能是自洽的,因此可能有相當多的信眾。

信眾的陰謀論信念的形成受到多種心理機制的影響,盡管其荒謬性非常明顯,但出于對復雜世界的簡單化需求,以及對某些事件的不確定性的反應,想要說服他們基于事實放棄毫無根據(jù)的信仰,而非從根本上改變他們的潛在心理和身份承諾,幾乎不太可能。

為此,研究團隊利用 LLMs 可以訪問海量信息、與用戶進行實時個性化交互的特點,探討了是否可以用足夠令人信服的證據(jù)來說服人們走出陰謀的“兔子洞”。

他們首先提出假設,基于事實、糾正性信息的干預措施可能看起來無效,僅僅是因為它們?nèi)狈ψ銐虻纳疃群蛡€性化。他們基于 GPT-4 Turbo 設計了一系列實驗,招募了 2190 名陰謀論信眾作為參與者,測試 LLMs 是否能通過個性化對話有效打擊陰謀論。

圖片

圖|人類參與者與 LLMs 的對話設計和流程。(來源:該論文)

首先,研究團隊選擇了 774 名參與者,在讓他們描述自己所信奉的陰謀論和理由后,將他們分為干預組和對照組,分別與 LLMs 進行對話。

干預組與 LLMs 進行對話時,會進行多次個性化互動,分享他們的觀點和所謂的“證據(jù)”,LLMs 則根據(jù)這些證據(jù)提供有針對性的反駁;而對照組的參與者與 LLMs 系統(tǒng)則就陰謀論無關的話題展開對話。

圖片

圖|與 LLMs 對話可以持久地降低陰謀論信念,即使是在堅定的信眾中。(左)按研究 1 的條件(紅色:LLMs 試圖反駁陰謀論;藍色:與 LLMs 討論無關話題)和時間點劃分的人類參與者陰謀論的平均信念。(來源:該論文)

結果顯示,即使是對陰謀論深信不疑的參與者,通過 LLMs 的推理和證據(jù)也愿意改變信念,這進一步強調(diào)了理性思考在修正錯誤信念中的作用;與 LLMs 對話不僅能影響具體的陰謀論,還能對其他不相關的陰謀理論產(chǎn)生額外效應。

而且,LLMs 反駁陰謀論的準確性極高,經(jīng)過專業(yè)事實核查員評估,99.2% 的反駁內(nèi)容被認為是真實的,只有 0.8% 具有誤導性,且沒有任何虛假信息或明顯的偏見。

此外,通過不斷地修正問卷措辭,研究團隊在兩輪實驗中驗證了這一結果的魯棒性。

該研究的創(chuàng)新之處在于:

實時交互:與傳統(tǒng)的靜態(tài)信息不同,這一研究利用 LLMs 設計實時對話實驗,個性化地反駁參與者提出的陰謀論信念,這種互動方式能夠及時回應人類參與者的疑問和反駁,提高干預的有效性;

個性化對話:LLMs 根據(jù)參與者的具體信念生成定制化的反駁內(nèi)容,使得干預更加有針對性和說服力;

直接反駁:LLMs 不僅提供事實信息,還會針對參與者引用的虛假證據(jù)立即提供真實數(shù)據(jù)并解釋其來源和可靠性。然而,必須警惕****的是,LLMs 可能會被用于推廣虛假信念,因此需要負責任的使用和適當?shù)南拗?/strong>。

當然,這一研究也具有一定的局限性。例如,研究樣本主要來自美國在線參與者,未來應測試其他文化和背景的陰謀論信眾。

而且,這一研究只使用了 GPT-4 Turbo 模型,尚不清楚其他模型的表現(xiàn)如何。

再者,盡管 LLMs 在改變信仰方面表現(xiàn)出色,但具體的認知機制仍不明確,未來仍需進一步探討 LLMs 如何通過對話影響信念的變化。

科學事實是最有力的反證據(jù)

此外,世界經(jīng)濟論壇在《2024年全球風險報告》中,將 AI 放大虛假信息列為全球最嚴重風險之一。在此情況下,AI 的潛在積極影響顯得尤為重要。

以上結果表明,LLMs 等 AI 模型不僅能夠有效地減少人們對特定陰謀論的信念,還具有改變深層次信念的巨大潛力。

然而,正如 Bence Bago 等人在前瞻性文章中指出,這一 AI 對話方法可能只適用于經(jīng)過充分論述的陰謀信仰,對于沒有合理依據(jù)的錯誤信仰,AI 的有效性可能會有所下降。

他們進一步指出,AI 對話干預措施的可擴展性是一種理想狀態(tài),它不僅能夠適用于陰謀論,還涵蓋偽科學、健康神話、氣候懷疑主義等領域。然而,這些類型的錯誤信念是否與陰謀論具有相同的糾正難度,仍有待進一步研究。

他們建議,未來的研究應探討這種 AI 對話需要持續(xù)多久、多久進行一次才能確保其有效性。

此外,陰謀論信眾可能不會信任任何科學機構,如何說服他們與 AI 進行互動仍是一個巨大挑戰(zhàn)。

從另一角度來看,一種個性化方法或許可以發(fā)揮作用,由于陰謀論信眾的親友往往急于粉碎錯誤信仰,或許可以通過鼓勵親友來引導信眾參與和 AI 的對話。

圖片

Science 雜志主編 H. Holden Thorp 在一篇 focus 文章中指出:“LLMs 可能是對抗陰謀信仰的有效工具,這可能看起來有點諷刺,因為 LLM 以編造虛假事實而聞名。但在與陰謀論信眾的交談中,它們卻能有效地減少信念?!?/p>

該研究論文的作者之一 David Rand 也表示:“我們的證據(jù)表明,真正起作用的確實是反證據(jù)和非陰謀解釋。”

Thorp 進一步提出了一個問題:“這是否與 LLMs 的中立性、缺少人類對話中的情緒化反應有關?但目前的研究尚未給出有力的證據(jù)來支持這一觀點?!?/p>

這些結果表明,當大量反證據(jù)變得至關重要時,減少科學錯誤信息的努力可能不應過度強調(diào)信息的傳遞者,而應聚焦于提供足夠的對立證據(jù)。

H. Holden Thorp 談道:令人困惑的是,盡管陰謀論盛行,但公眾對科學家的信任度仍然很高。也許,正是這種對科學家的堅定信任,使得 LLMs 在提供反證據(jù)時如此有效。

盡管機器可能比人類更擅長反駁錯誤信息,但最終讓人們信服的依然是科學事實。因此,科學家們有責任證明 AI 的未來潛力。

作者:田小婷 編審:學術君

評論
內(nèi)蒙古趙華
庶吉士級
大語言模型強調(diào)了生成式AI在負責任地使用時可能產(chǎn)生的積極影響,最大限度地減少不負責任地使用這項技術的緊迫性??偟膩碚f,這是一個非常新穎且可能重要的發(fā)現(xiàn),也是AI如何被用來打擊錯誤信息的一個很好的例證!
2024-09-17
向陽花葵
少傅級
未來的研究應探討這種 AI 對話需要持續(xù)多久、多久進行一次才能確保其有效性。
2024-09-17
卜和彥
大學士級
這些結果表明,當大量反證據(jù)變得至關重要時,減少科學錯誤信息的努力可能不應過度強調(diào)信息的傳遞者,而應聚焦于提供足夠的對立證據(jù)。盡管機器可能比人類更擅長反駁錯誤信息,但最終讓人們信服的依然是科學事實。因此,科學家們有責任證明 AI 的未來潛力!
2024-09-17