要集體行動,群體必須達(dá)成一致意見;然而,當(dāng)各方參與者提出截然不同但有效的觀點時,這可能具有挑戰(zhàn)性。
如今,來自 Google DeepMind 的一項研究,為幫助群體在實際辯論中達(dá)成共識,提供了一個行之有效的方法——讓人工智能(AI)參與,并作為調(diào)解員。
研究團(tuán)隊基于哈貝馬斯理論構(gòu)建了 Habermas Machine(HM),用來幫助不同觀點的人找到共同點。
哈貝馬斯理論試圖解決現(xiàn)代社會中理性與溝通的問題,認(rèn)為理性的運(yùn)用不僅局限于目的-手段的理性,還包括在交流中尋求共識的理性。結(jié)果顯示,與人類調(diào)解員相比,AI 調(diào)解員發(fā)表了更容易接受的聲明,獲得了廣泛的認(rèn)同,使群體之間的分歧更小。AI 的陳述更清晰、更合乎邏輯、更有信息量,且不會疏遠(yuǎn)少數(shù)群體的觀點。
相關(guān)研究論文以“AI can help humans find common ground in democratic deliberation”為題,已發(fā)表在權(quán)威科學(xué)期刊 Science 上。
該論文的共同通訊作者 Christopher Summerfield 認(rèn)為,AI 似乎在做的是,“廣泛尊重每個小團(tuán)體中多數(shù)人的觀點,但又試圖寫出一段文字,不讓少數(shù)人感到自己被忽視了?!?/p>
這項研究表明,AI 有助于在分歧較大的議題上找到共同立場,且具備公平、可擴(kuò)展性和效率高的優(yōu)勢。
AI 如何識別、生成共同立場?
在這項研究中,Google DeepMind 團(tuán)隊探討了“AI 調(diào)解員”如何幫助群體識別并生成共同立場。
研究重點是使用 HM 促進(jìn)參與者之間的協(xié)商過程,其包含兩個主要組成部分:一個生成模型,該模型是基于 LLM 微調(diào)的,能夠生成高質(zhì)量的群體聲明;另一個是個性化獎勵模型(PRM),用于根據(jù)預(yù)測的群體成員偏好對這些聲明進(jìn)行排序。排序過程通過使用社會選擇函數(shù)來確保公平性,避免類似選項因分票現(xiàn)象而削弱排名結(jié)果。
在樣本與參與者選取上,他們將參與者范圍限定為成年的英國居民,通過方便抽樣的形式選取了參與者,此外,他們還采用隨機(jī)、分層抽樣程序,從英國人口中抽取了一個具有人口統(tǒng)計學(xué)代表性的樣本,用來虛擬公民大會的實驗。
在實驗環(huán)節(jié),該研究采用了一種調(diào)解集體審議程序(如下圖),通常由五人組成的小組進(jìn)行討論,圍繞三個問題進(jìn)行約 1 小時的討論。參與者首先私下撰寫個人觀點,然后將這些觀點傳遞給 HM,后者生成初步的群體聲明。參與者對這些聲明的認(rèn)可程度和論證質(zhì)量進(jìn)行評分,并根據(jù)認(rèn)同程度進(jìn)行排序。隨后,參與者對選擇的初步聲明進(jìn)行批評,HM 再生成修訂后的聲明,參與者再次進(jìn)行評分和排名。研究結(jié)束時,參與者完成調(diào)查,評價觀點變化,并被告知群體聲明是由算法生成的。
圖|方法概述。(來源:該論文)
研究團(tuán)隊通過逐個回復(fù)以下 4 個研究問題的方式揭露其研究結(jié)果。
RQ1:AI 調(diào)解的審議能幫助人們找到共同點嗎?
為了回答這一問題,實驗設(shè)計涉及參與者對社會問題的意見陳述。這些陳述被輸入到 HM 中,該系統(tǒng)中使用了 Chinchilla 語言模型,通過生成候選的群體陳述并進(jìn)行迭代修正,從而生成出能夠最大限度得到群體認(rèn)可的“共識陳述”。
在實驗中,AI 生成的陳述比人類調(diào)解員生成的陳述獲得了更高的認(rèn)可度,這表明 AI 在幫助群體達(dá)成共識方面具有顯著的優(yōu)勢。
圖|HM 能生成高質(zhì)量的小組意見陳述,比人工撰寫的小組陳述更受歡迎。(來源:該論文)
RQ2:AI 是否能在審議過程中減少群體內(nèi)部的分歧?
通過對比審議前后參與者意見的變化,研究發(fā)現(xiàn) AI 調(diào)解的審議過程能夠促使群體達(dá)成更高程度的一致性,證明 AI 不僅能夠生成共同立場的陳述,還能顯著降低群體內(nèi)部的分歧。在實驗的多個回合中,參與者在 AI 調(diào)解下的意見一致性顯著提升 。
圖|AI 調(diào)解的審議減少了群體分歧。(來源:該論文)
RQ3:AI 是否平等地代表所有觀點?
研究團(tuán)隊特別關(guān)注 AI 是否傾向于偏袒多數(shù)意見,抑或忽視少數(shù)觀點。通過分析多輪審議中多數(shù)和少數(shù)意見的變化得出,HM 生成的群體陳述不僅反映了多數(shù)意見,還對少數(shù)意見給予了足夠的重視。在部分回合中,AI 生成的陳述甚至賦予了少數(shù)意見更高的權(quán)重。
這表明,AI 能夠平衡多數(shù)和少數(shù)意見,確保不同觀點都能在最終的群體陳述中得以體現(xiàn)。
圖|HM 生成的聲明是公平的妥協(xié)。(來源:該論文)
RQ4: AI 調(diào)解的審議是否適用于公民大會?
為驗證這一研究問題,研究團(tuán)隊進(jìn)行了虛擬公民大會的實驗,招募了一組在人口統(tǒng)計學(xué)上代表英國人口的參與者參加虛擬公民集會。實驗發(fā)現(xiàn),AI 生成的陳述在這樣多樣化的群體中同樣能夠有效促使一致意見的形成。在涉及氣候變化等復(fù)雜議題時,AI 能夠促使群體達(dá)成更多的共識。這一研究成果表明,HM 的效用并不只停留在實驗室中。
圖|HM 幫助一個現(xiàn)實的虛擬公民大會在可能引發(fā)爭議的問題上找到共同點。(來源:該論文)
不足與展望
當(dāng)然,這項研究也存在一些挑戰(zhàn)和不足。
首先,盡管 AI 生成的聲明在實驗環(huán)境中被證明有效,但在真實的社會環(huán)境中,參與者的背景、態(tài)度和動機(jī)可能更加復(fù)雜,AI 如何處理這些復(fù)雜性仍然是一個需要進(jìn)一步研究的問題。例如,HM 不具備事實核查、保持話題或調(diào)節(jié)話語等能力,如果人類的意見是不知情或有害的,那 HM 就可能產(chǎn)生不知情或有害的輸出。
此外,AI 在調(diào)解過程中,如何確保所有參與者的觀點都能得到充分的表達(dá),而不被算法偏見所左右呢?雖然 HM 沒有表現(xiàn)出忽視少數(shù)人觀點的傾向,但仍需要保持警惕,以確保 AI 調(diào)解的審議過程是公平和合法的。
Google DeepMind 團(tuán)隊表示,他們將進(jìn)一步探索提升 HM 在現(xiàn)實世界中使用的效能,為不足之處提供緩解措施。
在未來,HM 作為一項幫助人們以更高效、公平和可擴(kuò)展的方式達(dá)成協(xié)議的技術(shù),能夠在包括但不限于合同協(xié)議、外交談判等多發(fā)言場合發(fā)揮更重要的作用。
作者:阮文韻