12月16日,在由復旦大學主辦的“2023科技倫理高峰論壇”上,多所高校的學者圍繞數(shù)字技術時代,中國科技倫理的理論與實踐問題進行探討。
AI“價值對齊”可能嗎?
如何將人類的規(guī)范、道德、價值接入AI系統(tǒng)?是否能實現(xiàn)人工智能與人類的價值對齊?中國科學院大學教授、中國科學院科技戰(zhàn)略咨詢研究院研究員李真真在論壇上表示,AI的“價值對齊”可理解為使人工智能的價值體系和人類的價值觀相一致。
近年來,人們一直十分關注人工智能的價值對齊問題與人機倫理關系,尤其是生成式AI的出現(xiàn),再次喚起人類對人機倫理關系的關注。
目前,許多將“價值對齊”概念納入AI大模型的研發(fā)實踐,也表現(xiàn)出將AI置于人類可控范圍內的價值目標,但實施價值對齊仍然面臨很大的挑戰(zhàn)。有學者認為,AI的價值對齊是一種AI的社會化進程,就像一個人類兒童成長的過程,AI也要學習并遵守社會價值規(guī)范。
李真真認為,這種說法“非常有吸引力”但現(xiàn)階段做不到,因為AI和人類的思維方式并不相同,它只是模仿了人類的理性思維方式而不具有感性思維。人類文明的開化始于愛,得益于情感、意志、情緒和經(jīng)驗等方面的自然交互,而目前,在擁有自身的自由意志之前,AI并不具有這些屬性。
李真真還提到,要實現(xiàn)AI價值對齊需要具備兩個前提條件。一是在人機關系中,人要處于主導地位,因為人類受到法律和道德的約束。然而,道德實際上是最大公約化的價值共識,它的本質是“空洞”的,具象化的道德依據(jù)個體差異而不同。如何給智能機器進行道德編碼,這還需要技術人員與社科學者的進一步探索。其次,要明確人類對AI的需求與目標,明確是要設計通用型AGI還是解決特定問題的AI系統(tǒng),這也是一種規(guī)避大規(guī)模風險的方式。
當人類忽略螞蟻的時候,超級智能為什么要聽人類的?
“現(xiàn)在人工智能的實存風險是什么?在我看來,當人工智能進入社會的時候,它會以一種非常不合適的方式在誤導公眾?!北辉u為“全球百大AI人物”之一的中國科學院自動化研究所研究員、人工智能倫理與治理中心主任曾毅表示。
曾毅說,當我們在問生成式AI“你對某某問題怎么看”的時候,它所回復的“我認為/我建議/我覺得”只是依據(jù)統(tǒng)計到的信息的顯著性做出的呈現(xiàn)。有的公眾就會認為,AI的回復就像一個“朋友”,像一位“長者”,但它本身并非一個道德的主體,更不是一個負責任的主體,迄今為止沒有任何一個AI能夠負責任,目前階段一定是人在為人工智能負責任。作為人工智能的工作者,應當做到技術上不要誤導公眾。
曾毅回憶起大一上人工智能課程時,老師給他們放的斯皮爾伯格《人工智能》影片里的一句臺詞:“如果機器人真的能愛一個人,這個人對機器人又該負有什么責任?” 如果影片成為現(xiàn)實,在人工智能演化成“超級智能”的時代,我們應該怎么和超級智能共處?
曾毅提出一個有趣的類比。當我們在網(wǎng)上搜索“人與螞蟻的關系”時,800條搜索結果中,799條在講的是世界各地的人用不同的方式吃螞蟻,只有一條講到“螞蟻的合作范式是人類合作范式的典范”。
“當人類忽略螞蟻的時候,超級智能為什么要聽人類的?”曾毅說,“如果我是超級智能,我會問人類,當你都不尊重其他生命的存在的時候,我作為一個認知能力全面超越你的智能體,為什么要尊重你的存在?”
曾毅認為,未來我們并非要將人工智能與人類進行價值對齊(alignment),而是一種價值協(xié)調(coordination)。面對超級智能,人類社會的價值觀需要調整和演化,“我們要從人類中心主義變成生態(tài)中心主義(ecology centrism),這是必須做出的變化?!?/p>