如今,人工智能(AI)發(fā)展勢頭迅猛,AI 代理(Agent)正逐漸成為業(yè)內(nèi)的研究重點。
作為一個智能體,AI 代理能夠感知環(huán)境,并通過自己的決策和行動來改變環(huán)境,進而通過學(xué)習(xí)和適應(yīng)能力來提高自身性能。
那么,能夠獨立做出決策的 AI 代理,是否需要負法律責任?在法律中又該如何被定義?
近日,一項發(fā)表在權(quán)威科學(xué)期刊 Science 上的研究論文給出了一種可能的回答。
美國范德比爾特大學(xué)法學(xué)教授 Daniel Gervais 和斯坦福大學(xué) CodeX 研究院、Nomos AI 創(chuàng)始人兼首席執(zhí)行官 John Nay 聯(lián)合發(fā)表論文表示:
AI 已經(jīng)發(fā)展到可以作為一個擁有權(quán)利和義務(wù)的法律主體。因此,在問題變得復(fù)雜之前,我們需要制定一個“跨物種”的法律框架,將 AI 作為法律主體來對待。
另外,他們還強調(diào)了“零成員有限責任公司”的想法,以及訓(xùn)練一個大型語言模型(LLMs)來監(jiān)管 AI 代理或是將 AI 系統(tǒng)轉(zhuǎn)化為守法的系統(tǒng)。
相關(guān)研究論文以“Artificial intelligence and interspecific law”為題,已發(fā)表在 Science 上。
AI操控“零成員有限責任公司”
到目前為止,法律體系一直是單一的,它只允許人類來設(shè)計和使用它。在法律體系中,非人類法律主體(如動物)必須通過人類來實現(xiàn)它們的權(quán)利,而這些主體只是用來處理人類利益和義務(wù)的工具。
然而,將 AI 納入法律體系與其說是為了界定和保護這些非人類主體的權(quán)利和責任,不如說是為了解決與之相關(guān)的人類利益和義務(wù)問題。
《布萊克法律詞典》(Black’s Law Dictionary)將法人公司稱為“artificial persons”。在美國,一些司法管轄區(qū)的法律并不總是明確要求法人公司的最高管理層由人類擔任。
美國《統(tǒng)一有限責任公司法》(ULLCA)中提到的“零成員有限責任公司”似乎并不陌生。雖然該條款明確說明,沒有成員將導(dǎo)致有限責任公司解散,但 ULLCA 并沒有強制執(zhí)行這一規(guī)定。
即使只有一個美國州允許“零成員有限責任公司”存在,根據(jù)所謂的“內(nèi)部事務(wù)原則”,這一實體仍可在全國范圍內(nèi)開展業(yè)務(wù)。根據(jù)這一原則,法院將依據(jù)成立州的法律來制定管理法人實體內(nèi)部事務(wù)的規(guī)則。
如果存在這樣一個由 AI 操作的“零成員有限責任公司”,法律將有哪些選擇呢?法律無法輕松地將法律后果附加到 AI 的自主行為上(盡管這里的“自主”可能會受到限制)。法律可能會將責任歸咎于啟動有限責任公司的人類,但這可能需要一個新的法律工具,因為通常情況下,人們不會對他們創(chuàng)建或控制的法人實體的行為承擔責任。
此外,不排除 AI 本身可能會提出創(chuàng)建一家新的有限責任公司的申請。法院仍將擁有用于規(guī)范法人實體責任的一系列工具,包括賠償、財產(chǎn)查封和解散等等。法院可以發(fā)布各種命令,如禁令,但 AI 將決定是否遵守這些命令。
此外,論文作者還提出了另一種可能:在所有司法管轄區(qū)中將“零成員有限責任公司”定為非法,但這將需要全球范圍內(nèi)的廣泛立法努力,并可能與促進科技產(chǎn)業(yè)的發(fā)展相抵觸。因此,出現(xiàn)“零成員有限責任公司”的現(xiàn)象應(yīng)該催使法律體系適應(yīng)自主 AI 代理的實現(xiàn)。
讓 AI 以有限責任公司或其他法律主體的形式運營,具有明確定義的法律主體身份,會帶來兩個主要好處:首先,它將 AI 確立為可以在法律訴訟中追究賠償損害的法律實體,為受損害的當事人提供了明確的法律訴求目標;其次,這為機器學(xué)習(xí)研究人員提供了更明晰的研究方向。
構(gòu)建合法的“良知”AI
在當前的范式中,似乎有一種路徑可以將遵循法律的行為嵌入到由 LLMs 驅(qū)動的 AI 代理中。例如,人們可以訓(xùn)練一個 LLMs,用于監(jiān)視和/或影響主要的 AI 代理,并且可以用作獎勵模型。
然而,需要明確的是,許多涉及人類代理的情況最終需要人類對該情境中的合法性做出裁定;這不會因為有 AI 代理而改變。
除了提出的規(guī)范性主張,對于未來幾年即將出現(xiàn)的高級 AI,關(guān)鍵在于將其納入我們的法律體系,以便我們可以監(jiān)測其行為、分配責任、采取必要的防護措施,并引導(dǎo) AI 研究朝著構(gòu)建合法的人工“良知”的方向前進。
在數(shù)字智能迅猛發(fā)展的背景下,關(guān)注積極主動的自動犯罪預(yù)防至關(guān)重要。然而,鑒于不可避免的情況,當 AI 系統(tǒng)無法達到理想行為時,相關(guān)公司應(yīng)當負責向能夠向法院證明受到損害的個人支付賠償金。為實現(xiàn)這一目標,可以拓展需要保持最低商業(yè)責任保險政策的范圍。
跨物種法律的興起是不可避免的,但很難預(yù)測我們將在這一法律光譜的哪一端結(jié)束。一方面,跨物種法律可能涉及修改公司法以適應(yīng)部分受人類控制的公司實體的運作方式。另一方面,跨物種法律也可能意味著在日常與自主、智能實體的互動中,需要調(diào)整法律體系。
論文鏈接:
www.science.org/doi/10.1126/science.adi8678