版權(quán)歸原作者所有,如有侵權(quán),請(qǐng)聯(lián)系我們

靈魂拷問(wèn):人類如何讓機(jī)器人“守道德”?

科普江蘇
原創(chuàng)
傳播科學(xué)知識(shí),弘揚(yáng)科學(xué)精神
收藏

隨著人工智能(AI)技術(shù)突飛猛進(jìn)的發(fā)展,現(xiàn)在許多無(wú)須人工操控的自動(dòng)化系統(tǒng)如雨后春筍般出現(xiàn),大大豐富和改善了人們的物質(zhì)文化生活。當(dāng)然,這項(xiàng)技術(shù)也不可避免地會(huì)進(jìn)入軍事領(lǐng)域,催生多種自動(dòng)化武器裝備,如無(wú)人駕駛的飛機(jī)、艦艇、戰(zhàn)車以及人形超級(jí)智能作戰(zhàn)機(jī)器人等。這些武器裝備在激活后無(wú)須人類干預(yù),即可自動(dòng)選擇目標(biāo)和采取行動(dòng),這就不能不引起人們的憂慮——它們會(huì)不分青紅皂白地濫殺無(wú)辜,從而改變戰(zhàn)爭(zhēng)的性質(zhì),使人類遭受重大傷害。

于是,一個(gè)問(wèn)題出現(xiàn)了:有沒(méi)有辦法讓機(jī)器人恪守人類道德?

“殺人機(jī)器人”引出的爭(zhēng)論

美國(guó)是最早開(kāi)始研發(fā)和使用這種自動(dòng)化武器(俗稱“殺人機(jī)器人”)的國(guó)家,英、日、德、俄、韓和以色列等國(guó)家緊隨其后,也相繼研發(fā)出各自的系統(tǒng)。其中數(shù)量最多的,是美國(guó)的無(wú)人機(jī)。

以色列的“哈比”無(wú)人機(jī)

據(jù)悉,美軍現(xiàn)有各種無(wú)人機(jī)7 000 架,其型號(hào)涵蓋了從手掌大小的微型機(jī)到翼展超過(guò)波音737的“全球鷹”巨型機(jī),它們普遍配有攝像頭和圖像處理器,可以在沒(méi)有任何通信和控制系統(tǒng)的情況下被派去摧毀目標(biāo)。據(jù)報(bào)道,美軍曾在阿富汗大量使用無(wú)人機(jī),造成許多無(wú)辜者傷亡。

美國(guó)的大型無(wú)人偵察機(jī)RQ-4“全球鷹”

2020 年3 月,在利比亞內(nèi)戰(zhàn)的戰(zhàn)場(chǎng)上,一架土耳其生產(chǎn)的自殺型無(wú)人機(jī)甚至在完全自主模式下,攻擊了一名參戰(zhàn)士兵。聯(lián)合國(guó)安理會(huì)發(fā)布的相關(guān)報(bào)告震撼了國(guó)際輿論,更引發(fā)了深刻的道德和法律爭(zhēng)論。支持者認(rèn)為,戰(zhàn)場(chǎng)機(jī)器人如果使用得當(dāng),可以有效降低士兵的傷亡率,挽救生命。但科學(xué)界的普遍看法是,戰(zhàn)場(chǎng)機(jī)器人是一種威脅,這不單單是指它具有自主能力,而是指它掌握著生殺大權(quán)。為此,聯(lián)合國(guó)發(fā)文呼吁,“殺人機(jī)器人”的問(wèn)世,動(dòng)搖了關(guān)于戰(zhàn)爭(zhēng)行為的國(guó)際公約,必須“凍結(jié)”相關(guān)技術(shù)的研發(fā),最終目標(biāo)是永久性地禁止這種武器的使用,不能把生殺大權(quán)交給一個(gè)機(jī)器人。

一項(xiàng)有趣的試驗(yàn)

聯(lián)合國(guó)這么呼吁的理由是:機(jī)器人無(wú)法對(duì)自己的行為負(fù)責(zé)——它可以判斷對(duì)方是人還是機(jī)器,但是要識(shí)別對(duì)方是士兵還是平民,幾乎不可能。士兵可以用常識(shí)判斷眼前的女子是懷孕還是身藏炸藥,機(jī)器人恐怕不大可能。如果恐怖分子利用“殺人機(jī)器人”取代自殺式襲擊,就如同打開(kāi)了現(xiàn)代“潘多拉魔盒”,后果不堪設(shè)想。

那么,有沒(méi)有辦法通過(guò)程序設(shè)計(jì),讓機(jī)器人具有“道德觀念”和“法律意識(shí)”,做一個(gè)具有仁愛(ài)之心的“好人”呢?或者說(shuō),是否可以將機(jī)器人的所作所為限定在一個(gè)合法的范疇之內(nèi)呢?

這是一個(gè)饒有興味的問(wèn)題,激發(fā)了一批頂尖科學(xué)家的靈感,并有一些人進(jìn)行了實(shí)際試驗(yàn)。例如,英國(guó)布里斯托機(jī)器人實(shí)驗(yàn)室的艾倫·溫菲爾德及其同事,為機(jī)器人設(shè)計(jì)了這樣一個(gè)程序:阻止其他擬人機(jī)器人掉進(jìn)洞里。這是根據(jù)美國(guó)著名科幻作家艾薩克·阿西莫夫提出的“機(jī)器人三定律”設(shè)計(jì)的。

試驗(yàn)一開(kāi)始,機(jī)器人還能順利完成任務(wù):當(dāng)擬人機(jī)器人向洞口移動(dòng)時(shí),機(jī)器人會(huì)沖上去將其推開(kāi),防止其掉進(jìn)洞里。隨后,研究人員又添加了一個(gè)擬人機(jī)器人,兩個(gè)擬人機(jī)器人同時(shí)向洞口移動(dòng),救人機(jī)器人則要被迫進(jìn)行選擇。有時(shí),它成功地救了其中一“人”,而另一“人”掉進(jìn)了洞里;有幾次,它甚至想兩個(gè)“人”都救。然而,在33 次測(cè)試中,它有14 次因?yàn)樵诰饶囊粋€(gè)的問(wèn)題上不知所措而浪費(fèi)了時(shí)間,以致兩個(gè)“人”都掉進(jìn)了洞里。這項(xiàng)試驗(yàn)公開(kāi)展示后,得到了世人的高度關(guān)注。事后,溫菲爾德說(shuō),雖然根據(jù)設(shè)定的程序,救人機(jī)器人是可以對(duì)他人施救的,但它根本不理解這種行為背后的原因,因而實(shí)際上是一具“道德僵尸”。

隨著機(jī)器人日益融入人們的生活,這類問(wèn)題需要有一個(gè)明確的答案。例如,一輛自動(dòng)駕駛的汽車,某一天或許要在“保證車內(nèi)人員安全”和“給其他駕駛員或行人造成傷害”之間進(jìn)行權(quán)衡。解決這個(gè)問(wèn)題可能非常困難。然而,可喜的是,某些機(jī)器人或許能夠提供一個(gè)初步答案:美國(guó)佐治亞理工學(xué)院的計(jì)算機(jī)專家羅納德·阿金專門為一個(gè)名為“道德監(jiān)督員”的軍事機(jī)器人研發(fā)了一套運(yùn)算法則,在模擬戰(zhàn)斗測(cè)試中,它可以幫助機(jī)器人在戰(zhàn)場(chǎng)上作出明智的抉擇。例如,不得在學(xué)校和醫(yī)院等受保護(hù)目標(biāo)附近開(kāi)槍,要盡量減少人員傷亡。不過(guò),這是相對(duì)簡(jiǎn)單的情形,如果遇到復(fù)雜情況,結(jié)果往往會(huì)大不一樣。看來(lái),要回答機(jī)器人能否作出道德倫理選擇這個(gè)問(wèn)題,不是短時(shí)間內(nèi)能夠做到的,這中間涉及一系列極其尖端復(fù)雜的人工智能技術(shù),要取得實(shí)質(zhì)性進(jìn)展,還有很長(zhǎng)的路要走。

讓機(jī)器人“講道德”的難度

這是人工智能技術(shù)在發(fā)展過(guò)程中遇到的一個(gè)重大問(wèn)題。要正確地回答和解決這個(gè)問(wèn)題,首先要弄清一個(gè)關(guān)鍵:需要掌握道德標(biāo)準(zhǔn)的是人工智能本身,還是人類?

一個(gè)多世紀(jì)前,有人曾發(fā)出警告說(shuō),電力特別是電報(bào)的發(fā)明會(huì)對(duì)人的智力帶來(lái)不利影響,由于人們不停地用電訊傳遞信息而很少有時(shí)間思考,因而將削弱人的思考能力,甚至最終會(huì)導(dǎo)致大腦癱瘓。100 多年后,也有人對(duì)谷歌發(fā)出類似的警告——當(dāng)他們有時(shí)看到社交網(wǎng)絡(luò)充斥著大量廢話后,就誤認(rèn)為上面說(shuō)的“思考能力的弱化”已經(jīng)成為現(xiàn)實(shí)。但是,即便上述情況屬實(shí),而將其原因歸之為電力的發(fā)展,這是不公平的。因?yàn)橐獙?duì)大量廢話負(fù)主要責(zé)任的,顯然不應(yīng)是電力技術(shù),而應(yīng)是作為行為者的人的本性。

如今,人工智能的發(fā)展也面臨著類似情況:人們一方面在高度評(píng)價(jià)它給各行各業(yè)帶來(lái)的無(wú)與倫比的巨大推動(dòng)作用,同時(shí)對(duì)它可能存在的某些弊端又不無(wú)憂慮,“殺人機(jī)器人”的問(wèn)世便是典型案例之一。

人工智能的巨大威力,主要是通過(guò)它那卓越的圖靈識(shí)別模式來(lái)工作的。例如,在新冠肺炎疫情大流行的背景下,它可以識(shí)別出無(wú)癥狀感染者,從而避免疾病的傳播;它可以通過(guò)皮毛上的斑點(diǎn)來(lái)識(shí)別和分類瀕危動(dòng)物,有利于對(duì)其進(jìn)行監(jiān)控,從而降低物種滅絕的風(fēng)險(xiǎn);它還能識(shí)別出古代文字的痕跡并確定作者數(shù)量;它甚至能通過(guò)智能算法判斷出考場(chǎng)中的異常行為,將作弊者識(shí)別出來(lái)……

但是,盡管如此,人工智能技術(shù)并非萬(wàn)能的,當(dāng)它的發(fā)展逐漸接觸到人類的意識(shí)、情感、意志和道德層面的問(wèn)題時(shí),便會(huì)相形見(jiàn)絀,有時(shí)甚至完全無(wú)能為力。這是因?yàn)椋瑧?zhàn)爭(zhēng)法則已有數(shù)千年的歷史,人類往往會(huì)受到情感等因素的影響而打破規(guī)矩,機(jī)器人則不會(huì)。這種情況已成為與哲學(xué)和倫理學(xué)有關(guān)的一部分了。因此,要解決人工智能中的道德倫理問(wèn)題,不能單純從技術(shù)角度著眼,必須考慮哲學(xué)、倫理學(xué)的因素,這就不可避免地會(huì)增加解決問(wèn)題的難度。

怎樣讓機(jī)器人恪守人類道德

這種難度主要可歸納為兩個(gè)方面:其一,難以處理一些抽象概念,例如“造成傷害”的概念。殺人顯然是一種傷害,但是接種疫苗也會(huì)引起疼痛,個(gè)別的甚至?xí)斐伤劳觯敲?,達(dá)到何種程度才能界定為“傷害”呢?其二,來(lái)自對(duì)可能傷害的評(píng)估,以及必須避免對(duì)人類造成傷害。如果一個(gè)智能系統(tǒng)遇到兩個(gè)具有相同傷害可能性的目標(biāo)就無(wú)所適從,不知道該把目標(biāo)鎖定在哪個(gè)身上,就不能被認(rèn)為是一個(gè)成熟的系統(tǒng)。

盡管這一問(wèn)題解決起來(lái)難度很大,甚至被認(rèn)為“根本無(wú)法解決”,但是科學(xué)家并未因此放緩探索未知、攻堅(jiān)克難的步伐。圍繞著怎樣讓機(jī)器人恪守人類道德這一目標(biāo),他們費(fèi)盡心思,提出了許多思路、建議和方案,其中有些已經(jīng)在進(jìn)行試驗(yàn),概括起來(lái)就是:

第一,參照科幻大師艾薩克·阿西莫夫提出的“機(jī)器人三定律”,嚴(yán)格限定智能機(jī)器人不能傷害人類,不能因不作為而使人類遭受傷害;如有違反,相關(guān)的研發(fā)人員或機(jī)構(gòu)將會(huì)受到懲罰。

第二,采取訴諸多數(shù)的觀點(diǎn)。一般而言,大多數(shù)人的利益往往能決定什么是對(duì)的、什么是錯(cuò)的。例如,假設(shè)在涉及行人、立即發(fā)生且不可逆轉(zhuǎn)的事故時(shí),我們必須決定自動(dòng)駕駛車輛應(yīng)該做什么:到底是救乘員還是救行人?美國(guó)曾用一種道德機(jī)器來(lái)分析這些可能的決定,結(jié)論是如果一種行為能為最大數(shù)量的人帶來(lái)最大的幸福度,那它就是一件值得做的好事。在這里,幸福度是一個(gè)主要的預(yù)期目標(biāo)。

第三,在未來(lái)的戰(zhàn)場(chǎng)上,真正的困境出現(xiàn)在面對(duì)未來(lái)士兵的時(shí)候。要想讓未來(lái)士兵具有戰(zhàn)斗力,他們必須在可感知的威脅消滅他們之前把威脅消滅掉。這可以通過(guò)編程的方式,讓機(jī)器人遵守一些“道德規(guī)則”來(lái)實(shí)現(xiàn),尤其是涉及戰(zhàn)斗環(huán)境中的士兵時(shí)。但指揮員可能會(huì)發(fā)現(xiàn),如果為機(jī)器人內(nèi)置的“道德”限制將會(huì)危及本部隊(duì)?wèi)?zhàn)斗人員時(shí),這種編程就會(huì)干擾任務(wù)的遂行。例如,人工智能系統(tǒng)會(huì)鎖死士兵的槍,以防止平民被殺,而這個(gè)平民其實(shí)是對(duì)方的戰(zhàn)斗人員或恐怖分子。從這個(gè)角度講,在城市恐怖事件中,似乎永遠(yuǎn)也不可能弄清楚誰(shuí)是平民、誰(shuí)不是。因此,這里的編程就是一項(xiàng)極其復(fù)雜的技術(shù),需要各方面的頂尖專家集思廣益、通力合作,才有可能取得突破。

綜上所述,能否讓機(jī)器人受道德約束是一個(gè)大目標(biāo),實(shí)現(xiàn)這個(gè)目標(biāo)的根本途徑不是如何使人工智能技術(shù)符合道德規(guī)范,而是人類在研發(fā)和使用人工智能時(shí)要遵守道德規(guī)范。如果說(shuō)有道德的機(jī)器人目前還是一個(gè)神話,那么,有道德的人卻完全不是。因此,完全有可能和絕對(duì)有必要敦促全世界的科學(xué)家、軍事指揮員采取有道德的行動(dòng),即只有在自身安全受到傷害的必要情況下才動(dòng)用自動(dòng)化武器。在這方面。人類是可以大有作為的。正如人工智能之父阿蘭·麥席森·圖靈所言:“我們的目光所及,只能在不遠(yuǎn)的前方,但是可以看到那里有大量需要去做的工作?!币虼?,前景是光明的。

美國(guó)的“密集陣”自動(dòng)武器系統(tǒng)

文/王瑞良

內(nèi)容資源由項(xiàng)目單位提供

評(píng)論
坦 蕩 蕩
少師級(jí)
隨著人工智能(AI)技術(shù)突飛猛進(jìn)的發(fā)展,大大豐富和改善了人們的物質(zhì)文化生活。發(fā)展的同時(shí)安全問(wèn)題也不可忽視。
2023-09-17
演繹無(wú)限精彩
大學(xué)士級(jí)
與機(jī)器相處和諧度,應(yīng)是人類開(kāi)發(fā)利用人工智能的重要標(biāo)尺。畢竟,人工智能的應(yīng)用,不僅僅是一場(chǎng)科技創(chuàng)新,也可能是影響深遠(yuǎn)的社會(huì)倫理試驗(yàn)。
2023-09-17
演繹無(wú)限精彩
大學(xué)士級(jí)
科技快速發(fā)展的時(shí)代,機(jī)器人的道德觀念與倫理標(biāo)準(zhǔn)已成為人們不得不面對(duì)的問(wèn)題。隨著機(jī)器人日益融入人們的生活,這一問(wèn)題更加需要明確的答案。
2023-09-17