關(guān)鍵詞: 人工智能;應用;人類;倫理風險
摘要: 隨著人工智能技術(shù)的迅速發(fā)展,其在多個領(lǐng)域的應用日益廣泛,伴隨而來的倫理問題和風險也引起了全球的廣泛關(guān)注。本文通過文獻綜述、案例分析和比較研究等方法,探討了中國與外國在人工智能應用中面臨的倫理風險及其應對策略。本文首先界定了人工智能倫理風險的概念和分類,隨后分析了國內(nèi)外人工智能應用中的倫理風險現(xiàn)狀,并對比了兩者在倫理風險表現(xiàn)上的異同。在此基礎(chǔ)上,本文提出了針對性的管理對策和建議,旨在為學者、企業(yè)家以及軍事家提供參考和指導,以促進人工智能技術(shù)的健康和可持續(xù)發(fā)展。
引 言
人工智能在國內(nèi)外的發(fā)展有力促進了智能經(jīng)濟、智能社會、軍事智能化的發(fā)展。但人工智能技術(shù)也帶了一些難以避免的問題,如倫理風險問題。黨和國家對科技倫理給予高度的重視。2022年,中共中央辦公廳、國務院辦公廳印發(fā)了《關(guān)于加強科技倫理治理的意見》,該意見指出,科技倫理是開展科學研究、技術(shù)開發(fā)等科技活動需要遵循的價值理念和行為規(guī)范,是促進科技事業(yè)健康發(fā)展的重要保障。2023年,中共中央、國務院印發(fā)了《黨和國家機構(gòu)改革方案》,該方案指出,組建中央科技委員會。國家科技倫理委員會作為中央科技委員會領(lǐng)導下的學術(shù)性、專業(yè)性專家委員會,不再作為國務院議事協(xié)調(diào)機構(gòu)。新時代黨和國家領(lǐng)導人也對人工智能應用倫理風險及治理給予了關(guān)注。2023年10月18日,第三屆“一帶一路”國際合作高峰論壇在北京舉行。中方在高峰論壇期間提出了《全球人工智能治理倡議》,呼吁各國在人工智能治理中加強信息交流和技術(shù)合作,共同做好風險防范,形成具有廣泛共識的人工智能框架和標準規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。
人工智能技術(shù)是典型的軍民兩用技術(shù),對其分析需要兼顧軍事領(lǐng)域和民用領(lǐng)域?,F(xiàn)有的研究對軍民領(lǐng)域進行共同研究的有限,本文從科技倫理的視角嘗試對人工智能技術(shù)的軍事屬性、民用屬性問題進行探究。倫理視角還可以幫助加深對人工智能技術(shù)科學屬性與社會屬性特征的理解。促進我國實現(xiàn)科技自立自強,促進人類命運共同體倡議的實施。
本文旨在深入分析人工智能在中外不同文化和社會背景下的應用倫理風險,并對比其現(xiàn)狀與特點,從而提出有效的管理對策。
1**.**人工智能應用倫理風險的內(nèi)涵
根據(jù)中共中央辦公廳、國務院辦公廳印發(fā)的《關(guān)于加強科技倫理治理的意見》,對科技活動提出的要求是:增進人類福祉,科技活動應堅持以人民為中心的發(fā)展思想,有利于促進經(jīng)濟發(fā)展、社會進步、民生改善和生態(tài)環(huán)境保護;尊重生命權(quán)利??萍蓟顒討畲笙薅缺苊鈱θ说纳踩?、身體健康、精神和心理健康造成傷害或潛在威脅,尊重人格尊嚴和個人隱私,保障科技活動參與者的知情權(quán)和選擇權(quán);堅持公平公正,科技活動應尊重宗教信仰、文化傳統(tǒng)等方面的差異,公平、公正、包容地對待不同社會群體,防止歧視和偏見;合理控制風險,科技活動應客觀評估和審慎對待不確定性和技術(shù)應用的風險,力求規(guī)避、防范可能引發(fā)的風險,危及社會安全、公共安全、生物安全和生態(tài)安全;保持公開透明,科技活動應鼓勵利益相關(guān)方和社會公眾合理參與,建立涉及重大、敏感倫理問題的科技活動披露機制。公布科技活動相關(guān)信息時應提高透明度,做到客觀真實。上述對科技活動提出的倫理要求,本文認為其來源應該是人類社會的基本倫理原則,主要涉及4個方面:人權(quán)倫理、道德倫理、責任倫理、代際倫理。
人工智能的應用倫理指的是人工智能應用倫理風險指的是,人工智能應用以后,對人類倫理產(chǎn)生的消極影響、危害。本文認為,人工智能應用包括民事、軍事兩大類;人工智能應用倫理風險則主要有人權(quán)倫理、道德倫理、責任倫理、代際倫理4種類型。
**2.**中外人工智能民事應用倫理風險分析
**2.**1中外人工智能民事應用概貌
中外人工智能技術(shù)快速發(fā)展、數(shù)據(jù)和算力資源日益豐富,民用人工智能應用場景不斷拓展。民用人工智能應用主要有:
經(jīng)濟領(lǐng)域。中外人工智能已經(jīng)開始塑造高端高效的智能經(jīng)濟,人工智能已經(jīng)應用于制造、農(nóng)業(yè)、物流、金融、商業(yè)、商務、交通運輸?shù)刃袠I(yè),促進了智能經(jīng)濟的高質(zhì)量發(fā)展。制造領(lǐng)域已經(jīng)探索工業(yè)大腦、機器人協(xié)助制造、機器視覺工業(yè)檢測、設(shè)備互聯(lián)管理等;農(nóng)業(yè)領(lǐng)域已經(jīng)探索了農(nóng)機衛(wèi)星導航自動駕駛作業(yè)、農(nóng)業(yè)地理信息引擎、網(wǎng)約農(nóng)機、智能農(nóng)場、無人機植保、農(nóng)業(yè)生產(chǎn)物聯(lián)監(jiān)測、農(nóng)產(chǎn)品質(zhì)量安全管控等;物流領(lǐng)域已經(jīng)探索了機器人分流分揀、物料搬運、智能立體倉儲、商品智能追溯等;金融領(lǐng)域已經(jīng)探索了大數(shù)據(jù)金融風控、企業(yè)智能征信、智能反欺詐等;商業(yè)領(lǐng)域已經(jīng)探索了無人貨柜零售、無人超市、智慧導購等;商務領(lǐng)域已經(jīng)探索了多人在線協(xié)同會議、線上會展等;交通運輸領(lǐng)域已經(jīng)探索了自動駕駛、船舶自主航行、智能配送、智能貨車編隊行駛、港區(qū)智能運輸與作業(yè)、智能道路建設(shè)、智能機場和航道建設(shè)等。
社會領(lǐng)域。中外人工智能參與建設(shè)便捷、安全安全的智能社會。人工智能在城市管理、公共安全、家居、養(yǎng)老、醫(yī)療健康、教育、科研、生態(tài)環(huán)保等領(lǐng)域得到積極應用。城市管理領(lǐng)域已經(jīng)探索了城市大腦、城市物聯(lián)感知、政府數(shù)字采購等;公共安全領(lǐng)域已經(jīng)探索了交通管理大腦、智慧道路、智慧停車、智慧走失人員搜索等;家居領(lǐng)域已經(jīng)探索了家庭智慧互聯(lián)、建筑智能監(jiān)測、家居產(chǎn)品在線設(shè)計、社區(qū)無人配送等;養(yǎng)老領(lǐng)域已經(jīng)探索了老人居家智能監(jiān)測、老人智能可穿戴設(shè)備等;醫(yī)療領(lǐng)域已經(jīng)探索了醫(yī)療影像智能輔助診斷、臨床診療輔助決策支持、醫(yī)用智能機器人、智慧醫(yī)院等;教育領(lǐng)域已經(jīng)探索了個性化學生學習方案制訂、智能機器人教學輔導、數(shù)字校園、虛擬教研室等;結(jié)合新藥創(chuàng)制、基因研究、生物育種研發(fā)、新材料研發(fā)、深空深海等領(lǐng)域,科研領(lǐng)域已經(jīng)探索了智能文獻數(shù)據(jù)獲取、科學實驗預測、智能實驗結(jié)果分析等;生態(tài)環(huán)保領(lǐng)域已經(jīng)探索了環(huán)境智能監(jiān)測、無人機森林消防自主巡檢等。
**2.**2中外人工智能民事應用倫理風險類型
一般而言,在人類社會的長期發(fā)展過程中,人與人之間出現(xiàn)了倫理的概念。倫理是指人與人在交往中形成的人際關(guān)系以及處理這種關(guān)系是所應遵循的準則,是相對固定的準則,以他律性為主要的特征。人類社會的倫理主要有人權(quán)倫理、道德倫理、責任倫理、代際倫理。人工智能民事應用中的失誤、錯誤的出現(xiàn)等會造成危害上述五類倫理的情況,成為人工智能民事應用的倫理風險。相應的,人工智能民事應用倫理風險包括4種類型。
2.2.1****生命倫理風險
2016年5月,美國一輛以自動駕駛的知名品牌家庭乘用車在高速路上發(fā)生事故,造成車毀人亡的嚴重事故,這顯然就侵犯了人的生存權(quán),違反了人類社會的人權(quán)倫理。美國公路交通管理局最終認定,該型汽車設(shè)計上無缺陷,對事故的法律責任問題沒有給出明確結(jié)論。這里的人權(quán)倫理指人類所有的人權(quán),智能科技應該堅持“以人為本”的倫理原則,以避免出現(xiàn)生命倫理風險的發(fā)生。盡管本案例中的管理部門認為產(chǎn)品設(shè)計無問題。但不代表使用者、生產(chǎn)廠商不存在過失以及其他使用過程中可能出現(xiàn)的產(chǎn)品瑕疵問題。
2**.**2.2 道德倫理風險
倫理是人類遵循的社會原則規(guī)范的宏觀領(lǐng)域,而道德是人類遵循的社會原則規(guī)范的微觀領(lǐng)域。美國曾出現(xiàn)過聊天機器人在聊天過程中被用戶惡意引導,口出臟話的情況。這就是人工智能技術(shù)帶來的一種道德倫理風險。道德是人在社會生活中應當遵循的原則和規(guī)范以及將這些外在的原則和規(guī)范內(nèi)化而形成的品質(zhì)、情感和精神境界,以自律性為主要的特征。道德是隨著社會所處的階段乃至文化環(huán)境的不同而有著不同規(guī)范的。對人公平正義是人類社會的倫理要求。如果被訓練的機器人對人辱罵、敵視、這就有違人類社會的公平正義的倫理要求。
2.2.3****責任倫理風險
人類社會中,當人為事故發(fā)生時,需要相應的責任人承擔一定的責任,包括法律責任。隨著無人駕駛技術(shù)的興起,相關(guān)事故的責任問題也得到了廣泛的關(guān)注。相關(guān)國家紛紛立法,為自動駕駛的應用掃除法律障礙。美國對自動駕駛汽車測試事故的責任承擔進行了規(guī)定,車輛的原始制造商不對自動駕駛車輛事故負責,英國擴大了強制機動車保險的范圍,自動駕駛事故受害者可以向汽車保險人申請賠償。
2.2.4****代際倫理風險
人類社會的“代”際間,如父母與子女、祖輩與晚輩,都要遵循一定的原則與規(guī)定。雖然這些原則和規(guī)定因民族而異,但整體而言,都比較注重尊老愛幼的行為習慣,強調(diào)基于血緣聯(lián)系的的家庭文化、家風、信仰、技藝的傳承等。在日本的養(yǎng)老院,特種陪護機器人已經(jīng)得到使用。機器人陪同老人們聊天,為老人們讀書、跳舞,排解老人們孤獨的情緒。這對于老人而言是有益的。但某種程度上,機器人也在代替子女以及晚輩的角色,使得更多老人對特種陪護機器人產(chǎn)生了精神的依賴,這也在某種程度上侵害了人類的代際倫理,對家庭建設(shè)帶來的挑戰(zhàn)。
2.3****中外人工智能民事應用倫理風險對策
生命倫理風險的對策是無人系統(tǒng)的設(shè)計方、生產(chǎn)方在出產(chǎn)前加強安全測試,并采取措施加大對準駕駛員的培訓力度,完善銷售及服務;道德倫理風險的對策是設(shè)計更加符合公平正義倫理原則的算法,對出現(xiàn)違背該原則的無人系統(tǒng)的言行采取強制中止措施或者設(shè)計為無人系統(tǒng)不執(zhí)行模式;責任倫理風險的對策是圍繞人工智能技術(shù)的失誤帶來的事故完善相應的法律,并補充相應的補救措施,如發(fā)揮保險行業(yè)的力量與舉措;代際倫理風險的對策是把陪護機器人的作用限制于輔助性,還是需要鼓勵人們熱愛家庭,關(guān)心愛護家人,鼓勵晚輩積極照顧長輩。即便老人們有特種陪護機器人的陪伴,晚輩的陪伴也是不可替代的,畢竟家人之間的情感是與人對機器的依賴感是有著本質(zhì)區(qū)別的。作為生物的人產(chǎn)生的情感應該是特有的,也應該是人類應該守護和發(fā)展的。機器感情不應該也不能與機器視覺類似,取代人的這一特有的功能,雖然視覺功能可以在某種程度被機器的能力所取代。
作為一種科學技術(shù),人工智能也可以被科學家、工程師們用來維護人類的倫理,防止人類的倫理原則被破壞,穩(wěn)健發(fā)展人工智能勢在必行。2017年9月,“百度安全”的技術(shù)團隊配合公安部門在全國15個省18個地市開展“濾網(wǎng)行動”,在掌握大量證據(jù)的基礎(chǔ)上,幫助破獲了國內(nèi)首例新型侵犯用戶個人隱私的黑色產(chǎn)業(yè)犯罪團伙“手機訪客營銷”,抓獲犯罪分子數(shù)十人。該團伙犯罪分子利用運營商系統(tǒng)漏洞,非法獲取公民手機號,將信息轉(zhuǎn)賣給醫(yī)院、教育培訓、金融機構(gòu)用作所謂“精準營銷”。因此,人們在防范人工智能應用倫理分險的同時,也應該安全可控的大力發(fā)展人工智能。
3**.**中外人工智能軍事應用倫理風險分析
**3.**1中外人工智能軍事應用概貌
恩格斯在《反杜林論》中說,“一旦技術(shù)上的進步可以用于軍事目的并且已經(jīng)用于軍事目的,它們便立刻幾乎強制地,而且往往是違反指揮官的意志而引起作戰(zhàn)方式上的改變甚至變革?!本唧w到人工智能領(lǐng)域,目前,人工智能被認為已具備顛覆未來戰(zhàn)爭形態(tài)的潛能。人工智能首先在民用領(lǐng)域取得了繁榮,并正加快向軍事領(lǐng)域轉(zhuǎn)化的步伐。
3.1.1美國
在全球范圍內(nèi),美國人工智能向軍事領(lǐng)域的轉(zhuǎn)化最為充分,美國主要從總體戰(zhàn)略布局、作戰(zhàn)概念牽引、智能裝備研發(fā)等角度開展了美國軍事智能化建設(shè)。
總體戰(zhàn)略布局。美國從國家和軍隊兩個層面加強對軍事智能化總體戰(zhàn)略布局。國家層面著眼于人工智能總體規(guī)劃,為包括軍隊在內(nèi)的多部門多領(lǐng)域人工智能發(fā)展提供前瞻性引領(lǐng)和政策性支持;軍事層面又包括軍隊總體戰(zhàn)略與各軍種的戰(zhàn)略,其中軍隊的總體戰(zhàn)略由國防部負責制訂,這是軍隊為對國家層面人工智能總體規(guī)劃的的具體落實。各軍種又制訂相應的的戰(zhàn)略和措施。
從國家層面來看,美國政府2016年以來發(fā)布了一系列戰(zhàn)略性文件,直至2021年,完成了完成人工智能戰(zhàn)略部署及政策設(shè)計。這些戰(zhàn)略性文件包括2016年的《為人工智能的未來做好準備》、《美國國家人工智能研究和發(fā)展戰(zhàn)略計劃》、《人工智能、自動化與經(jīng)濟》、《美國人工智能倡議》。這一系列戰(zhàn)略文件指出,人工智能將在提升社會福祉、改進政府執(zhí)政水平等方面發(fā)揮重要作用,但同時也可能產(chǎn)生失業(yè)率增高等負面影響,因而要加強人工智能治理,了解并解決人工智能倫理法律社會影響、確保人工智能安全可靠,開發(fā)用于人工智能培訓及測試的公共數(shù)據(jù)集和環(huán)境,制定標準和基準以測量評估人工智能技術(shù)、了解國家人工智能人力需求。
軍隊的戰(zhàn)略制訂緊跟國家戰(zhàn)略之后,軍隊的戰(zhàn)略分為總體戰(zhàn)略和各軍兵戰(zhàn)略兩個層面。軍隊的總體戰(zhàn)略由美國國防部為主進行制訂。美國國防部從2016年至2022年,先后發(fā)布的文件有《智能化夏季研究報告》《2018年國防部人工智能戰(zhàn)略概要》《人工智能教育戰(zhàn)略》《國防部負責任人工智能戰(zhàn)略和實施路徑》,這些戰(zhàn)略文件指出,國防部必須強化對智能化的作戰(zhàn)牽引,加快推進人工智能軍事化運用,增強美軍全球行動能力、強化美國本土安全防御能力、提高國防部機構(gòu)運行效率等方面的重要價值,并從實踐、合作、人才、安全、機構(gòu)、治理等方面闡明了人工智能發(fā)展戰(zhàn)略。此外,國防部還成立了聯(lián)合人工智能中心,美國國會為該機構(gòu)通過了配套的《軍隊人工智能法案》。美國各軍種也制定了人工智能發(fā)展戰(zhàn)略。如2017年3月,美國陸軍發(fā)布《美國陸軍機器人與自主系統(tǒng)戰(zhàn)略》,提出到2020年采購一部分便攜式機器人和自主系統(tǒng),2021年至2030年發(fā)展先進機器人與自主系統(tǒng)、人機協(xié)作等技術(shù),2031年至2040年替換過時自主系統(tǒng)、裝備新型無人自主系統(tǒng)并將其完全集成到部隊。
作戰(zhàn)概念牽引。在以人工智能為核心的技術(shù)群的支持下,美軍提出一系列具有顛覆意義的新型作戰(zhàn)概念。如:分布式作戰(zhàn)、決策中心戰(zhàn)、馬賽克戰(zhàn)、反無人系統(tǒng)作戰(zhàn)。分布式作戰(zhàn)是指通過分散編成、有人無人協(xié)同的方式,將作戰(zhàn)力量部署于廣闊的地理空間,產(chǎn)生分布式的殺傷能力和信息對抗能力,以達到廣泛控制、靈活行動、提高生存能力等目的;決策中心戰(zhàn)通過智能化手段,使己方更快做出有效決策,形成較之于敵的決策優(yōu)勢,使敵陷入多重決策困境;馬賽克戰(zhàn)將高價值復雜系統(tǒng)離散為一系列低價值無人智能元素,然后通過網(wǎng)絡(luò)信息對諸元素進行重構(gòu)與集成,使之形成一個價值密度較低但整體效能較高的大規(guī)模彈性殺傷網(wǎng);反無人系統(tǒng)作戰(zhàn)在作戰(zhàn)中往往需要應對敵方無人機的威脅。
智能裝備研發(fā)。智能裝備是以人工智能為核心的技術(shù)群在軍事領(lǐng)域的物化成果,美軍主要在智能決策系統(tǒng)、人體增強系統(tǒng)、無人自主系統(tǒng)三個方面進行了研發(fā)。美軍智能決策系統(tǒng)主要包括深綠、阿爾法AI和指揮官虛擬參謀等。阿爾法AI系統(tǒng)由美國一所大學的公司開發(fā)。2016年6月在虛擬空戰(zhàn)環(huán)境中阿爾法AI系統(tǒng)多次擊敗空軍上校吉恩·李。據(jù)悉,在動態(tài)環(huán)境中,阿爾法AI的響應速度是人類的250倍,可同時躲避數(shù)十枚來襲導彈并對多目標進行攻擊,同時還具備協(xié)調(diào)隊友、記錄行動、學習敵人戰(zhàn)術(shù)的能力。美軍人體增強系統(tǒng)主要包括智能頭盔、智能作戰(zhàn)服、智能探測儀等。智能頭盔在原有防護及通信功能的基礎(chǔ)上,通過智能算法、VR/AR、人體增強等新型技術(shù)賦能增效,使作戰(zhàn)人員態(tài)勢感知、目標識別、信息交互能力大幅提升。美國國防高級研究計劃局研制的智能作戰(zhàn)服將單兵載荷在士兵身上合理分布,提高士兵負重能力,減輕士兵關(guān)節(jié)損傷,并且還具備一定的自主治療輔助功能。美軍無人自主系統(tǒng)主要包括無人機、無人潛航器(UUV)、無人水面艇(USV)等,形成較為完善的無人裝備譜系,構(gòu)成美軍新型作戰(zhàn)力量的重要組成部分??傮w戰(zhàn)略、軍事理論、軍事裝備三方的革新,為美軍軍事智能化發(fā)展提供了有力的支持
3.1.2日本
日本的軍事智能化建設(shè)也涉及總體戰(zhàn)略布局、智能裝備研發(fā)、作戰(zhàn)概念牽引和理論創(chuàng)新方面三個方面,但規(guī)模和程度相對美軍還是有限的。
總體戰(zhàn)略布局。日本相繼于2019年、2021年、2022年出臺3版《人工智能戰(zhàn)略》。日本政府還成立人工智能戰(zhàn)略小組,由首相輔佐官村井英樹擔任組長,組員包括內(nèi)閣官房、外務省、數(shù)字廳等部門人工智能政策主管官員。該小組計劃每周召開一次會議,試圖以全政府一體化戰(zhàn)略能力解決人工智能相關(guān)問題。日本政府還召開了人工智能戰(zhàn)略會議,就人工智能相關(guān)政策方向進行探討。日本自衛(wèi)隊則在此戰(zhàn)略指導下制定相關(guān)政策措施。
戰(zhàn)法創(chuàng)新與智能裝備研發(fā)。日本防衛(wèi)省效仿美國國防部,全面推進人工智能在軍事領(lǐng)域的運用。自2020年起,日本自衛(wèi)隊開始利用人工智能技術(shù)實施網(wǎng)絡(luò)攻防行動。據(jù)日媒報道,日本防衛(wèi)省已著手研究利用人工智能技術(shù)在社交網(wǎng)站引導輿論。防衛(wèi)省設(shè)想:首先利用人工智能技術(shù)搜集和分析社交網(wǎng)站上的海量數(shù)據(jù),鎖定具有號召力且在軍事領(lǐng)域具有影響力的網(wǎng)紅,而后將防衛(wèi)省加工的信息發(fā)布到網(wǎng)紅經(jīng)常瀏覽的網(wǎng)站,使其無意識地接受相關(guān)觀點并發(fā)布有利于防衛(wèi)省的信息,最后在社交網(wǎng)站上反復進行信息操縱,使其爆發(fā)式擴散,打造出防衛(wèi)省預期的輿論熱點。此外,防衛(wèi)省還在推動人工智能技術(shù)在無人機偵察巡邏、軍艦維修、可疑船只監(jiān)測等領(lǐng)域的運用。
3.1.3印度
印度的軍事智能化建設(shè)主要包括總體戰(zhàn)略布局、智能裝備研發(fā),由于科技實力、制造能力有限,印度的軍事人工智能還處于裝備研發(fā)探索使用的階段,與裝備應用有關(guān)的作戰(zhàn)理論自主創(chuàng)新方面還很有限。
印度的人工智能總體戰(zhàn)略布局強調(diào)強調(diào)無人系統(tǒng)制造國產(chǎn)化,包括軍事無人系統(tǒng)也要與常規(guī)武器裝備一樣,實現(xiàn)國產(chǎn)化為主。如印度曾經(jīng)宣布一項國防科研計劃,將投入1.6萬億盧比(約合192億美元)支持國防現(xiàn)代化,其中70%留給國內(nèi)產(chǎn)業(yè),包括無人機制造產(chǎn)業(yè)。印度政府希望借此推動本土無人機發(fā)展,使軍方擺脫對進口無人機的依賴。
能裝備研發(fā)。印度自主研發(fā)無人機始于20世紀80年代,最早的機型是印度航空發(fā)展建設(shè)公司研發(fā)的“尼尚特”無人機。由于該機頻繁發(fā)生墜毀事故,目前印度軍方已停止相關(guān)采購計劃。印度自主研發(fā)的另一款“魯斯特姆”無人機于2009年完成首飛。其改進版“魯斯特姆2”原計劃在2016年完成研發(fā),但由于資金和技術(shù)問題導致拖延,直到2022年才進入機體生產(chǎn)階段。該無人機在測試飛行階段事故頻出,最近一次是一架“魯斯特姆2”無人機在印度西南部一航空試驗場墜毀,引發(fā)軍方對該款無人機性能的擔憂。與此同時,印度加快推動小型無人機發(fā)展。2021年1月15日印度建軍節(jié)當天,印度軍方首次展示自主研發(fā)的75架無人機,并進行了蜂群無人機自殺攻擊、空投補給等課目演示。印度空軍已經(jīng)和本國軍工企業(yè)簽訂合同,由該企業(yè)為印度空軍生產(chǎn)200架遠程小型無人機。另外,印度斯坦航空有限公司正在開發(fā)類似于美國“忠誠僚機”系統(tǒng)的無人機。據(jù)稱,這款無人機具備隱身性能,將在2024年進行測試飛行。
3.1.4 中國
中國的軍事智能化建設(shè)主要包括總體戰(zhàn)略布局、智能裝備研發(fā)、作戰(zhàn)理論自主創(chuàng)新方面。
中國軍隊重視推進機械化、信息化、智能化的融合發(fā)展,即“三化”融合發(fā)展。這符合軍隊建設(shè)規(guī)律與實戰(zhàn)需要。中國憑借全面的工業(yè)體系,積極實施軍民融合發(fā)展戰(zhàn)略,在地面、空中、海上、空間無人裝備方面都進行了研發(fā)、生產(chǎn),并逐步裝備部隊。中國軍隊現(xiàn)役與預備役、民兵隊伍均裝備了無人作戰(zhàn)系統(tǒng),并進行了戰(zhàn)術(shù)演練。
3.2****中外人工智能軍事應用倫理風險類型
信息化戰(zhàn)爭飛速發(fā)展,智能化戰(zhàn)爭雛形已顯。近期的俄羅斯與烏克蘭的武裝沖突,烏克蘭軍隊使用巡飛彈(自殺式無人機)對俄羅斯軍隊的裝甲、坦克集群造成的裝備、人員的重大殺傷。俄軍不得不對傳統(tǒng)坦克進行了改裝,在傳統(tǒng)坦克的上方加裝了防范無人機攻擊頂部的鐵絲棚架。這是無人系統(tǒng)參與實戰(zhàn)的一個案例。本文認為人工智能軍事應用倫理風險存在以下3種類型:
3**.2.1****生命倫理風險**
軍事智能無人系統(tǒng)包括軍用機器人會擔負偵察、打擊敵軍等軍事行動;尊重人的生命和尊嚴,同樣面臨類似的困難,對軍事人工智能應用而言,人工智能需要完成對敵方有生力量、軍用設(shè)施的攻擊任務,就難以避免傷害無辜人群的生命。
3**.2.2****道德倫理風險**
軍事智能無人系統(tǒng)如果用于戰(zhàn)爭中的心理戰(zhàn)、認知戰(zhàn),會難以避免對人的心理空間、認知空間造成震撼與傷害,軍事智能無人系統(tǒng)會對敵人產(chǎn)生非公平正義的認識并采取相應的敵對行為。相應的措施應該是在技術(shù)上對潛在風先進行預警,向軍事智能無人系統(tǒng)嵌入人類的軍事倫理原則如善待俘虜?shù)?,并采取人機混合智能聯(lián)合監(jiān)管的形式,由人類指揮員與專職監(jiān)督人工智能系統(tǒng)對軍事智能無人系統(tǒng)進行監(jiān)管。另一方面,在信息戰(zhàn)的網(wǎng)絡(luò)戰(zhàn)、電子戰(zhàn)領(lǐng)域,人工智能系統(tǒng)也在加大參與的力度。網(wǎng)絡(luò)空間、電磁空間與認知空間作戰(zhàn)相互交織,軍隊應用人工智能通過網(wǎng)絡(luò)網(wǎng)絡(luò)、電磁空間制造錯誤、虛假信息、信號欺騙敵軍成為可能。人工智能的欺騙行為在民事應用領(lǐng)域是不被鼓勵的,但在軍事領(lǐng)域,欺騙行為受到了許可。
3**.2.3****責任倫理風險**
與無人駕駛事故類似,如果軍事智能無人系統(tǒng)出現(xiàn)事故,其責任人的認定也存在很大的困難。依照民用無人駕駛汽車事故的立法實踐經(jīng)驗,對軍事智能無人系統(tǒng)應該制訂相關(guān)的專門法律,對設(shè)計者、使用者(軍隊)、公民都做出相應的權(quán)利與義務分工。
3.3****中外人工智能軍事應用倫理風險對策
生命倫理風險對策是對軍事智能無人系統(tǒng)的使用場景進行人為控制,控制權(quán)禁止與人工智能分享。軍事戰(zhàn)略層面的決定應該始終掌握在人類手中。軍事智能無人系統(tǒng)智能參與戰(zhàn)役、戰(zhàn)術(shù)層面決策。本文認為人工智能的發(fā)展趨勢是從弱人工智能邁向強人工智能。智能系統(tǒng)目前還沒有被視為倫理和道德主體,今后也不應該被視為倫理與道德主體,但鑒于人工智能具有一定的“人的智能”甚至會是很強的一定的“人的智能”,智能系統(tǒng)可能會被人賦予一定的 “權(quán)利”,但這樣的“權(quán)利”應該是以尊重人的生命為前提的,基本智能系統(tǒng)需要參與戰(zhàn)爭,殺傷敵人,其最終目標還是維護人的尊嚴、服務于人類社會的政治需要。軍事智能系統(tǒng)依舊是人類軍事系統(tǒng)的組成,而不是單獨的一個體系;道德倫理風險的對策是嚴格限定軍事智能系統(tǒng)采取欺騙行為的場景,并建立軍隊的監(jiān)督體系對其進行監(jiān)管;責任倫理風險的對策是政府應該制訂措施,對公民進行防范軍事智能無人系統(tǒng)侵害的技能培訓,而軍隊則應該在管理機制、軍事法規(guī)方面對軍事智能無人系統(tǒng)進行規(guī)約。
結(jié) 語
人類社會的發(fā)展,建立了比較完善的法律體系以及倫理體系、道德體系,保證人類社會的健康、有序發(fā)展。大致而言,法律體系、倫理體系、道德體系從他律、相對的他律、自律三個視角對人類社會產(chǎn)生的約束的效應。而人工智能的失誤及錯誤,已經(jīng)并將對人類社會的倫理體系中的人權(quán)倫理、道德倫理、責任倫理、代際倫理產(chǎn)生了侵害。人工智能民事應用產(chǎn)生的倫理風險主要是人權(quán)倫理風險、道路倫理風險、責任倫理風險、代際倫理風險四類風險,人工智能軍事應用產(chǎn)生的倫理風險主要是人權(quán)倫理風險、道路倫理風險、責任倫理風險三類風險。做出這樣的區(qū)別有助于人們認識人工智能應用帶來的倫理風險并采取一定的規(guī)避措施。
本文來源于云南省教育廳科學研究基金項目。
作者單位:龍 瀛 杜 鵑 馬克春
(1、昆明學院人文學院,云南 昆明;昆明學院人民武裝部,云南 昆明,中國自動化學會工業(yè)控制系統(tǒng)信息安全專業(yè)委員會,浙江 杭州;2、昆明學院馬克思主義學院,云南 昆明;3、昆明學院人文學院)
本文圖片來自互聯(lián)網(wǎng)。
參考文獻:
[1]孫力王鶯 新時代軍民融合發(fā)展戰(zhàn)略研究(新時代 新思想新戰(zhàn)略研究叢書)【M】.北京:人民出版社, 2019.1-2.
[2] 古天龍 人工智能倫理導論【M】.北京:高等教育出版社, 2022.32-33
[3] 《人工智能讀本》編寫組 人工智能讀本【M】.北京:人民出版社, 2019.260-261.
[4]張翔鳶 美國軍事智能化的探索與實踐【OL】.中國社會科學網(wǎng), 2023.5.22
[5] 栗碩 鞏克 美日加速布局謀劃搶占人工智能霸權(quán)【N】.中國國防報, 2023.7.18
[6] 吳衛(wèi) 施海波 印度推動本土無人機發(fā)展【N】.中國國防報, 2023.9.