隨著人工智能的發(fā)展,關(guān)于戰(zhàn)爭(zhēng)道德的充滿爭(zhēng)議的問題變得更加復(fù)雜
人工智能(AI)的倫理問題正困擾著不少該領(lǐng)域的專家。為調(diào)查這一問題而成立的一個(gè)特別委員會(huì)在2019年底公布了其建議,該委員會(huì)由赫茲利亞跨學(xué)科中心的卡琳·納翁教授領(lǐng)導(dǎo)。該報(bào)告描述了不負(fù)責(zé)任地使用人工智能工具的風(fēng)險(xiǎn),以及在開發(fā)技術(shù)產(chǎn)品時(shí)考慮人工智能因素的重要性。
但是,該報(bào)告只涉及該問題的民事方面。委員會(huì)故意忽視了與軍事應(yīng)用中人工智能的整合相關(guān)的考慮,尤其是人類生命中最神秘的價(jià)值。討論中的倫理考量有多重要?美國(guó)國(guó)防部2018年發(fā)布的一份文件稱,道德和安全是國(guó)防部發(fā)揮主導(dǎo)作用的因素之一。
去年12月,赫茲里亞跨學(xué)科中心召開了關(guān)于人工智能與現(xiàn)代戰(zhàn)爭(zhēng)的會(huì)議。微軟以色列商業(yè)法律顧問Adv。本·哈克萊(Ben Haklai)概述了有關(guān)此事的話語界限,這只是處于起步階段。他說:“政府和研究機(jī)構(gòu)僅在過去兩年中才開始深入討論這些問題,但是直到現(xiàn)在,所有的研究才開始具有具體的性質(zhì)。” 該會(huì)議是為期一周的計(jì)劃的一部分,該計(jì)劃在國(guó)際刑法和人道主義法診所的框架內(nèi)接待了來自歐洲和美國(guó)的許多代表團(tuán)。來自以色列和美國(guó),意大利,中國(guó),波蘭和德國(guó)等國(guó)家的學(xué)生參加了會(huì)議。
難以調(diào)查決策
似乎幾乎每個(gè)以色列人都熟悉AI中倫理考量的重要性。當(dāng)一枚“鐵穹”(Iron Dome)導(dǎo)彈“決定”不對(duì)從加沙地帶發(fā)射的一枚火箭發(fā)射攔截器時(shí),即便它不會(huì)擊中有人居住的地區(qū),該系統(tǒng)也在做一個(gè)合乎道德的決定。然而,“鐵穹”事件相對(duì)簡(jiǎn)單,因?yàn)樗让媾R著生命與財(cái)產(chǎn)損失的兩難境地,也因?yàn)槊總€(gè)炮兵連都有士兵監(jiān)督其活動(dòng)。該系統(tǒng)還提供情報(bào)和精度,以便對(duì)導(dǎo)彈的預(yù)期著陸地點(diǎn)進(jìn)行非常準(zhǔn)確的預(yù)測(cè)。對(duì)于IDF使用的另一個(gè)具有自主能力的系統(tǒng)—獎(jiǎng)杯坦克保護(hù)系統(tǒng),情況變得稍微復(fù)雜一些。這是在前線進(jìn)行的,它的行動(dòng)很容易危及在該地區(qū)移動(dòng)的步兵。
如何對(duì)將在更復(fù)雜的環(huán)境中操作的武器進(jìn)行編程,例如在建筑物密集地區(qū)操作中使用的無人駕駛汽車的情況下?就像部署在朝鮮和韓國(guó)邊界上的那種——一種必須探測(cè)入侵者意圖并“決定”是殺死他們還是讓他們通過的武器?這些問題還沒有明確和絕對(duì)的答案。這正是討論這件事的原因。
哈克萊在演講中解釋了軍事背景下各種可能的局勢(shì)如何變得越來越復(fù)雜。鐵穹頂是一個(gè)相當(dāng)簡(jiǎn)單的情況的例子,在這種情況下,機(jī)器可以做出決策,但是人類士兵可以干預(yù)該決策并將其撤消。
最簡(jiǎn)單的情況是機(jī)器只推薦一個(gè)動(dòng)作;只有這個(gè)人才能決定是否執(zhí)行它。另一方面,最困難和最具挑戰(zhàn)性的情況是,在這種情況下,人被排除在外,而機(jī)器自己做決定。隨著技術(shù)的發(fā)展,無人機(jī)、無人駕駛飛行器(uav)和其他機(jī)器人完全自主行動(dòng)成為可能,這種情況將變得越來越重要。
恰恰在這種情況下,三星制造的SGR-A1機(jī)器人被放置在朝鮮與韓國(guó)之間的非軍事區(qū)。該機(jī)器人由紅外攝像機(jī)和語音識(shí)別系統(tǒng)組成。它具有在警告動(dòng)作和射擊橡皮子彈或其他彈藥之間進(jìn)行選擇的能力。機(jī)器人可以完全自主地行動(dòng),但是它仍然包含供操作員執(zhí)行命令的選項(xiàng)。Haklai解釋說SGR-A1是其程序員面臨的道德困境的一個(gè)很好的例子-“是對(duì)機(jī)器進(jìn)行編程以拍攝移動(dòng)的一切物體,還是先嘗試驗(yàn)證是否有人參與其中,以及是否有人參與其中,無論他或她正在舉手還是投降。”
哈克萊認(rèn)為,這次討論的特殊之處在于“與民用應(yīng)用相反,負(fù)責(zé)使用自動(dòng)武器后果的一方首先是整個(gè)國(guó)家,此后便出現(xiàn)了一個(gè)問題,即究竟誰在指揮系統(tǒng)中承擔(dān)責(zé)任。”
責(zé)任不是唯一的方面。為了監(jiān)督此類武器的活動(dòng),必須具有追溯調(diào)查決策的能力。“所有工程師都會(huì)跳進(jìn)來,并提醒所有人,人工智能是一個(gè)黑匣子,這意味著機(jī)器做出的每個(gè)決定背后的邏輯都是無法理解的,因?yàn)樗谌祟惪梢哉业降拇罅繑?shù)據(jù)沒有邏輯。深度學(xué)習(xí)系統(tǒng)中的神經(jīng)元網(wǎng)絡(luò)實(shí)際上會(huì)生成無限的決策樹或圖表。” 問題開始于一個(gè)事實(shí),即“大多數(shù)人類社會(huì)將無法接受發(fā)生殺戮的情況,而無法解釋其發(fā)生原因”。
Haklai通過從普通汽車向自動(dòng)駕駛汽車過渡的例子比較了民用挑戰(zhàn)與軍事挑戰(zhàn)。他說,盡管公眾愿意接受合理的死亡率作為生意價(jià)格的一部分,但他說:“不愿接受無人駕駛飛機(jī)炸彈轟炸鄉(xiāng)村的案件的意愿就較小。”
Haklai說,未來的解決方案可能會(huì)存在于將解碼AI決策方式的其他內(nèi)容中。“已經(jīng)有一些初創(chuàng)公司致力于算法,可以為AI決策提供合理的解釋。沒有這種能力,將很難改進(jìn)原始算法。”
將網(wǎng)絡(luò)安全整合到發(fā)展中
由于用于武器系統(tǒng)的基于AI的系統(tǒng)的開發(fā)人員面臨固有的失敗,所有這些挑戰(zhàn)變得更加困難?;谏疃葘W(xué)習(xí)的系統(tǒng)能夠產(chǎn)生的見解的質(zhì)量取決于它們可以分析的數(shù)據(jù)的質(zhì)量和數(shù)量以及它們所基于的數(shù)據(jù)。Haklai解釋說,如果沒有足夠的數(shù)據(jù),問題就開始了。Mobileye的傳感器已安裝在全球數(shù)百萬輛汽車上,這些傳感器在世界各地的道路上行駛,并將無數(shù)有關(guān)事件的數(shù)據(jù)輸入系統(tǒng)。這些數(shù)據(jù)使系統(tǒng)能夠不斷學(xué)習(xí)和改進(jìn)。
像Google這樣的公司的自動(dòng)駕駛汽車也是如此,它們會(huì)在人們駕駛的汽車旁邊行駛,收集數(shù)據(jù)并學(xué)習(xí)。AI武器系統(tǒng)將處理哪些數(shù)據(jù)?會(huì)浪費(fèi)數(shù)千小時(shí)的戰(zhàn)斗飛行員嗎?美國(guó)國(guó)防部找到的解決方案是與私營(yíng)部門合作使用模擬器,例如Microsoft的AirSim模擬器,用于在實(shí)驗(yàn)室條件下訓(xùn)練算法,以代替現(xiàn)場(chǎng)試驗(yàn)。
最后,Haklai解釋說,當(dāng)涉及軍事需求時(shí),必須在基于AI的系統(tǒng)的開發(fā)階段徹底了解網(wǎng)絡(luò)方面。例如,哈克拉(Haklai)斷言,應(yīng)包括檢測(cè)使用Deepfake技術(shù)的工具,這些工具可以創(chuàng)建看似真實(shí)的視頻或音頻剪輯。Haklai說,除非從一開始就包含這些工具,否則普通系統(tǒng)將很難理解正在努力欺騙它。
如果聽起來很復(fù)雜,那僅僅是開始。這些解決方案很難在單個(gè)文化框架中應(yīng)用,但是當(dāng)它所基于的整個(gè)價(jià)值層次發(fā)生變化時(shí),會(huì)發(fā)生什么呢?哈克萊舉例說明了中美之間的差異。在一個(gè)社會(huì)中什么是合理的,在另一個(gè)社會(huì)中不一定是合理的。“廣泛使用攝像機(jī)進(jìn)行面部識(shí)別和每個(gè)人的信用等級(jí)被認(rèn)為是正確管理制造公司的一種合理方法。這種看法上的差異絕對(duì)是原則問題。”
評(píng)論:各國(guó)不應(yīng)該把舞臺(tái)讓給科技巨頭
微軟(Microsoft)等公司參與設(shè)計(jì)管理技術(shù)世界的規(guī)則,以一種最引人入勝的方式,突顯出該公司在軍事領(lǐng)域參與人工智能工具的開發(fā)。算法必須用大量的數(shù)據(jù)來訓(xùn)練,但是由于系統(tǒng)不能在真實(shí)的情況下訓(xùn)練,所以有必要使用模擬器。
由于私人公司控制著模擬程序的編程方式,這意味著它們實(shí)際上參與了未來武器的使用設(shè)計(jì)。這不僅僅是猜測(cè)。這種施加影響的能力與公司的思維方式一致。微軟總裁布拉德·史密斯(Brad Smith)在2019年11月警告說,除非技術(shù)巨頭對(duì)防止濫用技術(shù)造成限制,否則人工智能很可能成為難以反擊的武器。
微軟和其他開發(fā)此類模擬器的公司很有可能會(huì)根據(jù)國(guó)家為它們?cè)O(shè)置的規(guī)則和限制來構(gòu)造它們,但是還有另一種可能性-這些行動(dòng)原則中的某些將是工作和思想的結(jié)果。公司。“公司立法”由公司為其自身制定的規(guī)則組成。幾乎每個(gè)網(wǎng)絡(luò)沖浪者都親自遇到過這些規(guī)則。當(dāng)Facebook阻止發(fā)布種族主義煽動(dòng)行為的用戶時(shí),我們了解“懲罰”的法律依據(jù)。但是,當(dāng)用戶因?yàn)榘l(fā)送過多的好友請(qǐng)求并違反“社區(qū)標(biāo)準(zhǔn)”而被阻止時(shí),會(huì)發(fā)生什么情況?這是Facebook對(duì)其用戶執(zhí)行的規(guī)則之一,有時(shí)這些規(guī)則對(duì)用戶生活的影響大于州法律。” 這里發(fā)生了一些有趣的事情。公司的立法比政府的立法變得越來越重要。”以色列最大和最知名的律師事務(wù)所之一的高級(jí)律師說。
在法學(xué)院中,眾所周知和研究的是,立法者對(duì)技術(shù)進(jìn)步及其適應(yīng)的反應(yīng)非常緩慢。在AI的情況下尤其如此,這尤其是因?yàn)楸O(jiān)管機(jī)構(gòu)的技術(shù)知識(shí)方面的差距以及無法趕上技術(shù)巨人辦公室而非監(jiān)管機(jī)構(gòu)辦公室中對(duì)監(jiān)管和道德規(guī)范的深入思考的結(jié)果監(jiān)管機(jī)構(gòu)或民選官員的委員會(huì)。
如果沒有更好的話語權(quán),除了法律和技術(shù)專家之外,還需要有公共代表,因此,技術(shù)公司將成為制定使用技術(shù)規(guī)則的公司。當(dāng)涉及到對(duì)我們的生活造成難以想象的深遠(yuǎn)影響的人工智能技術(shù)時(shí),讓貓來守護(hù)霜的危險(xiǎn)就更加危險(xiǎn)了。
免責(zé)聲明:凡注明來源全球無人機(jī)網(wǎng)的所有作品,均為本網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,歡迎轉(zhuǎn)載,請(qǐng)注明出處。非本網(wǎng)作品均來自互聯(lián)網(wǎng),轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。