終于,Google亮明了態(tài)度。
在經(jīng)歷了數(shù)個(gè)月的風(fēng)波之后,在數(shù)千員工發(fā)起聯(lián)名抗議之后,在學(xué)界大牛紛紛聯(lián)署反對(duì)之后,在各大媒體深入曝光內(nèi)幕之后,Google終于調(diào)整了自己政策。
今天早間,Google CEO正式發(fā)布了使用AI的七項(xiàng)原則。其中包括不會(huì)將AI技術(shù)應(yīng)用于開(kāi)發(fā)武器,不會(huì)違反人權(quán)準(zhǔn)則將AI用于監(jiān)視和收集信息,避免AI造成或加劇社會(huì)不公等。
不過(guò),Google也表示,將會(huì)繼續(xù)與政府和軍方展開(kāi)AI合作,例如網(wǎng)絡(luò)安全、培訓(xùn)以及征兵等領(lǐng)域。
“我們認(rèn)識(shí)到,這種強(qiáng)大的技術(shù)引發(fā)了同樣強(qiáng)大的問(wèn)題,AI的開(kāi)發(fā)和使用將會(huì)對(duì)未來(lái)多年的社會(huì)產(chǎn)生重大影響。”Google CEO皮查伊(Sundar Pichai)寫(xiě)道。
另外,Google制定的原則還要求公司職員及客戶(hù)“避免給人帶來(lái)不公正的影響”,尤其是與種族、性別、性向以及政治或宗教信仰有關(guān)的影響。
皮查伊稱(chēng),對(duì)于違反上述原則的應(yīng)用,Google保留封禁的權(quán)利。
同時(shí),Google云CEO戴安·格林(Diane Greene)也在官方博客上發(fā)布了一篇文章,來(lái)介紹如何在Google Cloud上踐行Google的AI原則。
她特別提到,Google將不再延續(xù)Project Maven的合同。但是“正在與‘我們的客戶(hù)’合作,以求用對(duì)他們來(lái)說(shuō)長(zhǎng)期有效、又不和我們的AI原則沖突的方式,負(fù)責(zé)地履行我們的義務(wù),”
各方評(píng)價(jià)
看見(jiàn)這份《原則》,不少Google員工給出了很愉快的評(píng)價(jià)。
Google現(xiàn)任AI負(fù)責(zé)人Jeff Dean除了在Twitter上分享Google發(fā)表的這份原則之外,還提到為了真正踐行這些原則,他們還提出了一套技術(shù)實(shí)踐指南Responsible AI Practices,指導(dǎo)科學(xué)家和工程師們?cè)跇?gòu)建AI產(chǎn)品的時(shí)候應(yīng)該注意什么。就是這個(gè):
https://ai.google/education/responsible-ai-practices
DeepMind聯(lián)合創(chuàng)始人穆斯塔法(Mustafa Suleyman)自己沒(méi)有發(fā)表觀點(diǎn),而是在Twitter上轉(zhuǎn)發(fā)了人權(quán)觀察組織(Human Rights Watch)Mary Wareham的話:各國(guó)政府應(yīng)該關(guān)注到科技行業(yè)的最新動(dòng)態(tài),開(kāi)始就禁止全自動(dòng)武器展開(kāi)協(xié)商,制定新的國(guó)際法規(guī)。
Keras作者François Chollet說(shuō),對(duì)于AI創(chuàng)業(yè)公司來(lái)說(shuō),這個(gè)是一個(gè)很好的例子,表明你可以對(duì)產(chǎn)品中道德問(wèn)題的潛在影響進(jìn)行前瞻,每個(gè)AI創(chuàng)業(yè)公司都應(yīng)該起草一份這樣的東西,不要等到危機(jī)四起才動(dòng)手。
Google大腦研究員Dumitru Erhan評(píng)價(jià)得非常簡(jiǎn)短,簡(jiǎn)單說(shuō)了一句“看見(jiàn)這個(gè)出來(lái)了好開(kāi)心”,大概代表了很多Googler的心聲,二進(jìn)宮的Ian Goodfellow也轉(zhuǎn)發(fā)了。
但是對(duì)于這份原則,并不是所有人都買(mǎi)賬。
《紐約時(shí)報(bào)》認(rèn)為,由于Google此前一再?gòu)?qiáng)調(diào)自己為國(guó)防部所做的工作并非出于“進(jìn)攻目的”,這些指導(dǎo)原則能否將該公司排除在類(lèi)似Project Maven的合同之外,尚不清楚。
ZDNet也在評(píng)論中指出,即便Google說(shuō)不讓自己的技術(shù)用于武器開(kāi)發(fā),但一旦變成開(kāi)源項(xiàng)目,這些技術(shù)和代碼就有可能用于作惡,就像其他的工具與技術(shù)一樣。
原則全文
皮查伊在名為《Google人工智能:我們的原則》的博文中寫(xiě)到:從垃圾郵件篩查到醫(yī)療診斷,人工智能可以幫助人們完成許多事情,這是我們致力于AI研發(fā)的原因。但這種強(qiáng)大的技術(shù)也會(huì)帶來(lái)問(wèn)題,人工智能的應(yīng)用將會(huì)對(duì)未來(lái)社會(huì)帶來(lái)深遠(yuǎn)影響。
然后他公布了七項(xiàng)人工智能指導(dǎo)原則:
AI應(yīng)用目標(biāo):
我們相信AI應(yīng)當(dāng)
1、對(duì)社會(huì)有益。
2、避免制造或加劇偏見(jiàn)。
3、提前測(cè)試以保證安全。
4、由人類(lèi)擔(dān)責(zé)。
5、保證隱私。
6、堅(jiān)持科學(xué)高標(biāo)準(zhǔn)。
7、從主要用途、技術(shù)獨(dú)特性、規(guī)模等方面來(lái)權(quán)衡。
我們不會(huì)將AI應(yīng)用于:
1.制造整體傷害之處。如一項(xiàng)技術(shù)可能造成傷害,我們只會(huì)在其好處大大超過(guò)傷害的情況下進(jìn)行,并提供安全措施;
2.武器或其他用于直接傷害人類(lèi)的產(chǎn)品;
3.收集使用信息,以實(shí)現(xiàn)違反國(guó)際規(guī)范的監(jiān)控的技術(shù);
4.目標(biāo)違反被廣泛接受的國(guó)際法與人權(quán)原則的技術(shù)。
在博文最后,Google CEO寫(xiě)道:我們相信這些原則是Google和AI未來(lái)發(fā)展的正確基礎(chǔ),這與我們2004年發(fā)布的價(jià)值觀一致。我們?cè)诖嗣鞔_表示Google更看重AI的長(zhǎng)遠(yuǎn)發(fā)展,即便需要為此付出短期的權(quán)衡。
“We said it then, and we believe it now.”
風(fēng)波回顧
去年秋天,Google開(kāi)始秘密與美國(guó)國(guó)防部接洽,合作Project Maven項(xiàng)目,根據(jù)雙方的秘密協(xié)議,Google原本要為美軍無(wú)人機(jī)提供頂尖AI技術(shù)。
包括李飛飛在內(nèi)的高管團(tuán)隊(duì),當(dāng)時(shí)就此事展開(kāi)了激烈的內(nèi)部討論。討論的核心就是,不能讓外界獲知此事,否則會(huì)影響Google的聲譽(yù)。
不過(guò)紙終究包不住火。
這一項(xiàng)目在內(nèi)部開(kāi)展后,Google員工們開(kāi)始發(fā)起抵制。
3月,Google內(nèi)部3000多名員工聯(lián)名上書(shū),抵制與五角大樓的合作。4月,事件進(jìn)一步發(fā)酵,包括Bengio等上百名學(xué)者、科學(xué)家二次上書(shū),數(shù)十名員工因此離職,要求Google退出Maven項(xiàng)目,并且起草政策聲明Google永遠(yuǎn)不會(huì)開(kāi)發(fā)戰(zhàn)爭(zhēng)技術(shù)。
隨后媒體也介入,深扒此事。