中文字幕欧美乱伦|手机AV永久免费|澳门堵场日韩精品|日本性爱欧美激情|蜜桃狠狠狠狠狠狠狠狠狠|成人免费视频 国|欧美国产麻豆婷婷|99久久久国产精品福利姬喷水|婷婷内射精品视频|日本欧洲一区二区

澎湃Logo
下載客戶端

登錄

  • +1

深觀察丨別讓AI掌握武器,而不是企圖“道德教化”TA

澎湃首席評論員 沈彬
2018-06-08 19:12
來源:澎湃新聞
? 澎湃評論 >
字號

人工智能技術(shù)(AI)能不能用來制造武器殺害人類呢?

在輿論的重重壓力,以及員工的“離職潮”的威脅之下,6月7日,谷歌公司終于公開表態(tài),公示了自己的AI指導(dǎo)原則:

谷歌宣示,AI的應(yīng)用目標(biāo)包括:對社會有益;避免制造或加劇偏見;提前測試以保證安全;由人類擔(dān)責(zé)等。以及,AI不能用于“武器或其他用于直接傷害人類的產(chǎn)品”;“收集使用信息,以實(shí)現(xiàn)違反國際規(guī)范的監(jiān)控的技術(shù)”。

事件的起因是谷歌與美國軍方合作的一個項(xiàng)目,谷歌擬向美國國防部提供用于機(jī)器學(xué)習(xí)應(yīng)用的Tensor Flow API接口,以幫助檢測圖像中的物體。這引發(fā)了公司內(nèi)部和外部鋪天蓋地的質(zhì)疑,認(rèn)為這可能讓AI技術(shù)成為軍方的幫兇,與谷歌一直倡導(dǎo)的“不作惡”相悖,公司內(nèi)部約有4000名員工寫了請愿信。谷歌的CEO黛安·格林向員工反復(fù)解釋了這只是一份僅900萬美元,且項(xiàng)目不是為了攻擊目的。從內(nèi)部郵件看,谷歌云首席科學(xué)家、副總裁李飛飛也試圖打馬虎眼,堅持在合同中回避“AI”的字眼。

1920年,捷克作家Karel Capek在發(fā)表的科幻劇作《羅蘇姆的全能機(jī)器人》中,發(fā)明了機(jī)器人(robot)這一詞語,一開始它們只是在工廠里的生產(chǎn)工具,最后這些機(jī)器人因失控開始?xì)⑺廊祟?。由此誕生了經(jīng)久不息的科幻小說、電影題材:機(jī)器人殺人!從《終結(jié)者》到如今大紅的《西部世界》講述的是同一個母題。

然而,近幾年快速發(fā)展的AI將人工智能的現(xiàn)實(shí)倫理沖突直接放在人類面前。當(dāng)《西部世界》曾經(jīng)的傻白甜機(jī)器人小妞——梅芙,將子彈射向第一個人類(主人)時,曾經(jīng)的世界秩序漸漸崩塌了:人類有沒有終極價值?人類是否高于“物”?當(dāng)“物”有自由意志去殺人后,TA還是不是“物”?

關(guān)于AI武器化,已經(jīng)有了現(xiàn)實(shí)的焦慮。2012年前后,美軍在戰(zhàn)場上使用高度自動化的無人機(jī),就曾引發(fā)輿論的強(qiáng)烈反彈。當(dāng)無人機(jī)越來越自動化,越來越有自主意識地去主動擊殺人類時,它便不是屬于某一國、某一軍事團(tuán)體的武器,而是更像是一場機(jī)器對人類的屠殺,所以才會引發(fā)人類的焦慮。

著名科幻小說家艾薩克·阿西莫夫在小說《我,機(jī)器人》中定下了“機(jī)器人三法則”:

第一法則:機(jī)器人不得傷害人類,或坐視人類受到傷害;

第二法則:除非違背第一法則,機(jī)器人必須服從人類的命令;

第三法則:在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。

其實(shí)核心內(nèi)容就是,機(jī)器人不能傷害人類。任何的逾越都是不可接受的?,F(xiàn)在的現(xiàn)實(shí)問題是,所謂的“自動武器”殺人是體現(xiàn)的是人的意志,還是機(jī)器的意志?

在復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾看來,是否要賦予軍用機(jī)器人以自主開火權(quán),是一個“不著邊際的問題”。他認(rèn)為,只要戰(zhàn)爭機(jī)器人具有全面的語義智能(它能夠理解所有指令與情報的語義),在原則上我們就可以憑借語義智能對其進(jìn)行“道德教化”,并指望它們像真正的人類戰(zhàn)士那樣。

但是,國際機(jī)器人武器控制委員會(ICRAC)顯然不認(rèn)可對殺人機(jī)器的“道德教化”,它要求谷歌停止前述與軍方的合作,并承諾不去開發(fā)軍事科技。

在今年4月聯(lián)合國“致命性自主武器系統(tǒng)問題政府專家組”的會議上。ICRAC更明言:將“致命性自動武器”的討論擴(kuò)大到人工智能或具有新興智慧的武器問題,將會引起混淆,“由于在AI的兔子洞中追逐‘致命性自動武器’的定義,我們擺脫了急需討論的關(guān)鍵問題”。事實(shí)上,ICRAC根本不認(rèn)可對于武器機(jī)器人的“道德教化”,根本否認(rèn)AI在自動化武器方面的應(yīng)用,相反提出“人類實(shí)質(zhì)控制武器的五個基本要件”,包括每一次攻擊擊發(fā)之前,必須由人類進(jìn)行場景控制等等。

事實(shí)上,由于目前的深度學(xué)習(xí)還是一個典型的“黑箱”算法,傳統(tǒng)軟件的每一行代碼都由人類編寫;而深度神經(jīng)網(wǎng)絡(luò)卻是經(jīng)驗(yàn)知識。連設(shè)計者可能都不知道它是如何決策,要在系統(tǒng)中發(fā)現(xiàn)是否存在歧視、能否判斷善惡,在技術(shù)上是困難的,更別說讓它掌握生死。

之前就有很多關(guān)于“機(jī)器歧視”的爭論,機(jī)器是不是只依據(jù)因?yàn)檫@個人有前科、這個人是黑人,就直接拒絕他的貸款信用卡申請?人類千百年來形成的堅如磐石的倫理和價值,在深度學(xué)習(xí)的“黑箱”面前顯得不堪一擊。

所以結(jié)論是:別把寶押在人工智能的“道德教化”上,而是根本就不應(yīng)該讓人工智能去掌握武器。

    責(zé)任編輯:沈關(guān)哲
    澎湃新聞報料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業(yè)有限公司

            反饋