中文字幕欧美乱伦|手机AV永久免费|澳门堵场日韩精品|日本性爱欧美激情|蜜桃狠狠狠狠狠狠狠狠狠|成人免费视频 国|欧美国产麻豆婷婷|99久久久国产精品福利姬喷水|婷婷内射精品视频|日本欧洲一区二区

澎湃Logo
下載客戶端

登錄

  • +1

誰應(yīng)該對AI導(dǎo)致的死亡事故負(fù)責(zé)?

2025-08-15 21:26
來源:澎湃新聞·澎湃號·湃客
字號

你敢讓AI醫(yī)生給自己做手術(shù)嗎?你能接受AI法官給你判案嗎?當(dāng)自動駕駛汽車出了事故,該怪誰?隨著AI技術(shù)的迅猛發(fā)展,它的應(yīng)用越來越廣泛,但隨之而來的倫理問題也愈發(fā)凸顯。今天,我們就來聊聊AI背后那些值得深思的事。

如果AI比人類更優(yōu)秀……

與生命科學(xué)的迅猛發(fā)展一樣,以AI為首的信息科學(xué)的迅猛發(fā)展也向我們提出了各種各樣的倫理問題。

現(xiàn)在,可以瞬間完成高級信息處理的AI已經(jīng)廣泛應(yīng)用于社會的各個領(lǐng)域。例如,目前正在研發(fā)能夠從內(nèi)鏡、放射檢查等醫(yī)學(xué)影像中瞬間發(fā)現(xiàn)可能發(fā)生癌變部位的AI。學(xué)習(xí)了大量圖像數(shù)據(jù)的AI,甚至能毫不猶豫地指出人類醫(yī)生可能會忽略的小病變。目前,AI還局限于輔助人類醫(yī)生,但今后如果“AI醫(yī)生”能夠比人類醫(yī)生更準(zhǔn)確地進行診斷,會發(fā)生什么事情呢?

在信息處理的速度、數(shù)量和準(zhǔn)確性等方面,AI遠(yuǎn)遠(yuǎn)超過了人類的能力。在這些能力至關(guān)重要的工作中,AI將逐漸取代人類。隨著AI技術(shù)的發(fā)展,AI可以從事的工作范圍將穩(wěn)步擴展。

首先,會出現(xiàn)希望由“AI醫(yī)生”而不是人類醫(yī)生進行診斷的患者。人們可能會對人類醫(yī)生的診斷結(jié)果持懷疑態(tài)度,醫(yī)生的部分工作可能會被AI取代。

不難想象,AI不僅能進行診斷,還能實施手術(shù)。如今,腹腔鏡手術(shù)等是由人類醫(yī)生操控手術(shù)機器人進行的,將來則可以由掌握了人類技術(shù)的AI實施。與診斷一樣,患者也會希望由行動迅速且準(zhǔn)確的“AI醫(yī)生”來實施手術(shù)。

AI自身不能承擔(dān)責(zé)任

隨著AI在社會中的應(yīng)用日益廣泛,如果AI出了問題,應(yīng)該由誰承擔(dān)責(zé)任?如果“AI醫(yī)生”誤診或手術(shù)失誤、自動駕駛汽車出現(xiàn)交通事故,誰應(yīng)該承擔(dān)責(zé)任?

說到底,AI只是計算機程序,因此,AI自身是無法承擔(dān)責(zé)任的。以汽車為例,如果因剎車等汽車本身的缺陷而發(fā)生事故,汽車制造商需要承擔(dān)責(zé)任。但如果是因司機操作失誤而導(dǎo)致事故,則司機(使用者)需要承擔(dān)責(zé)任。類似自動駕駛汽車等配備了AI的產(chǎn)品能自主運行,因此,使用者的參與會變少。到底應(yīng)該由AI制造者承擔(dān)責(zé)任,還是使用者也需承擔(dān)責(zé)任,眾說紛紜,爭論不斷。

AI可能會助長差別和偏見

隨著AI的應(yīng)用日益廣泛,AI也被用來對人類進行評價。例如,由AI代替人類對體操比賽等打分,或在企業(yè)招聘活動和人事評價中使用AI等。但AI的判斷可能存在偏見,這已經(jīng)成為倫理問題。

AI是以學(xué)習(xí)的數(shù)據(jù)為基礎(chǔ)進行各種判斷和處理的。如果學(xué)習(xí)的數(shù)據(jù)有偏差,就會形成反映這一偏差的AI。例如,開發(fā)體操打分AI時,會讓其學(xué)習(xí)過去的表演及評分。如果里面包含給特定種族或國家的運動員打高分等偏見(人類評委的偏見),學(xué)到這一點的AI可能也會繼承偏見。

招聘活動及人事評價所用的AI也有可能出現(xiàn)同樣的問題。如果將來出現(xiàn)“AI法官”,可能會對特定性別、年齡、背景的人做出不利的判決。AI的偏見會破壞倫理上的公平,是應(yīng)該解決的問題,但AI的“內(nèi)部機制”非常復(fù)雜,因此能否從根本上解決這一問題,目前還不確定。

歐盟批準(zhǔn)世界上首部AI監(jiān)管法規(guī)

究竟在多大程度上允許AI進入社會,亟待討論。偏見問題和學(xué)習(xí)數(shù)據(jù)中使用的個人信息(隱私)問題一直困擾著現(xiàn)在的AI。2024年3月,歐洲議會批準(zhǔn)了世界首部全面監(jiān)管AI的法案——《人工智能法案》,禁止將AI用于社會信用評價(社會評分)等用途,考試和招聘所用的AI需要使用適當(dāng)?shù)膶W(xué)習(xí)數(shù)據(jù)以避免產(chǎn)生偏見。

日本目前還沒有AI監(jiān)管法規(guī),但內(nèi)閣政府在2019年出臺了“以人為中心的AI社會原則”(見下圖),列出了隨著AI不斷進入社會,應(yīng)該注意的7個原則。例如,AI的使用不能侵犯憲法及國際法規(guī)所保障的基本人權(quán),即“以人為中心的原則”。

 以人為中心的AI社會原則——為了讓社會接受并理性使用AI,應(yīng)該注意的七個原則 

一般來說,美國允許相對自由地進行AI等新科學(xué)技術(shù)的研究,歐洲則非常謹(jǐn)慎。對于AI的開發(fā)與使用,我們是應(yīng)該進行規(guī)范限制,還是在一定程度上允許自由研發(fā)?你是如何看待的?

允許AI殺人的致命性自主武器系統(tǒng)

歐盟批準(zhǔn)的《人工智能法案》中,以研究為目的或用于軍事、國防的AI,基本上不受監(jiān)管。沒有人類直接干預(yù)而自動攻擊敵人的AI武器被稱為“致命性自主武器系統(tǒng)”(LAWS),如通過AI自動識別并攻擊敵方士兵的無人機武器就屬于這一類。目前,針對這類武器的開發(fā)和使用,國際上尚未制定出統(tǒng)一的監(jiān)管規(guī)定。2023年12月,在聯(lián)合國大會上,一項呼吁應(yīng)盡快應(yīng)對LAWS問題的決議以多數(shù)贊成通過。

LAWS賦予了AI殺人的許可。使用LAWS時,也有人擔(dān)心,誤操作會造成平民受害擴大,以及由于自己一方的士兵沒有犧牲而不會對殺人產(chǎn)生良心上的譴責(zé),從而降低了戰(zhàn)爭的門檻。是否允許AI殺人,這是一個很大的倫理問題。

 理性思考什么是正確的 

就像20年前我們很難想象AI會發(fā)展到如今這樣的程度一樣,我們也很難想象20年后的AI將會取得怎樣的進展。AI的發(fā)展速度如此迅速,以至于存在著倫理問題懸而未決的情況下,其應(yīng)用卻不斷擴展的風(fēng)險。雖然我們不能放棄追求使用AI所帶來的便利和好處,但不妨考慮一下:在這個過程中,是否潛藏著某些倫理上的問題?

    本文為澎湃號作者或機構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。

    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業(yè)有限公司

            反饋