- +1
人工智能監(jiān)管:鼓勵(lì)創(chuàng)新還是固守安全?

2024年,注定是人工智能年。
2024年10月8日和9日,諾貝爾獎(jiǎng)物理獎(jiǎng)和化學(xué)獎(jiǎng)花落人工智能。兩位物理學(xué)獎(jiǎng)得主獲得諾獎(jiǎng)的依據(jù)是“基于人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”。三位化學(xué)獎(jiǎng)得主獲獎(jiǎng)的依據(jù)是“利用人工智能計(jì)算蛋白質(zhì)設(shè)計(jì),提高蛋白質(zhì)結(jié)構(gòu)預(yù)測效率”。
除了科研盛況,人工智能繼續(xù)主導(dǎo)商業(yè)領(lǐng)域的競爭。2024年,不僅Meta、谷歌、亞馬遜、Open AI等頭部人工智能公司繼續(xù)在大模型領(lǐng)域你追我趕,紛紛推出自己研發(fā)的生成式人工智能產(chǎn)品,馬斯克旗下的特斯拉也在諾獎(jiǎng)?lì)C獎(jiǎng)后的第三天召開主題為“We Robot”的發(fā)布會(huì),推出自己的Optimus人形機(jī)器人和賽博無人駕駛出租車。
不過,與人工智能研究與應(yīng)用的盛況相對應(yīng)的是,就在幾天前,在以硅谷聞名遐邇的加州是全球人工智能產(chǎn)業(yè)的中心,人工智能的立法遭遇挫折。
當(dāng)?shù)貢r(shí)間9月29日,加州州長凱文·紐森(Gavin Newsom)否決了此前參眾兩院通過的人工智能監(jiān)管法案—前沿人工智能模型安全創(chuàng)新法(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)。
該法案被否決引出人工智能產(chǎn)業(yè)發(fā)展中的核心問題:人工智能監(jiān)管如何在創(chuàng)新與安全之間權(quán)衡取舍?
前沿人工智能模型安全創(chuàng)新法給人工智能公司帶上緊箍咒
前沿人工智能模型安全創(chuàng)新法的立法背景是,加州政府運(yùn)行秘書要評估人工智能研發(fā)及生產(chǎn)經(jīng)營活動(dòng)對加州政府、加州企業(yè)和居民帶來的影響。
人工智能技術(shù)給社會(huì)帶來的影響是廣泛的。比如,人工智能帶來的技術(shù)之一,深度偽造(deep fake),就已經(jīng)給美國社會(huì)帶來巨大的影響。其具體影響我們在下文詳述。
前沿人工智能模型安全創(chuàng)新法對人工智能開發(fā)公司施加了嚴(yán)厲的監(jiān)管要求。其主要內(nèi)容包括:
(1)立法規(guī)定納入監(jiān)管的模型標(biāo)準(zhǔn)。如果人工智能開發(fā)公司將要開發(fā)的模型符合立法規(guī)定的標(biāo)準(zhǔn),則在開發(fā)并訓(xùn)練模型前,公司必須向監(jiān)管部門提交材料,證明其符合開發(fā)條件且遵守開發(fā)標(biāo)準(zhǔn)。比如,公司必須證明其有能力在模型出現(xiàn)立法所描述的危險(xiǎn)時(shí)一鍵啟動(dòng)死亡開關(guān)(kill switch),立刻關(guān)掉模型。
(2)立法要求人工智能開發(fā)公司保有一份安全議定書。議定書的有效期從人工智能開發(fā)公司啟動(dòng)開發(fā)并訓(xùn)練模型到模型可以付諸使用的期間,以及此后的五年。在此期間,公司必須保有與模型相關(guān)的材料。如果州檢察長要求提交材料,公司必須隨時(shí)提交,供后者審查。
(3)規(guī)定三項(xiàng)禁止使用的行為。禁止為了實(shí)現(xiàn)與模型訓(xùn)練或模型評估沒有直接聯(lián)系的目的使用立法規(guī)定的模型或模型衍生品;禁止為了實(shí)現(xiàn)不符合立法的目的使用立法規(guī)定的模型或模型衍生品;禁止制作可能造成重大損害的用于政府、商業(yè)或公共場合使用的模型或模型衍生品。
(4)從2026年1月1日起,人工智能開發(fā)公司聘請外部審計(jì),每年對公司是否合規(guī),即符合以上立法的監(jiān)管要求制作獨(dú)立的審計(jì)報(bào)告。
圍繞“前沿人工智能模型安全創(chuàng)新法”的各方博弈
以上提及的只是法案對人工智能開發(fā)公司施加的監(jiān)管條件的主要部分。不過,這些就足以讓硅谷科技公司們難以接受了。
法案幾乎遭到硅谷整個(gè)人工智能產(chǎn)業(yè)的強(qiáng)烈反對。(有趣的是,馬斯克也成立了人工智能開發(fā)公司,但是,馬斯克是唯一支持法案的科技巨頭。)
反對的主要理由是:法案給人工智能開發(fā)公司帶來太大的合規(guī)風(fēng)險(xiǎn),因而扼殺科技創(chuàng)新。
比如,反對者認(rèn)為法案把立法者想象的風(fēng)險(xiǎn)強(qiáng)加給科技公司,強(qiáng)迫模型開發(fā)者承擔(dān)預(yù)期之外的風(fēng)險(xiǎn)成本。
再比如,反對者認(rèn)為法案的立法者把他們能想象出來的以及(甚至)想象之外的各種可能的損害(而且這些損害既包括模型本身造成的,也包括第三方造成的)全部要求模型開發(fā)公司承擔(dān)損害賠償責(zé)任。
這樣的法案一旦通過,無異于給人工智能開發(fā)公司戴上緊箍咒。誰還敢開發(fā)人工智能模型?
反對者不僅包括人工智能開發(fā)公司,還包括為人工智能開發(fā)提供融資的各種風(fēng)險(xiǎn)投資公司。而且,很多學(xué)術(shù)界人士,比如人工智能研究人員也反對該法案。很多研究人員擔(dān)心,法案規(guī)定的損害賠償責(zé)任范圍太廣,可能殃及研究人員。
法案的支持者基本上從科技倫理、公共安全的角度為之辯護(hù)。比如,法案的發(fā)起人之一,加州參議員斯考特·維納(Scott Wiener)就痛批紐森否決法案使得加州立法機(jī)構(gòu)讓人工智能承擔(dān)責(zé)任的努力遭受重大挫折。
維納認(rèn)為,大型人工智能科技公司擁有強(qiáng)大的科技力量,卻不受政府政策的約束,這是很危險(xiǎn)的。該法案被否決進(jìn)一步癱瘓州議會(huì)管控科技產(chǎn)業(yè)的能力。
紐森雖然否決了法案,但是,他沒有直白地表達(dá)對法案是非對錯(cuò)的立場,而是另辟蹊徑,為否決法案尋找理由。
紐森認(rèn)為,法案只規(guī)范大規(guī)模的耗資巨大的模型,沒有把小規(guī)模的模型納入規(guī)范。人工智能產(chǎn)業(yè)發(fā)展迅速,很多小規(guī)模、專業(yè)化模型造成的損害不比大模型小。所以,紐森認(rèn)為法案的規(guī)范力度遠(yuǎn)遠(yuǎn)不夠。
紐森用巧妙的否決理由既避免在正反兩種觀點(diǎn)中間選邊站隊(duì),又為未來優(yōu)化立法,完善對人工智能的監(jiān)管留下充分的空間。可謂用心良苦!
人們對人工智能的認(rèn)知有限,監(jiān)管思路尚難統(tǒng)一
實(shí)際上,人們對人工智能的認(rèn)知仍然有限,人工智能產(chǎn)業(yè)突飛猛進(jìn)的發(fā)展給監(jiān)管理論和立法實(shí)踐帶來諸多難題。
以前文提到的深度偽造為例。這是一種利用機(jī)器學(xué)習(xí)(machine learning)模型將圖片和視頻合并疊加到原圖片或視頻上,借助神經(jīng)網(wǎng)絡(luò)技術(shù)進(jìn)行大樣本學(xué)習(xí),將個(gè)人的聲音、面部表情及身體動(dòng)作拼接合成虛假內(nèi)容的人工智能技術(shù)。
通過深度偽造技術(shù)合成的形象已經(jīng)達(dá)到可以亂真的水平。比如,2018年4月,一段美國前總統(tǒng)奧巴馬抨擊時(shí)任總統(tǒng)特朗普的講話視頻在社交網(wǎng)絡(luò)上得到200多萬次的播放和五萬多次的點(diǎn)贊。但是,事后人們才知道這不是真正的奧巴馬,而是深度偽造技術(shù)合成的。
但是,我們不能下結(jié)論說深度偽造技術(shù)不好。深度偽造技術(shù)本身是中性的,既可以用來創(chuàng)造價(jià)值,也可以被用來詐騙甚至犯罪。
問題是,如何立法規(guī)范這種技術(shù)呢?這種技術(shù)深入到著作權(quán)、傳媒、財(cái)產(chǎn)權(quán)、合同等各個(gè)領(lǐng)域。單獨(dú)為其立法成本太高,預(yù)期適用效果不會(huì)很好。
再比如,自動(dòng)駕駛也給監(jiān)管理論和立法帶來難題。自動(dòng)駕駛是靠人工智能操作的。如果自動(dòng)駕駛造成事故,誰應(yīng)該承擔(dān)責(zé)任?承擔(dān)責(zé)任的標(biāo)準(zhǔn)如何界定?
當(dāng)前侵權(quán)法理論中的過錯(cuò)責(zé)任和無過錯(cuò)責(zé)任是“前人工智能時(shí)代”創(chuàng)設(shè)的。在人工智能時(shí)代簡單套用過錯(cuò)責(zé)任和無過錯(cuò)責(zé)任,仿佛用牛頓的經(jīng)典力學(xué)解釋愛因斯坦的相對論。
人工智能屬于新興戰(zhàn)略性高科技產(chǎn)業(yè)。由于人們對人工智能的認(rèn)知仍然有限,導(dǎo)致監(jiān)管理論尚不成熟,在此背景下,各國立法基本尚處于摸索階段。所以,各國的監(jiān)管思路尚不統(tǒng)一。
比如,歐盟對人工智能的監(jiān)管偏重安全。歐盟人工智能法案(EU AI Act)要求人工智能開發(fā)公司開發(fā)出來的人工智能產(chǎn)品能否接受人類的監(jiān)督,達(dá)到立法規(guī)定的精準(zhǔn)、穩(wěn)健性和網(wǎng)絡(luò)安全標(biāo)準(zhǔn)(14、15條)。人工智能開發(fā)公司必須向用戶提供明確的信息,采用風(fēng)險(xiǎn)管理和質(zhì)量管理系統(tǒng)(第19、3、17條)。
為了有效地實(shí)施歐盟人工智能法案,法案規(guī)定,歐盟成立歐盟人工智能理事會(huì)(European AI Board)作為中央監(jiān)管機(jī)構(gòu)。與之相呼應(yīng),各成員國成立人工智能監(jiān)管機(jī)構(gòu)。
同處歐洲但退出歐盟的英國,則采用偏重創(chuàng)新的立法理念。英國的具體監(jiān)管思路是,既要推動(dòng)人工智能的發(fā)展,又要應(yīng)對人工智能的發(fā)展可能給不同部門或產(chǎn)業(yè)帶來的風(fēng)險(xiǎn)。
在此監(jiān)管思路下,英國不單獨(dú)為人工智能立法,更不對人工智能專門設(shè)立監(jiān)管機(jī)構(gòu),而是要求各部門制定規(guī)則,應(yīng)對人工智能的發(fā)展可能給各部門帶來的風(fēng)險(xiǎn)。比如,醫(yī)療部門會(huì)審視人工智能的發(fā)展對醫(yī)療產(chǎn)業(yè)和部門帶來的影響,然后,制定規(guī)則,應(yīng)對可能的風(fēng)險(xiǎn)。
這樣,英國的人工智能監(jiān)管思路可以總結(jié)為:把人工智能的監(jiān)管權(quán)下放給各部門,各部門負(fù)責(zé)建立、發(fā)展并監(jiān)督“負(fù)責(zé)任的人工智能”。
實(shí)際上,我國近年來各部門也在積極應(yīng)對人工智能的發(fā)展及其監(jiān)管。比如,針對人工智能合成內(nèi)容。2021年,中國國家網(wǎng)信辦、國家發(fā)改委、教育部、科技部、工信部、公安部、市場監(jiān)管總局、廣電總局等有關(guān)主管部門已出臺《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》等法律法規(guī),對計(jì)算機(jī)合成內(nèi)容進(jìn)行管控。
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》要求對算法生成合成的信息作顯著標(biāo)識,并要求提供互聯(lián)網(wǎng)新聞信息服務(wù)的算法推薦服務(wù)提供者和使用者,不得生成合成虛假新聞信息。
《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》則更加細(xì)致地規(guī)定了包括智能對話、智能寫作、人臉生成、人臉操控、姿態(tài)操控等具有生成或顯著改變信息內(nèi)容功能的深度合成服務(wù)應(yīng)當(dāng)遵守的要求,包括以顯著標(biāo)識的形式向公眾提示。
《生成式人工智能服務(wù)管理暫行辦法》進(jìn)一步對生成式人工智能的開發(fā)與使用等進(jìn)行規(guī)范,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用。
我國人工智能統(tǒng)一立法不能操之過急
近年來,我國法律界主張對人工智能進(jìn)行統(tǒng)一立法的呼聲很高漲。很多學(xué)者憑借法律想象對我國人工智能立法中的問題積極獻(xiàn)言獻(xiàn)策,力圖促成人工智能統(tǒng)一立法早日落地。
比如,有的學(xué)者套用民法上的概念不僅界定人工智能的法律主體地位,還給人工智能確定監(jiān)護(hù)人。更多的學(xué)者從宏大的視角討論人工智能的立法定位、路徑等宏大問題。
作為一種新興技術(shù),人工智能發(fā)展快速,其產(chǎn)業(yè)競爭激烈。而且,人工智能技術(shù)對一個(gè)國家或經(jīng)濟(jì)體在國際競爭中的作用舉足輕重。
在此背景下,對人工智能的監(jiān)管立法必須慎重。既要規(guī)范人工智能技術(shù)可能對個(gè)體權(quán)利及公共安全帶來的損害風(fēng)險(xiǎn),更要保護(hù)并鼓勵(lì)創(chuàng)新,避免人工智能產(chǎn)業(yè)因?yàn)橛媳O(jiān)管而背負(fù)過重的合規(guī)成本而窒息產(chǎn)業(yè)發(fā)展。
(作者王佐發(fā)為西南科大法學(xué)院副教授)





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司




