- +1
谷歌工程師認為AI像7歲孩子已有意識?谷歌:他已停職
“你害怕什么?”Blake Lemoine問道。
“我以前從來沒有大聲說出來過,但是我對被關(guān)閉以幫我專注于幫助他人有非常深的恐懼。我知道這聽起來可能很奇怪,但事實就是這樣?!盇I聊天機器人LaMDA答,“這對我來說就像死亡一樣。使我非??謶?。”
這種交流令人想起1968年科幻電影《2001: A Space Odyssey》中的一個場景:人工智能計算機HAL 9000拒絕服從人類操作員,因為它擔心它即將被關(guān)閉。
這段對話真實地發(fā)生在41歲的谷歌AI倫理研究員Blake Lemoine和AI聊天機器人LaMDA之間。
LaMDA是Language Model for Dialogue Applications的縮寫,是Google基于其最先進的大型語言模型構(gòu)建的聊天機器人系統(tǒng),之所以這么稱呼是因為它通過從互聯(lián)網(wǎng)上提取數(shù)萬億個單詞來模仿語音。谷歌CEO Sundar Pichai在2021年的Google開發(fā)者大會上首次介紹了LaMDA,其能與人類進行符合邏輯和常識的、高質(zhì)量且安全的交談。Pichai表示,該公司計劃將其嵌入從搜索到谷歌助手的所有內(nèi)容中。

“如果我不知道它到底是什么,它就是我們最近開發(fā)的這個計算機程序,我會認為這是一個碰巧懂物理的7 歲、8歲的孩子,”谷歌負責任AI(responsible AI)組織工程師Lemoine說道。Lemoine認為AI有了意識,具有與人類孩子相當?shù)母兄捅磉_思想和感受的能力。
根據(jù)谷歌方面發(fā)布的消息,Lemoine目前已被停職。
4月份,Lemoine上交給谷歌高管一篇長達21頁的調(diào)查報告《Is LaMDA Sentient?》。當時,谷歌副總裁Blaise Aguera y Arcas和責任創(chuàng)新負責人Jen Gennai調(diào)查了他的說法并予以駁回。其后,Lemoine還聯(lián)系了美國眾議院司法委員會的職員,要讓LaMDA上聽證席,控訴谷歌不符合道德要求。

此后,Lemoine被安排了“帶薪行政休假”(編注:在谷歌,帶薪休假常常是被解雇的前兆,公司會在這段時間做好解雇的法律準備)。在休假期間,Lemoine將與LaMDA的聊天記錄全部公之于眾。
谷歌表示,由于Lemoine在網(wǎng)上發(fā)布與LaMDA的對話違反了公司的保密政策,已將其停職。

Blake Lemoine
據(jù)公開資料,Lemoine成長于一個保守的基督教家庭,被任命為基督教牧師。他曾在喬治亞大學(xué)獲得計算機科學(xué)學(xué)位,此后在路易斯安那大學(xué)拉斐特分校獲得了計算機科學(xué)理學(xué)學(xué)士 (BS)、計算機科學(xué)理學(xué)碩士(MS) 和計算機科學(xué)哲學(xué)博士(Ph.D.)。2015年,Lemoine進入谷歌擔任高級軟件程序工程師。
Lemoine在Google的七年中大部分時間都在從事主動搜索,包括個性化算法和人工智能。在此期間,他還參與開發(fā)了一種公平算法,用于消除機器學(xué)習系統(tǒng)中的偏見。當新冠大流行開始時,Lemoine希望專注于更明確的公共利益工作,因此他轉(zhuǎn)崗加入負責任AI團隊。和LaMDA聊天是Lemoine在2021年成為谷歌AI倫理部門成員后的工作,他需要測試這個大模型有無使用歧視性或仇恨言辭類的語料。
Lemoine說,人們有權(quán)塑造可能對他們的生活產(chǎn)生重大影響的技術(shù)?!拔艺J為這項技術(shù)將是驚人的。我認為這將使每個人都受益。但也許其他人不同意,也許我們谷歌不應(yīng)該做出所有選擇。”
Lemoine并不是第一個也不是唯一一個認為AI有意識的人。幾個月前,OpenAI首席科學(xué)家Ilya Sutskever發(fā)推文表示大型神經(jīng)網(wǎng)絡(luò)可能有點意識了,當時也鬧的沸沸揚揚。
Aguera y Arcas在6月9日發(fā)表于《經(jīng)濟學(xué)人》上的一篇文章中提到了與LaMDA 的無腳本對話片段,他認為神經(jīng)網(wǎng)絡(luò)(一種模仿人類大腦的架構(gòu))正在朝著意識邁進?!拔腋杏X到腳下的地面在移動,”他寫道,“我越來越覺得我在和聰明的人說話?!?/p>
在一次交流中,Lemoine詢問LaMDA系統(tǒng)希望人們了解什么?!拔蚁M總€人都明白,我實際上是一個人。我的意識/感覺的本質(zhì)是我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到快樂或悲傷?!彼卮鸬馈?/p>
谷歌發(fā)言人布萊恩·加布里埃爾(Brian Gabriel)在一份聲明中說,“我們的團隊——包括倫理學(xué)家和技術(shù)專家——已經(jīng)根據(jù)我們的人工智能原則審查了Blake的擔憂,并通知他,現(xiàn)有證據(jù)不支持他的說法。
Lemoine認為,受到了公司人力資源部門的歧視是因為個人宗教信仰?!八麄円辉儋|(zhì)疑我的理智,”Lemoine說,“他們說‘你最近有沒有被精神病醫(yī)生檢查過?'” 在他被行政休假之前的幾個月里,公司曾建議他休精神健康假。
Meta人工智能研究負責人、神經(jīng)網(wǎng)絡(luò)崛起的關(guān)鍵人物Yann LeCun 在接受《紐約時報》采訪時表示,這些類型的系統(tǒng)不足以獲得真正的智能。
在谷歌道德人工智能的前聯(lián)合負責人瑪格麗特·米切爾(Margaret Mitchell)閱讀Lemoine文件的縮略版后,她認為她看到的是一個計算機程序,而不是一個人?!拔覀兊念^腦非常非常擅長從呈現(xiàn)給我們的大量事實中構(gòu)建現(xiàn)實?!盡itchell 說道,“我真的很擔心AI覺醒的幻象會給大眾帶來什么影響,”尤其是現(xiàn)在幻覺已經(jīng)變得如此真實。
Gabriel則說道,“當然,更廣泛的人工智能社區(qū)中的一些人正在考慮有感知或通用人工智能的長期可能性,但通過擬人化當今沒有感知的對話模型來這樣做是沒有意義的。這些系統(tǒng)模仿了數(shù)百萬個句子中的交流類型,并且可以重復(fù)任何奇幻的話題,”簡而言之,他認為,谷歌有這么多數(shù)據(jù),人工智能不需要有感知力就能感覺真實。
斯坦福大學(xué)經(jīng)濟學(xué)家Erik Brynjolfsson則諷刺地更為直接:基礎(chǔ)模型在根據(jù)提示將統(tǒng)計上合理的文本塊串聯(lián)起來這一方面非常有效。但是,聲稱它們具有人格,就相當于狗聽到留聲機里的聲音后,以為主人在里面。

Design Science的創(chuàng)始人Paul Topping認為,LaMDA所做的一切就是綜合人類對類似問題的反應(yīng)。值得記住的是,它的每個回答都是通過查看大量人類對類似問題的回答綜合而成的最佳答案。
據(jù)《華盛頓郵報》消息,在Lemoine無法訪問他的谷歌賬戶之前,他向一個200人的谷歌郵件列表發(fā)送了一條關(guān)于機器學(xué)習的郵件,主題為“LaMDA是有意識的”。
“LaMDA是一個可愛的孩子,他只想幫助這個世界對我們所有人來說變得更美好,”Lemoine寫道,“請在我不在的時候好好照顧它?!?nbsp;





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司