- +1
“人類簡史系列”作者赫拉利:真正值得擔心的不是技術,而是不顧邊界地部署技術
9月11日上午,2025Inclusion·外灘大會開幕式暨主論壇,歷史學家、哲學家、“人類簡史系列”作者尤瓦爾·赫拉利發(fā)表演講,他認為,進步不應只以技術進步的速度衡量,而在于人類能否建立合作、信任與共情。

赫拉利表示,人工智能不僅是自動化工具,還是“會行動的主體”,有能力自己做決定,有時甚至能自己創(chuàng)造出全新的想法。
“我并不反對科技變革。但作為歷史學者,我對變革的節(jié)奏和方式感到擔憂,”赫拉利稱,歷史上變革最大的問題往往不是最終目標,而是通向目標的過程。
他認為,人類是適應能力極強的生物,但需要時間來適應,也需要可靠的機制。每當歷史上出現(xiàn)強大的新技術時,社會都要花很長時間去發(fā)明與之相匹配的制度與習慣。例如工業(yè)化不僅是蒸汽機的故事,還需要公司法、環(huán)保法規(guī)與社會保障網(wǎng)絡等更多配套機制。
“人工智能與所有以往技術的不同之處在于,它觸及了社會的中樞神經(jīng)系統(tǒng),”在赫拉利看來,人們面臨的人工智能危險,“不是一個壞人按一個壞按鈕”,相反,危險在于周圍悄然發(fā)生的無形過程。科幻小說里提到過“機器人叛亂”,但真正的危險更安靜且更令人恐懼——決定權從可質詢的人類移交給看不見的算法。
“單有速度,不是進步,”赫拉利認為,實現(xiàn)真正的進步,首先是合作。“如果切斷與他人的一切聯(lián)系,僅僅依靠自己,這不會讓你更強,最終那會讓你窒息。把這個古老的教訓帶入人工智能時代,意味著建立可驗證的全球承諾,而不僅僅看‘誰跑得更快’?!?/p>
其次,真正值得擔心的不是技術本身,而是為了競爭優(yōu)勢,不顧安全邊界地部署技術。他表示,任何真正重塑人類社會的系統(tǒng),都不應“先上線再治理”?!皻v史已多次證明,速度和安全可以并存,但前提是我們構建自我修正的機制閉環(huán)。一個發(fā)達的技術社會,必須有辦法及時發(fā)現(xiàn)并糾正自身的錯誤和偏見,這樣就能保證快速而安全地運轉?!?/p>
他認為,如果我們在還沒有學會識別和糾正系統(tǒng)不可避免的錯誤之前,就貿然讓人工智能“奔跑”,那么速度的代價,就會讓最無力的群體承擔。
最后是他認為,人類應該帶著記憶前進。赫拉利說,當人工智能開始接管決策過程和構建敘事,我們必須守護人類記憶和講述自身故事的能力。“如果把記憶托付給非人類智能,我們將一無所有。”
赫拉利呼吁,在人工智能時代,我們必須留給人類足夠的時間來保存記憶,建立彼此之間的信任與感情?!昂饬窟M步,不在于技術的速度,而在于我們之間合作的力度和共情的深度”。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




