- +1
AI“編舞師”破譯人類大腦如何欣賞舞蹈
·也許有一天,AI編舞師可以根據(jù)你的腦回路特征,為你量身定制一支最能打動你的舞蹈。
當(dāng)我們欣賞一段舞蹈時,大腦如何將視覺上的動作與聽覺上的旋律融合成一種名為“美”的體驗?這是神經(jīng)科學(xué)中最具挑戰(zhàn)性的問題之一,原因在于科學(xué)家們?nèi)狈σ话涯芎饬俊八囆g(shù)感”的尺子。
隨著人工智能(AI)技術(shù)的發(fā)展,這個困境有望被一種新的方法論所突破。在一項新研究中,研究者另辟蹊徑,先構(gòu)建了一個“懂舞蹈”的人工智能,然后用這個AI作為“解碼器”,反向破譯了人腦的神經(jīng)活動。該研究于11月19日發(fā)表在《自然·通訊》(Nature Communications)雜志上,作者來自東京大學(xué)、大阪大學(xué)及日本信息通信研究機(jī)構(gòu)(NICT)。
研究團(tuán)隊使用的這個名為“EDGE”的跨模態(tài)AI模型可以被想象成一位學(xué)習(xí)了海量數(shù)據(jù)的“編舞師”。它不僅能“看懂”舞者的動作,還能“聽懂”背景音樂的節(jié)奏和旋律。通過深度學(xué)習(xí),這個AI的任務(wù)是根據(jù)過去的動作和當(dāng)前的音樂,預(yù)測下一個最和諧、最自然的舞步。
研究者們提出了一個假設(shè):如果這個AI為了生成優(yōu)美的舞蹈而形成的內(nèi)部表征(即它對“動作-音樂”關(guān)系的理解),恰好與人腦處理這些信息的方式不謀而合,那我們不就能用AI的“語言”來“翻譯”大腦的活動了嗎?
在實驗中,研究人員首先邀請了專業(yè)舞者和舞蹈新手,讓他們躺在功能性磁共振成像(fMRI)掃描儀中,觀看了長達(dá)五小時的涵蓋街舞、爵士舞等多種風(fēng)格的真實舞蹈視頻。同時,研究人員提取了AI模型中負(fù)責(zé)整合音樂和動作的跨模態(tài)特征,并將這些數(shù)學(xué)參數(shù)與fMRI成像數(shù)據(jù)進(jìn)行比對。
結(jié)果顯示,AI提取的“視聽融合”特征,比單純的“動作特征”或“音樂特征”能更準(zhǔn)確地預(yù)測人類大腦的活動。這意味著我們的大腦在欣賞舞蹈時,不是把視覺和聽覺做簡單的加法,而是在高級視覺區(qū)和聯(lián)合皮層(如前額葉和頂葉)進(jìn)行了一場復(fù)雜的跨感官神經(jīng)活動,將動作與音樂融合成了一個整體的體驗。
通過AI“讀心術(shù)”,研究還探究了哪些舞蹈概念與哪些區(qū)域的大腦活動相關(guān)。例如,充滿活力的舞蹈能顯著激活大腦中與自我意識相關(guān)的“默認(rèn)模式網(wǎng)絡(luò)”,而被評價為“無聊”的舞蹈則會抑制這些區(qū)域的活動。這或許解釋了為何引人入勝的藝術(shù)能讓我們暫時忘記自我,而乏味的表演則讓思緒飄忽不定。
這項研究不僅加深了我們對藝術(shù)審美的神經(jīng)機(jī)制的理解,也為一種“神經(jīng)美學(xué)”應(yīng)用提供了可能:也許有一天,AI編舞師可以根據(jù)你的腦回路特征,為你量身定制一支最能打動你的舞蹈。
參考文獻(xiàn):
Yu Takagi, et al. Cross-modal deep generative models reveal the cortical representation of dancing. Nature Communications, 2025, 16 (9937).





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




