(香港文匯報 記者 姜嘉軒)藝術(shù)與科技的融合,有助人們發(fā)掘更多前所未見的可能性。香港浸會大學將於下周四(14日)晚舉行周年音樂會,結(jié)合該校最新的AI藝術(shù)科技研究成果,以「重聚」為主題慶祝香港回歸祖國25周年。負責項目及當日指揮的浸大協(xié)理副校長(跨學科研究)潘明倫介紹,音樂會將包括由AI舞蹈家Daphnis及Chloe表演經(jīng)學習由浸大科學家收集的動作數(shù)據(jù)後自行編排的芭蕾舞,及由超過300個聲音組成的AI人虛擬合唱團唱出《東方之珠》,與浸大的真人交響樂團互動合作演出。同場亦會顯示由AI藝術(shù)家理解《東方之珠》歌詞和旋律後,自行創(chuàng)作配合歌曲意境的跨媒體視覺形象。這是全球首場同類的人機合作表演,為觀眾帶來嶄新的跨界交響樂體驗。
浸大的「香港人機共生藝術(shù)創(chuàng)造平臺技術(shù)建設(shè)」項目去年獲研資局撥款5,283萬元,開展為期5年的藝術(shù)科技研究。潘明倫形容,是次演出是研究的「第一張成績表」,「但不是以『硬蹦蹦』的科學論文形式,而是一場實際的音樂會,向大家報告。」
他指出,今次採用的人工智能具備一定的理解、學習、自主能力,「不是由人去叫它做些什麼、行左行右,而是讓人工智能學習人類藝術(shù)的本質(zhì),讓它自主創(chuàng)作,再回來跟人合作(表演)。」

捕捉舞者動作 學習音樂理解
負責AI舞蹈家項目的浸大計算機科學系助理教授陳杰介紹,團隊邀得香港舞蹈團派員擔任「舞蹈老師」,透過動作捕捉技術(shù)(Motion capture)讓人工智能學習舞者對音樂的理解和表現(xiàn)方式,「在舞蹈家的腦海裏,這個動作對於某一段音樂、某一段故事情節(jié),他的理解到底是如何……AI所學到的是箇中相對應(yīng)的關(guān)係?!?/p>
當人工智能學習到舞者對音樂的理解與動態(tài)後,就會開始自行編舞。陳杰補充,團隊今次還加入了浸大團隊在香港新發(fā)現(xiàn)的一種箱型水母動態(tài)數(shù)據(jù),作為人工智能的編舞意念,使其舞蹈更具特色。
通過數(shù)人音色 生成數(shù)百聲音
該系另一助理教授雪巍介紹,其負責的AI虛擬合唱團有約300道人聲,但最初用作給它學習的,其實只有數(shù)把人類聲音,「最初是錄製特定歌手的聲音,但他們不需要指定唱《東方之珠》,甚至無須唱歌,說話都可以,然後生成出這個人唱任何歌的模型?!沟诙絼t是通過數(shù)個人的音色,生成出數(shù)百個不同的虛擬歌手,最後跟音樂家合作,訓練虛擬歌手們把歌唱得優(yōu)美。
潘明倫說,有如教小朋友唱歌一般,虛擬歌手起初唱得並不好,「開始時會唱錯音、爆音,又或是唱不上高音等等,要透過程式不斷訓練,使其不斷改善。」
依據(jù)歌詞旋律 創(chuàng)作視像內(nèi)容
AI藝術(shù)家的負責人、計算機科學系專業(yè)應(yīng)用副教授柳崎峰介紹,AI懂得依據(jù)《東方之珠》的歌詞和旋律,自主生成3D視像內(nèi)容,「內(nèi)容會根據(jù)歌詞不斷變化,動態(tài)生成,其視角也會根據(jù)旋律而變化,例如音量高,視角也會飛得愈高。當節(jié)奏加快,視角向前的速度也會加快,就是以音樂特點驅(qū)動內(nèi)容生成?!?/p>
在大約3分鐘的音樂裏面,AI藝術(shù)家合共生成約2,700張圖像,且畫面與畫面之間均有著緊密的邏輯關(guān)係,柳崎峰形容,這也可以理解是一個「說故事」(Storytelling)的過程。
「屆時觀眾會見到我們(交響樂團)真人演奏,背後有虛擬合唱團的聲音,前面則會有一幅很薄的幕,顯示相關(guān)影像內(nèi)容?!古嗣鱾惐硎尽F隊目前正把握最後時間,希望教會人工智能實時理解並配合指揮的動作,進一步深化人機互動。
音樂會資料
◆日期:2022年7月14日(周四)
◆時間:晚上8時
◆地點:香港大會堂音樂廳
◆演出:AI舞蹈家Daphnis及Chloe、AI虛擬合唱團、AI媒體藝術(shù)家、浸大交響樂團,是全球首場同類的人機合作的表演
◆節(jié)目查詢:3411 5153(mus@hkbu.edu.hk)
◆部分門票7月4日起在香港大會堂詢問處免費派發(fā),每人限取兩張。先到先得,派完即止(查詢電話:2921 2840)
(整理︰香港文匯報記者)
(來源:香港文匯報A21:新聞透視眼 2022/07/05)

