AI作曲興起,如何展現人類創造優勢

想象一下——耳邊傳來“巴赫風格”的賦格(復調音樂載體),但作曲家並不是活生生的人,而是MuseNet(深度神經網絡音樂生成模型)。或者,舞臺上播放的配樂獲得了歐洲音樂獎提名,可作者是人工智能AIVA(一款AI作曲引擎)。2025年的今天,AI正以驚人的速度改變音樂生產的方式:它能譜曲、配器、混音,甚至模仿某位作曲家的“手感”。然而現在的問題不再是我們能否抵抗AI,而是在這場浪潮中,人類的創造力該如何被激發?創造優勢該如何展現?

正如美國哲學家約翰·杜威所言——“藝術的意義在於經驗的再生與延續”,因此創造力不是靜態的遺產,而是一種不斷更新的生命力。AI的到來迫使我們重新審視藝術的本質:什麼是人類獨有的?我們還能怎樣創造?要真正激發創造力,就必須把人放回音樂的中心,讓技術成爲靈感的放大器,而不是替代者。

AI能生成“像”的音樂,卻無法回答“爲什麼此刻要這樣寫”。真正的創造力來自作曲者與世界的獨特關係。要激發主體性,我們首先要讓創作者重新擁有選擇與感受的自由。

一種可行的做法是建立“人機共創實驗室”。讓AI不再只是工具,而是合作者。例如,音樂家可以利用AI提供素材草圖,再根據個人情緒、文化背景重組它,形成具有個性印記的新作品。瑞典作曲家安娜·索德倫在其作品《Echoes of Code》中,就將AI生成的旋律片段通過即興演奏不斷變形,使技術成爲情感的觸發點。

另一種做法是,可以推廣“創作軌跡記錄”制度。通過數字日誌記錄作曲過程中的關鍵決策、素材修改與情感反應,讓作品呈現出“人思考的痕跡”。這不僅是版權保護,更是一種文化聲明——音樂仍屬於有血有肉的創作者。

AI可以模仿風格,卻模仿不了情緒的複雜性。激發創造力的關鍵,是讓音樂重新成爲情感的現場。情感並非浪漫的附加,而是人類藝術不可替代的根源。

“情緒數據化作曲”是一種可行的創新嘗試。這種作曲方式,通過採集作曲者的心率、腦電、呼吸節奏,將其映射到音色與節奏變化上,讓音樂成爲“情緒的物理記錄”。美國作曲家託德·馬奇就曾以此創作“心跳交響曲”,實現了技術與心靈的互動。

同時,應當鼓勵“文化記憶編碼”實踐。每位創作者都有獨特的文化語境——方言的音調、民族樂器的呼吸、地方戲曲的韻律。將這些元素數字化並嵌入AI系統,不是爲了複製,而是爲了保留文化的多樣性。這讓音樂成爲一個“活着的檔案”,也讓AI學習到人類經驗的豐富與差異。

如果說AI讓創作門檻降低,那麼教育的使命就是讓“思考”門檻提升。未來的音樂教育,應該更像藝術孵化器,而非技能訓練營。例如,在芬蘭西貝柳斯音樂學院,他們開設了“即興與跨界合作”課程,讓作曲學生與舞蹈、美術、科技專業學生共同完成跨感官創作;或者開設“算法批評”課程,讓學生分析AI訓練數據中的文化偏見,學習如何與機器對話。以上實踐表明,這種跨界教育能顯著提高學生的原創性與合作思維。

我們還可以從作曲理論課程中選取一些課嘗試改革與升級。《和聲學》:跳出大調/小調框架,探索微分音、頻譜和聲、多重節奏——AI難以“套公式”。《作品分析》:不僅看結構,還要分析AI的訓練數據和算法偏見,討論文化風險。《視唱練耳》:加入跨感官訓練(色彩—音高、空間—節拍、觸覺—音色),並在即興合奏中培養快速反應和協作能力。

在制度層面,音樂產業也需構建“透明共創機制”。在韓國,有廠牌規定所有含AI生成部分的歌曲必須標明“AI參與比例”,並公開訓練數據的來源,這既是版權保護,也是尊重聽衆的知情權。在國內,B站的一些音樂UP主,會在視頻中同步展示自己的創作過程,包括即興演奏、刪改旋律、調整節奏等,讓觀衆在“看着音樂誕生”的同時,對作品的獨特性有了直觀感受。

爲了凸顯“人”的重要性,在產業方面,我們可以嘗試:將作品分成人類創意層、算法生成層、演繹層,按比例分配收益;發行作品時附上生成日誌,便於評審和維權;上線前做文化風險評估,防止挪用特定羣體的音樂元素。

在演出方面,可以嘗試:實時投影創作者的決策路徑,讓觀衆“看見”音樂如何被改變;保留換氣、指尖摩擦等“脆弱的聲音”,讓舞臺更有人味;讓觀衆的心跳、呼吸等數據實時參與音樂生成,每一場都獨一無二。

AI能快速生成“聽起來不錯”的音樂,但那些源於個人生命體驗、文化記憶、獨特感知的作品,只能由人類創造。這是音樂文明的基因,也是未來藝術進化的種子。

人工智能不會終結人的音樂,反而提醒我們什麼纔是真正的創造。激發創造力,不在於拒絕技術,而在於讓技術激起新的思考與表達。未來的音樂世界,也許不再區分“人”與“機”的作品,而是區分“有沒有靈魂”的作品。只要人類仍然擁有好奇心、共情力與想象力,音樂就不會被取代。因爲真正的旋律,始終來自我們內心最深處的震動。

《光明日報》(2025年11月12日 13版)



Scroll to Top