MIT又一突破!用AI過濾音源,讓音樂更悅耳
一般利用均衡器可以將音樂中的低音部分調(diào)出來,但是麻省理工學(xué)院的計算機科學(xué)和人工智能實驗室(Computer Science and Artificial Intelligence Lab,CSAIL)的研究人員發(fā)現(xiàn)了更好的解決方案。他們所研發(fā)的新系統(tǒng) PixelPlayer,能夠利用人工智能來區(qū)分和過濾聲音,讓音樂聽起來更洪亮或更柔和。
本文引用地址:http://m.butianyuan.cn/article/201807/382989.htm將指定視頻錄入經(jīng)過充分訓(xùn)練的 PixelPlayer,系統(tǒng)隨機能夠過濾伴奏,同時識別音源,接著計算圖像中每個像素的音量,然后通過“空間定位”確定產(chǎn)生相似音波的片段。
今年9月,德國慕尼黑即將舉行歐洲計算機視覺會議(European Conference on Computer Vision),會議中要發(fā)表的一篇新論文則詳細論述了“像素的聲音(The Sound of Pixels)”。麻省理工學(xué)院計算機科學(xué)和人工智能實驗室的博士生,同時也是這篇論文的合著者 Zhao Hang 同學(xué)表示,“最好的情況就是,我們能識別出哪種樂器發(fā)出怎樣的聲音?!?/p>
PixelPlayer 的核心是一種基于樂器組合多模態(tài)訓(xùn)練的神經(jīng)網(wǎng)絡(luò),數(shù)據(jù)集采用了 Youtube 上 714 條未經(jīng)修剪且未經(jīng)標(biāo)記的視頻。其中,總時長為 60 小時的 500 條視頻用于訓(xùn)練,剩余的則用于驗證和測試。在訓(xùn)練過程中,研究人員分別根據(jù)原聲吉他、大提琴、單簧管、長笛和其他樂器向系統(tǒng)饋入了算法。
這只是 PixelPlayer 多重機器學(xué)習(xí)框架的一個部分。經(jīng)過訓(xùn)練后的視頻分析算法將從剪輯幀中提取出視覺特征,這就是系統(tǒng)的第二個神經(jīng)網(wǎng)絡(luò),即音頻分析網(wǎng)絡(luò)。音頻分析網(wǎng)絡(luò)將聲音拆分為片段,并從中提取特征。最后,音頻合成網(wǎng)絡(luò)將把上述兩個網(wǎng)絡(luò)輸出的特定像素和聲波關(guān)聯(lián)起來。
PixelPlayer 進行完全自監(jiān)督的學(xué)習(xí),人們無需對數(shù)據(jù)注釋,而且系統(tǒng)目前已經(jīng)能識別 20 種樂器。Zhao Hang 說,較大的數(shù)據(jù)集增強了系統(tǒng)的識別量,但識別樂器子類的能力卻不佳。系統(tǒng)也可以識別音樂元素,例如小提琴的諧波頻率。
研究人員認為 PixelPlayer 可以進行聲音剪輯,或者幫助機器人理解動物、車輛和其他物體所制造的環(huán)境聲音。他們寫到,“我們希望我們的工作能夠開辟新的研究途徑,從視覺和聽覺信號角度實現(xiàn)聲源分離”。
評論