蘋果詳解HomePod遠場語音識別,為何機器學習是重點?
日前,蘋果的音頻軟件工程和Siri語音團隊在公司名下的《機器學習期刊》欄目中發(fā)布了一篇博文,詳細介紹了公司研究團隊對HomePod智能揚聲器上的Siri在遠場環(huán)境中工作的優(yōu)化方法。
本文引用地址:http://m.butianyuan.cn/article/201812/395249.htm遠場語音識別是指在用戶在房間復雜的布局中離HomePod相對較遠的不同位置喚醒Siri,而實現(xiàn)該功能需要緊密地集成各種多通道信號處理技術以解決噪聲、混響、回聲等帶來的影響,相比在iPhone上工作,Siri在遠場環(huán)境中的工作原理更加復雜,技術上也存在更多的難點。
為了解決混響、噪聲和語音分離的問題,蘋果團隊使用了多個麥克風陣列和機器學習的方法:
1)基于掩模的多通道同步采集硬件利用深度學習進行算法研發(fā)和調(diào)優(yōu)來消除回聲和背景噪聲;
2)有語音重疊的情況下,利用無監(jiān)督學習分離聲源和基于音頻流選擇的語音喚醒消除干擾語音。
蘋果團隊搭建了一個系統(tǒng),集成了監(jiān)督式深度學習的模型和無監(jiān)督在線學習的算法,能利用和處理多個麥克風信號,通過使用自上而下的知識為語音識別器從“Hey Siri”語音喚醒探測器中選擇最合適的音頻流。該團隊表示,遠場語音識別不斷增強的性能得益于深度學習。
蘋果在近幾年把機器學習作為其研發(fā)工作的重點,iPhone A12和iPad Pro A12X上的神經(jīng)引擎使芯片的性能不僅比此前的蘋果設備搭載的芯片強大很多倍,同時也令其他競爭公司的SoC芯片遜色不少。
如今很多科技產(chǎn)品的營銷宣傳中都帶有“機器學習”一詞,以至令消費者覺得這是一個似乎沒有什么意義的泛用詞。相比之下,谷歌在這方面做得很好,經(jīng)常利用博客讓其用戶與合作伙伴對機器學習有更深入的理解,顯然蘋果現(xiàn)在也在做同樣的事情。
就目前而言,亞馬遜和谷歌在數(shù)字助理技術方面處于市場領先地位。蘋果盡管也有語音助手Siri,但與這些競爭對手相比其背后使用的方法的是不一樣的,因此蘋果要追趕上亞馬遜和谷歌的步伐也并不容易。與用戶最相關的是,蘋果專注在本地計算機(用戶的、或應用程序、或功能開發(fā)人員的)執(zhí)行機器學習的任務,而不是在云平臺。雖然蘋果Core ML API也允許開發(fā)人員在云外部的網(wǎng)絡中使用,安卓設備也可以進行本地處理(如照片),但這兩者的重點不同。
蘋果今年初推出的HomePod雖然具備出色的音質(zhì)和Siri的即時響應,但該設備對Spotify支持的缺乏和不低的價格成為影響消費者選擇的掣肘,值得一提的是,蘋果在此前的季度收益報告中也未明確說明HomePod單獨的出貨量。
評論