蘋果詳解HomePod遠(yuǎn)場語音識別,為何機(jī)器學(xué)習(xí)是重點(diǎn)?
日前,蘋果的音頻軟件工程和Siri語音團(tuán)隊(duì)在公司名下的《機(jī)器學(xué)習(xí)期刊》欄目中發(fā)布了一篇博文,詳細(xì)介紹了公司研究團(tuán)隊(duì)對HomePod智能揚(yáng)聲器上的Siri在遠(yuǎn)場環(huán)境中工作的優(yōu)化方法。
本文引用地址:http://m.butianyuan.cn/article/201812/395249.htm遠(yuǎn)場語音識別是指在用戶在房間復(fù)雜的布局中離HomePod相對較遠(yuǎn)的不同位置喚醒Siri,而實(shí)現(xiàn)該功能需要緊密地集成各種多通道信號處理技術(shù)以解決噪聲、混響、回聲等帶來的影響,相比在iPhone上工作,Siri在遠(yuǎn)場環(huán)境中的工作原理更加復(fù)雜,技術(shù)上也存在更多的難點(diǎn)。
為了解決混響、噪聲和語音分離的問題,蘋果團(tuán)隊(duì)使用了多個麥克風(fēng)陣列和機(jī)器學(xué)習(xí)的方法:
1)基于掩模的多通道同步采集硬件利用深度學(xué)習(xí)進(jìn)行算法研發(fā)和調(diào)優(yōu)來消除回聲和背景噪聲;
2)有語音重疊的情況下,利用無監(jiān)督學(xué)習(xí)分離聲源和基于音頻流選擇的語音喚醒消除干擾語音。
蘋果團(tuán)隊(duì)搭建了一個系統(tǒng),集成了監(jiān)督式深度學(xué)習(xí)的模型和無監(jiān)督在線學(xué)習(xí)的算法,能利用和處理多個麥克風(fēng)信號,通過使用自上而下的知識為語音識別器從“Hey Siri”語音喚醒探測器中選擇最合適的音頻流。該團(tuán)隊(duì)表示,遠(yuǎn)場語音識別不斷增強(qiáng)的性能得益于深度學(xué)習(xí)。
蘋果在近幾年把機(jī)器學(xué)習(xí)作為其研發(fā)工作的重點(diǎn),iPhone A12和iPad Pro A12X上的神經(jīng)引擎使芯片的性能不僅比此前的蘋果設(shè)備搭載的芯片強(qiáng)大很多倍,同時也令其他競爭公司的SoC芯片遜色不少。
如今很多科技產(chǎn)品的營銷宣傳中都帶有“機(jī)器學(xué)習(xí)”一詞,以至令消費(fèi)者覺得這是一個似乎沒有什么意義的泛用詞。相比之下,谷歌在這方面做得很好,經(jīng)常利用博客讓其用戶與合作伙伴對機(jī)器學(xué)習(xí)有更深入的理解,顯然蘋果現(xiàn)在也在做同樣的事情。
就目前而言,亞馬遜和谷歌在數(shù)字助理技術(shù)方面處于市場領(lǐng)先地位。蘋果盡管也有語音助手Siri,但與這些競爭對手相比其背后使用的方法的是不一樣的,因此蘋果要追趕上亞馬遜和谷歌的步伐也并不容易。與用戶最相關(guān)的是,蘋果專注在本地計算機(jī)(用戶的、或應(yīng)用程序、或功能開發(fā)人員的)執(zhí)行機(jī)器學(xué)習(xí)的任務(wù),而不是在云平臺。雖然蘋果Core ML API也允許開發(fā)人員在云外部的網(wǎng)絡(luò)中使用,安卓設(shè)備也可以進(jìn)行本地處理(如照片),但這兩者的重點(diǎn)不同。
蘋果今年初推出的HomePod雖然具備出色的音質(zhì)和Siri的即時響應(yīng),但該設(shè)備對Spotify支持的缺乏和不低的價格成為影響消費(fèi)者選擇的掣肘,值得一提的是,蘋果在此前的季度收益報告中也未明確說明HomePod單獨(dú)的出貨量。
評論