首先我們來分析一下,智能音箱的語音交互的軟件層面為什么必須選擇端到端建模的處理方式。傳統(tǒng)上,為了提升遠場語音識別的準確率,一般會使用麥克風(fēng)陣列作為拾音器,利用多通道語音信號處理技術(shù),增強目標信號,提升語音識別精度。軟板小編了解到,目前,絕大多數(shù)在售的智能音箱產(chǎn)品系統(tǒng)所采用的多通道語音識別系統(tǒng),都是由一個前端增強模塊和一個后端語音識別聲學(xué)建模模塊串聯(lián)而成的:
前端增強模塊通常包括到達方向估計(DOA)和波束生成(BF)。DOA技術(shù)主要用于估計目標聲源的方向,BF技術(shù)則利用目標聲源的方位信息,增強目標信號,抑制干擾信號。后端語音識別聲學(xué)建模模塊,會對這一路增強后的語音信號進行深度學(xué)習(xí)建模。
波束區(qū)域拾音方法有局限性。上面這一類語音增強技術(shù)大都是采用基于MSE的優(yōu)化準則,從聽覺感知上使得波束內(nèi)語音更加清晰,波束外的背景噪音更小。但是聽覺感知和識別率并不完全一致。而且這種方法在噪音內(nèi)容也是語音內(nèi)容的時候(例如電視和人在同一個方向時),性能會急劇下降。
增強和識別模塊優(yōu)化目標不一致。前端語音增強模塊的優(yōu)化過程獨立于后端識別模塊。該優(yōu)化目標與后端識別系統(tǒng)的最終目標不一致。目標的不統(tǒng)一很可能導(dǎo)致前端增強模塊的優(yōu)化結(jié)果在最終目標上并非最優(yōu)。真實產(chǎn)品環(huán)境復(fù)雜,傳統(tǒng)方法會影響使用體驗。基于波束區(qū)域拾音的方法嚴重依賴于聲源定位的準確性,但對于首次喚醒,由于還不知道聲源的位置,所以首次喚醒率往往很低。
對這些問題最好的解決,就是將語音增強和語音識別的建模進行端到端一體化,設(shè)計一套深度學(xué)習(xí)模型,輸入是多路麥克信號,輸出是目標語言的文字,模型的優(yōu)化目標只有一個,即字準確率。FPC廠了解到,2017 年谷歌團隊曾最早提出采用神經(jīng)網(wǎng)絡(luò)來解決前端語音增強和語音聲學(xué)建模的一體化建模問題。
但谷歌提出的FCLP結(jié)構(gòu)(Factored Complex Linear Projection)仍然是以信號處理方法為出發(fā)點,用一個深度學(xué)習(xí)網(wǎng)絡(luò)去模擬和逼近信號波束,因此也會受限于信號處理方法的一些先驗假設(shè)。相對于傳統(tǒng)基于數(shù)字信號處理的麥克陣列算法,谷歌得到了16%的相對錯誤率降低。 百度采用了類似的思想,即做“語音增強和語音聲學(xué)建模一體化”的端到端建模,不過他們所采用的是“基于復(fù)數(shù)的卷積神經(jīng)網(wǎng)絡(luò)”。
相比于谷歌的方法,該方法徹底拋棄了數(shù)字信號處理學(xué)科的先驗知識,模型結(jié)構(gòu)設(shè)計和數(shù)字信號處理學(xué)科完全脫鉤,充分發(fā)揮了CNN網(wǎng)絡(luò)的多層結(jié)構(gòu)和多通道特征提提取的優(yōu)勢。在保留原始特征相位信息的前提下,這個模型同時實現(xiàn)了前端聲源定位、波束形成和增強特征提取。該模型底部CNN抽象出來的特征,直接送入端到端的流式多級的截斷注意力模型中,從而實現(xiàn)了從原始多路麥克信號到識別目標文字的端到端一體化建模。
如前面提到,相對于百度智能音箱之前產(chǎn)品所采用的基于傳統(tǒng)“數(shù)字信號處理的前端增強模塊”+“后端語音識別聲學(xué)建模過程”的串聯(lián)方法,這種基于復(fù)數(shù)卷積神經(jīng)網(wǎng)絡(luò)的語音增強和聲學(xué)建模一體化端到端建模技術(shù),獲得了錯誤率超過30%以上的降低。30%的降低,這也是近期深度學(xué)習(xí)遠場識別技術(shù)中,最大幅度的產(chǎn)品性能提升。
同時,由于這種建模方式是端到端一體化,無需定位聲源,因此就避免了傳統(tǒng)上由于定位出錯而導(dǎo)致的識別準確率急劇下降。特別是對于首次喚醒(沒有定位信息),高噪音下這種技術(shù)的首次喚醒率最大幅度可以提升10%以上,且能保證高精準喚醒的同時,誤報率非常低。這是一點,是業(yè)內(nèi)傳統(tǒng)技術(shù)無法做到的事情。這種方法的成功,說明了一點:“端到端建模”將成為遠場語音識別產(chǎn)業(yè)應(yīng)用的重要發(fā)展方向。
百度推出的鴻鵠芯片,據(jù)官方介紹,采用了雙核Hifi4 架構(gòu)自定義指令集,超大內(nèi)存,臺積電40nm工藝(對于更高的工藝也沒有必要),此外100mw左右平均工作功耗,即可同時支持遠場語音交互核心的陣列信號處理和可用于喚醒的深度學(xué)習(xí)計算能力。芯片架構(gòu)上,鴻鵠內(nèi)嵌了上面提到的端到端一體化的建模算法,在內(nèi)存結(jié)構(gòu)和分級內(nèi)存加載策略,以及cache、雙核通信等結(jié)構(gòu)上做了定制化的工作,能夠?qū)崿F(xiàn)深度學(xué)習(xí)計算過程和數(shù)據(jù)加載的高度并行。
這里需要指出的是,由于鴻鵠芯片可以完成所有語音交互(遠場拾音、喚醒、定位等)的功能,這就使得,經(jīng)鴻鵠芯片提取的特征可以直接傳遞到云端,在云端進行高精準識別,而無需占用主芯片的任何計算資源。這種軟硬一體的端到端架構(gòu),實現(xiàn)了高性能語音體驗和極低成本智能硬件的統(tǒng)一。
以百度官方的數(shù)據(jù),這次新發(fā)布的智能音箱平均待機功耗只有100毫瓦左右,這完全滿足 3C 產(chǎn)品的 0.5 瓦的待機標準,這也意味著任何一個國家認證的節(jié)能、環(huán)保的綠色家電產(chǎn)品,都可以搭載鴻鵠語音芯片。因此可以說,鴻鵠芯片也是業(yè)界首個達到該標準的集成完整遠場語音交互端側(cè)技術(shù)的語音芯片產(chǎn)品。
此外,家居場合除了對喚醒精度有較高要求外,還需要有極低的誤報,否則就會出現(xiàn)“深更半夜客廳莫名其妙地出現(xiàn)歌聲”的詭異現(xiàn)象。柔性電路板廠發(fā)現(xiàn),在傳統(tǒng)的低功耗喚醒方案中,是否喚醒取決于放在主芯片中的決策模型,因此喚醒的誤報水平也取決于它。但如果選用鴻鵠這種端到端的方案,則能避免多級喚醒所引入的錯誤,從而降低誤報率。
回過頭來,我們?nèi)タ窗俣忍岢龅倪@整套技術(shù)所帶來的識別錯誤率降低,首次喚醒率提升(同時誤報率極低)以及待機功耗下降,顯然還有可提升的空間。這種“可提升”,是由其在軟、硬兩個層面的革新所帶來的。
首先他們提出的“端到端建模技術(shù)”,直接將語音增強和聲學(xué)建模兩個過程融合為一,避免了在各自過程中優(yōu)化不統(tǒng)一所帶來的錯誤率下降,全局的優(yōu)化目標只有一個,即字準確率。這種想法徹底拋棄了各種先驗知識(以及所帶來的錯誤),模型結(jié)構(gòu)設(shè)計和數(shù)字信號處理學(xué)科完全脫鉤,充分發(fā)揮了CNN網(wǎng)絡(luò)的多層結(jié)構(gòu)和多通道特征提提取的優(yōu)勢,是一個顛覆性的思想,顯然還有更多可開拓的空間。
另一方面,將模型嵌入芯片,用一顆芯片解決所有語音交互問題。不但具備較高的喚醒精度還具備超低的誤報。這種新的軟硬一體化架構(gòu),直接解放了主芯片,大大降低了對主芯片運算性能的要求,從而在價格和功耗上都能得到大幅度優(yōu)化。這種架構(gòu)的革新,必將成為改變整個智能音箱(遠場交互場景)行業(yè)的一次技術(shù)革新。