谷歌開源AI能區(qū)分聲音 準確率達92%識別聲音

更新時間:2018-12-23 14:50:00    閱讀:2346

在語音嘈雜的環(huán)境中,要想分辨出有幾個人講話、在什么時間講話,對于機器來說非常困難。但谷歌人工智能(AI)研究部門在語音識別方面取得了新進展,能以92%的準確率識別出每個人聲音的專屬模式。

在語音嘈雜的環(huán)境中,要想分辨出有幾個人講話、在什么時間講話,對于機器來說非常困難。但谷歌人工智能(AI)研究部門在語音識別方面取得了新進展,能以92%的準確率識別出每個人聲音的專屬模式。


微信圖片_20181222204719.jpg


谷歌AI研究部門在最新名為《Fully Supervised Speaker Diarization》的論文和相關(guān)博客文章中,研究人員描述了一種新的AI系統(tǒng),它“能以一種更有效的方式識別聲音”。


這套系統(tǒng)涉及到Speaker diarization任務(wù),即需要標注出“誰”從“什么時候”到“什么時候”在說話,將語音樣本分割成獨特的、同構(gòu)片段的過程。強大的AI系統(tǒng)必須能夠?qū)⑿碌难葜v者發(fā)音與它以前從未遇到過的語音片段關(guān)聯(lián)起來。


這篇論文的作者聲稱,核心算法已經(jīng)可在Github上的開源軟件中可用,它實現(xiàn)了一個在線二值化錯誤率(DER),在NIST SRE 2000 CALLHOME基準上是7.6%,這對于實時應(yīng)用來說已經(jīng)足夠低了,而谷歌之前使用的方法DER為8.8%。


谷歌研究人員的新方法是通過遞歸神經(jīng)網(wǎng)絡(luò)(RNN)模擬演講者的嵌入(如詞匯和短語的數(shù)學(xué)表示),遞歸神經(jīng)網(wǎng)絡(luò)是一種機器學(xué)習(xí)模型,它可以利用內(nèi)部狀態(tài)來處理輸入序列。每個演講者都從自己的RNN實例開始,該實例不斷更新給定新嵌入的RNN狀態(tài),使系統(tǒng)能夠?qū)W習(xí)發(fā)言者共享的高級知識。


研究人員在論文中寫道:“由于該系統(tǒng)的所有組件都可以在監(jiān)督環(huán)境下學(xué)習(xí),所以在有高質(zhì)量時間標記演講者標簽訓(xùn)練數(shù)據(jù)的情況下,它比無監(jiān)督系統(tǒng)更受青睞。我們的系統(tǒng)受到全面監(jiān)督,能夠從帶有時間戳的演講者標簽例子中學(xué)習(xí)。”


在未來的工作中,研究團隊計劃改進模型,使其能夠集成上下文信息來執(zhí)行脫機解碼,他們希望這將進一步減少DER。研究人員還希望能夠直接對聲學(xué)特征進行建模,這樣整個Speaker diarization系統(tǒng)就可以進行端到端訓(xùn)練。


想要了解更多有關(guān)配音的資訊?快來關(guān)注閃電配音,每天享受新鮮配音資訊!

該內(nèi)容為非商業(yè)目的的轉(zhuǎn)載分享,不代表本站觀點,本文版權(quán)屬其著作權(quán)人所有。若侵犯了您的正當(dāng)權(quán)益,請立即聯(lián)系我們刪除。

閃電配音

掃碼免費試音
企業(yè)微信

免費試音

幫我推薦

價格計算

在線下單

開具發(fā)票

不招主播

確認提交

全網(wǎng)全品類皆可配 頂配好聲音

點我咨詢
錯誤