您當前的位置是:  首頁 > 新聞 > 國際 >
 首頁 > 新聞 > 國際 >

DeepMind發(fā)布WaveNets語音合成系統(tǒng)

--稱世界最佳,直接提升50%!

2016-09-19 14:10:34   作者:   來源:http://36kr.com/p/5052648.html   評論:0  點擊:


  這篇文章的主角是WaveNet,一個用于處理原始音頻波形圖的深度生成模型。我們將向大家展示W(wǎng)aveNets是如何生成語音的,它可以模仿任何人類的聲音,聽上去比在存的文本到語音(TTS)系統(tǒng)都要自然。這個模型將機器和人類的表現(xiàn)之間的現(xiàn)有差距減小了50%多。
  我們還將展示W(wǎng)aveNets是如何合成如音樂這樣的音頻信號的。大家可以在下面聽到若干由這個系統(tǒng)自動生成的驚人的鋼琴演奏小樣。
  對話機器
  實現(xiàn)人類和機器進行對話是人機交互領(lǐng)域長期以來的一個夢想。隨著過去的幾年中深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用(如谷歌語音搜索),計算機理解自然對話的能力已經(jīng)得到了很大的提升。然而,讓計算機生成語音,這個過程通常被描述為語音合成或者TTS(文本到語音),卻基本上還是基于拼接TTS的方法。
  這種通過先將一個人類錄制的語音分解成大量的一小段一小段的語音片段,積累成一個非常大的數(shù)據(jù)庫,然后再這些小片段去合成人類的語音。這樣做的問題就使得修改聲音變得非常困難,例如在不錄制一個新的數(shù)據(jù)庫的情況下,能夠?qū)⒑铣傻恼Z音變成另一個人的聲音,或者改變他們在演講時的側(cè)重或者情感。
  這就自然的引出了對于參量式TTS的巨大需求。在參量式TTS中,所有用于生成數(shù)據(jù)的信息被存儲在模型的參量中。因為,語音的內(nèi)容和特色就可以通過模型的輸入來進行控制。不過,目前來講,參量式TTS聽上去沒有拼接式來得自然,至于對于英語這樣的音節(jié)語音是的,F(xiàn)存的參量式模型一般上通過一個叫做vocoders的信號處理算法來輸出它的結(jié)果,以生成語音信號。
  WaveNet通過直接將音頻信號的原始波形進行建模,并且一次產(chǎn)生一個樣本,從來改變了現(xiàn)在的局面。此外,使用原始波形,意味著WaveNet可以對包括音樂在內(nèi)的任何音頻進行建模,這樣子生成的語音聽起來會更自然。
  WaveNets
DeepMind發(fā)布WaveNets語音合成系統(tǒng)
DeepMind發(fā)布WaveNets語音合成系統(tǒng)
DeepMind發(fā)布WaveNets語音合成系統(tǒng)
DeepMind發(fā)布WaveNets語音合成系統(tǒng)
  研究人員一般都會避免去對原始音頻進行建模,因為它的節(jié)拍太快了。一般來說,一秒存在著1萬6千個samples,或者更多,并且在很多時間尺度上有著重要的結(jié)構(gòu)。構(gòu)建一個完全自回歸的模型,并且能夠預(yù)測每一個samples是如何被前面所有的samples所影響的(從統(tǒng)計學(xué)上來說,每個預(yù)測都和所有之前的觀測存在關(guān)聯(lián)),這是一個相當艱巨的挑戰(zhàn)。
  然而,我們在今年早先時候發(fā)布的PixelRNN和PixelCNN模型卻向我們展示了,它可以生成完全自然的圖片。不僅是一次一個像素,而且是一次一個color-channel,一張圖片需要進行成千上萬次的預(yù)測。這激發(fā)了我們將二維的PixelNet調(diào)整為一維的WaveNet。
\
  上面的動畫演示像我們展示了WaveNet是如何組織的。這是一個完全的卷積神經(jīng)網(wǎng)絡(luò)。在這其中,卷積層擁有不同的擴張因素,能夠讓它的接受域隨著成千上萬的timesteps的深度和覆蓋呈現(xiàn)指數(shù)型的增長。
  在訓(xùn)練時,輸入序列是來自人類演講者的真實的波形。在訓(xùn)練后,我們可以取樣這個網(wǎng)絡(luò)來生成合成的語音。每一步的采樣值是由網(wǎng)絡(luò)計算得出的概率分布得到的。這個值隨后會重新回到輸入端,然后在下一步生成一個新的預(yù)測。構(gòu)建一個像這樣能夠一次進行一步取樣的網(wǎng)絡(luò)是需要大量的計算的,但我們覺得這對于生成復(fù)雜、聽上去和實際的聲音一樣的音頻是非常必要的。
  開拓創(chuàng)新
  我們用了一部分Google的TTS數(shù)據(jù)庫來訓(xùn)練WaveNet。因此,我們可以去衡量它的表現(xiàn)。下面的數(shù)據(jù)展示了從規(guī)模1-5上,對比Google現(xiàn)在最好的TTS系統(tǒng)(參量式和拼接式)和人類語音(使用的是MOS),WaveNet的質(zhì)量。MOS是一個標準的用于主觀音質(zhì)測試的衡量體系,它由人類在盲測中所提交的數(shù)據(jù)獲得。如我們所能看到的一樣,WaveNets在中英文和中文上,縮小的超過50%的目前最前進的技術(shù)和人類表現(xiàn)之前的差距。
  對于中文和英文來說,目前Google的TTS系統(tǒng)被認為是目前世界上最佳的系統(tǒng)。所以,WaveNets可以通過一個系統(tǒng)來對兩種語言同時進行提升,確實是一個重大的成果。
\
  關(guān)于三者對比的語音,建議大家進入DeepMind的英文原文,進行試聽,WaveNets的效果相當不錯!
  知道說什么
  為了使用WaveNets將文本變成語音,我們先要告訴它什么是文本。我們的做法是,通過將文本轉(zhuǎn)換成有語言和語音特色(包括當前的音素、章節(jié)、單詞等信息)的一個序列,之后將它們都投入到WaveNet中。這意味著這個網(wǎng)絡(luò)的預(yù)測不僅可以基于之前的音頻samples,也可以基于我們想要讓他說的文本。
  如果我們在沒有文本序列的情況下來訓(xùn)練網(wǎng)絡(luò),它仍然可以生成語音,但是它不得不編造一些它要說的東西。你同樣可以在DeepMind的英文原文頁聽到,這樣生成的小樣聽上去就是在胡說八道。
  WaveNets在有些時間還可以生成例如呼吸和嘴部運動這樣的非語言聲音,這也反映了一個原始的音頻模型所擁有的更大的自由度。
  如你在這些樣本中所能聽到的一樣,一個單一的WaveNet可以學(xué)習(xí)很多種聲音的特點,不論是男性還是女性。為了確認WaveNet知道在任意的情景下它知道用什么聲音,我們?nèi)タ刂蒲葜v人的身份。有意思的是,我們發(fā)布用很多的演講者是訓(xùn)練這個系統(tǒng),使得它能夠更好的去給單個演講者建模。這比只用一個演講者去訓(xùn)練要強。這是一種形式的遷移學(xué)習(xí)。
  同樣的,我們也可以在模型的輸入端給予更多的東西,例如情感或噪音,這樣使得生成的語音可以更多樣化,也更有趣。
  生成音樂
  既然WaveNets可以用來能任意的音頻信息進行建模,我們就想如果能讓他來生成音樂的話,這樣就更有意思了。和TTS實驗不同,我們沒有給網(wǎng)絡(luò)一個輸入序列,告訴它要去播放什么(例如一個譜子)。相反的,我們只是讓它去生成任意它想生成的東西。當我們將它在一個古典鋼琴音樂的數(shù)據(jù)集上進行訓(xùn)練時,它聽上去的效果確定還不錯。
  這幾段生成的樣本,也建議大家點擊文章最下方的“閱讀原文”按鈕,進入DeepMind的英文原文,進行試聽。
  WaveNets為TTS、音樂合成以及音頻建模開啟了更多的可能性。我們已經(jīng)迫不及待地想要去探索更多WaveNets能做的事!

專題