您當(dāng)前的位置是:  首頁(yè) > 資訊 > 國(guó)際 >
 首頁(yè) > 資訊 > 國(guó)際 >

NVIDIA在語(yǔ)言理解方面取得突破,有望實(shí)現(xiàn)實(shí)時(shí)會(huì)話AI

2019-08-16 10:51:51   作者:   來(lái)源:CTI論壇   評(píng)論:0  點(diǎn)擊:


  BERT的訓(xùn)練時(shí)間實(shí)現(xiàn)創(chuàng)紀(jì)錄的53分鐘,推理時(shí)間縮短至2毫秒,使得Microsoft等公司能夠在大型應(yīng)用程序中采用先進(jìn)的語(yǔ)言理解技術(shù)
  NVIDIA日前宣布在語(yǔ)言理解方面取得了突破性成果,令企業(yè)能夠以更加自然的方式,使用實(shí)時(shí)會(huì)話AI與客戶進(jìn)行互動(dòng)。
  BERT是當(dāng)前最先的AI語(yǔ)言模型之一,NVIDIA借助其AI平臺(tái)率先將BERT的訓(xùn)練時(shí)間控制在一小時(shí)之內(nèi),并以僅比2毫秒多一點(diǎn)的時(shí)間完成了AI推理。這種具有突破性的性能水平能夠讓開發(fā)者將先進(jìn)的語(yǔ)言理解技術(shù)應(yīng)用于大型應(yīng)用程序之上,為全球數(shù)億消費(fèi)者提供服務(wù)。
  早期采用NVIDIA性能提升技術(shù)的公司中包括Microsoft,平安科技以及全球范圍內(nèi)一些最具創(chuàng)新性的初創(chuàng)公司。借助于NVIDIA平臺(tái),這些公司為客戶開發(fā)了高度直觀、響應(yīng)即時(shí)且基于語(yǔ)言的服務(wù)。
  有限的會(huì)話AI服務(wù)已經(jīng)存在多年。但由于此前無(wú)法實(shí)現(xiàn)超大型AI模型的實(shí)時(shí)部署,聊天機(jī)器人、智能個(gè)人助理和搜索引擎的理解能力很難達(dá)到與人類相當(dāng)?shù)乃。然而,NVIDIA通過(guò)在其AI平臺(tái)中添加關(guān)鍵性的優(yōu)化功能,將此問(wèn)題迎刃而解,在AI訓(xùn)練和推理方面都創(chuàng)造了新的速度紀(jì)錄,并構(gòu)建了迄今為止同類型中最大的語(yǔ)言模型。
  NVIDIA深度學(xué)習(xí)應(yīng)用研究副總裁Bryan Catanzaro表示:“對(duì)于適用于自然語(yǔ)言的AI而言,大型語(yǔ)言模型正在為其帶來(lái)革新。它們正在幫助我們解決那些最為棘手的語(yǔ)言問(wèn)題,讓我們距離實(shí)現(xiàn)真正的會(huì)話AI更進(jìn)了一步。NVIDIA所取得的突破性工作成果加速了這些模型的創(chuàng)建,讓企業(yè)能夠打造全新的高質(zhì)量服務(wù),以前所未有的方式服務(wù)客戶,為其帶來(lái)愉快的客戶體驗(yàn)。”
  最快的訓(xùn)練速度、最短的推理時(shí)間和最大的模型規(guī)模
  預(yù)計(jì)未來(lái)幾年,基于自然語(yǔ)言理解的AI服務(wù)將呈指數(shù)級(jí)增長(zhǎng)。根據(jù)Juniper Research的研究表明,在未來(lái)4年中,僅數(shù)字語(yǔ)音助手的數(shù)量就將有望從25億攀升到80億。此外,據(jù)Gartner預(yù)計(jì),到2021年,15%的客服互動(dòng)都將完全通過(guò)AI完成,相比于2017年,將增長(zhǎng)4倍。
  在引領(lǐng)這個(gè)新時(shí)代的過(guò)程中,NVIDIA對(duì)其AI平臺(tái)進(jìn)行了多項(xiàng)關(guān)鍵性優(yōu)化,從而創(chuàng)造了三項(xiàng)新的自然語(yǔ)言理解性能記錄:
  最快的訓(xùn)練速度:BERT(Bidirectional Encoder Representationsfrom Transformers)是世界上最先進(jìn)的AI語(yǔ)言模型之一。NVIDIA使用搭載了92臺(tái)NVIDIA DGX-2H系統(tǒng)的NVIDIA DGX SuperPOD運(yùn)行該模型的大型版本,憑借1472個(gè)NVIDIA V100 GPU的強(qiáng)大性能,NVIDIA將BERT-Large的典型訓(xùn)練時(shí)間從幾天縮短至僅僅53分鐘。此外,NVIDIA還在單獨(dú)一臺(tái)NVIDIA DGX-2系統(tǒng)上執(zhí)行了BERT-Large模型的訓(xùn)練任務(wù),用時(shí)也僅為2.8天,這充分體現(xiàn)了NVIDIA GPU在會(huì)話AI方面的可擴(kuò)展性。
  最短的推理時(shí)間:借助于運(yùn)行了NVIDIA TensorRT的NVIDIA T4 GPU,NVIDIA執(zhí)行BERT-BaseSQuAD數(shù)據(jù)集的推理任務(wù),用時(shí)僅為2.2毫秒,遠(yuǎn)低于許多實(shí)時(shí)應(yīng)用程序所需的10毫秒處理閾值,與使用高度優(yōu)化的CPU代碼時(shí)所測(cè)得的40多毫秒相比,有著顯著改進(jìn)。
  最大的模型規(guī)模:開發(fā)者們對(duì)于更大模型的需求正在日益增長(zhǎng),NVIDIA研究團(tuán)隊(duì)基于Transformer構(gòu)建并訓(xùn)練了世界上最大的語(yǔ)言模型,Transformer是BERT的技術(shù)構(gòu)件,也正被越來(lái)越多的其他自然語(yǔ)言AI模型所使用。NVIDIA定制的模型包含83億個(gè)參數(shù),是BERT-Large的24倍。
  生態(tài)系統(tǒng)的采用情況
  全球數(shù)以百計(jì)的開發(fā)者都已使用NVIDIA的AI平臺(tái),來(lái)推進(jìn)他們自己的語(yǔ)言理解研究并創(chuàng)建新的服務(wù)。
  Microsoft Bing正在利用其AzureAI平臺(tái)和NVIDIA技術(shù)的強(qiáng)大功能來(lái)運(yùn)行BERT,并使搜索結(jié)果更為準(zhǔn)確。
  Microsoft Bing部門項(xiàng)目經(jīng)理Rangan Majumder說(shuō):“Microsoft Bing依靠最先進(jìn)的AI模型和計(jì)算平臺(tái),為我們的客戶提供最好的全球搜索體驗(yàn)。通過(guò)與NVIDIA密切合作,Bing使用NVIDIA GPU(AzureAI基礎(chǔ)設(shè)施的一部分)進(jìn)一步優(yōu)化了熱門自然語(yǔ)言模型BERT的推理功能,從而大幅提升了Bing于去年部署的排名搜索的搜索質(zhì)量。與基于CPU的平臺(tái)相比,使用Azure NVIDIA GPU進(jìn)行推理,延遲降低了一半,吞吐量提升了5倍,這使得Bing能夠?yàn)槿蛩锌蛻籼峁└訉I(yè)、更具成本效益且更實(shí)時(shí)的搜索體驗(yàn)。”
  在中國(guó),基于GPU加速的BERT已經(jīng)陸續(xù)在搜索引擎、廣告系統(tǒng)、內(nèi)容推薦、智能客服等實(shí)際應(yīng)用中發(fā)揮重要作用。
  平安集團(tuán)——世界500強(qiáng)第29位,金融機(jī)構(gòu)第4位——旗下平安科技,覆蓋金融、醫(yī)療、汽車、房產(chǎn)、智慧城市五大生態(tài)圈,其人工智能解決方案服務(wù)超過(guò)5億用戶。目前平安科技已經(jīng)將基于Occam平臺(tái)訓(xùn)練加速的BERT部署到在線客服問(wèn)答系統(tǒng)上,未來(lái)會(huì)在更多的應(yīng)用場(chǎng)景中使用。
  平安集團(tuán)首席科學(xué)家肖京博士表示,“平安科技率先采用先進(jìn)AutoML技術(shù)打造一鍵式開發(fā)Occam平臺(tái),在NVIDIA研發(fā)的Fast Transformer的助力下,Occam以零算法基礎(chǔ)和少量數(shù)據(jù)即可實(shí)現(xiàn)訓(xùn)練高精度機(jī)器學(xué)習(xí)模型為核心,結(jié)合SaaS、PaaS與微服務(wù)架構(gòu)的思想,為各行各業(yè)提出適應(yīng)性的解決方案。區(qū)別于其他的AutoML平臺(tái),Occam平臺(tái)更具精準(zhǔn)高效的自動(dòng)模型訓(xùn)練能力,在保證模型精度的情況下,能夠縮短模型訓(xùn)練的研發(fā)周期;同時(shí)在訓(xùn)練模型的推理能力上更勝一籌,因此在最具挑戰(zhàn)的自然語(yǔ)言處理技術(shù)領(lǐng)域,平安科技憑借Occam平臺(tái)能夠獨(dú)占鰲頭,為營(yíng)銷、運(yùn)營(yíng)、風(fēng)控、決策、服務(wù)、預(yù)測(cè)等各種智能場(chǎng)景業(yè)務(wù)提供支持。”
  “我們用了NVIDIA最新的Faster Transformer改造的PA-Occam-BERT。實(shí)現(xiàn)了在NVIDIAGPU上相較CPU系統(tǒng),10倍以上的延遲提升,和20倍以上吞吐提升,正因如此,平安科技能夠以最短的時(shí)間,最低的成本訓(xùn)練出最精準(zhǔn)、最具推理能力的PA-Occam-BERT模型,在Stanford DAWN Bench SQuAD 2.0問(wèn)答推理延遲競(jìng)賽中獲得冠軍,這一成績(jī)讓我們有信心未來(lái)在更多業(yè)務(wù)線上部署基于GPU的PA-Occam-BERT,實(shí)現(xiàn)技術(shù)的快速落地。”平安科技副總工程師、Occam平臺(tái)技術(shù)總監(jiān)王健宗博士表示。
  NVIDIA初創(chuàng)加速計(jì)劃中也有多家初創(chuàng)公司(例如:Clinc、PassageAI和Recordsure等)正在使用NVIDIA的AI平臺(tái)為銀行、汽車制造商、零售商、醫(yī)療服務(wù)提供商、旅行社和酒店等客戶構(gòu)建先進(jìn)的會(huì)話AI服務(wù)。
  Clinc已通過(guò)客戶名冊(cè),使全球3000多萬(wàn)人可以使用NVIDIAGPU支持的會(huì)話AI解決方案。這些客戶包括領(lǐng)先的汽車制造商、醫(yī)療健康組織和一些全球頂級(jí)金融機(jī)構(gòu),例如:Barclays、USAA和土耳其最大的銀行Isbank。
  Clinc首席執(zhí)行官Jason Mars說(shuō):“Clinc領(lǐng)先的AI平臺(tái)能夠理解復(fù)雜的問(wèn)題,并將其轉(zhuǎn)化為功能強(qiáng)大、切實(shí)可行的洞察,以服務(wù)于這些全球領(lǐng)先的品牌。借助NVIDIAAI平臺(tái)提供的突破性性能,我們能夠突破會(huì)話AI的界限并提供革命性服務(wù),讓我們的客戶能夠借助于先進(jìn)的技術(shù),以更強(qiáng)大、更有意義的方式與客戶進(jìn)行互動(dòng)。”
  目前提供的優(yōu)化
  NVIDIA已為開發(fā)者提供了多項(xiàng)用于實(shí)現(xiàn)會(huì)話AI突破的軟件優(yōu)化:
  • 使用PyTorch的NVIDIA GitHub BERT訓(xùn)練代碼
  • 適用于TensorFlow的NGC模型腳本和檢查點(diǎn)
  • GitHub上TensorRT經(jīng)過(guò)優(yōu)化的BERT樣本
  • 速度更快的Transformer:C++API、TensorRT插件和TensorFlow OP
  • MXNetGluon-NLP,帶面向BERT的AMP支持(訓(xùn)練和推理)
  • AIHub上TensorRT經(jīng)過(guò)優(yōu)化的BERT Jupyter Notebook
  • Megatron-LM:用于訓(xùn)練大型Transformer模型的PyTorch代碼
  • NVIDIA所采用的BERT是熱門存儲(chǔ)庫(kù)HuggingFace中的一個(gè)優(yōu)化版本
【免責(zé)聲明】本文僅代表作者本人觀點(diǎn),與CTI論壇無(wú)關(guān)。CTI論壇對(duì)文中陳述、觀點(diǎn)判斷保持中立,不對(duì)所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請(qǐng)讀者僅作參考,并請(qǐng)自行承擔(dān)全部責(zé)任。

專題

CTI論壇會(huì)員企業(yè)