您當(dāng)前的位置是:  首頁 > 新聞 > 國際 >
 首頁 > 新聞 > 國際 >

OpenStack溫哥華峰會(huì)探秘HPC、GPU、AI

2018-05-04 09:09:48   作者:Karen Lee   來源: 開源云中文社區(qū)   評論:0  點(diǎn)擊:


  5月的OpenStack溫哥華峰會(huì)將包括300多場會(huì)議,內(nèi)容涵蓋AI和機(jī)器學(xué)習(xí)、高性能計(jì)算(HPC)、邊緣計(jì)算、網(wǎng)絡(luò)功能虛擬化(NFV)、容器基礎(chǔ)設(shè)施以及公有/私有和多云策略等用例。
  以下是推薦的有關(guān)HPC、GPU和AI的會(huì)議。
  一、Ceph和CERN HPC基礎(chǔ)設(shè)施在過去五年中,CERN的IT部門使用Ceph為其龐大的OpenStack云構(gòu)建了橫向擴(kuò)展存儲(chǔ)。對于塊和對象存儲(chǔ)用例,無論有無擦除編碼,Ceph都表現(xiàn)出靈活性和可擴(kuò)展性,同時(shí)能夠應(yīng)對基礎(chǔ)設(shè)施故障。在這次講座中,CERN的Dan van der Ster和Arne Wiebalck將重點(diǎn)介紹用戶所需的關(guān)鍵指標(biāo),包括POSIX合規(guī)性、小文件延遲、元數(shù)據(jù)吞吐量和可擴(kuò)展性以及容錯(cuò)能力,同時(shí)展示行業(yè)標(biāo)準(zhǔn)和新的微基準(zhǔn)。來自CERN和SKA的演講者也會(huì)討論HPC和裸機(jī)。
  二、Nova中的虛擬GPU紅帽的Sylvain Bauza和Critrix的Jianghua Wang認(rèn)為,OpenStack中的GPU是一個(gè)長期存在的問題。為每個(gè)實(shí)例(即AI、挖掘和桌面)提供高性能GPU有很多商業(yè)案例。直到Queens,將這些設(shè)備暴露給訪客的唯一解決方案是在Nova中通過PCI。在這次講座中,他們將演示如何通過向XenServer和libvirt / KVM Nova驅(qū)動(dòng)程序請求虛擬GPU(vGPU),并分享即將發(fā)布的路線圖。
  三、使用OpenStack加速服務(wù)和可組合硬件優(yōu)化HPC / AI云在這個(gè)會(huì)議上,來自99cloud的Shuquan Huang和來自英特爾公司的Jianfeng Ding將介紹OpenStack Acceleration Service——Cyborg,它為加速器設(shè)備(例如FPGA、GPU、NVMe SSD)提供管理框架。他們還將討論Rack Scale Design(RSD)技術(shù),并解釋如何動(dòng)態(tài)聚合物理硬件資源以滿足AI / HPC需求。通過API動(dòng)態(tài)組合針對工作負(fù)載優(yōu)化的硬件和加速器設(shè)備,使數(shù)據(jù)中心管理員能夠以高效的自動(dòng)化方式管理這些資源。
  四、AI驅(qū)動(dòng)的編排、挑戰(zhàn)和機(jī)遇來自TELUS Communications的Sana Tariq將分享在混亂的多供應(yīng)商、多領(lǐng)域混合云生態(tài)系統(tǒng)中,從開發(fā)評估標(biāo)準(zhǔn)(開源/商業(yè)供應(yīng)商)到架構(gòu)考慮的實(shí)施服務(wù)編排平臺(tái)的過程。這次講座關(guān)注的是AI和ML驅(qū)動(dòng)的自動(dòng)化和編排的未來,聚焦如何優(yōu)化云/網(wǎng)絡(luò)資源管理,增強(qiáng)安全性,提升用戶體驗(yàn),為未來服務(wù)格局創(chuàng)造新的商業(yè)機(jī)會(huì)。
  五、為HPC用戶部署OpenStack學(xué)到的經(jīng)驗(yàn)教訓(xùn)明尼蘇達(dá)州超級計(jì)算研究所部署了一個(gè)名為Stratus的OpenStack云。這個(gè)演講描述了啟動(dòng)一個(gè)平臺(tái)以支持有特定數(shù)據(jù)使用協(xié)議的研究的經(jīng)驗(yàn)教訓(xùn),以及有關(guān)問責(zé)制、風(fēng)險(xiǎn)接受以及大型超級計(jì)算機(jī)設(shè)施偏離其傳統(tǒng)支持基礎(chǔ)時(shí)項(xiàng)目領(lǐng)導(dǎo)角色的問題。
  六、案例研究:用于高速存儲(chǔ)機(jī)器學(xué)習(xí)的大規(guī)模部署來自NTT的三位演講者將提供一個(gè)帶有Ansible和容器編排自動(dòng)化、完全開源的參考集群模型的案例研究。環(huán)境基于GPU計(jì)算和高速存儲(chǔ),其中使用Chainer和ChainerMN學(xué)習(xí)框架與多個(gè)NVIDIDA GPU節(jié)點(diǎn),并將完美可擴(kuò)展的OpenStack Swift對象存儲(chǔ)和文件系統(tǒng)API作為高速數(shù)據(jù)存儲(chǔ)。
【免責(zé)聲明】本文僅代表作者本人觀點(diǎn),與CTI論壇無關(guān)。CTI論壇對文中陳述、觀點(diǎn)判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。

專題