OpenStack温哥华峰会探秘HPC、GPU、AI


导读



5月的OpenStack温哥华峰会将包括300多场会议,内容涵盖AI和机器学习、高性能计算(HPC)、边缘计算、网络功能虚拟化(NFV)、容器基础设施以及公有/私有和多云策略等用例。

以下是推荐的有关HPC、GPU和AI的会议。


 、Ceph和CERN HPC基础设施


在过去五年中,CERN的IT部门使用Ceph为其庞大的OpenStack云构建了横向扩展存储。对于块和对象存储用例,无论有无擦除编码,Ceph都表现出灵活性和可扩展性,同时能够应对基础设施故障。在这次讲座中,CERN的Dan van der Ster和Arne Wiebalck将重点介绍用户所需的关键指标,包括POSIX合规性、小文件延迟、元数据吞吐量和可扩展性以及容错能力,同时展示行业标准和新的微基准。来自CERN和SKA的演讲者也会讨论HPC和裸机。


 Nova中的虚拟GPU


红帽的Sylvain Bauza和Critrix的Jianghua Wang认为,OpenStack中的GPU是一个长期存在的问题。为每个实例(即AI、挖掘和桌面)提供高性能GPU有很多商业案例。直到Queens,将这些设备暴露给访客的唯一解决方案是在Nova中通过PCI。在这次讲座中,他们将演示如何通过向XenServer和libvirt / KVM Nova驱动程序请求虚拟GPU(vGPU),并分享即将发布的路线图。


 使用OpenStack加速服务和可组合硬件优化HPC / AI云


在这个会议上,来自99cloud的Shuquan Huang和来自英特尔公司的Jianfeng Ding将介绍OpenStack Acceleration Service——Cyborg,它为加速器设备(例如FPGA、GPU、NVMe SSD)提供管理框架。他们还将讨论Rack Scale Design(RSD)技术,并解释如何动态聚合物理硬件资源以满足AI / HPC需求。通过API动态组合针对工作负载优化的硬件和加速器设备,使数据中心管理员能够以高效的自动化方式管理这些资源。


 AI驱动的编排、挑战和机遇


来自TELUS Communications的Sana Tariq将分享在混乱的多供应商、多领域混合云生态系统中,从开发评估标准(开源/商业供应商)到架构考虑的实施服务编排平台的过程。这次讲座关注的是AI和ML驱动的自动化和编排的未来,聚焦如何优化云/网络资源管理,增强安全性,提升用户体验,为未来服务格局创造新的商业机会。


 五为HPC用户部署OpenStack学到的经验教训


明尼苏达州超级计算研究所部署了一个名为Stratus的OpenStack云。这个演讲描述了启动一个平台以支持有特定数据使用协议的研究的经验教训,以及有关问责制、风险接受以及大型超级计算机设施偏离其传统支持基础时项目领导角色的问题。


 六案例研究:用于高速存储机器学习的大规模部署


来自NTT的三位演讲者将提供一个带有Ansible和容器编排自动化、完全开源的参考集群模型的案例研究。环境基于GPU计算和高速存储,其中使用Chainer和ChainerMN学习框架与多个NVIDIDA GPU节点,并将完美可扩展的OpenStack Swift对象存储和文件系统API作为高速数据存储。



内容覆盖主流开源领域

640?wx_fmt=png 640?wx_fmt=png 640?wx_fmt=png 640?wx_fmt=png 640?wx_fmt=jpeg 640?wx_fmt=png

投稿邮箱

[email protected]

640?wx_fmt=png

猜你喜欢

转载自blog.csdn.net/lq1ns259ej3okyvk4jf/article/details/80193562
今日推荐