
PyTorch 基金会很高兴地欢迎深度学习优化库 DeepSpeed 成为 PyTorch 基金会托管项目。DeepSpeed 由微软贡献,赋能开发者简化分布式训练和推理,从而更轻松地高效扩展 AI 模型,同时最大限度地降低成本和操作复杂性。自成立以来,DeepSpeed 一直利用核心 PyTorch 功能作为构建深度学习特性和优化的基础。
PyTorch 基金会最近宣布其扩展为伞形基金会,以加速 AI 创新,并很高兴欢迎 DeepSpeed 成为首批新项目之一。基金会托管项目是指在伞形基金会下属的项目,它们在 PyTorch 基金会中立透明的治理模式下正式管理和运作。
什么是 DeepSpeed?
DeepSpeed 旨在优化深度学习工作流程,提供一套强大的功能,可提高 AI 模型训练和部署的性能、可扩展性和成本效益。它能够跨数千个 GPU 无缝扩展,同时优化受限系统的资源利用率,从而解决 AI 开发中的关键技术挑战。
DeepSpeed 的主要功能包括:
- 可扩展模型训练:支持具有数十亿或数万亿参数的稠密和稀疏专家混合 (MoE) 模型,并可跨数千个 GPU 无缝扩展。
- 异构硬件支持:兼容 Nvidia、AMD 和 Intel GPU、华为昇腾 NPU 和 Intel Gaudi 等多样化硬件平台,确保部署的灵活性和适应性。
- 优化资源利用:便于在 GPU 容量有限的系统上进行训练和推理,最大限度地提高硬件效率并增加可访问性。
- 低延迟推理:实现实时模型推理的最小延迟和高吞吐量。
- 压缩功能:在不牺牲性能的情况下,降低模型大小和推理延迟,从而降低大规模部署的成本。
共同加速开源 AI
DeepSpeed 加入 PyTorch 基金会,强化了基金会加速开源 AI 的使命。通过加入 PyTorch 基金会,DeepSpeed 获得了蓬勃发展的开源项目生态系统、全球贡献者网络以及强大的技术和运营资源。此次合作使 DeepSpeed 社区能够扩大其工作,增强与其他项目的互操作性,并推动其优化库的广泛采用。此外,PyTorch 基金会对开放治理和社区驱动开发的关注确保了 DeepSpeed 的发展符合 AI 领域透明度、包容性和创新的共同目标。
访问DeepSpeed 网站,了解更多关于 DeepSpeed 以及如何参与的信息。