使用 Amazon SageMaker 多模型端点和 TorchServe 加速 GPU 上的 AI 模型,推理成本节省高达 75%
多模型端点 (MMEs) 是 Amazon SageMaker 的强大功能,旨在简化部署和操作……
torchdistill — 一个模块化、配置驱动的框架,用于可重现的深度学习和知识蒸馏实验
本文总结了 torchdistill (v1.0.0) 的主要特性和概念。请参阅官方文档……
加速生成式 AI 第三部分:扩散,快速
这篇博文是多系列博客的第三部分,重点介绍如何加速……
Sayak Paul 和 Patrick von Platen (Hugging Face 🤗)2024 年 1 月 3 日
了解 GPU 内存 2:查找和移除引用循环
这是《了解 GPU 内存》博客系列的第二部分。我们的第一篇博文《了解 GPU》……
Aaron Shi,Zachary DeVito2023 年 12 月 19 日
使用 PyTorch 2.0 训练生产级 AI 模型
通过性能赋能模型:广义模型转换方法的艺术
介绍 PyTorch 2.0 (PT2) 提供了一种编译执行模式,该模式重写 Python 字节码以提取序列……
了解 GPU 内存 1:可视化所有随时间变化的分配
在使用 PyTorch on GPU 期间,您可能熟悉这种常见的错误……
Aaron Shi,Zachary DeVito2023 年 12 月 14 日
来自 PyTorch Conference 2023:从恐龙到英特尔地震成像
闪电演讲 1:地震数据到地下模型,由 OpenFWI 演讲者:Benjamin Consolvo,AI 软件……
Ramya Ravi,Susan Kahler,英特尔2023 年 12 月 12 日
使用 PyTorch/XLA 在 Cloud TPU 上实现 Llama 2 的高性能训练和推理
在 AI 创新以前所未有的速度加速的背景下,Meta 的 Llama 开源家族……
使用 oneDNN Graph 加速 x86-64 机器上的推理
作为 PyTorch 2.0 的 Beta 功能提供支持,oneDNN Graph 利用激进的融合模式来……
英特尔2023 年 11 月 2 日
AMD 通过 ROCm™ 5.7 扩展对精选 RDNA™ 3 GPU 上 PyTorch 机器学习开发的支持
使用 PyTorch 处理机器学习 (ML) 模型和算法的研究人员和开发人员现在可以……
AMD2023 年 10 月 31 日