使用 Amazon SageMaker 多模型端点和 TorchServe 加速 GPU 上的 AI 模型,节省高达 75% 的推理成本
多模型端点 (MME) 是 Amazon SageMaker 的强大功能,旨在简化部署和操作……
torchdistill — 一个模块化、配置驱动的框架,用于可重现的深度学习和知识蒸馏实验
本文总结了 torchdistill (v1.0.0) 的主要特性和概念。请参阅官方文档……
加速生成式 AI 第三部分:扩散,快速
这篇帖子是多系列博客的第三部分,重点介绍如何加速……
理解 GPU 内存 2:查找和删除引用循环
这是《理解 GPU 内存》博客系列的第 2 部分。我们的第一篇帖子《理解 GPU…》
Aaron Shi, Zachary DeVito2023年12月19日
使用 PyTorch 2.0 训练生产级 AI 模型
以性能赋能模型:通用模型转换方法的艺术
简介 PyTorch 2.0 (PT2) 提供了一种编译执行模式,该模式会重写 Python 字节码以提取序列……
从 PyTorch 2023 年会议:从恐龙到使用 Intel 进行地震成像
闪电演讲 1:使用 OpenFWI 将地震数据转换为地下模型 演讲者:Benjamin Consolvo,人工智能软件……
Ramya Ravi, Susan Kahler at Intel2023年12月12日
使用 PyTorch/XLA 在云 TPU 上进行高性能 Llama 2 训练和推理
在 AI 创新以前所未有的速度加速发展的背景下,Meta 的 Llama 开源系列……
AMD 借助 ROCm™ 5.7 扩展了对部分 RDNA™ 3 GPU 上 PyTorch 机器学习开发的支持
使用 PyTorch 的机器学习 (ML) 模型和算法的研究人员和开发者现在可以……
AMD2023年10月31日