在本地运行 PyTorch 或通过受支持的云平台之一快速开始
PyTorch 教程中的新增功能
熟悉 PyTorch 概念和模块
可直接部署的 PyTorch 代码示例,小巧实用
通过我们引人入胜的 YouTube 教程系列掌握 PyTorch 基础知识
了解 PyTorch 生态系统中的工具和框架
加入 PyTorch 开发者社区,贡献、学习并获得问题解答
讨论 PyTorch 代码、问题、安装、研究的场所
查找资源并获得问题解答
在今年的 PyTorch 大会上宣布获奖者
为边缘设备构建创新且注重隐私的 AI 体验
端到端解决方案,可在移动和边缘设备上实现设备端推理功能
浏览文档,获取有关如何使用 PyTorch 的全面指南
阅读 PyTorch Domains 文档,详细了解特定领域的库
了解最新的技术新闻和动态
来自 PyTorch 生态系统的故事
了解最新的 PyTorch 教程、新闻等
了解我们的社区如何使用 PyTorch 解决真实的日常机器学习问题
查找活动、网络研讨会和播客
随时了解最新动态
详细了解 PyTorch 基金会
PyTorch 食谱
PyTorch 简介
torch.autograd
学习 PyTorch
non_blocking
pin_memory()
图像和视频
音频
后端
强化学习
在生产环境中部署 PyTorch 模型
分析 PyTorch
使用 FX 进行代码转换
前端 API
扩展 PyTorch
模型优化
torch.compile
并行和分布式训练
带有 ExecuTorch 的边缘
推荐系统
多模态
食谱是关于如何使用特定 PyTorch 功能的小巧、可操作的示例,与我们的完整教程不同。
了解如何使用 PyTorch 的 torch.nn 包来创建和定义用于 MNIST 数据集的神经网络。
基础知识
了解如何在 PyTorch 中保存或加载模型时使用 state_dict 对象和 Python 字典。
了解在 PyTorch 中保存和加载模型以进行推理的两种方法 - 通过 state_dict 和通过整个模型。
保存和加载用于推理或恢复训练的通用检查点模型对于从上次中断的地方继续学习很有帮助。在本食谱中,探索如何保存和加载多个检查点。
在本食谱中,了解保存和加载多个模型如何有助于重用您之前训练过的模型。
了解如何通过部分加载模型或加载部分模型来热启动训练过程可以帮助您的模型比从头开始训练更快地收敛。
了解如何使用 PyTorch 相对简单地跨设备(CPU 和 GPU)保存和加载模型。
了解何时应清零梯度以及这样做如何帮助提高模型的准确性。
了解如何使用 PyTorch 的基准测试模块来测量和比较代码的性能
了解如何测量代码段运行时间和收集指令。
了解如何使用 PyTorch 的分析器来测量运算符的时间和内存消耗
了解如何将支持 Instrumentation and Tracing Technology API (ITT API) 的 PyTorch 分析器与 Intel® VTune™ Profiler GUI 结合使用,以可视化运算符标签
了解如何使用 torch.compile IPEX 后端
了解如何使用 torch.compiler.set_stance
编译器
了解如何使用元设备在模型中推理形状。
了解从检查点加载 nn.Module 的技巧。
了解如何使用 torch 日志记录 API 来观察编译过程。
nn.Module 中的新扩展点。
了解如何将 AOTInductor 用于 python 运行时的端到端示例。
了解如何导出模型以用于流行的用例
编译器,TorchCompile
了解如何使用 Captum 将图像分类器的预测归因于其对应的图像特征,并可视化归因结果。
可解释性分析,Captum
了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据
可视化,TensorBoard
将动态量化应用于简单的 LSTM 模型。
量化,文本,模型优化
了解如何以 TorchScript 格式导出训练好的模型,以及如何在 C++ 中加载 TorchScript 模型并进行推理。
TorchScript
了解如何使用 Flask(一个轻量级 Web 服务器)从您训练好的 PyTorch 模型快速设置 Web API。
生产环境,TorchScript
在移动设备(Android 和 iOS)上使用 PyTorch 进行性能优化的食谱列表。
移动设备,模型优化
了解如何从头开始制作使用 LibTorch C++ API 并使用带有自定义 C++ 运算符的 TorchScript 模型的 Android 应用程序。
移动设备
了解如何将 PyTorch 模块列表融合到单个模块中,以在量化之前减小模型大小。
了解如何在不损失太多准确性的情况下减小模型大小并使其运行更快。
移动设备,量化
了解如何将模型转换为 TorchScipt 并(可选)针对移动应用进行优化。
了解如何在 iOS 项目中添加模型并使用适用于 iOS 的 PyTorch pod。
了解如何在 Android 项目中添加模型并使用适用于 Android 的 PyTorch 库。
了解如何在 iOS 和 Andriod 设备上使用移动解释器。
如何使用 PyTorch 分析器来分析基于 RPC 的工作负载。
生产环境
使用 torch.cuda.amp 来减少 NVIDIA GPU 上的运行时并节省内存。
实现最佳性能的技巧。
如何在 Intel® Xeon CPU 上使用 run_cpu 脚本进行最佳运行时配置。
在 AWS Graviton CPU 上实现最佳推理性能的技巧
学习利用 Intel® Advanced Matrix Extensions。
使用 torch.compile 加速优化器
使用 LRScheduler 和 torch.compiled 优化器加速训练
了解如何将用户定义的内核与 ``torch.compile`` 一起使用
了解如何在 ``torch.compile`` 中配置编译时间缓存
了解如何使用区域编译来控制冷启动编译时间
适用于 PyTorch* 的 Intel® 扩展简介
使用 Intel® Neural Compressor 轻松量化 PyTorch。
量化,模型优化
了解如何使用 DeviceMesh
分布式训练
如何使用 ZeroRedundancyOptimizer 来减少内存消耗。
如何将 RPC 与直接 GPU 到 GPU 通信结合使用。
如何为分布式优化器启用 TorchScript 支持。
分布式训练,TorchScript
了解如何使用分布式检查点包检查分布式模型。
了解如何将 CommDebugMode 用于 DTensors
了解如何在 Vertex AI 中使用 TorchServe 部署模型
访问 PyTorch 的全面开发者文档
获取面向初级和高级开发者的深度教程
查找开发资源并获得问题解答
为了分析流量并优化您的体验,我们在本网站上使用 Cookie。通过点击或导航,您同意允许我们使用 Cookie。作为本网站的当前维护者,Facebook 的 Cookie 政策适用。了解更多信息,包括有关可用控件的信息:Cookie 政策。