在本地运行 PyTorch 或通过支持的云平台快速开始
PyTorch 教程的新内容
熟悉 PyTorch 概念和模块
短小精悍、可直接部署的 PyTorch 代码示例
通过我们引人入胜的 YouTube 教程系列掌握 PyTorch 基础知识
了解 PyTorch 生态系统中的工具和框架
加入 PyTorch 开发者社区,贡献代码、学习知识并获得问题解答
讨论 PyTorch 代码、问题、安装和研究的地方
查找资源并获得问题解答
在今年的 PyTorch 大会上公布获奖者
为边缘设备构建创新且注重隐私的 AI 体验
支持移动和边缘设备上端到端推理能力的解决方案
查阅文档以获取关于如何使用 PyTorch 的全面指南
阅读 PyTorch 领域库文档,了解更多领域专用库
了解最新的技术新闻和动态
来自 PyTorch 生态系统的故事
了解最新的 PyTorch 教程、新闻等
了解社区如何使用 PyTorch 解决现实的日常机器学习问题
查找活动、网络研讨会和播客
及时了解最新更新
了解更多关于 PyTorch 基金会的信息
PyTorch 秘籍
PyTorch 入门
torch.autograd
学习 PyTorch
non_blocking
pin_memory()
图像与视频
音频
后端
强化学习
在生产环境中部署 PyTorch 模型
PyTorch 性能分析
使用 FX 进行代码变换
前端 API
扩展 PyTorch
模型优化
torch.compile
并行与分布式训练
边缘计算与 ExecuTorch
推荐系统
多模态
秘籍是短小精悍、可操作的示例,展示了如何使用特定的 PyTorch 功能,与我们的完整教程不同。
了解如何使用 PyTorch 的 torch.nn 包为 MNIST 数据集创建和定义神经网络。
基础知识
了解 state_dict 对象和 Python 字典在 PyTorch 模型保存或加载中的用法。
了解在 PyTorch 中保存和加载模型以进行推理的两种方法 - 通过 state_dict 和通过整个模型。
保存和加载通用检查点模型以进行推理或恢复训练,有助于从上次中断的地方继续。在本秘籍中,探索如何保存和加载多个检查点。
在本秘籍中,了解保存和加载多个模型如何有助于重用之前训练过的模型。
了解通过部分加载模型或加载部分模型来热启动训练过程,可以帮助你的模型比从头训练更快地收敛。
了解使用 PyTorch 跨设备(CPU 和 GPU)保存和加载模型相对简单。
了解何时应该清零梯度以及这样做如何帮助提高模型的准确性。
了解如何使用 PyTorch 的 benchmark 模块来测量和比较代码性能
了解如何测量代码片段运行时间并收集指令。
了解如何使用 PyTorch 的 profiler 来测量算子的时间和内存消耗
了解如何将 PyTorch 的 profiler 与 Instrumentation and Tracing Technology API (ITT API) 结合使用,在 Intel® VTune™ Profiler GUI 中可视化算子标签
了解如何使用 torch.compile IPEX 后端
了解如何使用 torch.compiler.set_stance
编译器
了解如何使用 meta device 来理解模型中的形状。
学习从检查点加载 nn.Module 的技巧。
了解如何使用 torch 日志 API 观察编译过程。
nn.Module 中的新扩展点。
学习一个使用 AOTInductor 实现 Python 运行时的端到端示例。
学习如何为常见用例导出模型
Compiler,TorchCompile
了解如何使用 Captum 将图像分类器的预测归因于相应的图像特征,并可视化归因结果。
Interpretability,Captum
学习 TensorBoard 与 PyTorch 配合使用的基本用法,以及如何在 TensorBoard UI 中可视化数据
Visualization,TensorBoard
将动态量化应用于简单的 LSTM 模型。
Quantization,Text,Model-Optimization
了解如何将训练好的模型导出为 TorchScript 格式,以及如何在 C++ 中加载 TorchScript 模型并进行推理。
TorchScript
了解如何使用轻量级 Web 服务器 Flask,快速为训练好的 PyTorch 模型设置 Web API。
Production,TorchScript
在使用 PyTorch for Mobile(Android 和 iOS)时进行性能优化的秘籍列表。
Mobile,Model-Optimization
了解如何从零开始制作使用 LibTorch C++ API 并使用带有自定义 C++ 算子的 TorchScript 模型的 Android 应用。
Mobile
了解如何将 PyTorch 模块列表融合成单个模块,以在量化前减小模型大小。
了解如何在不损失太多准确性的情况下减小模型大小并使其运行更快。
Mobile,Quantization
了解如何将模型转换为 TorchScript 并(可选地)为移动应用进行优化。
了解如何在 iOS 项目中添加模型并使用 PyTorch iOS Pod。
了解如何在 Android 项目中添加模型并使用 PyTorch Android 库。
了解如何在 iOS 和 Android 设备上使用 mobile interpreter。
如何使用 PyTorch profiler 对基于 RPC 的工作负载进行性能分析。
生产环境
使用 torch.cuda.amp 在 NVIDIA GPU 上减少运行时间并节省内存。
Model-Optimization
实现最佳性能的技巧。
如何使用 run_cpu 脚本获取 Intel® Xeon CPU 上的最佳运行时配置。
在 AWS Graviton CPU 上实现最佳推理性能的技巧
了解如何利用 Intel® Advanced Matrix Extensions。
使用 Torch Function 模式和 torch.compile 覆盖 torch 算子
使用 torch.compile 加速优化器
使用 LRScheduler 和 torch.compiled 优化器加速训练
使用 torch.compile 横向融合逐点算子
了解如何将用户定义的 Kernel 与 ``torch.compile`` 一起使用
了解如何在 ``torch.compile`` 中使用编译时缓存
了解如何在 ``torch.compile`` 中配置编译时缓存
了解如何使用区域编译控制冷启动编译时间
Intel® Extension for PyTorch* 介绍
使用 Intel® Neural Compressor 为 PyTorch 轻松进行量化。
Quantization,Model-Optimization
了解如何使用 DeviceMesh
Distributed-Training
如何使用 ZeroRedundancyOptimizer 减少内存消耗。
如何使用 RPC 进行 GPU 到 GPU 的直接通信。
如何为分布式优化器启用 TorchScript 支持。
Distributed-Training,TorchScript
了解如何使用 Distributed Checkpoint 包对分布式模型进行检查点。
了解如何为 DTensors 使用 CommDebugMode
了解如何使用 TorchServe 在 Vertex AI 中部署模型
查阅 PyTorch 的全面开发者文档
获取针对初学者和高级开发者的深入教程
查找开发资源并获得问题解答
为了分析流量并优化您的体验,本网站提供 Cookie。点击或导航即表示您同意我们使用 Cookie。作为本网站的当前维护者,适用 Facebook 的 Cookie 政策。了解更多信息,包括可用控制:Cookie 政策。