在本地运行 PyTorch 或使用支持的云平台快速入门
PyTorch 教程中的新增内容
熟悉 PyTorch 的概念和模块
大小适中、可立即部署的 PyTorch 代码示例
通过我们引人入胜的 YouTube 教程系列掌握 PyTorch 基础知识
了解 PyTorch 生态系统中的工具和框架
加入 PyTorch 开发者社区,贡献代码、学习并获得问题的解答
讨论 PyTorch 代码、问题、安装、研究
查找资源并获得问题的解答
今年的 PyTorch 大会公布了获奖者
为边缘设备构建创新且注重隐私的 AI 体验
跨移动和边缘设备实现设备上推理功能的端到端解决方案
探索文档,获取有关如何使用 PyTorch 的全面指导
阅读 PyTorch 领域文档以了解有关特定领域库的更多信息
了解最新的技术新闻和事件
来自 PyTorch 生态系统的文章
了解最新的 PyTorch 教程、新功能等
了解我们的社区如何使用 PyTorch 解决现实生活中每天遇到的机器学习问题
查找活动、网络研讨会和播客
了解有关 PyTorch 基金会的更多信息
PyTorch 食谱
PyTorch 简介
torch.autograd
YouTube 上的 PyTorch 简介
学习 PyTorch
non_blocking
pin_memory()
图像和视频
音频
文本
nn.Transformer
后端
强化学习
在生产环境中部署 PyTorch 模型
分析 PyTorch
使用 FX 进行代码变换
前端 API
扩展 PyTorch
模型优化
torch.compile
并行和分布式训练
使用 ExecuTorch 进行边缘计算
推荐系统
多模态
食谱是有关如何使用特定 PyTorch 功能的简洁、可操作的示例,不同于我们的完整教程。
了解如何使用 PyTorch 的 torch.nn 包创建和定义用于 MNIST 数据集的神经网络。
基础
了解如何在 PyTorch 中保存或加载模型时使用 state_dict 对象和 Python 字典。
了解在 PyTorch 中保存和加载用于推理的模型的两种方法 - 通过 state_dict 和通过整个模型。
保存和加载用于推理或恢复训练的一般检查点模型有助于从上次中断的地方继续。在本食谱中,探索如何保存和加载多个检查点。
在本食谱中,了解如何保存和加载多个模型有助于重用以前训练过的模型。
了解如何通过部分加载模型或加载部分模型来热启动训练过程,这可以帮助您的模型比从头开始训练收敛得快得多。
了解如何使用 PyTorch 在设备(CPU 和 GPU)之间保存和加载模型,这相对简单。
了解何时应该将梯度清零,以及这样做如何帮助提高模型的准确性。
了解如何使用 PyTorch 的基准测试模块来衡量和比较代码的性能
了解如何测量代码片段的运行时间和收集指令。
了解如何使用 PyTorch 的分析器来衡量算子的时间和内存消耗
了解如何使用支持 Instrumentation and Tracing Technology API (ITT API) 的 PyTorch 分析器在 Intel® VTune™ Profiler GUI 中可视化算子标签
了解如何使用 torch.compile IPEX 后端
了解如何使用元设备来推理模型中的形状。
了解从检查点加载 nn.Module 的技巧。
了解如何使用 torch 日志记录 API 来观察编译过程。
nn.Module 中的新扩展点。
了解如何使用 AOTInductor 面向 Python 运行时的端到端示例。
了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果。
可解释性,Captum
了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据
可视化,TensorBoard
将动态量化应用于简单的 LSTM 模型。
量化,文本,模型优化
了解如何以 TorchScript 格式导出训练后的模型,以及如何在 C++ 中加载 TorchScript 模型并进行推理。
TorchScript
了解如何使用 Flask(一个轻量级 Web 服务器)从训练后的 PyTorch 模型快速设置 Web API。
生产,TorchScript
在移动设备(Android 和 iOS)上使用 PyTorch 的性能优化秘诀列表。
移动,模型优化
了解如何从头开始创建 Android 应用程序,该应用程序使用 LibTorch C++ API 并使用带有自定义 C++ 算子的 TorchScript 模型。
移动
了解如何将 PyTorch 模块列表融合成单个模块,以在量化之前减小模型大小。
了解如何在不牺牲太多准确性的情况下减小模型大小并使其运行更快。
移动,量化
了解如何将模型转换为 TorchScipt 并(可选)针对移动应用程序对其进行优化。
了解如何在 iOS 项目中添加模型并使用 PyTorch pod 面向 iOS。
了解如何在 Android 项目中添加模型并使用 PyTorch 库面向 Android。
了解如何在 iOS 和 Andriod 设备上使用移动解释器。
如何使用 PyTorch 分析器分析基于 RPC 的工作负载。
生产
使用 torch.cuda.amp 在 NVIDIA GPU 上减少运行时间并节省内存。
实现最佳性能的技巧。
如何在 Intel® Xeon CPU 上使用 run_cpu 脚本获得最佳运行时配置。
在 AWS Graviton CPU 上实现最佳推理性能的技巧
了解如何利用 Intel® 高级矩阵扩展。
使用 torch.compile 加速优化器
使用 LRScheduler 和 torch.compiled 优化器加速训练
了解如何在 ``torch.compile`` 中使用用户定义的内核
了解如何在 ``torch.compile`` 中配置编译时缓存
了解如何使用区域编译来控制冷启动编译时间
面向 PyTorch* 的 Intel® 扩展简介
使用 Intel® 神经压缩器简化面向 PyTorch 的量化。
量化,模型优化
了解如何使用 DeviceMesh
分布式训练
如何使用 ZeroRedundancyOptimizer 来减少内存消耗。
如何使用 RPC 进行直接 GPU 到 GPU 通信。
如何为分布式优化器启用 TorchScript 支持。
分布式训练,TorchScript
了解如何使用分布式检查点包对分布式模型进行检查点。
了解如何将 CommDebugMode 用于 DTensor
了解如何使用 TorchServe 在 Vertex AI 中部署模型
访问 PyTorch 的全面开发者文档
获取面向初学者和高级开发人员的深入教程
查找开发资源并获得问题的解答
为了分析流量和优化您的体验,我们在本网站上提供 Cookie。通过点击或导航,您同意允许我们使用 Cookie。作为本网站的当前维护者,Facebook 的 Cookie 政策适用。了解更多信息,包括有关可用控制的信息:Cookie 政策。