在本地运行 PyTorch 或使用支持的云平台之一快速上手
PyTorch 教程中的新内容
熟悉 PyTorch 概念和模块
可直接部署的小型 PyTorch 代码示例
通过我们引人入胜的 YouTube 教程系列掌握 PyTorch 基础知识
了解 PyTorch 生态系统中的工具和框架
加入 PyTorch 开发者社区,为社区做出贡献、学习并获得问题的答案
讨论 PyTorch 代码、问题、安装、研究的地方
查找资源并获得问题的答案
今年 PyTorch 大会上宣布的获奖者
为边缘设备构建创新且注重隐私的 AI 体验
用于在移动和边缘设备上启用设备端推理功能的端到端解决方案
探索文档以获取有关如何使用 PyTorch 的全面指导
阅读 PyTorch Domains 文档以了解更多关于特定领域库的信息
了解最新的技术新闻和事件
来自 PyTorch 生态系统的故事
了解最新的 PyTorch 教程、新闻等
了解我们的社区如何使用 PyTorch 解决现实世界中的机器学习问题
查找活动、网络研讨会和播客
详细了解 PyTorch 基金会
PyTorch Recipes
PyTorch 简介
torch.autograd
YouTube 上的 PyTorch 简介
学习 PyTorch
图像和视频
音频
文本
nn.Transformer
后端
强化学习
在生产环境中部署 PyTorch 模型
分析 PyTorch
使用 FX 进行代码变换
前端 API
扩展 PyTorch
模型优化
torch.compile
并行和分布式训练
使用 ExecuTorch 进行边缘计算
推荐系统
多模态
Recipes 是关于如何使用特定 PyTorch 功能的可操作的简短示例,与我们的完整教程不同。
了解如何使用 PyTorch 的 torch.nn 包为 MNIST 数据集创建和定义神经网络。
基础
了解如何在保存或加载 PyTorch 模型时使用 state_dict 对象和 Python 字典。
了解在 PyTorch 中保存和加载模型以进行推理的两种方法 - 通过 state_dict 和通过整个模型。
保存和加载常规检查点模型以进行推理或恢复训练有助于从上次中断的地方继续进行。在本 recipe 中,探索如何保存和加载多个检查点。
在本 recipe 中,了解保存和加载多个模型如何有助于重用你之前训练过的模型。
了解通过部分加载模型或加载部分模型来对训练过程进行预热启动如何帮助你的模型比从头开始训练更快地收敛。
了解使用 PyTorch 跨设备(CPU 和 GPU)保存和加载模型是如何相对简单的。
了解何时应该将梯度清零,以及这样做如何帮助提高模型的准确性。
了解如何使用 PyTorch 的 benchmark 模块来测量和比较代码的性能
了解如何测量代码片段运行时间和收集指令。
了解如何使用 PyTorch 的分析器来测量运算符的时间和内存消耗。
了解如何将 PyTorch 的分析器与 Instrumentation and Tracing Technology API (ITT API) 结合使用,以便在 Intel® VTune™ Profiler GUI 中可视化运算符标签。
了解如何使用 torch.compile IPEX 后端。
了解如何使用元设备对模型中的形状进行推理。
了解从检查点加载 nn.Module 的技巧。
了解如何使用 torch 日志 API 观察编译过程。
nn.Module 中的新扩展点。
了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果。
可解释性,Captum
了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据。
可视化,TensorBoard
将动态量化应用于简单的 LSTM 模型。
量化,文本,模型优化
了解如何以 TorchScript 格式导出训练好的模型,以及如何在 C++ 中加载 TorchScript 模型并进行推理。
TorchScript
了解如何使用 Flask(一种轻量级 Web 服务器)从训练好的 PyTorch 模型快速设置 Web API。
生产,TorchScript
在移动设备(Android 和 iOS)上使用 PyTorch 进行性能优化的秘诀列表。
移动,模型优化
了解如何从头开始创建使用 LibTorch C++ API 以及使用带有自定义 C++ 运算符的 TorchScript 模型的 Android 应用程序。
移动
了解如何在量化之前将 PyTorch 模块列表融合到单个模块中以减小模型大小。
了解如何在不损失太多准确性的情况下减小模型大小并使其运行得更快。
移动,量化
了解如何将模型转换为 TorchScript 并(可选)针对移动应用程序对其进行优化。
了解如何在 iOS 项目中添加模型并使用适用于 iOS 的 PyTorch pod。
了解如何在 Android 项目中添加模型并使用适用于 Android 的 PyTorch 库。
了解如何在 iOS 和 Android 设备上使用移动解释器。
如何使用 PyTorch 分析器分析基于 RPC 的工作负载。
生产
使用 torch.cuda.amp 减少运行时间并在 NVIDIA GPU 上节省内存。
实现最佳性能的技巧。
如何在 Intel® Xeon CPU 上使用启动器脚本获得最佳运行时配置。
在 AWS Graviton CPU 上实现最佳推理性能的技巧。
了解如何利用 Intel® 高级矩阵扩展。
使用 torch.compile 加速优化器。
使用 LRScheduler 和 torch.compiled 优化器加速训练。
了解如何将用户定义的内核与 ``torch.compile`` 结合使用。
了解如何在 ``torch.compile`` 中配置编译时缓存。
Intel® Extension for PyTorch* 简介
使用 Intel® Neural Compressor 简化 PyTorch 的量化过程。
量化,模型优化
了解如何使用 DeviceMesh。
分布式训练
如何使用 ZeroRedundancyOptimizer 减少内存消耗。
如何将 RPC 与直接 GPU 到 GPU 通信结合使用。
如何为分布式优化器启用 TorchScript 支持。
分布式训练,TorchScript
了解如何使用分布式检查点包对分布式模型进行检查点操作。
了解如何使用 TorchServe 在 Vertex AI 中部署模型。
访问 PyTorch 的全面开发者文档
获取面向初学者和高级开发人员的深入教程
查找开发资源并获得问题的答案
为了分析流量并优化您的体验,我们在本网站上使用 Cookie。点击或浏览即表示您同意我们使用 Cookie。作为本网站的当前维护者,Facebook 的 Cookie 政策适用。了解更多信息,包括有关可用控件的信息:Cookie 政策。