第 2 期
欢迎阅读第二期 PyTorch 简报!在本期中,我们将介绍如何在首届 PyTorch 生态系统日 (PTED) 上庆祝 PyTorch 社区,探索面向 PyTorch 开发者的全新播客,并了解 PyTorch 前端的重大更新。
PyTorch 生态系统日
Piotr Bialecki(NVIDIA 高级软件工程师)谈到了他使用 PyTorch 的历程,以及他对 PyTorch 未来发展的看法。Miquel Farré(迪士尼高级技术经理)介绍了使用 PyTorch 生态系统对所有迪士尼内容进行注释的 Creative Genome 项目。Ritchie Ng(Hessian Matrix 首席执行官)谈到了人工智能在亚太地区的增长,以及如何开始使用 PyTorch 处理生产中的人工智能用例。社区成员通过 71 张海报和弹出式分组讨论展示了他们如何使用 PyTorch。请在此处查看所有海报并收听开幕主题演讲!
PyTorch 开发者播客
Edward Yang(Facebook AI 研究工程师)讨论了内部开发概念,例如在 Python 中绑定 C++、调度器、PyTorch 的库结构等。敬请收听这个新系列;每集约 15 分钟。收听地址,无论您在哪里获取播客。
正向模式自动微分
正向模式自动微分(基于“对偶张量”)的核心逻辑现在已在 PyTorch 中。所有用于操作此类张量、代码生成和视图处理的 API 都已在 master (1.9.0a0)
中。Gradcheck 和第一组公式将在下个月添加;今年晚些时候将全面支持所有 PyTorch 函数、自定义 Autograd 函数和高阶梯度。请阅读更多相关信息,或在相应的 RFC 上与 @albanD 分享您的反馈。
使复共轭运算延迟
PR #54987 使复张量上的共轭运算返回一个视图,该视图具有一个特殊的 is_conj()
位翻转。除了通过不创建完整张量来节省内存外,如果后续运算可以直接处理共轭输入,则这还可以提高速度。对于此类运算(如 gemm
),会将一个标志传递给低级 API;对于其他运算,则会在传递给运算之前实现共轭。
torch.use_deterministic_algorithms 稳定
torch.use_deterministic_algorithms()
(文档) 在 master (1.9.0a0)
中稳定。如果为 True,则该标志会将非确定性运算切换到其确定性实现(如果可用),如果不可用则抛出 RuntimeError
。
torch.linalg 和 torch.special
torch.linalg
现在稳定;该模块保持与 NumPy 的 np.linalg 线性代数函数的保真度。torch.special
(测试版)包含 scipy.special 中的函数。如果您想为 torch.special 贡献函数,请参阅跟踪问题。如果您想要的函数不在列表中,请在跟踪问题上告诉我们您的用例以及为什么要添加它。
将 AMP 推广到 CPU 上工作
@ezyang:英特尔有意在 [RFC] Extend Autocast to CPU/CUDA with BF16 data type · Issue #55374 · pytorch/pytorch · 中为 CPU 引入自动混合精度。一个重要的问题是,用于自动转换的 API 在 CPU 上应该是什么;我们应该提供一个单一的、通用的 API torch.autocast(请记住,CPU 自动转换将通过 bfloat16,而现有的 GPU 自动转换是通过 float16),还是为 CPU/CUDA 提供单独的 API?如果您对这个问题有任何想法或意见,请在问题中发表您的意见。
您喜欢阅读这份简报吗?您想了解更多关于哪些方面的信息?欢迎您提出任何反馈!要分享您的建议,请使用此表单或直接回复此电子邮件。