2025年3月19日
SGLang 加入 PyTorch 生态系统:高效的 LLM 服务引擎
我们激动地宣布,SGLang 项目已集成到 PyTorch 生态系统中!此次集成确保 SGLang 符合 PyTorch 的标准和实践,为开发者提供了一个可靠且社区支持的框架,用于快速灵活地提供 LLM 服务。
2025年3月16日
PyTorch 在 GTC 2025
GTC 将于2025年3月17日至21日回到圣何塞。加入 PyTorch 基金会成员 Arm、AWS、Google Cloud、IBM、Lightning AI、Meta、Microsoft Azure、Snowflake 以及数千名开发者,一同庆祝 PyTorch。共同学习 AI 和加速计算如何帮助人类解决我们最复杂的挑战。
2025年3月7日
利用 PyTorch、Fedora 和开源社区赋能 AI
在普纳举行的 DevConf.IN 2025 大会上,我有机会于2月28日主持了一场 PyTorch Meetup。该主题为“利用 PyTorch、Fedora 和开源社区赋能 AI”的会议旨在向学生和专业人士介绍 PyTorch,并解释 PyTorch+Fedora 为何构成一个理想的 AI 开发平台。我还涵盖了开源社区之间的协作这一关键方面。
2025年2月19日
优化 LLM 以提高效率和可持续性
大型语言模型 (LLM) 应用的快速增长与能源需求的快速增长息息相关。根据国际能源署 (IEA) 的数据,数据中心的用电量预计到2026年将大致翻一番,这主要由 AI 驱动。这是由于大规模 LLM 训练的能源密集性需求——然而,AI 推理工作负载的增加也起着作用。例如,与传统搜索查询相比,单次 AI 推理可消耗约 1...
2025年2月12日
在 Datathon 2025: DataOrbit 使用 PyTorch 解决现实世界 AI 挑战
我们很高兴 PyTorch 赞助 Datathon 2025: DataOrbit,这是一个学生可以与团队合作使用真实世界数据集解决问题的地方!本次活动由 Data Science UCSB 与 Gaucho Sports Analytics 和 ACM@UCSB 合作主办,将于2025年2月22日至23日在加州大学圣巴巴拉分校举行,你将有机会向由公司和教职员工组成的评审团(包括 PyTorch 执行董事!)展示你的项目,并有机会赢取奖品...
2025年1月22日
汇聚 PyTorch 社区力量
迈入新的一年,这是一个回顾2024年那些让 PyTorch 基金会难忘的精彩社区活动的好时机。全球性的见面会、活动和会议汇聚了社区成员,共同学习、交流和成长。以下是本年度亮点和2025年展望的快速回顾。
2025年1月15日
Arm 与 GitHub 协作简化 PyTorch 的 MLOps 工作流程
PyTorch 是最广泛使用、功能最强大的深度学习框架之一,用于训练和部署复杂的神经网络。训练和部署 AI 应用从未如此简单,而低成本、高性能、高能效的硬件、工具和技术,以及用于创建优化工作流程的技术也比以往更容易获得。但是,数据科学、机器学习和 devops 本身都是深奥的领域,对于只有一项专长的开发者来说,很难看清如何...
2024年12月18日
docTR 加入 PyTorch 生态系统:从像素到数据,使用 PyTorch 和 docTR 构建识别管线
我们激动地宣布,docTR 项目已集成到 PyTorch 生态系统中!此次集成确保 docTR 符合 PyTorch 的标准和实践,为开发者提供了一个可靠且社区支持的强大 OCR 工作流程解决方案。
2024年12月9日
vLLM 加入 PyTorch 生态系统:人人都能轻松、快速、低成本地使用 LLM 服务
我们激动地宣布,vLLM 项目已成为一个 PyTorch 生态系统项目,并加入了 PyTorch 生态系统的大家庭!
2024年9月8日
PyTorch 上海见面会记录
我们很荣幸于2024年8月15日成功举办了 PyTorch 上海见面会。本次见面会受到了业界的广泛关注。我们邀请了来自英特尔和华为的资深 PyTorch 开发者作为演讲嘉宾,分享了他们宝贵的经验和最新的技术趋势。此外,本次活动还吸引了来自众多科技公司和知名高校的 PyTorch 爱好者。共有40余名参与者齐聚一堂,共同探讨和交流最新...
2024年5月12日
增强深度学习工作流程:PyTorch 生态系统工具
欢迎来到蓬勃发展的 PyTorch 生态系统,这里有丰富的工具和库,专为提升您作为开发者或研究人员在深度学习领域的体验而构建。生态系统工具页面汇集了来自学术界、工业界、应用开发和机器学习领域的专家的众多项目。
2024年5月11日
深度学习能耗测量与优化
Zeus 是一个开源工具箱,用于测量和优化深度学习工作负载的能耗。我们的目标是通过提供组合式工具,在最小化假设的情况下,让基于精确测量的能耗优化尽可能简单,适用于各种深度学习工作负载和设置。
2024年5月11日
隆重推出 depyf:轻松掌握 torch.compile
我们激动地推出 depyf,一个加入 PyTorch 生态系统的新项目,旨在帮助用户理解、学习和适应 torch.compile!
2024年2月15日
通过 SimulAI 工具包探索科学机器学习管线
SciML,即科学机器学习的简称,涵盖了将定量科学与机器学习融合的工作。在过去十年中,随着专业硬件(如 GPU 和 TPU)和数据集的广泛可用性,SciML 获得了显著的发展。此外,机器学习浪潮的整体影响也推动了它的发展,现在它已根植于我们时代的思潮中。在此背景下,我们想介绍 SimulAI,一个开源工具包...
2024年1月29日
Colossal-LLaMA-2:使用 LLaMA 和 Colossal-AI 构建低成本高质量的特定领域 LLM 解决方案
LLaMA-1 和 LLaMA-2 之间最显著的区别在于引入了更高质量的语料库,这是 LLaMA-2 性能显著提升的关键因素。这一点,再加上其商业可用性,扩展了大型模型在开源社区内的创新应用潜力。
2024年1月25日
使用 RoMa 轻松实现 3D 旋转和空间变换
还在为四元数、旋转向量、右手定则以及诸如此类的东西而苦恼吗?试试 RoMa:一个易于使用、稳定且高效的库,用于处理 PyTorch 中的旋转和空间变换。
2024年1月4日
torchdistill — 一个模块化、配置驱动的框架,用于可复现的深度学习和知识蒸馏实验
本文总结了 torchdistill (v1.0.0) 的主要特性和概念。请参阅官方文档了解其 API 和研究项目。
2023年12月6日
PyPose:一个用于机器人学习的基于物理优化的库
我们很高兴分享我们的新开源库 PyPose。它是一个基于 PyTorch 的机器人导向库,提供了一套工具和算法,用于连接深度学习与基于物理的优化。
2023年11月9日
激活检查点如何实现扩展训练深度学习模型
激活检查点是一种技术,以增加计算量为代价来减少内存占用。它利用了一个简单的观察结果:如果我们按需重新计算反向传播所需的中间张量,就可以避免保存它们。
2023年10月26日
torch.compile 解析
你是否曾因 torch.compile 的复杂性而感到不知所措?深入了解其工作原理可能感觉像魔法一样,涉及许多用户难以理解的字节码和 Python 内部细节,阻碍了他们理解和调试 torch.compile。
2023年7月6日
揭示半监督学习的力量:统一半监督学习基准
机器学习模型依赖于高质量、完全标注的数据。传统的监督学习方法通常需要数百万甚至数十亿规模的数据来训练大型基础模型。然而,获取如此海量的标注数据往往既繁琐又耗时耗力。作为替代方案,半监督学习 (SSL) 旨在仅使用一小部分标注数据,辅以大量未标注数据,来增强模型的泛化能力。这...
2023年6月29日
隆重推出 TorchOpt:一个用于 PyTorch 的高性能可微优化库
探索 TorchOpt,一个基于 PyTorch 的库,凭借其统一的编程抽象、高性能分布式执行运行时以及对各种微分模式的支持,彻底改变了可微优化。
2023年4月4日
使用 octoml-profile 对 PyTorch 语言模型进行性能分析
PyTorch 2.0 的最新发布表明,社区正在大力投资于由编译器驱动的机器学习未来。新的 OctoML Profiler 可以帮助任何用户充分发挥机器学习领域这些转变的潜力。
2023年2月10日
FASHABLE 如何使用 PyTorch 和 Azure Machine Learning 实现 SoA 逼真的 AI 生成图像
Fashable 是一家诞生于 XNFY Lab(与微软的联合倡议)的公司。公司的主要目标是利用基于 PyTorch 框架构建的道德人工智能 (AI) 技术彻底改变时尚界。Fashable 专注于开发为全球时尚行业生成合成内容的 AI 模型。近年来,时尚行业因产生大量浪费和对全球二氧化碳排放量高达 10% 负责而受到批评。Fas...
2023年1月31日
最新的 Colossal-AI 拥有新颖的自动并行化,为 Stable Diffusion 2 提供了高达46倍的节省
作为新的 PyTorch 生态系统合作伙伴,我们 HPC-AI Tech 期待与 PyTorch 社区合作,通过我们的开源项目 Colossal-AI 推进 AI 技术。我们很高兴能与 PyTorch 社区在此项工作中携手合作。
2023年1月6日
使用 PyTorch 和 Azure ML 进行分布式训练
假设你有一个非常大的 PyTorch 模型,并且已经尝试了许多常见的技巧来加速训练:优化了代码,将训练转移到云端并选择了快速的 GPU 虚拟机,安装了提高训练性能的软件包(例如,在 Azure ML 上使用 ACPT 精选环境)。然而,你仍然希望模型能够训练得更快。也许是时候尝试分布式训练了!继续阅读,了解进行分布式训练的最简单方法...