博客社区

PyTorch 韩国用户组 Meetup 回顾:与 PyTorch 核心维护者共同举办的技术会议

作者 2025年5月5日2025年9月4日暂无评论

三月底,PyTorch 韩国用户组举办了一场特别聚会,邀请了多位重量级演讲嘉宾,就 PyTorch 核心及其广泛的生态系统进行了深入探讨。此次活动的规模比以往增长了一倍多,让我们能够与更多的开发者建立联系并分享见解。非常感谢 goorm 为我们提供了绝佳的场地!😄

本篇回顾旨在为未能亲临现场的朋友们,以及希望重温当天活动热点与见解的参与者们提供参考。本次活动涵盖了 PyTorch 核心、AI 加速器、推理优化以及大语言模型开发等领域的专家。以下是大会核心议题的简要概述。

1️⃣ Jerry Lee | PyTorch 基金会

作为 Linux 基金会下属 PyTorch 基金会的代表,Jaeung 介绍了 PyTorch 如何推动核心开源技术的发展。他分享了 PyTorch 的成长历程、目前正在进行的众多全球项目,以及该生态系统令人瞩目的 20% 以上的年增长率。会议还讨论了基金会的运营模式、成员组织的参与方式,以及对开发者特别实用的未来计划。

2️⃣ Alban Desmaison | PyTorch 路线图

Alban 分享了 PyTorch 背后的设计哲学以及 Meta 的官方贡献路线图(链接)。他深入剖析了 Eager 模式与 Compiled 模式的区别,特别是对设备 Eager 执行的后端架构进行了详细拆解。此外,他还介绍了内存分析器、增强的自定义算子支持以及 pinned memory 优化等实用工具与改进。

3️⃣ Hongseok Kim | PyTorch 在 Rebellions AI 加速器上的应用:进展

Rebellions 正在为其专有的 NPU 架构构建运行时集成,并与 PyTorch 2.0 的结构性变革保持完全同步。本次演讲介绍了其即将推出的芯片的性能与可扩展性、与 PyTorch 运行时的集成策略,以及在支持 Eager 模式时所面临的挑战。Hongseok 还预告了他们年内发布这些功能的路线图。

4️⃣ Kyujin Cho | Backend.AI:面向所有 AI 加速器的统一平台

Backend.AI 将各种 AI 加速器抽象并集成到一个统一的工作流中。随着加速器架构的多样性日益增加,对可移植性和基础设施统一的需求变得尤为重要。本次会议展示了从 NPU 调度、资源分配到监控等贯穿开发与运维的功能。目前,Backend.AI 已支持 NVIDIA、Intel、Tenstorrent、Rebellions 等多家厂商的加速器。

5️⃣ Taeho Kim | 使用 NetsPresso 在多种芯片组上优化及部署模型

本次演讲聚焦于 AI 模型在现实工业应用中进行推理所面临的挑战。随着最先进模型(SOTA)的快速涌现,市场迫切需要能够一键快速验证设备兼容性的环境。NetsPresso 正在积极构建与 PyTorch 兼容的静态图表示,为模型开发、优化和测试提供高效支持。

6️⃣ Jungyeop Lee | 复现 Deepseek-R1 之旅

Jungyeop 分享了他复现大语言模型 Deepseek 的心路历程,这涉及了 201 次实验。他分享了使用韩语数据进行训练、分词器(Tokenizer)修改以及微调策略方面的实战经验。对于那些从零开始构建或重新实现大型模型的开发者来说,他的实战洞察和后续步骤建议极具价值。

7️⃣ Sol Kim | 从 TCP 架构到生产级 LLM 的旅程

Sol 介绍了一种使用 TCP(张量收缩处理器,Tensor Contraction Processor)架构部署大模型的集成优化方法,该架构在硬件层面支持张量收缩。演讲重点介绍了构建在硬件抽象层(HAL)之上的优化技术,以及与 PyTorch 自底向上的集成策略,为参会者提供了软硬结合的视角。

💡 小组讨论与问答 💡

活动最后以一场精彩的小组讨论落下帷幕。参会者提出了尖锐的问题,演讲嘉宾们给出了富有洞见的回答。这一时刻有力地展现了社区对 PyTorch 的热情,以及对更深层次技术理解的渴望。

结语

自 2022 年 10 月举办首次线下聚会以来,PyTorch 韩国用户组已成功举办了五场大型技术大会。每一场活动都让我们对 PyTorch 生态系统的广度与深度有了更深的感悟。得益于用户、贡献者和生态建设者们的视角,我们分享的内容正不断丰富,我们将致力于继续这段旅程。

期待在下次大会上与大家见面,届时会有更多精彩的演讲!🙌