登录社区云,与社区用户共同成长
邀请您加入社区
FlagGems 使用 pre-commit(https://pre-commit.com) 的 git hooks 格式化源代码,在调用 git commit 命令时进行代码静态检查,并且 pre-commit 测试也是 CI 的一部分,不通过检查的 Pull Request 不能被提交到 FlagGems。打开 FlagGems GitHub 首页(https://github.
而相比更底层的CUDA C甚至PTX、SASS等,Triton则隐藏了一些线程块粒度以下的调度功能,改由编译器自动接管共享存储、线程并行、合并访存、张量布局等细节,降低了并行编程模型的难度,同时提高了用户的生产效率。同时,厂商能够及时跟进Triton的更新,保持在硬件适配的前沿序列,也可以提出多芯片适用的共性技术创新,并贡献到Triton的开放社区中,继而成为Triton生态发展的引领者。与CUD
Triton &vLLM联合WorkShop重磅来袭,点击文章立即报名!
因此,本届 PyTorch 大会所宣讲的绝大多数内容都或多或少涉及大模型的训练、微调、对齐、推理、量化、部署、评测、数据、结构细节、底层编译优化等关键话题,以及整个 PyTorch 生态社群在过去一年中与之相关的努力。本届的例行报告本身包含五个部分,其中最后三个分别对应 PyTorch 官方今年新推出的三个原生大模型库:用于大规模预训练的 TorchTitan、用于大模型微调的 TorchTune
智源人工智能研究院于10 月 17 日下午,在位于北京市海淀区丰智东路13号朗丽兹西山花园酒店的GOSIM开源盛会上,成功举行了Triton&vLLM联合WorkShop。
Triton中国社区贡献者招募计划启动!点击了解详情进行报名
Triton官方将其DSL语法表达体系称为 triton.language(https://triton-lang.org/main/python-api/triton.language.html),是一种依托于python环境的DSL,从该命名中的“language”中不难窥见,Triton团队想用自成一派的语言(language)对面向GPU的编程模型进行独特的表达,在Triton中,DSL由
11月30日周六下午,Triton中国社区的成员们齐聚一堂,参与了一场特别的茶话会。这场活动不仅是对开源社区贡献者辛勤工作的感谢,也是对未来发展方向的深入探讨.。
Triton 的 Python API 里除了 triton.jit 还有 triton.autotune,triton heuristics,triton.Config 等接口用于调优以生成性能更好的 kernel
智源研究院和浪潮信息将于12月25日(星期三)下午组织召开AI系统创新研讨会,共同探讨在大模型高速发展时期,如何构建多元AI算力芯片架构,共建全栈软件生态,助力AI技术和产业的发展和进步。
此次大会,包括 Nvidia、AMD、Intel、Qualcomm 在内的各大芯片厂商,以及Google、微软、OpenAI、AWS 和 Meta 等 AI 领域的领军企业,均将 Triton 视为构建开放 AI 软件栈的关键技术,尤其是 Meta 都把 Triton 作为打造开放 AI 软件栈的必需品。Triton 的社区生态建设呈现出一种独特的活力,核心团队虽不张扬,但众多芯片厂商和用户厂商表
Hi,Triton 中国区的小伙伴们! 从4月中旬开始,我们将以“双周报”的形式,向大家传递社区的最新动态和技术更新情况。“双周报”以高度凝练的语言为特色,节省大家时间,快速掌握社区动态。 以下内容是【Triton社区双周报(2025.04.10-04.24)】,欢迎大家阅读~ 如有任何疑问和建议,欢迎联系“企微小助手”