AMD 推出 vLLM-ATOM 插件,加速 DeepSeek、Kimi 等 AI 推理性能

释放双眼,带上耳机,听听看~!
科技媒体 Wccftech 昨日(5 月 11 日)发布博文,报道称 AMD 推出 vLLM-ATOM 插件,在不改动现有 vLLM 命令、API 和工作流的前提下,提升 DeepSeek-R1、Kimi-K2 和 gpt-oss-120B 等大语言模型推理性能。

IT之家 5 月 12 日消息,科技媒体 Wccftech 昨日(5 月 11 日)发布博文,报道称 AMD 推出 vLLM-ATOM 插件,在不改动现有 vLLM 命令、API 和工作流的前提下,提升 DeepSeek-R1、Kimi-K2 和 gpt-oss-120B 等大语言模型推理性能。

IT之家注:vLLM 是面向大语言模型部署的开源推理框架,重点优化高并发服务场景下的吞吐和显存利用率。与一般“单次调用”推理工具不同,它更强调请求调度、KV 缓存和连续批处理,适合企业把模型做成长期在线服务。

AMD 本次推出的  vLLM 插件提供了一套更贴近 AMD Instinct GPU 的推理优化方案,尽量不改变开发者现有使用方式,让用户继续使用原有 vLLM 命令、API 和端到端工作流,而插件会在后台接管优化。

微信图片_20260512115503_1452_338.png

vLLM-ATOM 架构与 MI300X、MI355X 示意

vLLM-ATOM 插件重点面向 Instinct MI350、MI400,以及 MI355X 等 GPU。从架构上看,vLLM-ATOM 分成 3 层:

最上层的 vLLM 负责请求调度、KV 缓存管理、连续批处理,以及兼容 OpenAI 的 API。

中间层的 ATOM 插件负责平台注册、模型实现、注意力后端路由和内核调优。

最底层的 AITER 则提供 GPU 内核,包括融合 MoE、Flash Attention、量化 GEMM 和 RoPE 融合。

对企业和开发者来说,这套方案的核心价值不只是“更快”,还在于部署门槛更低。AMD 把它包装成“零学习成本”,意味着现有基于 vLLM 的服务流程理论上可以平滑迁移到 AMD 后端。

该插件支持多个模型,包括 Qwen3、DeepSeek、GLM、gpt-oss、Kimi 等,并覆盖 MoE、混合 MoE、稠密模型,以及文本加视觉的 VLM 场景。

该插件支持的代表模型包括 Qwen3-235B-A22B-Instruct-2507-FP8、DeepSeek-R1-0528、openai / gpt-oss-120b 和 amd / Kimi-K2.5-MXFP4。

微信图片_20260512115513_1453_338.png

AMD vLLM-ATOM 与 Instinct GPU 配图

温馨提示:本站提供的一切软件、教程和内容信息都来自网络收集整理,仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负,版权争议与本站无关。用户必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。我们非常重视版权问题,如有侵权请邮件与我们联系处理。敬请谅解!

给TA打赏
共{{data.count}}人
人已打赏
热点资讯

AI眼镜创新趋势洞察:凭“创”突围,以“新”破局

2026-5-12 8:19:20

热点资讯

人形机器人即将“上户口”,湖北率先启动“数字身份证”登记

2026-5-12 12:38:34

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索