MI50 用ollama跑qwen3-coder-30b-a3b的速度测试

7月底QWen3-Coder的小模型终于发布啦,这次带来的是30b-a3b的MoE模型。

  • 在代理编程、代理浏览器使用和其他基础编程任务方面,性能优于其他开源模型。
  • 具备长上下文能力,原生支持256K个标记,使用Yarn可扩展至1M个标记,优化用于仓库级理解。
  • 支持代理编程,适用于大多数平台,如Qwen Code、CLINE,采用专门设计的函数调用格式。

Qwen3-Coder-30B-A3B-Instruct 有以下特性

  • Type: Causal Language Models
  • Training Stage: Pretraining & Post-training
  • Number of Parameters: 30.5B in total and 3.3B activated
  • Number of Layers: 48
  • Number of Attention Heads (GQA): 32 for Q and 4 for KV
  • Number of Experts: 128
  • Number of Activated Experts: 8
  • Context Length: 262,144 natively.

本次测试仍然是MI50-32G,ollama_0.10.1, ROCm_6.3.4

生成速度达到35 t/s

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: MI50 用ollama跑qwen3-coder-30b-a3b的速度测试