Mi50 32G 运行qwen3,deepseek-r1 32b模型的速度表现

以Ollama做运行器测试,先安装

在这个过程中,脚本会自动下载ROCm bundle,无需额外操作

打印以上,即表示安装成功。

直接运行32b的版本, 加上参数等会儿推理完查看速度统计

模型下载速度很快✈️

模型下载到结尾的时候,速度会掉到几百k,这时候可以直接ctrl+c关掉再次运行,速度又会提起来。这是一个Q4_K_M 的量化版本,模型只有20G。

问一个经典的推理问题,实时监控

📢注意:由于MI50只有被动散热,需要加装主动散热器,否则超过80度会降频。

qwen3:32b吐字速度🔥:

deepseek-r1:32b吐字速度🔥:

qwen3:8b 的速度

附上Apple M2 Max qwen:32B的速度

以上模型均为32b参数,均为热启动,受吐字量、温度和功耗影响,仅做参考。

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: Mi50 32G 运行qwen3,deepseek-r1 32b模型的速度表现

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理