兆芯推出DeepSeek支持:全线处理器原生运行DeepSeek LLM
02/25/2025, 03:56 PM UTC
中国CPU制造商兆芯推出DeepSeek支持,所有处理器原生运行DeepSeek LLMChinese CPU maker Zhaoxin rolls out DeepSeek support to all processors — entire product lineup now runs DeepSeek LLMs natively
➀ 兆芯宣布在其产品线中采用DeepSeek-R1 LLM;
➁ 兆芯的处理器可以原生运行DeepSeek的多个模型,无需GPU支持;
➂ 兆芯重点介绍了其 KaiXian KX-7000/8消费级处理器和Kaisheng KH-40000/32服务器处理器在AI性能方面的表现。
➀ Zhaoxin has announced the adoption of DeepSeek-R1 LLM across its product lineup;
➁ The company's processors can natively run various DeepSeek models without GPU assistance;
➂ Zhaoxin highlights its KaiXian KX-7000/8 consumer processor and Kaisheng KH-40000/32 server processor for AI performance.
兆芯,一家获得许可使用x86指令集的中国公司,宣布在其全部硬件产品线中采用DeepSeek-R1大型语言模型(LLM)。该公司声称,其处理器和OEM系统可以原生运行DeepSeek迄今为止发布的1.5B、7B、14B、32B、70B和671B参数模型。
兆芯的新闻稿主要突出了两款芯片:其KaiXian KX-7000/8消费级处理器和Kaisheng KH-40000/32 64核服务器处理器。KX-7000/8是一款8核心型号,运行频率为3.7GHz,拥有32MB的L3缓存。兆芯宣称,当与一款未命名的中国GPU搭配时,该芯片可以原生运行DeepSeek-R1-7B。与文字处理器和VSCode界面的集成允许AI辅助写作、电子表格和编程。
这款未命名的AI加速卡无疑是这里所吹嘘的AI性能的主要贡献者。在与7年前的英特尔i3-8100四核芯片的最新测试中,KX-7000/8在多核基准测试中胜出,但在单核工作负载中轻松败北,CPU-Z单核结果为335.9分,而i3-8100为422.2分。
兆芯的企业级KH-40000系列也得到了重点介绍,KH-40000/16和/32芯片被测试其AI性能。作为OEM AI工作站的一部分,KH-40000/16成功部署了Deepseek-R1的32B模型。联合东海XRS302服务器工作站,一款完全由中国制造的服务器,配备四张中国AI加速卡,以补充16核心、2.2GHz的服务器处理器。由于东海XRS302尚未发货,我们不知道更多细节,例如用于这些测试的GPU或RAM。
最后,兆芯的旗舰KH-40000/32,一款专为双CPU服务器设计的32核心芯片,能够部署Deepseek的70B模型,并运行其671B模型,无需GPU(翻译丢失了一些细微差别;似乎70B的部署更为舒适,而671B模型仅勉强运行)。
由于语言障碍和公司对LLM性能参数的描述极其模糊,兆芯上述声明难以准确判断。DeepSeek-R1在兆芯CPU上的运行更多地反映了DeepSeek软件的成功还是兆芯硬件的能力,还有待观察。
DeepSeek继续成为中国科技市场的突破性时刻,越来越多的硬件公司纷纷将其集成到其产品中。甚至智能电视最近也获得了DeepSeek集成。在将英伟达和OpenAI的股票推向低谷之后,DeepSeek和中国硬件领域可能会在接下来的几周内继续保持势头,以证明中国科技部门的实力。
---
本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。