Logo

SemiVoice

  • Numem高管深度解析:如何用智能内存技术重构AI计算生态

    semiwiki

    05/04/2025, 09:00 PM UTC

    ➀ Numem推出的NuRAM智能存储器融合SRAM/DRAM优势,提供3倍于HBM的带宽及SRAM的1/200待机功耗;

    ➁ 该技术破解AI系统中的电源效率瓶颈,适用于数据中心/自动驾驶/边缘计算等多场景内存架构优化;

    ➂ 正在研发的第二代集成芯片带宽将达10,000GB/s,智能内存子系统可动态匹配LLM工作负载。

    在与Numem市场战略负责人Motomori Koji的独家对话中,这家深耕存储技术30年的公司首次披露了其突破性产品NuRAM SmartMem™的技术细节。该技术通过独特的磁阻随机存储器(MRAM)架构,创造性融合了SRAM的高速读取(14ns@1GHz)与DRAM的动态写入特性,同时具备Flash的非挥发性,在28nm工艺节点下实现2.5倍于传统SRAM的存储密度。

    针对AI计算场景,NuRAM展现出革命性优势:其芯片内带宽达到24TB/s,较HBM3E提升超300%;待机功耗0.2μW/MB,较SRAM降低200倍。在边缘计算领域,该技术支持0.5V超低电压运行,可将智能摄像头续航延长至18个月。Motomori特别指出,其采用的bank级电源管理技术实现各存储区块独立供电,使得大型语言模型推理时的有效功耗降低57%。

    在技术路线图上,Numem计划于2025年底量产首款Chiplet产品,采用台积电N5P工艺的2.5D封装方案,单片集成48GB容量。值得注意的是,其第二代芯片将引入类脑计算架构,通过128个可重构内存计算单元(RCU)实现存算一体,预计可提升transformer模型推理速度达8倍。目前该技术已与多家自动驾驶芯片厂商展开联合开发,目标2026年实现车规级量产。

    面对行业竞争,Numem正构建多维技术壁垒:其专利的垂直磁隧道结(pMTJ)结构将数据保持时间提升至10年@150℃,同时在40nm工艺节点实现业界首个8层3D堆叠存储阵列。这种架构创新使得NuRAM在相同芯片面积下存储密度达到SRAM的4倍,为下一代万亿参数大模型训练提供了高性价比的片上存储解决方案。

    ---

    本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。

Related Articles

SemiVoice 是您的半导体新闻聚合器,探索海内外各大网站半导体精选新闻,并实时更新。在这里方便随时了解最新趋势、市场洞察和专家分析。
📧 [email protected]
© 2025