PG电子(中国)官方网站SRAM概念爆火 多家公司回应最新布局 业内:短期难以形

  新闻资讯     |      2024-02-22 16:35

  PG电子(中国)官方网站SRAM概念爆火 多家公司回应最新布局 业内:短期难以形成技术颠覆消息面上,谷歌TPU第一代设计者Jonathan Ross所创立的Groq公司正式宣布,其新一代LPU在多个公开测试中,以几乎最低的价格,相比GPU推理速度翻倍。并且后续有三方测试结果表明,该芯片对大语言模型推理进行优化效果显著,速度相较于

  上述消息爆出后,多家A股公司通过投资者互动平台等渠道,阐释公司SRAM相关的研究和业务。同时,今日(2月21日)《科创板日报》记者以投资者身份致电多家涉及SRAM储存器业务的公司,采访了解其进展。

  整体来看,包括炬芯科技、、成都华微等在内的多家科创板公司,均声称业务与SRAM储存器有关联或关注相关技术,其中有公司表示正在基于SRAM研发AI存算芯片,并且将在2024年取得阶段性进展。

  不过,多位业内人士接受《科创板日报》记者采访时,对SRAM相关产品方案将可能引起的算力爆发,保持较为审慎的态度。无论是SRAM本身的高成本、低容量,还是基于SRAM的LPU产品的通用性局限,短期来看对当前算力技术和产业难以形成颠覆。

  《科创板日报》记者通过互动平台向询问基于数模混合电路的SRAM存内计算路径进展,证人士表示,炬芯科技将推出最新一代升级为CPU+DSP+NP三核异构的高端AI音频芯片ATS286X,预计在2024年中,向下游客户提供样品芯片,该芯片为便携式产品提供更大的算力。

  炬芯科技证人士称,“SRAM是和FLASH和DRAM一样的一种储存器,SRAM用于AI芯片也有特定的场景,例如推理场景,但是公司未来的重点研发方向。”

  炬芯科技股份有限公司董事长兼CEO周正宇,曾在2023年11月举行的中国集成电路设计业2023年会上公开表示,基于SRAM的CIM具有非常显著的技术优势,包括能效比高,功耗低,读写速度快,适合低功耗高性能装置使用;写次数没有限制,适用于模型反复调整的;工艺成熟,可大规模量产;工艺领先,适合集成。“针对低功耗的音频SoC,基于SRAM的CIM是目前打造低功耗音频AI算力的首选。”

  证人士向《科创板日报》记者表示,该公司基于NOR Flash的存算一体芯片恒芯2号已回片,正处于测试阶段,该公司自2023年下半年同步也在进行基于SRAM的数字存算一体方案的研发,进展符合预期。

  上述恒烁股份证人士称:“NOR Flash存算一体芯片与SRAM的数字存算一体均可以用于,但SRAM是‘数字’存算一体,两者仍然存在功能方面的差别。顺利的线年底能回片。而且AI芯片也是公司未来的发展方向。”

  成都华微在互动平台上表示,该公司承担的“十三五”国家科技重大专项基于28nm工艺平台,突破超大规模高性能FPGA低功耗设计方法等关键技术,建立高性能、高性价比千万门级SRAM型FPGA器件自主研发与工程化应用能力。此外,该公司智能SoC芯片可以应用于人工智能领域,但目前处于研发、送样阶段。

  《科创板日报》记者致电成都华微采访其相关芯片进展详情,截至发稿暂未得到回复。值得注意的是,与此前两家拥有消费级应用布局的公司不同,成都华微隶属于中国电子信息产业集团,专注于特种集成电路研发、设计、测试与销售,以提供信号处理与控制系统的整体解决方案为产业发展方向。

  中科蓝讯证人士向《科创板日报》记者表示,目前该公司在研的智能蓝牙音频芯片、物联网芯片产品等均是基于NOR储存器,暂时没有产品基于SRAM研发。“目前NOR已经能满足所有产品智能化方面的需求,是否应用SRAM要根据下游客户需要进行。”该证人士称PG电子娱乐平台

  也有投资者关注到军用电子元器件芯片检测公司思科瑞,并询问该公司是否有SRAM芯片相关业务。证人士向《科创板日报》记者表示,“公司主要从事芯片检测,拥有一种随机静态存储芯片SRAM的测试筛选技术,每年可检测约10万只该种类型芯片。”

  在生成式引发的算力焦虑中,能产生算力爆炸的颠覆性技术也更容易受到市场关注。但这会是SRAM或基于SRAM的AI芯片吗?多位受访的从业者对此表示怀疑。

  “SRAM是个非常成熟的技术了,CPU中的寄存器和缓存都用的是SRAM。”业内人士接受《科创板日报》记者采访表示,SRAM早已以IP内核形式完成在SoC的集成,本身的技术价值没有更大的突破。

  上述人士表示,SRAM确实要比DRAM快,但SRAM价格很贵,容量较小。“LPU乃至其他计算芯片,大量使用SRAM时需要有所权衡,比如需不需要为了性能而牺牲容量。”

  “之所以Groq选择了SRAM,是因为它只推理、不训练,而推理所需要的存储空间比训练要小得多,所以Groq的一个板卡只有230MB的内存,而GPU的DDR空间基本都是几个GB的大小。”该人士称PG电子娱乐平台,由于成本和容量限制,目前还看不到SRAM爆发的希望。

  而对于基于SRAM的LPU产品,业内人士则质疑其不同场景中的通用能力,可能会影响该类产品的规模应用。

  有芯片从业者表示,LPU目前的优势在于推理,而训练方面能力偏弱PG电子娱乐平台。Groq使用的是开源模型,而且不训练这些模型。这样的方案“优点是推理速度很快,适用于单个模型的场景,但一旦涉及多个模型,LPU就没有任何优势了。”

  “训练比推理难很多”。有从事国产大模型训练的业内人士向《科创板日报》记者表示,推理是模型结构固定,模型权重已经冻结之后做的,但训练是为了训出模型,通常算法工程师会通过改变模型结构等操作来调整模型,这些操作非常灵活,并且大模型的训练还要分很多阶段。

  “对应到场景而言,越通用,则对训练过程的灵活性要求越高,越专用,则适用场景越小。”该大模型研发人士直言,LPU甚至可能是一个专为某种模型结构设计的硬件,很可能大模型换个结构就很难支持,另外Groq官网也只提到在大语言模型上的优势,专为语言模型设计,估计在图像和视频方面没有优势。

  “Groq公司LPU产品应用范围限制比较大,相比于更为完善的软件生态和GPU产品的通用计算平台,短期来看也完全没法取代GPU。”上述人士称。