当前位置:首页 > 科技 > 正文

史上最大CPU背后的大脑呼吁Nvidia在令人惊讶的更新GPU路线图公告中散布FUD

发布时间:2024-01-22 15:35:45 编辑:柯策飞 来源:

导读 CerebrasSystems首席执行官安德鲁·费尔德曼(AndrewFeldman)表示,在Nvidia于2023年10月意外宣布其最新GPU产品路线图后,该公司正在利用欺

CerebrasSystems首席执行官安德鲁·费尔德曼(AndrewFeldman)表示,在Nvidia于2023年10月意外宣布其最新GPU产品路线图后,该公司正在利用欺骗性做法并滥用其市场主导地位来压制竞争。

Nvidia概述了将于2024年至2026年每年发布的新显卡,以补充目前需求量巨大的行业领先的A100和H100GPU,整个行业领域的组织都在吞并它们以用于生成AI工作负载。

但费尔德曼在接受HPCWire采访时将这一消息称为“预先宣布”,并强调该公司没有义务彻底释放其所嘲笑的任何组件。他推测这样做只会让市场感到困惑,特别是考虑到Nvidia比H100GPU晚了一年。他怀疑英伟达能否看透这一战略,也可能不想看透。

Nvidia在其公告中调侃了单一架构的年度飞跃,HopperNext将于2024年推出HpperGPU,随后是AdaLovelace-NextGPU(AdaLovelace显卡的后继产品)将于2025年发布。

费尔德曼对HPCWire反驳道:“公司生产芯片已经有很长一段时间了,没有人能够以一年的节奏取得成功,因为晶圆厂不会以一年的速度变化。”

“从很多方面来说,这对Nvidia来说都是一段可怕的时期。StabilityAI表示他们将继续选择英特尔。亚马逊表示,Anthropic将在它们身上运行。我们宣布了一项巨大的交易,该交易将产生足够的计算,因此很明显,您可以与我们一起构建……大型集群。

“在战略领域,[Nvidia的]反应并不是更好的产品,这对我来说并不奇怪。它是……将沙子抛到空中并经常移动你的手。你知道,Nvidia的H100晚了一年。”

Feldman设计了世界上最大的人工智能芯片CerebrasWafer-ScaleEngine2CPU,面积为46,226平方毫米,包含2.6万亿个晶体管和850,000个内核。

他告诉《纽约客》,大型芯片比小型芯片更好,因为当内核位于同一芯片上而不是分散在服务器机房时,它们的通信速度更快。


免责声明:本文由用户上传,如有侵权请联系删除!

上一篇:量子计算如何有利于药物发现

下一篇:VisionPro将为Disney+订阅者提供特殊的沉浸式环境