在今日清晨的 2023 年全球超算大会( SC2023 )上,英伟达推出了
作为前代 H100 的晋级款,老黄直接不装了,在官网上单方面将 H200 称为 “当世最强” 。
但更秀的是,没人会因而质疑他们违背广告法,由于在 AI 年代,对手们真只能眼巴巴地看着英伟达的车尾灯。
以 700 亿参数的 LLama2 大模型为例, H200 推理速度简直比前代的 H100 快了一倍,并且能耗还下降了一半。
本年 8 月的时分, SK 海力士推出 HBM3e 之后,据声称单颗带宽能够到达 1.15TB/s ,相当于在 1 秒钟内传输了 230 部 FHD 高清电影(每部容量 5G )。
在 SK 海力士官宣 HBM3e 之后不久,包含三星、美光在内的内存厂商们,都连续跟进了这一技能。
说白了便是有更高的功能、更高的带宽,优点便是芯片能用更快的速度传输数据,一起还下降功耗。
比起技能晋级更便利的是, H200 和 H100 都是依据英伟达 Hopper 架构打造的。
所以两款芯片能够相互兼容,那些装满了 H100 的企业不需要调整,能够直接替换。
不过,乍一看如同是王炸,但实际上H200 或许仅仅是 H100 的一个 “ 中期改款 ”。
由于咱们得知, H100 和 H200 单论峰值算力的话,其实是如出一辙的。
之前各个大厂忙着打造自家的大模型,对 GPU 最大的需求毫无疑问便是练习,所以其时咱们的需求是提高练习才能。
而现在,跟着 AI 大言语模型不断落地使用,练习模型在厂商眼中或许已是牛夫人了,咱们反而全去卷推理速度。
所以这次 H200 很或许是成心疏忽 “ 算力 ” 晋级,转而进行推理方面的发力。
当然了,这也是英伟达工程师们给老黄挤牙膏的本事,谁让人家显卡真就遥遥领先呢。
哪怕仅仅做了个小提高, H200 还真就能当得起 “ 当世最强 ” 的名号。
并且依据瑞杰金融集团估量, H100 芯片价格在 2 万 5-4 万美金之间,那加量后的 H200 只会比这高。
而现在像亚马逊、谷歌、微柔和甲骨文等大厂的云部分,现已付完钱排排站,就等着下一年 H200 交货了。
本年草创公司、大厂、政府机构等等为了抢一张 H100 挤破脑袋的姿态还在演出,所以下一年H200 的销量底子不必愁。
“ 是人是狗都在买显卡 ” ,上一年说完这句话的马斯克也不得不回头就参加 “ 抢卡大军 ” 。
更夸大的是,英伟达方面还说了,推出 H200 不或许影响 H100 的扩产方案。
也便是下一年英伟达仍是计划卖 200 万颗 H100 芯片,也能旁边面看出, AI 芯片是多么不愁卖。
像 OpenAI 作为打响 AI 革新榜首枪的人,成果由于只要少量的 GPU 苦楚得不可。
比方自研 AI 芯片、与英伟达等制造商打开更紧密协作、完成供货商多元化等等。
更进一步的是特斯拉,他们就在 7 月推出了由定制 AI 芯片 D1 打造的 Dojo 超级计算机,用来练习无人驾驶体系。
其时摩根士丹利直接吹了一篇研报说:特斯拉这波下来,比用英伟达的 A100 足足省下了 65 亿美元。
就比方英伟达的芯片是一锅大杂烩,谁来了吃都能吃饱饱;而自研芯片尽管仅仅小碗菜,但它可依据个人口味做,尽管做得少、但更合食欲。
其他大厂也没闲着,比方微软要自研 “ 雅典娜 ”、谷歌在年头就在自研芯片上获得打破发展。。
但就像咱们前面说的,这次 H200 其实仅仅一个 “ 中期改款 ” ,还不足以消除其他厂商们的小心思。
依照英伟达自己放出的音讯,大的仍是下一年会来的 B100 ,从图里看它至少是有指数级的提高。
所以世超觉得,咱们伙忙活半响,在硬实力面前,黄老爷的方位恐怕仍是会渐渐的稳。
你看像是即便强如 Meta 早在 2021 年就意识到,自己怎么干都比不上英伟达的GPU功能,回头就从老黄那下了几十亿订单( Meta 最近如同又有点自研的心思了 )。
还记得老黄刚宣告英伟达是 “ AI 年代的台积电 ” 的时分,有不少人冷言冷语。
究竟 2022 年台积电 “ 只 ” 占了全球晶圆代工产能的 60% ,而英伟达现在现已占有了可用于机器学习的图形处理器商场 80% 以上的比例。
总感觉,等老黄的大招真来了,这些大厂们的芯片自研项目恐怕又得死一片吧。。。
电话: 134-5561-6515
地址: 山东省潍坊市昌乐