近日,根据Tomshardware报道消息,NVIDIA今年年内计划售出超过55万块H100计算卡。
这无疑与当下的AI大模型训练热潮,以及随之而来的,对算力的庞大要求有关。而NVIDIA CEO黄仁勋在本月初SIGGRAPH大会上的演讲,也证明了这一点。
在会上,黄仁勋表示,“未来 LLM(大型语言模型)将处于几乎所有事物的前沿,‘人类’是新的编程语言。”因此,他在2018年就决定,将公司的一切押到AI之上。
现如今,黄仁勋的这一决定无疑在商业层面获得了巨大成功,NVIDIA已经几乎成为了AI大模型训练中无法绕过的一环。不过,NVIDIA的一家独大,对于整个行业,以及其他厂商来说,或许并非一件好事。
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!