AI芯片公司直接提供云服务似乎成了新的风潮。
市场领导者英伟达在GTC 2023上宣布会基于Oracle的云基础设施提供AI云服务。
美国AI芯片独角兽SambaNova也做同样的事情,以云服务的方式提供AI算力。
英国AI芯片独角兽公司Graphcore近期也进行了策略的调整,其CEO Nigel Toon表示在英国和美国会和云厂商紧密合作,以云产品的形式提供算力,不再单独销售芯片产品。
不过Graphcore中国区并未跟进英国总部不单独销售芯片产品的策略。
“中国和总部的策略后续会不太一样。我们在业务、策略上还是一以贯之,继续以销售硬件,自己安装产品的形式提供AI算力。”Graphcore总裁,大中华区总经理卢涛表示,
“在中国,我们还是比较坚定地走被云厂商集成的策略,Graphcore中国还是这样的商业模式。”
为什么在中国不直接提供云服务?
Graphcore总部和中国区战略不同的核心在于到底是卖云服务还是直接卖芯片,让人好奇的是,为什么中国区做出了不一样的选择?
卢涛解释,中国的产业业态和美国、欧洲有很大区别,比如,美国基本所有互联网公司都架构在AWS、Azure和Google Cloud这三朵云之上。中国有很多优秀的云厂商,但也有很多选择自建数据中心的大型互联网公司。一些公司原本是云厂商的大客户,随着自身体量增加也做了大量的自建。
“这些大体量用户尤其是头部用户的自建行为让我们发现他们更希望被提供硬件形式的服务。云也非常重要,但我们希望Graphcore能成为中国云厂商产品的一部分,而不是做一个Graphcore自有品牌的云。”卢涛说明了中国区坚持原有商业模式的原因。
客户群体方面,Graphcore中国会聚焦于大型互联网公司。
这主要有两方面的意义,第一,大型的互联网公司对GPU产品用得最深最透最广,对非GPU产品的技术参数、可用性、技支持服务、商业支持服务、产品稳定性都要求很高。
“只有和严苛的客户一起,才能真正把自己的产品给打磨出来。过程非常痛苦,但能从中学到很多。”卢涛体会颇深,“我们之前为一个国内的大客户部署了一个比较大的IPU集群,他们向我们提出了三百多个软件特性需求,若不是客户提出这些需求,很多需求我们想象不出来。客户的要求越高、越苛刻,反而进步更快。”
第二个方面的意义是从商业的角度。把中国作为单一的整体大市场,中国互联网行业占整个AI应用市场的60%,并且这个行业里Top10-20多公司又占了80%以上的市场。
“从商业角度,如果你的产品表现令人满意,最后的商业回报也会相对合理。”卢涛表示。
据小编了解,Graphcore正在和国内的金山云和腾讯云合作,与另一家国内大型云厂商的合作细节在规划中。
如何把握生成式AI带来的机会?
如今,各大互联网公司的大模型也带来了对大算力AI芯片的强需求。只有快速实现对大模型的支持,才有可能抓住市场机遇。
目前,Graphcore已经支持的大模型包括GPT-2 XL版本,GPT-J开源版本,Dolly 2.0(刚开源的100多亿参数的模型),ChatGLM-6B(国内比较火的开源模型)。
“对于大模型的公司,我们的一个优势是可以做到每个token 3.5毫秒,几百个字一秒钟就能出来了。”卢涛用了更形象的方式体现这一速度,“ChatGPT是逐字出现的,我们可以一屏屏地显示。这是给做大模型的人一个重要的价值点,能够带来不一样的体验。
实现了对多个大模型的支持之后,也意味着Graphcore可以快速支持其它大模型。
卢涛表示,“从Dolly 2.0发布到我们支持这个模型,大概两周左右的时间。支持大模型的关键点在于模型的大小,以及如何在多个IPU之间做模型拆分。需要底层的各种能力,例如Transformer相关的算子,模型并行的API,算子并行的API,Tensor并行的API,这些底层的技术我们已经比较成熟。”
当然,想要吸引熟悉了GPU的客户使用Graphcore的IPU,最好能够做到零代码迁移,和CUDA兼容。
Graphcore在去年推出主打推理兼做训练的C600产品时,同时发布的软件工具包PopRT,这个工具包可以将GPU在TensorFlow训练出来的模型进行自动转换,在不做CUDA兼容的情况下,比较无缝地把GPU的软件在IPU上跑起来。
“上个月我们刚发了1.0版本,目前一些客户反馈都还不错,因为以前做一些模型迁移都需要花费较长的时间,现在有了工具之后,客户自己的模型迁移还是比较快。”卢涛说,“当然,我们的芯片IPU的优势是核非常多,存储、带宽非常大。”
对于当下众多的AI大算力初创芯片公司而言,英伟达并没有留给竞争者太多机会,差异化竞争能够增加成功的可能。
这种差异化就包括面对不同的市场采用更适合的市场策略,所以Graphcore在英国和中国市场采用不同的策略,是差异化和灵活性的体现,这种灵活性有助于Graphcore在中国取得成功。小编
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!