logor
滚动:
中国金融资讯网 > 财经 > 又一个英伟达“大客户”要自己干,微软将于下个月推出“自产AI芯片”
又一个英伟达“大客户”要自己干,微软将于下个月推出“自产AI芯片”
日期:2023-10-07 14:18 作者:白鸽 来源:新浪  阅读量:11301   

来自:华尔街见闻

又一个英伟达“大客户”要自己干,微软将于下个月推出“自产AI芯片”

微软希望其自产芯片能够与英伟达供不应求的H100 GPU相媲美,以降低成本并减少对英伟达的依赖,但开发者早已熟悉英伟达专有的编程语言CUDA,如果换到微软定制芯片,就需要学习全新的软件语言了,他们会愿意吗?

英伟达独霸时代结束了?在酝酿数年后,微软的人工智能芯片或将在下个月露面。

10月6日,媒体援引知情人士消息称,微软计划在下个月的年度开发者大会上推出首款为人工智能设计的芯片,来降低成本并减少对英伟达的依赖。

报道称,微软芯片用于数据中心服务器,为训练大语言模型等软件而设计,同时可支持推理,能为ChatGPT背后的所有AI软件提供动力。

知情人士称,微软内部仍在争论是否会将这款芯片提供给微软Azure云客户,不过如果微软自研芯片亮相开发者大会,这表明其正在试图吸引未来云客户的兴趣。

运行ChatGPT的微软数据中心服务器目前用了上万块英伟达A100 GPU,为云客户提供先进的LLM,包括OpenAI和Intuit,并支持微软应用程序中的一些列人工智能功能。

微软希望其Athena芯片能够与英伟达供不应求的H100 GPU相媲美。此前有消息爆出,微软秘密组建的300人团队,在2019年时就开始研发一款名为“雅典娜”的定制芯片。今年开始,微软加快了推出专为LLM设计的AI芯片的时间轴。

媒体分析指出,在谷歌、微软和亚马逊的芯片大战中,微软一直处在落后的位置,在推出Athena后,微软将基本赶上亚马逊和谷歌。

知名研究公司Forrester Research的高级云计算分析师Tracy Woo表示,人工智能的繁荣正在给云计算供应商带来更大压力,迫使他们开发自己的芯片:

你可以从英伟达购买,但当你看到谷歌和亚马逊这些巨无霸时,会发现他们有资本设计自己的芯片。

微软想逐步摆脱英伟达?

为了发展ChatGPT,微软已经抢购了不少GPU,随着算力需求的增加,微软在后续或许需要更多的芯片支持。如果一如既往地购买英伟达GPU,这对微软来说将是一笔昂贵的支出,于是,对于微软的自研AI芯片市场上出现了更多探讨。

根据最初的计划,“雅典娜”会使用台积电的5nm工艺打造,预计可以将每颗芯片的成本降低1/3。

如果在明年能够大面积实装,微软内部和OpenAI的团队便可以借助‘雅典娜’同时完成模型的训练和推理。这样一来,就可以极大地缓解专用计算机紧缺的问题。

据报道,微软认为自己的 AI 芯片并不能直接替代英伟达的芯片,但随着微软继续推动在Bing、Office、GitHub和其他地方推出AI 驱动的功能,自研芯片可能会大幅削减成本。

研究公司 SemiAnalysis 的分析师Dylan Patel指出,如果Athena具有竞争力,与英伟达的产品相比,它可以将每芯片的成本降低三分之一。

撼动英伟达并不容易

显而易见,英伟达已经垄断了全球算力。到目前为止,大多数的AI负载还是跑在GPU上的,而英伟达生产了其中的大部分芯片。

华尔街见闻此前提及,英伟达独立GPU市场份额达80%,在高端GPU市场份额高达90%。2020年,全世界跑AI的云计算与数据中心,80.6%都由英伟达GPU驱动。2021年,英伟达表示,全球前500个超算中,大约七成是由英伟达芯片驱动的。

根据从业者的说法,相比于通用芯片,亚马逊、谷歌和微软一直在研发的专用集成电路芯片,在执行机器学习任务的速度更快,功耗更低。

O’Donnell董事在比较GPU和ASIC时,用了这样一个比较:“平时开车,你可以用普锐斯,但如果你必须在山上用四轮驱动,用吉普牧马人就会更合适。”

然而尽管已经做出了种种努力,但亚马逊、谷歌和微软都面临着挑战——如何说服开发者使用这些AI芯片呢?

现在,英伟达的GPU是占主导地位的,开发者早已熟悉其专有的编程语言CUDA,用于制作GPU驱动的应用程序。如果换到亚马逊、谷歌或微软的定制芯片,就需要学习全新的软件语言了,他们会愿意吗?

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

相关资讯