网站首页

半岛彩票产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

半岛彩票新闻中心

关于我们半岛彩票

公司概况 核心优势 核心团队 发展历程

联系我们半岛彩票·(中国)官方网站

官方微信 官方微博
半岛彩票·(中国)官方网站 > 半岛彩票新闻中心

微软OpenAI联手围剿英伟达首款自研AI芯片下月发布半岛彩票

发布时间:2023-10-08 23:35浏览次数: 来源于:网络

  半岛彩票一家独大的英伟达,把微软和OpenAI都逼得亲自下场造芯片了。也许AI芯片大战才刚刚拉开帷幕。

  知名外媒The Information独家爆料称,微软计划在下个月举行的年度开发者大会上,推出首款人工智能芯片。

  不论是为了走出算力枯竭,更高效,低成本地开发自己的模型,还是为了摆脱被「利润率高达1000%」的H100盘剥。

  但是,根据业内人士爆料,英伟达对于已经推出自己芯片的公司,比如谷歌和亚马逊,会控制GPU的供给。

  所以「芯片自研」的道路,是一个风险和收益都很高的选择,毕竟谁也不想未来被黄老板在GPU供给上进一步「卡脖子」。

  与英伟达的GPU类似,微软的芯片也是专为数据中心服务器设计,可用于训练和运行诸如ChatGPT这类的大语言模型。

  目前,不管是为云客户提供先进的LLM支持,还是为自家的生产力应用提供AI功能,微软都需要依靠英伟达的GPU提供算力的加持。

  而这款从2019年便开始研发的全新芯片,显然可以极大地减轻微软对英伟达GPU的依赖。

  据知情人士称,微软和OpenAI组成的联合团队,现在已经在对其进行测试了。

  也是同年,微软宣布将向OpenAI投资10亿美元,并要求他们必须使用微软的Azure云服务器。

  然而,当微软开始与OpenAI进行更紧密地合作时发现,依靠购买GPU来支持这家初创公司、Azure客户以及自家产品的成本,实在是太高了。

  据知情人士透露,在开发Athena期间,微软为了满足OpenAI的需求,已经向英伟达订购了至少数十万块GPU。

  据称,微软希望这款代号为Athena(雅典娜)芯片,能与一直供不应求的英伟达H100 GPU相媲美。

  微软虽然还在讨论是否要向Azure云客户提供自研芯片,但该芯片在开发者大会上的首次亮相,可能预示着微软正在寻求吸引未来云客户的兴趣。

  可以肯定的是,微软将借着Athena的推出,极大缩短与另外两家巨头的距离——谷歌和亚马逊早已在自家的云服务器上大规模采用了自研的芯片。

  此外,为了摆脱英伟达的「卡脖子」,微软还在与AMD密切合作,开发即将推出的人工智能芯片MI300X。

  不过,微软和其他云服务提供商普遍表示,自己并没有停止从英伟达购买GPU的打算。

  但如果他们能说服云客户更多地使用自研芯片,那么从长远来看,这可以极大地节省开支。同时,也能帮助他们在与英伟达的谈判中获得更多筹码。

  对于OpenAI来说,能同时减少对微软和英伟达芯片的依赖,显然是最好的。

  据OpenAI网站上的几则招聘信息显示,公司正在招聘能够帮助其评估和共同设计AI硬件的人员。

  此前,CEO Sam Altman曾将获得更多AI芯片作为公司的首要任务。

  一方面,OpenAI所需的GPU十分短缺,另外,运行这些硬件时产生的成本「令人瞠目结舌」。

  如果算力成本一直居高不下,长远来看于整个AI行业来说可能并不是一个好消息。

  毕竟如果掘金的「铲子」卖的比金子本身都贵,那么还会有人去做挖金子的人吗?

  根据Stacy Rasgon的分析,ChatGPT每次查询大约需要4美分。如果ChatGPT的查询量增长到谷歌搜索规模的十分之一,那么就将需要价值约481亿美元的GPU,并且每年需要价值约160亿美元的芯片来维持运行。

  据业内资深人士分析,这将是一项投资巨大的战略举措,其中每年的成本可能高达数亿美元。而且,即使OpenAI将资源投入到这项任务中,也不能保证成功。

  除了完全的自研之外,还有一种选择是像亚马逊在2015年收购Annapurna Labs那样,收购一家芯片公司。

  据一位知情人士透露,OpenAI已经考虑过这条路,并对潜在的收购目标进行了尽职调查。

  但即使OpenAI继续推进定制芯片计划(包括收购),这项工作也可能需要数年时间。在此期间,OpenAI还是将依赖于英伟达和AMD等GPU供应商。

  因为就算强如苹果,在2007年收购了P.A. Semi和Intristy,到2010年推出第一款芯片A4,也经历了3年的时间。

  而OpenAI,自己本身都还是一家初创公司,这个过程也许走得会更加艰难。

  OpenAI不但要能设计出性能上不落后的硬件,还要在软硬件协同方面赶超CUDA,绝对不是一件容易的事情。

  OpenAI要做的芯片,不需要向其他巨头推出的芯片一样,服务于整个AI行业。

  这和谷歌、亚马逊这种将自己的AI芯片放在云端提供给第三方使用的芯片会有很大的不同,因为几乎不用考虑兼容性的问题。

  这样就能在设计层面让芯片能更高效地执行Transformer模型和相关的软件栈。

  而且,OpenAI在模型训练方面的领先优势和规划,能让它真正做到在未来把模型训练相关的硬件问题,用自己独家设计的芯片来解决。

  不用担心自己的芯片在「满足自己需要」的性能上,相比与英伟达这样的行业巨头会有后发劣势。

  设计自己的AI芯片,与英伟达直接「刚正面」如此之难,为什么巨头们还要纷纷下场?

  加上云提供商在中间还要再赚一笔。这样,包括OpenAI在内,使用英伟达GPU+云提供商的基础模型企业成本肯定居高不下。

  现在,购买一个使用英伟达H100 GPU的人工智能训练集群,成本约为10亿美元,其FP16运算能力约为20 exaflops(还不包括对矩阵乘法的稀疏性支持)。而在云上租用三年,则会使成本增加2.5倍。

  这些成本包括了集群节点的网络、计算和本地存储,但不包括任何外部高容量和高性能文件系统存储。

  购买一个基于Hopper H100的八GPU节点可能需要花费近30万美元,其中还包括InfiniBand网络(网卡、电缆和交换机)的分摊费用。

  同样的八GPU节点,在AWS上按需租用的价格为260万美元,预留三年的价格为110万美元,在微软Azure和谷歌云上的价格可能也差不多。

  因此,如果OpenAI能够以低于50万美元的单价(包括所有成本)构建系统,那么它的成本将减少一半以上,同时还能掌握自己的「算力自由」。

  将这些费用削减一半,在投入资源不变的情况下,OpenAI的模型规模就会扩大一倍;如果成本能够减少四分之三,则翻四倍。在模型规模每两到三个月翻倍的市场中,这一点非常重要。

  所以长远来看,也许任何一个有野心的AI大模型公司,都不得不面对的一个最基本问题就是——如何尽可能的降低算力成本。

  对于OpenAI和微软下场造AI芯片的做法,一些网友似乎持不同的意见,认为AI芯片是一个「陷阱」。

  逼得OpenAI等模型公司造硬件,一个最大的原因是其他芯片公司完全不给力,英伟达几乎没有竞争。

  如果AI芯片是一个竞争充分的市场,OpenAI这类的公司就不会自己下场做AI芯片。

  而有些想法更加激进的网友认为,大语言模型未来将集成到芯片当中,人类可以用自然语言和计算机直接对话。所以设计芯片是走到那一步的自然选择。

  本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,36氪经授权发布。

  正面硬刚GPT-4V,浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完

  打破大模型黑盒,彻底分解神经元,OpenAI对头Anthropic击破AI不可解释性障碍

  代码别拿来就用,中国研究者14页论文预警:Copilot生成代码35.8%有漏洞、C++成“重灾区”

下一篇:美国芯片降价99%芯片真的难卖了国半岛彩票产替代太快了
上一篇:半岛彩票良药还是毒酒?车企自研芯片全解析:三大品类四重挑战

咨询我们

输入您的疑问及需求发送邮箱给我们