算力资源稀缺!OpenAI计划自研芯片:解决GPU卡脖子问题!

凹凸曼 82 0

据国外媒体报道称,ChatGPT背后的OpenAI计划自研AI芯片,以解决其所依赖的AI芯片短缺以及成本高昂问题,甚至已经开始评估潜在的收购目标。

算力资源稀缺!OpenAI计划自研芯片:解决GPU卡脖子问题!-第1张图片

据知情人士表示,OpenAI至少从去年就已经开始讨论各种方案解决AI芯片短缺问题,这些方案包括自研AI芯片、与英伟达等制造商展开更紧密合作、实现供应商多元化并最终超越英伟达等。

目前英伟达主导了全球95%的Al训练领域市场,随着算力需求的激增,导致英伟达GPU“一卡难求”,再加上AI算力成本持续攀升,即便强如OpenAI也在寻找新方案,从而避免长期被“卡脖子”

早在去年的时候OpenAI的首席执行官就公开抱怨英伟达GPU芯片稀缺,称公司发展受到GPU的严重限制。

集邦咨询的报告显示,以英伟达A100显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡,而国内可以买到的A100价格已涨至15万/张左右。

根据华尔街投行伯恩斯坦的分析,ChatGPT单次查询的成本约为4美分,若ChatGPT的搜索量达到谷歌的1/10,OpenAI每年将需要大约价值481亿美元(约合3512亿元人民币)的GPU以及价值约160亿美元(约合1168亿元人民币)的芯片来维持运行。

考虑到自研芯片的难度,OpenAI已经在考虑对潜在目标公司进行收购来加快进程。但定制AI芯片可能需要数年时间,并且投入数额也是十分巨大的,因此OpenAI是否会继续推进定制芯片计划仍然是个问号。


抱歉,评论功能暂时关闭!