今天小编分享的科技经验:GPU“短缺”开始缓解,一些早期抢购的买家开始抛售“高价存货”,欢迎阅读。
有迹象表明,长达一年的 GPU" 短缺 " 问题正在缓解。
据 The Information 周五报道,超过六家使用 AI 芯片的公司表示,从云提供商那里租用英伟达最先进的芯片(H100)变得相对容易。因此,一些在早期疯狂抢购 GPU 的买家,现在正寻求出售部分存货。因为如果不使用,会带来非常昂贵的持有成本。
与此同时,现在的 GPU 买家也在减少订单,并对租用芯片的价格更为挑剔。
VMind AI 的首席执行官 Miguel Solano 说:" 三个月前,你无法从谷歌云那里获得 H100,而现在你可以了。" VMind AI 是一家帮助大模型公司降低计算成本、提高芯片效率的企业。
一些因素可能导致需求减少。据知情人士透露,亚马逊推出了一项新的服务,允许客户一次性按天或周安排 GPU 租赁时间。而在以前,客户只能以较长的合同期限租用 GPU,或按需租用。谷歌的一位发言人则表示,公司能够 " 满足几乎所有客户需求,并不断提供新的容量。"
此外,由于对芯片的使用更加熟悉,一些企业也可能会降低它们对实际需要多少 GPU 的预期。据一位 GPU 租赁公司的员工称,他们可能感受到更大的压力,需要确保他们的业务在经济上可行。
这一切都与去年形成鲜明对比,当时初创公司和投资者正想方设法获得英伟达的 GPU。
专注于 AI 初创公司的风投机构 Conviction 的创始人 Sarah Guo 表示:" 当时有一种恐慌和稀缺感。在 2023 年年中,大模型圈都在热议一个词——‘ GPU 贫民’(GPU Poor)。"
当然,并非所有人都解决了 GPU" 短缺 " 问题,像 OpenAI 这样训练大模型的公司,仍在努力获得足够多的 AI 芯片。
值得一提的是,英伟达竞争对手英特尔的 CEO Pat Gelsinger 在周三表示,虽然他没有感觉到 AI 芯片的需求有任何放缓,但他预计公司对在 AI 芯片上的投入会更加谨慎。
Gelsinger 说:
" 你不能把数百亿美元投入到这些大型数据中心,却不开始建立支持这些数据中心的经济模型。"