今天小编分享的科学经验:苏妈战老黄!官宣AMD大模型专用卡,对标英伟达H100,可跑更大模型,欢迎阅读。
苏妈发布最新 AMD 加速卡,直接宣战英伟达!
没错,就在 AMD 推出最新加速卡Instinct MI300X的现场,PPT 上专门打出一行字——
大语言模型专用。
AMD 表示,MI300X 的高带宽内存(HBM)密度,最高可达英伟达H100 的 2.4 倍,高带宽内存带宽最高可达 H100 的 1.6 倍,显然 MI300X能运行比 H100 更大的 AI 模型。
MI300X 所在的 MI300 系列,是 AMD 为 AI 和高性能计算(HPC)打造的一系列最新 APU 加速卡。
其中,MI300A 是 " 基础款 ",MI300X 则是硬體性能更高的 " 大模型优化款 "。
苏妈还现场演绎 MI300X 的计算速度,利用抱抱脸的 400 亿参数大模型快速写了首小诗:
遗憾的是,市场对 AMD 的新卡好像不太买账。
就在这次 AMD 发布会期间,市场股价一路下跌,开完后甚至跌了 3.61% ……相比之下,英伟达股价还上涨了一波。
不过仍有网友表示惊喜:
尽管股价波动,这可能是第一次有这么大的模型(400 亿参数)在单卡 GPU 上运行。
所以,AMD 最新 MI300 系列的参数细节如何?
"LLM 专用加速卡 "
先来看看Instinct MI300A的情况。
据苏妈介绍,MI300A 应该是首个针对 AI 和高性能计算(HPC)推出的 APU。
它一共有 13 个小芯片,包含 9 个 5nm 制程 GPU+CPU,以及 4 个 6nm 制程的小芯片(base dies),包含 1460 亿个晶体管,其中有 24 个 Zen 4 CPU 核心,1 个 CDNA 3 图形引擎,128GB 的 HBM3 内存。
相比 MI250,MI300 的性能提升了 8 倍,效率提升了 5 倍。
再来看看Instinct MI300X。
这是针对大语言模型(LLM)专用的卡,包含 12 个小芯片,1530 亿个晶体管,192GB 的 HBM3 内存,内存带宽达到 5.2TB/s,Infinity Fabric 带宽达到 896GB/s。
苏妈还现场展示了 MI300X 运行包括 GPT-3、PaLM2 等大模型的优势:
在发布 MI300X 的现场,苏妈还现场运行了 Hugging Face 的 falcon-40b-instruct 模型,写了首关于旧金山(这次 AMD 发布会地址)的小诗。
除此之外,AMD 这次发布会还发布了第四代霄龙(EPYC)处理器,包括亚马逊、微软和 Meta都已经在着手准备用上新品了。
预计今年 Q4 推出
除了最新推出的霄龙处理器、MI300A 和 MI300X 以外,AMD 还在发布会上宣布了一个 AMD Instinct 计算平台。
这个平台集成了 8 个 MI300X,可提供 1.5TB 的 HBM3 内存。
那么,这些新卡和新平台,预计什么时候能出货?
目前来看,MI300A已经出样,估计不久就能买上;大模型专用卡MI300X、以及集成 8 个 MI300X 的 AMD Instinct 计算平台,预计今年第三季度出样,第四季度就能推出。
但这几年来,相比英伟达一直在 AI 上面有大动作,AMD 的行动却好像有点迟缓。
就在这次发布会前几天,DeepBrain AI 的 CEO Eric Jang 发推表示,感觉 AMD 这几年让他很失望,5 年来没什么变化:
苏妈和她的所有高管,至少该开始尝试用 AMD 卡跑一些大模型,看看能不能达到 SOTA。
Eric Jang 指出,AMD 和英伟达已经存在一定差距。
如果 AMD 不努力跟上,差距只会越拉越大:
老黄(Jensen)很硬核,他不仅会亲自回应客户并在 12 小时内解决问题,手臂上还纹着英伟达的 LOGO。
相比之下,AMD 至少需要加倍努力,否则它将永远追不上英伟达。
好消息是,AMD 至少开始行动了。这次发布会结束,就有网友表示:
至少,现在终于能看到 AMD 和 NVIDIA 正面打擂台了。
你看好 AMD 的新卡吗?
参考链接:
[ 1 ] https://www.anandtech.com/show/18915/amd-expands-mi300-family-with-mi300x-gpu-only-192gb-memory
[ 2 ] https://www.tomshardware.com/news/amd-expands-mi300-with-gpu-only-model-eight-gpu-platform-with-15tb-of-hbm3
[ 3 ] https://twitter.com/ericjang11/status/1665618676354109440