今天小编分享的科技经验:Intel酷睿Ultra NPU AI加速库开源:但功能残缺不全,欢迎阅读。
快科技 3 月 4 日消息,Intel 已经将 NPU 加速库开源并放上 GitHub,使得基于酷睿 Ultra 处理器的 AI PC 可以运行 TinyLlama、Gemma-2b 之类的轻量级大语言模型。
酷睿 Ultra 首次引入了 NPU AI 引擎,可以执行一些轻负载的 AI 推理任务,并与 CPU、GPU 搭配处理各种 AI 工作。
这次开源的 NPU 加速库,当然是面向开发人员的,但如果你有一定的编程经验,也可以拿来体验体验。
Intel 軟體架构师 Tony Mongkolsmai 展示了利用此开源的 NPU 加速库,在一台微星尊爵 14 AI Evo 笔记本上,基于 11 亿参数的 TinyLlma 大模型,运行了一个 AI 聊天机器人,可以进行简单对话。
同时,Windows 任务管理器显示,NPU 确实被调动起来了。
不过,开源 NPU 加速库目前的功能还很残缺,支持了 8 比特量化、FP16 精度,但还不支持 4 比特量化、BF16 精度、NPU/GPU 混合计算等等,技术文档也没有。
Intel 承诺,后续会逐渐增加更多功能,比现在要多一倍。