找回密码
 立即注册
  • QQ空间
  • 回复
  • 收藏

我发现好多人对高通ai有误解

高通一直追求异构计算,所以不同的模型不同的精度由CPU,GPU或者DSP来解决。高通的DSP名字不叫npu其实就是npu,缺点是至少到865这一代不支持浮点操作,所以fp16模型需要让gpu来。不是什么CPU加GPU加DSP同时跑,事实上手机就没有这样的app,电脑上倒是有luxmark这种cpu+gpu同时渲染的app,全部满载不等爆炸?
回复

使用道具 举报

大神点评(8)

青衫如故 2021-10-7 12:24:08 显示全部楼层
小米就很会扬长避短,做的ai测试只有量化模型
我发现好多人对高通ai有误解-1.png

回复 支持 反对

使用道具 举报

Fosternigo 2021-10-7 12:25:07 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复 支持 反对

使用道具 举报

k54152658 2021-10-7 12:25:21 显示全部楼层
npu最早期是叫神经网络单元
回复 支持 反对

使用道具 举报

周骏EricZhou 2021-10-7 12:25:52 显示全部楼层
确实,高通的hexagon NN只能对int8类型的神经网络模型加速,至少到865是这样的。
回复 支持 反对

使用道具 举报

Dwaynenuh 2021-10-7 12:26:01 显示全部楼层
npu算未来的方向叭,果子这代堆的料真是震惊世人了。。。
回复 支持 反对

使用道具 举报

Gnteng 2021-10-7 12:26:47 显示全部楼层
确实 我也一直是这么说的,int8归DSP,FP16归GPU,两个都没有驱动适配的就扔给CPU,哪来的一起跑
我发现好多人对高通ai有误解-1.png 不过是某些人带节奏罢了
回复 支持 反对

使用道具 举报

WilliamPt 2021-10-7 12:27:37 显示全部楼层
然后今年我比较期待的是,AI需要的FP16有NPU管了,GPU的FP16单元是不是可以调整了
回复 支持 反对

使用道具 举报

Multunreub 2021-10-7 12:28:08 显示全部楼层
本来就是这样
回复 支持 反对

使用道具 举报

说点什么

您需要登录后才可以回帖 登录 | 立即注册
HOT • 推荐