麦克雷
标题:
我发现好多人对高通ai有误解
[打印本页]
作者:
admin
时间:
2021-10-7 12:23
标题:
我发现好多人对高通ai有误解
高通一直追求异构计算,所以不同的模型不同的精度由CPU,GPU或者DSP来解决。高通的DSP名字不叫npu其实就是npu,缺点是至少到865这一代不支持浮点操作,所以fp16模型需要让gpu来。不是什么CPU加GPU加DSP同时跑,事实上手机就没有这样的app,电脑上倒是有luxmark这种cpu+gpu同时渲染的app,全部满载不等爆炸?
作者:
青衫如故
时间:
2021-10-7 12:24
小米就很会扬长避短,做的ai测试只有量化模型
(, 下载次数: 1)
上传
点击文件名下载附件
作者:
Fosternigo
时间:
2021-10-7 12:25
提示:
作者被禁止或删除 内容自动屏蔽
作者:
k54152658
时间:
2021-10-7 12:25
npu最早期是叫神经网络单元
作者:
周骏EricZhou
时间:
2021-10-7 12:25
确实,高通的hexagon NN只能对int8类型的神经网络模型加速,至少到865是这样的。
作者:
Dwaynenuh
时间:
2021-10-7 12:26
npu算未来的方向叭,果子这代堆的料真是震惊世人了。。。
作者:
Gnteng
时间:
2021-10-7 12:26
确实 我也一直是这么说的,int8归DSP,FP16归GPU,两个都没有驱动适配的就扔给CPU,哪来的一起跑
(, 下载次数: 1)
上传
点击文件名下载附件
不过是某些人带节奏罢了
作者:
WilliamPt
时间:
2021-10-7 12:27
然后今年我比较期待的是,AI需要的FP16有NPU管了,GPU的FP16单元是不是可以调整了
作者:
Multunreub
时间:
2021-10-7 12:28
本来就是这样
欢迎光临 麦克雷 (http://imac.ly/)
Powered by Discuz! X3.5