发新帖

post-training quantization对inference精度的影响

[复制链接]
135 1

快来加入 TensorFlowers 大家庭!

您需要 登录 才可以下载或查看,没有帐号?加入社区

x
post-training quantization做量化后,模型大小缩小到1/4, 方便在移动端部署。但是在运行时,会将整型转换为浮点型。这样相比为量化的pb模型,精度和速度是否没有影响。

实际操作中,我做了一个目标检测模型,用pb模型运行时很好,但是转化为tflite(post-training)后精度下降的厉害,速度提升了好多。是什么原因?转为伪量化是否对精度有帮助?


我知道答案 回答被采纳将会获得10 金币 + 10 金币 已有1人回答
本楼点评(0) 收起

精彩评论1

哲3852  TF荚荚  发表于 3 天前 | 显示全部楼层
老哥,你用量化后的tflite,输出的数据类型也是float32吧?尝试比较一下pb的输出和tflite输出的相似度?
本楼点评(0) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

主题

帖子

3

积分
快速回复 返回顶部 返回列表