快来加入 TensorFlowers 大家庭!
您需要 登录 才可以下载或查看,没有帐号?加入社区
x
本帖最后由 叶楠 于 2019-2-11 18:01 编辑
节前Tensorflow Lite推出了支持GPU的版本,同时也放出了一个TFLite格式的DeepLab v3的模型,于是更新了一下自己代码,体验了一把。
模型尺寸
TFLite的模型尺寸更小,只有2.4M。相比之前我自己转换的TF Mobile模型,小了6M。
性能对比
下面是一个简单性能对比:
可以看出,在运行时间上,TFLite版本比TF Mobile快了6倍左右。当然这个提高可能有一部分原因和输入图片的尺寸有关。我之前转换的TF Mobile模型的输入是513 x 513,而官方这个TFLite的模型是257 x 257。不过从这个比较结果来看,TFLite使用GPU加速并没有很大幅度增加DeepLab的推演性能,在Oneplus3T/5上提高了40ms左右。而更诡异的是在Pixel 2 XL上,不使用GPU竟然还快15ms。
效果对比
下面是图像分割后效果的对比:
可以看出TFLite的效果还是稍微差了一些,第二张图片有些不能接受。不过不能确定两个模型是否在同一个训练集使用相同的参数训练出来的。所以也不能断言TFLite影响了推演精度。
代码
代码放在Github上:
https://github.com/dailystudio/ml/tree/master/deeplab
有兴趣的小伙伴可以研究一下。
|