码迷,mamicode.com
首页 > 其他好文 > 详细

tensorflow 单机多GPU训练时间比单卡更慢/没有很大时间上提升

时间:2019-08-19 18:57:40      阅读:205      评论:0      收藏:0      [点我收藏+]

标签:输入数据   benefit   you   sync   OLE   优势   any   com   some   

使用tensorflow model库里的cifar10 多gpu训练时,最后测试发现时间并没有减少,反而更慢

参考以下两个链接

https://github.com/keras-team/keras/issues/9204

https://medium.com/@c_61011/why-multi-gpu-training-is-not-faster-f439fe6dd6ec

原因可能是在cpu上进行参数梯度同步占每一步的很大比例

‘’‘

It seems that CPU-side data-preprocessing can be one of the reason that greatly slow down the multi-GPU training, do you try disabling some pre-processing options such as data-augmentation and then see any boost?

Besides, the current version of multi_gpu_model seems to benefit large NN-models only, such as Xception, since weights synchronization is not the bottleneck. When it is wrapped to simple model such as mnist_cnn and cifar_cnn, weights synchronization is pretty frequent and makes the whole time much slower.

 ’‘’

 

然后看到建议上提高模型复杂度(尤其是卷积层数)或者提高输入数据的大小,就可以看到多gpu训练的优势效果了

 

tensorflow 单机多GPU训练时间比单卡更慢/没有很大时间上提升

标签:输入数据   benefit   you   sync   OLE   优势   any   com   some   

原文地址:https://www.cnblogs.com/buyizhiyou/p/11378819.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!