基于数据并行的神经语言模型多卡训练分析

user-5d8054e8530c708f9920ccce(2018)

引用 0|浏览2
暂无评分
摘要
数据并行训练神经语言模型,旨在不改变网络结构的同时,大幅度降低训练所带来的时间消耗.但由于多设备之间频繁的数据传输,使得整体加速效果并不理想.该文通过实验对比All-Reduce算法和基于采样的梯度更新策略在数据传输上的加速效果,使用了四块NVIDIA TITAN X(Pascal)GPU设备在循环神经语言模型上进行训练,两种方法分别可获得约25% 和41% 的速度提升.同时,该文还针对数据并行方法的适用性以及不同的硬件设备连接方式对传输速度的影响进行了讨论.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要