基本信息
浏览量:167

个人简介
GLaM: Efficient Scaling of Language Models with Mixture-of-Experts
GSPMD: General and Scalable Parallelization for ML Computation Graphs
GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding
GPipe: Efficient training of giant neural networks; Automatically discovery of deep learning architectures using meta learning.
GSPMD: General and Scalable Parallelization for ML Computation Graphs
GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding
GPipe: Efficient training of giant neural networks; Automatically discovery of deep learning architectures using meta learning.
研究兴趣
论文共 44 篇作者统计合作学者相似作者
按年份排序按引用量排序主题筛选期刊级别筛选合作者筛选合作机构筛选
时间
引用量
主题
期刊级别
合作者
合作机构
arxiv(2023)
引用0浏览0引用
0
0
Ke Hu,Tara N. Sainath,Bo Li,Nan Du,Yanping Huang,Andrew M. Dai,Yu Zhang, Rodrigo Cabrera,Zhifeng Chen, Trevor Strohman
arxiv(2023)
引用0浏览0引用
0
0
Hyung Won Chung,Le Hou,Shayne Longpre,Barret Zoph,Yi Tay,William Fedus, Yunxuan Li,Xuezhi Wang,Mostafa Dehghani,Siddhartha Brahma, Albert Webson,Shixiang Shane Gu,
ICLR 2023 (2022)
引用135浏览0引用
135
0
Romal Thoppilan, Daniel De Freitas, Jamie Hall,Noam Shazeer, Apoorv Kulshreshtha,Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker,Yu Du,YaGuang Li, Hongrae Lee,
arxiv(2022)
引用336浏览0引用
336
0
arxiv(2022)
引用1浏览0引用
1
0
Ankur Bapna, Isaac Caswell,Julia Kreutzer,Orhan Firat,Daan van Esch,Aditya Siddhant, Mengmeng Niu, Pallavi Baljekar,Xavier Garcia,Wolfgang Macherey,Theresa Breiner,Vera Axelrod,
arxiv(2022)
引用7浏览0引用
7
0
加载更多
作者统计
合作学者
合作机构
D-Core
- 合作者
- 学生
- 导师
数据免责声明
页面数据均来自互联网公开来源、合作出版商和通过AI技术自动分析结果,我们不对页面数据的有效性、准确性、正确性、可靠性、完整性和及时性做出任何承诺和保证。若有疑问,可以通过电子邮件方式联系我们:report@aminer.cn