AI 检索
AI 阅读
analysis
趋势分析
编组
开放平台
more
更多
排名
必读论文
期刊顶会
热点
AI 简史
溯源树
小脉星探
人才迁徙
塔尖人才
国防情报追踪
开源工具
智慧手语
VIP
Created with Sketch.
立即登录
学术主页
个人账号
我的关注
论文收藏
浏览历史
BERT
BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调(fine-tuning),适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。
必读论文
代表学者
代表机构
年份
引用数
无数据, 请查看其它
0
年份
引用数
搜索