对最近一段时间读的论文以及自己的对NLP领域transformer系列模型的了解做一个总结
2020-11-11-论文分享
记录值得分享的论文; 《ALBERT》: 一个轻量级的BERT
2020-11-09-pytorch反向传播以及参数更新理解
pytorch反向传播以及参数更新理解
2020-11-09-安装jupyter远程访问服务器
安装jupyter远程访问服务器
2020-11-07-论文分享
记录值得分享的论文; 《Adversarial Training for Large Neural Language Models》: 提出一个对抗训练算法ALUM,用于提高模型的鲁棒性。此算法可以应用在任何基于transformer的语言模型中
2020-11-06-论文分享
记录值得分享的论文; 《OPTIMUS》: 结合VAE和BERT、GPT-2,提出首个大规模预训练隐变量生成模型OPTIMUS,解决自然语言生成和理解任务
2020-11-04-论文分享
记录值得分享的论文; 《T-CVAE》 : 结合VAE和transformer,提出基于transformer的条件变量自动编码模型(T-CVAE),用于解决故事补全的任务
2020-10-30-从embedding到BERT预训练模型
从embedding到BERT预训练模型
2020-10-30-论文分享
记录值得分享的论文; 《XLNet》:
2020-10-30-预训练模型总结
对于BERT以及之后的预训练模型的总结概括