0%

记录值得分享的论文; 《Adversarial Training for Large Neural Language Models》: 提出一个对抗训练算法ALUM,用于提高模型的鲁棒性。此算法可以应用在任何基于transformer的语言模型中

阅读全文 »

记录值得分享的论文; 《OPTIMUS》: 结合VAE和BERT、GPT-2,提出首个大规模预训练隐变量生成模型OPTIMUS,解决自然语言生成和理解任务

阅读全文 »

记录值得分享的论文; 《T-CVAE》 : 结合VAE和transformer,提出基于transformer的条件变量自动编码模型(T-CVAE),用于解决故事补全的任务

阅读全文 »