注意力机制模型的总结
2020-08-16-服务器检修
实验室服务器故障处理
2020-07-28-transformer解读-pytorch版本
transformer-pytorch
2020-07-25-服务器心得
连接服务器时的总结体会
2020-09-05-tf&&torch知识点杂
记录杂乱的知识点,持续更新
2021-03-15-递归理解
通过leetcode刷题,记录对递归的理解
2020-11-24-transformer优化-temp
transformer模型改进优化总结
2020-11-20-论文分享
记录值得分享的论文; 《ConvBERT》: 对BERT中attention结构的改进
2020-11-19-论文分享
记录值得分享的论文; 《Lambda network》: 提出了 lambda layer,通过将上下文转化为线性函数(lambda)来捕获关联性,以此避免attention maps,这样可以应用到长序列或者高分辨率的图象上。
2020-11-16-使用预训练模型
在NLP领域越来越依赖预训练模型,那么如何高效使用已经预训练好的模型到自己的模型中呢?本文参考其它博客,做个总结