0%

2020-09-14-修改pytorch版transformer代码

源代码是main3.py ,在此基础上进行修改,修改后文件为main3-2.py

740中annotated-transformermain.py和哈佛的一样

复制到了本地main.py ,再复制到annotated-transformer1中的main.py

所以改前的代码是main.py ,改后的代码是main-1.py

注:

python main.py >main.txt 2>&1,在将结果重定向到main.txt中,会覆盖main.txt之前的内容

每次跑实验的预测都是不一样的,但是都是和输入差不多

  1. attention函数去掉,合并到MultiHeadedAttention中,服务器上测试可行
-------------本文结束感谢阅读-------------
卑微博主,在线求赏