源代码是main3.py ,在此基础上进行修改,修改后文件为main3-2.py
740中annotated-transformer中main.py和哈佛的一样
复制到了本地main.py ,再复制到annotated-transformer1中的main.py
所以改前的代码是main.py ,改后的代码是main-1.py
注:
python main.py >main.txt 2>&1,在将结果重定向到main.txt中,会覆盖main.txt之前的内容
每次跑实验的预测都是不一样的,但是都是和输入差不多
- 将
attention函数去掉,合并到MultiHeadedAttention中,服务器上测试可行