Home

Awesome

生成结果示例

介绍

实现了基于tranformer xl进行文本生成任务,代码基于https://github.com/kimiyoung/transformer-xl 。 也从这里看起,有基本了解,感谢他们的工作。主要改动在下面几个地方:

requirements

python3; tf >=1.12.0

使用

引入新的训练数据训练(针对中文,若要训练英文,直接用tf下的old_vocabulary.py 替换vocabulary.py )

可视化每个head 每个layer 的attention,

在train_gpu.py里inference 函数中对应的位置,打了todo标记,默认是head 10个 layer 16,若不同自行修改visualize_attention.py中的对应部分。 可视化效果如: image