seq2seq-Attention-Transformer
发表于
|
分类于
机器学习
,
NLP
,
seq2seq-attention-transformer
|
阅读次数:
℃
字数统计:
1.8k
|
阅读时长 ≈
11
seq2seq,attention,transformer

Speech and Language processing 大纲
发表于
|
分类于
笔记
,
Speech and Language processing读书笔记
|
阅读次数:
℃
字数统计:
3.5k
|
阅读时长 ≈
21
Speech and Language processing(第三版) 读书笔记大纲
