当前位置: X-MOL 学术Neural Process Lett. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Transformer-Encoder-GRU (TE-GRU) 用于中文评论文本的中文情感分析
Neural Processing Letters ( IF 2.6 ) Pub Date : 2022-07-12 , DOI: 10.1007/s11063-022-10966-8
Binlong Zhang , Wei Zhou

中文情感分析(CSA)由于其复杂性和不确定性一直是自然语言处理的挑战之一。Transformer 已成功用于语义理解。但是,它通过位置编码来捕捉文本中的序列特征,这与循环模型相比自然是不足的。为了解决这个问题,我们提出了 TE-GRU。TE-GRU 结合了 Transformer 编码器强大的全局特征提取和 GRU 用于 CSA 的自然序列特征提取。在三个真实的中文数据集上进行了实验评估,实验结果表明,TE-GRU 相对于循环模型、带注意力的循环模型和基于 BERT 的模型具有独特的优势。





"点击查看英文标题和摘要"

更新日期:2022-07-13
down
wechat
bug