方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis

2021/9/7 11:06:36

本文主要是介绍方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

提示1:原文链接
提示2:代码链接

文章目录

  • 前言
  • 一、论文信息
  • 二、笔记要点
    • 2.1 目前存在的问题
    • 2.2 目前解决方法
    • 2.3 本文方法和创新点
    • 2.4 模型结构
    • 2.5 实验结果
      • 2.5.2 算法对比
    • 2.6 总结和展望
  • 总结


前言

  本篇博客主要是对《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》进行了泛读,并对其进行了简单地记录,以帮助大家快速了解此篇论文的要点。


一、论文信息

  • 论文名:《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》
  • 作者:Hu Xu, Bing Liu, Lei Shu, Philip S. Yu
  • 领域:ABSA
  • 关键词:BERT、Post-Training、Aspect-based Sentiment Analysis
  • 发表年份:2019
  • 会议/期刊名:NAACL

二、笔记要点

2.1 目前存在的问题

  目前的在线问答系统不能很好的回答用户问题

2.2 目前解决方法

  1、采用众包用户答案的方式,但是存在延迟不适合作为交互系统,并且仍然有很多没有答案;
  2、已有的采用完整评论给用户的方法不可取,因为用户阅读它非常的耗时;

2.3 本文方法和创新点

创新点:
  受机器阅读理解 (MRC) 最近在正式文档上取得成功的启发,本文探讨了将客户评论转化为可用于回答用户问题的大量知识来源的潜力。我们称这个问题为复习阅读理解 (RRC)。
方法:
  post-training

2.4 模型结构

  采用BERT进行的微调;
模型结构

2.5 实验结果

  本文基于基于方面的情感分析的流行基准构建了一个名为 ReviewRC 的 RRC 数据集,如下图所示:
ReviewRC
数据信息

2.5.2 算法对比

对比模型如下:
  DrQA
  DrQA+MRC
  For AE and ASC:
    DE-CNN
    MGAN
    BERT
    BERT-DK
    BERT-MRC
    BERT-PT
对比结果如下:

RRC
AE
ASC

2.6 总结和展望

  • 提出了复习阅读理解(RRC)的新问题。
  • 为了解决这个新问题,为 RRC 创建了一个带注释的数据集ReviewRC。
  • 提出了一种通用的训练后方法来改善 RRC、AE 和 ASC
  • 微调前的后训练方法是有效的。

总结

  以上就是本篇博客的全部内容了,希望对你有所帮助。



这篇关于方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程