Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

情感极性疑问 #2

Open
monk678 opened this issue Jun 27, 2022 · 5 comments
Open

情感极性疑问 #2

monk678 opened this issue Jun 27, 2022 · 5 comments

Comments

@monk678
Copy link

monk678 commented Jun 27, 2022

感谢作者无私开源代码~

本文的提到的模型,解决aspect级的情感分类吧,一共有N个方面,每个方面有3类。
但是,不应该再多出一个类来表示评论中是否包含该方面的信息吗?针对每个方面进行情感分类的时候,用的是交叉熵损失函数吧。这样的话,不就默认评论包含所有的aspect category吗?

@l294265421
Copy link
Owner

感觉您对我们工作的关注。期望下面能回答您的问题:

  1. 实际上,这篇论文专注解决的问题是:给定一个句子,以及出现在句子里的aspect category,预测这些aspect category的情感。也就是说,我们假设aspect category是已知的(或由其它模块来预测),不关注预测句子里是否提到了某个aspect category。这是最常见的aspect category sentiment analysis的设定。(当然,后来也有一些工作,同时识别aspect category和他们的情感)
  2. 情感分类的时候,是用的交叉熵损失。训练的时候,如果某个aspect category没有出现在句子中,它对于的部分不会计算损失,也不会参与梯度下降。由于假设aspect category已知(或由其它模块来预测),所以,情感分类的时候,不需要再预测句子里是否包含某个aspect category。
  3. 整个模型,ACD的部分其实是在判断句子中是否包含某个aspect category;但是,这个部分的初衷是作为辅助任务发现aspect category相关的词,为了保证attention模块能发挥作用,上下文句子表示部分比较简单,直接用于预测aspect category的话,效果可能不是最好的。

@monk678
Copy link
Author

monk678 commented Jun 27, 2022

感谢回答这么仔细,您的回答很好地解答了我的困惑

@gutianyi
Copy link

感觉您对我们工作的关注。期望下面能回答您的问题:

  1. 实际上,这篇论文专注解决的问题是:给定一个句子,以及出现在句子里的aspect category,预测这些aspect category的情感。也就是说,我们假设aspect category是已知的(或由其它模块来预测),不关注预测句子里是否提到了某个aspect category。这是最常见的aspect category sentiment analysis的设定。(当然,后来也有一些工作,同时识别aspect category和他们的情感)
  2. 情感分类的时候,是用的交叉熵损失。训练的时候,如果某个aspect category没有出现在句子中,它对于的部分不会计算损失,也不会参与梯度下降。由于假设aspect category已知(或由其它模块来预测),所以,情感分类的时候,不需要再预测句子里是否包含某个aspect category。
  3. 整个模型,ACD的部分其实是在判断句子中是否包含某个aspect category;但是,这个部分的初衷是作为辅助任务发现aspect category相关的词,为了保证attention模块能发挥作用,上下文句子表示部分比较简单,直接用于预测aspect category的话,效果可能不是最好的。

您好我想询问一下,如果按照"为了保证attention模块能发挥作用,上下文句子表示部分比较简单"的说法,那是不是ACD部分如果使用双向LSTM来辅助ACSA模型的效果是不是就是比单向LSTM要差,这块是有做实验嘛~

@l294265421
Copy link
Owner

  1. "为了保证attention模块能发挥作用,上下文句子表示部分比较简单",可以参考这篇论文 Attention is not not Explanation https://aclanthology.org/D19-1002.pdf。
  2. 当时ACD部分是试过双向LSTM的,具体结果记不清了,需要找下。记得比较清楚的是,可视化效果会变差,就是attention权重大的词,不一定是我们认为重要的词。

@gutianyi
Copy link

恩恩 了解了 感谢

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants