Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于知识噪声的问题 #23

Closed
tonyqtian opened this issue Apr 3, 2020 · 5 comments
Closed

关于知识噪声的问题 #23

tonyqtian opened this issue Apr 3, 2020 · 5 comments

Comments

@tonyqtian
Copy link

tonyqtian commented Apr 3, 2020

你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。
比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。
在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。

1 针对目前直接查表的entity linking,请问有没有合适的降噪思路?
2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考?
比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?

@autoliuweijie
Copy link
Owner

你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。
比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。
在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。

1 针对目前直接查表的entity linking,请问有没有合适的降噪思路?
2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考?
比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?

你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。

@Graduo
Copy link

Graduo commented Apr 6, 2020

你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。
比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。
在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。
1 针对目前直接查表的entity linking,请问有没有合适的降噪思路?
2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考?
比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?

你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。

您好,我想最近沿着您的Kbert在1.具有不同实体名的相同实体识别(目前kbert还是基于分词,字符级别上匹配实体)2.具有多关系的实体,不能主动选择插入具有帮助性的三元组 两个问题上做一些改进,不知道会和您的Kbert2.0冲突吗?谢谢

@autoliuweijie
Copy link
Owner

你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。
比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。
在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。
1 针对目前直接查表的entity linking,请问有没有合适的降噪思路?
2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考?
比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?

你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。

您好,我想最近沿着您的Kbert在1.具有不同实体名的相同实体识别(目前kbert还是基于分词,字符级别上匹配实体)2.具有多关系的实体,不能主动选择插入具有帮助性的三元组 两个问题上做一些改进,不知道会和您的Kbert2.0冲突吗?谢谢

不会冲突哈,就算思路接近,实现细节也会不同。欢迎一起努力将结构化知识注入到NLP模型中,一起把这个方向做的更完善。

@Graduo
Copy link

Graduo commented Apr 7, 2020

你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。
比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。
在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。
1 针对目前直接查表的entity linking,请问有没有合适的降噪思路?
2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考?
比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?

你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。

您好,我想最近沿着您的Kbert在1.具有不同实体名的相同实体识别(目前kbert还是基于分词,字符级别上匹配实体)2.具有多关系的实体,不能主动选择插入具有帮助性的三元组 两个问题上做一些改进,不知道会和您的Kbert2.0冲突吗?谢谢

不会冲突哈,就算思路接近,实现细节也会不同。欢迎一起努力将结构化知识注入到NLP模型中,一起把这个方向做的更完善。

好的谢谢~

@tonyqtian
Copy link
Author

你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。
比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。
在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。
1 针对目前直接查表的entity linking,请问有没有合适的降噪思路?
2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考?
比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?

你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。

谢谢,期待k-bert2.0

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants