Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

请问first_name.txt和disease.txt在哪 #3

Open
xiaoxy97 opened this issue Oct 30, 2018 · 10 comments
Open

请问first_name.txt和disease.txt在哪 #3

xiaoxy97 opened this issue Oct 30, 2018 · 10 comments

Comments

@xiaoxy97
Copy link

如题

@chenxiangzuishuai
Copy link

disease.txt在dict文件夹,first_name.txt在prepare_data文件夹下,但是我也没有发现first_name.txt

@Vipning
Copy link

Vipning commented Jan 24, 2019

请问first_name.txt里是什么内容,要停用什么词呢?

@chenxiangse
Copy link

disease.txt在dict文件夹下,first_name.txt未找到,但是原作者给出了数据,json格式的,在data文件夹下。所以不需要爬虫及相应的数据清洗工作,直接导入库使用就好。步骤:1.安装neo4j数据库,2.调用build_medicalgraph.py 3.调用question_parser.py,question_classifier.py,question_search.py,chatbot_graph.py

这其中根据提示需要安装相应的包, ahocorasick安装时需要安装visual studio。

@ZzzAmy
Copy link

ZzzAmy commented Jan 28, 2019

请问可以给出first_name.txt么?我刚开始接触知识图谱,爬虫也很生疏,想好好学习,从基础工作开始复现一遍。拜托啦。谢谢

@geyixin
Copy link

geyixin commented Feb 21, 2019

【以下纯属个人看法】作者的first_name.txt所形成的的stop_words貌似是因为在提取症状的时候会把医生名字一起提取出来,因为它们的标签一样的:class="gre",所以作者可能是为了去掉医生的名字。但可以直接将data_spider.py中爬取症状信息的这一行直接改成:symptoms = selector.xpath('//span[@Class="db f12 lh240 mb15 "]/a/text()'),那在build_data.py中就无需stop_words,自然也就不需要知道first_name.txt是什么了。
【我按照这个思路已经验证成功了】

@red-frog
Copy link

disease.txt在dict文件夹下,first_name.txt未找到,但是原作者给出了数据,json格式的,在data文件夹下。所以不需要爬虫及相应的数据清洗工作,直接导入库使用就好。步骤:1.安装neo4j数据库,2.调用build_medicalgraph.py 3.调用question_parser.py,question_classifier.py,question_search.py,chatbot_graph.py

这其中根据提示需要安装相应的包, ahocorasick安装时需要安装visual studio。

您好, 请问下模型训练分类器模型在哪块呢? 我调用build_medicalgraph.py后, 执行chatbot_graph.py一直是响应的自动回复, 是哪块有问题吗?

@hellobuilder
Copy link

【以下纯属个人看法】作者的first_name.txt所形成的的stop_words貌似是因为在提取症状的时候会把医生名字一起提取出来,因为它们的标签一样的:class="gre",所以作者可能是为了去掉医生的名字。但可以直接将data_spider.py中爬取症状信息的这一行直接改成:symptoms = selector.xpath('//span[@Class="db f12 lh240 mb15 "]/a/text()'),那在build_data.py中就无需stop_words,自然也就不需要知道first_name.txt是什么了。
【我按照这个思路已经验证成功了】

您好,我想请教一下“prepare_data”文件夹下的几个文件是如何使用的呢?我想从头开始生成medical.json,谢谢!

@Real-TomHy
Copy link

请教一下,dict文件夹的txt是从json格式文件清洗后得到的嘛,如果是,那是怎么提取的

@Real-TomHy
Copy link

请教一下,dict文件夹的txt是从json格式文件清洗后得到的嘛,如果是,那是怎么提取的

不胜感激

@yfsunShine
Copy link

disease.txt在dict文件夹下,first_name.txt未找到,但是原作者给出了数据,json格式的,在data文件夹下。所以不需要爬虫及相应的数据清洗工作,直接导入库使用就好。步骤:1.安装neo4j数据库,2.调用build_medicalgraph.py 3.调用question_parser.py,question_classifier.py,question_search.py,chatbot_graph.py
这其中根据提示需要安装相应的包, ahocorasick安装时需要安装visual studio。

您好, 请问下模型训练分类器模型在哪块呢? 我调用build_medicalgraph.py后, 执行chatbot_graph.py一直是响应的自动回复, 是哪块有问题吗?

您好,请问您“一直响应自动回答”的这个问题解决了吗?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

10 participants