通过bert模型进行embedding,然后将embeding的到的vectors放到bertopic的fit_transfomer中进行训练,提取关键词,并根据词向量聚类分出多类别。
bert模型可自行在huggingface上下载
https://huggingface.co/google-bert/bert-base-uncased

主程序放在bertt_topic.ipynb文件内。
attention is all you need
embedding利用的是transfomer内部的embeding,可以学习到上下文特征。


