我采用 jieba 进行了高频词汇的统计,然后再根据 高频词调出包含的问题,但是感觉这样也不是太好。用户问题一般方式不是太一样,但是关键字都是类似的,如何能提出相似度较高的问题,想求教下大家,不吝赐教
1
princelai 2021-03-17 10:04:53 +08:00
简单点就 TFIDF 提取出每句 TOP5 的词,然后转 one hot 求和,最后求余弦距离
复杂点就 bert 直接整句输入,输出一个 768 维向量,最后还是余弦距离 /Ball-Tree/KD-Tree 这些,无新增直接聚类也应该可以。 |
2
chogath 2021-03-17 10:17:25 +08:00
统计学问题
|
3
xiaoxinshiwo 2021-03-17 12:10:33 +08:00
|
4
daijinming OP @xiaoxinshiwo 我也是这个感觉,不明觉厉
|
5
daijinming OP @princelai 兄台,理解你说的这话,都需要啥基础
|
6
princelai 2021-03-17 13:46:13 +08:00
@daijinming #5 只想了解名词大概意思,学 NLP 三天就够了,要想了解原理怎么也得学 2 月吧
|
7
qW7bo2FbzbC0 2021-03-17 17:23:05 +08:00
https://zhuanlan.zhihu.com/p/166499896 我也看到了这个,不知道和 ES 方案比起来如何
|
8
MOONLIGHTT 2021-03-17 18:58:39 +08:00
目前深度学习来做文本理解的方案一般是 预训练+finetune,预训练模型里面一般都采用 bert 或者 bert 的变种。
具体的话可以看看这个仓库 https://github.com/ymcui/Chinese-BERT-wwm |
9
superrichman 2021-03-17 19:20:50 +08:00
|