使用Gensim建立bow TFIDF LSI模型对文本相似度计算

使用Gensim建立bow TFIDF LSI模型对文本相似度计算

Gensim是一个Python的自然语言处理库,能够将文档根据TF-IDF, LDA, LSI 等模型转化成向量模式,以便进行进一步的处理。此外,gensim还实现了word2vec功能,能够将单词转化为词向量。

1.基本概念

语料(corpus):一组原始文本的集合,用于无监督地训练文本主题的隐层结构。语料中不需要人工标注的附加信息。在Gensim中,corpora是文档集的表现形式,也是后续进一步处理的基础。从本质上来说,corpora其实是一种格式或者说约定,其实就是一个二维矩阵。

向量(vector):由一组文本特征构成的列表。是一段文本在Gensim中的内部表达。
词典(dictionary):是所有文档中所有单词的集合,而且记录了各词的出现次数等信息。 

2.代码

[python]  view plain  copy
  1. # -*- coding: UTF-8 -*-  
  2. from gensim import corpora,similarities,models  
  3. import jieba  
  4. # 训练样本  
  5. raw_documents = [  
  6.     '0南京江心洲污泥偷排”等污泥偷排或处置不当而造成的污染问题,不断被媒体曝光',  
  7.     '1面对美国金融危机冲击与国内经济增速下滑形势,中国政府在2008年11月初快速推出“4万亿”投资十项措施',  
  8.     '2全国大面积出现的雾霾,使解决我国环境质量恶化问题的紧迫性得到全社会的广泛关注',  
  9.     '3大约是1962年的夏天吧,潘文突然出现在我们居住的安宁巷中,她旁边走着40号王孃孃家的大儿子,一看就知道,他们是一对恋人。那时候,潘文梳着一条长长的独辫',  
  10.     '4坐落在美国科罗拉多州的小镇蒙特苏马有一座4200平方英尺(约合390平方米)的房子,该建筑外表上与普通民居毫无区别,但其内在构造却别有洞天',  
  11.     '5据英国《每日邮报》报道,美国威斯康辛州的非营利组织“占领麦迪逊建筑公司”(OMBuild)在华盛顿和俄勒冈州打造了99平方英尺(约9平方米)的迷你房屋',  
  12.     '6长沙市公安局官方微博@长沙警事发布消息称,3月14日上午10时15分许,长沙市开福区伍家岭沙湖桥菜市场内,两名摊贩因纠纷引发互殴,其中一人被对方砍死',  
  13.     '7乌克兰克里米亚就留在乌克兰还是加入俄罗斯举行全民公投,全部选票的统计结果表明,96.6%的选民赞成克里米亚加入俄罗斯,但未获得乌克兰和国际社会的普遍承认',  
  14.     '8京津冀的大气污染,造成了巨大的综合负面效应,显性的是空气污染、水质变差、交通拥堵、食品不安全等,隐性的是各种恶性疾病的患者增加,生存环境越来越差',  
  15.     '9 1954年2月19日,苏联最高苏维埃主席团,在“兄弟的乌克兰与俄罗斯结盟300周年之际”通过决议,将俄罗斯联邦的克里米亚州,划归乌克兰加盟共和国',  
  16.     '10北京市昌平区一航空训练基地,演练人员身穿训练服,从机舱逃生门滑降到地面',  
  17.     '11腾讯入股京东的公告如期而至,与三周前的传闻吻合。毫无疑问,仅仅是传闻阶段的“联姻”,已经改变了京东赴美上市的舆论氛围',  
  18.     '12国防部网站消息,3月8日凌晨,马来西亚航空公司MH370航班起飞后与地面失去联系,西安卫星测控中心在第一时间启动应急机制,配合地面搜救人员开展对失联航班的搜索救援行动',  
  19.     '13新华社昆明3月2日电,记者从昆明市政府新闻办获悉,昆明“3·01”事件事发现场证据表明,这是一起由新疆分裂势力一手策划组织的严重暴力恐怖事件',  
  20.     '14在即将召开的全国“两会”上,中国政府将提出2014年GDP增长7.5%左右、CPI通胀率控制在3.5%的目标',  
  21.     '15中共中央总书记、国家主席、中央军委主席习近平看望出席全国政协十二届二次会议的委员并参加分组讨论时强调,团结稳定是福,分裂动乱是祸。全国各族人民都要珍惜民族大团结的政治局面,都要坚决反对一切危害各民族大团结的言行'  
  22. ]  
  23. corpora_documents = []  
  24. #分词处理  
  25. for item_text in raw_documents:  
  26.     item_seg = list(jieba.cut(item_text))  
  27.     corpora_documents.append(item_seg)  
  28.   
  29. # 生成字典和向量语料  
  30. dictionary = corpora.Dictionary(corpora_documents)  
  31. # print(dictionary)  
  32. # dictionary.save('dict.txt') #保存生成的词典  
  33. # dictionary=Dictionary.load('dict.txt')#加载  
  34.   
  35. # 通过下面一句得到语料中每一篇文档对应的稀疏向量(这里是bow向量)  
  36. corpus = [dictionary.doc2bow(text) for text in corpora_documents]  
  37. # 向量的每一个元素代表了一个word在这篇文档中出现的次数  
  38. # print(corpus)  
  39. # corpora.MmCorpus.serialize('corpuse.mm',corpus)#保存生成的语料  
  40. # corpus=corpora.MmCorpus('corpuse.mm')#加载  
  41.   
  42. # corpus是一个返回bow向量的迭代器。下面代码将完成对corpus中出现的每一个特征的IDF值的统计工作  
  43. tfidf_model = models.TfidfModel(corpus)  
  44. corpus_tfidf = tfidf_model[corpus]  
  45.   
  46. ''''' 
  47. #查看model中的内容 
  48. for item in corpus_tfidf: 
  49.     print(item) 
  50. # tfidf.save("data.tfidf") 
  51. # tfidf = models.TfidfModel.load("data.tfidf") 
  52. # print(tfidf_model.dfs) 
  53. '''  
  54.   
  55. similarity = similarities.Similarity('Similarity-tfidf-index', corpus_tfidf, num_features=600)  
  56. test_data_1 = '北京雾霾红色预警'  
  57. test_cut_raw_1 = list(jieba.cut(test_data_1))  # ['北京', '雾', '霾', '红色', '预警']  
  58. test_corpus_1 = dictionary.doc2bow(test_cut_raw_1)  # [(51, 1), (59, 1)],即在字典的56和60的地方出现重复的字段,这个值可能会变化  
  59. similarity.num_best = 5  
  60. test_corpus_tfidf_1=tfidf_model[test_corpus_1]  # 根据之前训练生成的model,生成query的IFIDF值,然后进行相似度计算  
  61.                                                 # [(51, 0.7071067811865475), (59, 0.7071067811865475)]  
  62. print(similarity[test_corpus_tfidf_1])  # 返回最相似的样本材料,(index_of_document, similarity) tuples  
  63.   
  64. print('-'*40)  
  65.   
  66. test_data_2 = '长沙街头发生砍人事件致6人死亡'  
  67. test_cut_raw_2 = list(jieba.cut(test_data_2))  
  68. test_corpus_2 = dictionary.doc2bow(test_cut_raw_2)  
  69. test_corpus_tfidf_2=tfidf_model[test_corpus_2]  
  70. similarity.num_best = 3  
  71. print(similarity[test_corpus_tfidf_2])  # 返回最相似的样本材料,(index_of_document, similarity) tuples  
  72.   
  73. # 使用LSI模型进行相似度计算  
  74. lsi = models.LsiModel(corpus_tfidf)  
  75. corpus_lsi = lsi[corpus_tfidf]  
  76. similarity_lsi=similarities.Similarity('Similarity-LSI-index', corpus_lsi, num_features=400,num_best=2)  
  77. # save  
  78. # LsiModel.load(fname, mmap='r')#加载  
  79. test_data_3 = '长沙街头发生砍人事件致6人死亡'  
  80. test_cut_raw_3 = list(jieba.cut(test_data_3))         # 1.分词  
  81. test_corpus_3 = dictionary.doc2bow(test_cut_raw_3)  # 2.转换成bow向量  
  82. test_corpus_tfidf_3 = tfidf_model[test_corpus_3]  # 3.计算tfidf值  
  83. test_corpus_lsi_3 = lsi[test_corpus_tfidf_3]  # 4.计算lsi值  
  84. #lsi.add_documents(test_corpus_lsi_3) #更新LSI的值  
  85. print('-'*40)  
  86. print(similarity_lsi[test_corpus_lsi_3])  




3.输出

[python]  view plain  copy
  1. [(20.35959327220916748)]  
  2. ----------------------------------------  
  3. [(60.19451555609703064), (130.10124017298221588)]  
  4. ----------------------------------------  
  5. [(60.89239442348480225), (130.4644676148891449)]  
  6.   
  7.   
  8. Process finished with exit code 0  
返回值是[index, similiarity_value]
前面两个使用的是TFIDF模型进行计算的不同文本
后面两个使用的是TFIDF模型和LSI模型计算相同的文本

由于语料库太少,选择返回相似的文本的个数较少,不过也能大致看出来判断的是正确的。
说明:分词的过程中没有进行停用词处理;在建立LSI模型的过程中使用了TFIDF的向量数据,当然可以不使用而换成最开的bow向量



4.Reference

1.http://www.52nlp.cn/%E5%A6%82%E4%BD%95%E8%AE%A1%E7%AE%97%E4%B8%A4%E4%B8%AA%E6%96%87%E6%A1%A3%E7%9A%84%E7%9B%B8%E4%BC%BC%E5%BA%A6%E4%BA%8C   点击打开链接
2.http://radimrehurek.com/gensim/models/lsimodel.html 点击打开链接

猜你喜欢

转载自blog.csdn.net/erinapple/article/details/80601780