特征工程·TFIDF提取特征

本文介绍文本处理时比较常用且有效的tfidf特征提取方法

1. 提取tf特征

TF即是词频(Term Frequency)是文本信息量统计方法之一,简单来说就是统计此文本中每个词的出现频率

def computeTF(wordDict, bow):
    tfDict = {}
    bowCount = len(bow)
    for word, count in wordDict.items():
        tfDict[word] = count / float(bowCount)
    return tfDict
  • 传入参数wordDict是包含字词及其出现频次的字典,bow是包含所有字词的列表

2. 提取IDF特征

idf即逆向文档频率(Inverse Document Frequency),用来衡量一个词的普遍重要性,一般通过文档总数/包含该词汇的文档数,再取对数得到的值

def computeIDF(docList):
    import math 
    idfDict = {}
    N = len(docList)

    idfDict = dict.fromkeys(docList[0].keys(), 0)
    for doc in docList:
        for word, val in doc.items():
            if word in idfDict:
                if val > 0:
                    idfDict[word] += 1
            else:
                if val > 0:
                    idfDict[word] = 1

    for word, val in idfDict.items():
        idfDict[word] = math.log10(N / float(val))

    return idfDict
  • 传入的参数为包含多个字词字典的列表,字典的键为单词,值就是含有该次的文档数

3. 提取TF-IDF特征

tf-idf即是tf * idf所得到的值,可以衡量某个词在所有文档中的信息量。假设有n个词的文档A,某个词的出现次数为t,且该词在w份文档中出现过,总共有x份文件

  • 则tf = t / n,tf越大则说明该次在文档中的信息量越大
  • 而idf = log(x / w),idf越小则说明该词在所有文档中就越普遍不具有区分度
  • 而tf-idf = (t / n) * (log(x / w)), w的值越小tf-idf的值反而越大则说明该词在文档中的信息量越大,更具有区分度
def computeTFIDF(tfBow, idfs):
    tfidf = {}
    for word, val in tfBow.items():
        tfidf[word] = val * idfs[word]
    return tfidf
  • 传入的参数为之前计算得到的包含tf和idf值的字典

4. 直接调用sklearn库的api生成TF-IDF词向量

from sklearn.feature_extraction.text import TfidfVectorizer
count_vec = TfidfVectorizer(binary=False, decode_error='ignore', stop_words='english')
  • 设定参数获得tfidf向量化实例count_vec,binary参数若为真表示将所有频次非0的tfidf值设置为1(而非输出设置为二元)

传入数据进行拟合然后转化为词向量的形式

s1 = 'I love you so much'
s2 = 'I hate you! shit!'
s3 = 'I like you, but just like you'
response = count_vec.fit_transform([s1, s2, s3]) # s must be string
print(count_vec.get_feature_names())
print(response.toarray())

输出去掉英文停用词后的结果如下

[‘shit’, ‘hate’, ‘just’, ‘like’, ‘love’]
[[0. 0. 0. 0. 1. ]
[0.70710678 0.70710678 0. 0. 0. ]
[0. 0. 0.4472136 0.89442719 0. ]]

  • 第1列为特征名即单词,后3列分别为单词在每个文本中的tfidf值
  • 此外在我们进行模型训练训练时,对训练集数据使用fit_transform方法,对测试集直接使用transform即可以训练集的特征为基准转化词向量

参考博客:
关于TF(词频) 和TF-IDF(词频-逆向文件频率 )的理解

猜你喜欢

转载自blog.csdn.net/Shuang_Mo/article/details/81916214
今日推荐