【机器学习 】使用朴素贝叶斯进行文档分类

朴素贝叶斯的一般过程:

1、收集数据:任何方法
2、准备数据:需要数值型或者布尔型数据
3、分析数据:有大量特征时,绘制特征作用不大,此时使用直方图效果更好
4、训练算法:计算不同的独立特征的条件概率
5、测试算法:计算错误率
6、使用算法:常见的朴素贝叶斯应用是文档分类。可以在任何分类场景中使用朴素贝叶斯分类器,不一定非要文本。

思考:如果每个特征需要N个样本,那么对于10个特征将需要 N10 个样本,对于包含1000个特征的词汇表将需要 N1000 个样本。显然可发现,所需要的样本数会随着特征数目增大而迅速增长。如果特征之间相互独立,那么样本数就可以从 N1000 减少到 N1000

朴素贝叶斯分类器的两种假设:

1、假设特征之间相互独立;即的是一个特征或者单词出现的可能性与它和其他单词相邻没有关系。当然这种假设是不准确的。朴素贝叶斯分类器中“朴素“的含义。
2、假设每个特征同等重要。这个假设也有问题。

使用python进行文本分类:
要从文本中获取特征,需要先拆分文本。以在线社区的留言板为例。为了不影响社区的发展,我们要屏蔽侮辱性的言论,所以要构建一个快速过滤器,若某条留言使用了负面或者侮辱性的语言,则将该留言标示为内容不当。过滤这类内容是一个很常见的需求。对此问题建立两个类别:侮辱类和非侮辱类,使用1和0分别表示。

一、准备数据:从文本中构建词向量

1、把文本看成单词向量或者词条向量,也就是说将句子转换为向量
2、考虑出现在所有文档中的所有单词,再决定将哪些单词纳入词汇表或者说所要的词汇集合
3、然后必须要将每一篇文档转换为词汇表上的向量

词表到向量的转换函数代码实现:

一、loadDataSet()创建了一些实验样本。
返回的第一个变量是进行词条切分后的文档集合。即留言文本被切成一系列的词条集合,标点符号从文本中去掉。
返回的第二个变量是一个文档类别标签的集合。
def loadDataSet():
    postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
                 ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
                 ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                 ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                 ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
                 ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    classVec = [0,1,0,1,0,1]    #1 is abusive:代表侮辱性文字, 0 not:代表正常言论
    return postingList,classVec

二、createVocabList(dataSet)
输入:数据集
返回:词汇表(包含在所有文档中出现的不重复词的列表)
set()函数;
2.1、利用set数据类型创建一个空集;
2.2、遍历数据集中的每篇文档,将每篇文档返回的新词集合添加到该集合中; | 用于求两个集合的并;
2.3、返回所有文档中出现的不重复词的列表
'''
def createVocabList(dataSet):
    vocabSet=set([])
    for document in dataSet:
        vocabSet=vocabSet|set(document)
    return list(vocabSet) #转化为词汇表
'''

三、setOfWords2Vec(vocabList, inputSet)
输入:词汇表,某个文档
输出:文档向量,向量每一个元素为10,分别表示词汇表中的单词在输入文档中是否出现
3.1、创建一个和词汇表等长的向量,并将元素都设为03.2、遍历文档中所有单词,如果出现了词汇表中的单词,则将输出的文档向量中的对应值设置为1,表示词汇表中这个单词在文档中出现了。这样,如果顺利的话,就不需要检查某个词是否还在vocabList中。

'''
def setOfWords2Vec(vocabList, inputSet):
    returnVec=[0]*len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)]=1
        else:
            print "the word: %s is not in my Vocabulary!" % word
    return returnVec

补充:

list * int 意思是将数组重复 int 次并依次连接形成一个新数组;如:[0]*3=[0,0,0]

测试:

listOposts, listClasses=naive.loadDataSet()
print("词条切分后的文档集合:"), listOposts
print("文档类别标签集合:"),  listClasses

myVocabList=naive.createVocabList(listOposts)
print("在数据集包含的所有文档中出现的不重复词的列表:"), myVocabList

myWordsVec= setOfWords2Vec(myVocabList, listOposts[0])
print("文档中是否出现了所给的单词列表中的元素:"), myWordsVec

'''获取文档矩阵:列数固定,等于单词列表的长度;行数表示数据集中包含文档的数量'''
trainMat=[]
for postinDoc in listOposts:
    trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
print("文档矩阵:每篇文档中是否出现了单词列表中的元素:"), trainMat

这里写图片描述

二、训练算法:从词向量计算概率
重写贝叶斯准则,将之前的 x,y 替换为 w w 是一个向量,即它由多个数值组成。这个例子中,数值个数与词汇表中的词个数相同。

p(ci|w)=p(w|ci)p(ci)p(w)

接下来将对每个类计算该值,然后比较这两个概率值的大小。

1、 计算概率 p(ci)=i()
2、 计算 p(w|ci) ,这里用到朴素贝叶斯假设。若将向量 w 展开为一个个独立特征,则可以将上述概率写作 p(w0,w1,w2,...,wN|ci)
3、 这里假设所有词相互独立,该假设也称作条件独立性假设,意味着可以使用 p(w0,w1,w2,...,wN|ci)=p(w0|ci)p(w1|ci))...p(wN|ci)

伪代码如下:

计算每个类别中的文档数目
对每篇训练文档:
    对每个类别:
        如果词条出现在文档中-增加该词条的计数值
        增加所有词条的计数值
对每个类别:
    对每个词条:
        将该词条的数目除以总词条数目得到条件概率
返回每个类别的条件概率

代码实现如下:

#二、朴素贝叶斯分类器训练函数,即训练算法:从词向量计算概率
'''
输入:文档矩阵(由文档向量构成),每篇文档类别标签所构成的向量,即已经知道每篇文档是否属于侮辱性文档了。
输出:p(w|c_0)正常文档中词汇表中单词出现的概率、p(w|c_1)侮辱性文档中词汇表中单词出现的概率、任意文档属于侮辱性文档的概率p(c_1)。
'''
def trainNB0(trainMatrix, trainCategory):
    numTrainDocs = len(trainMatrix)  # 获取文档数量
    numWords = len(trainMatrix[0])  # 每篇文档的单词量,也是矩阵的列数(固定的)
    pAbusive = sum(trainCategory) / float(numTrainDocs)  # 侮辱性文档的概率:侮辱性文档的标记为1,对标签向量求和,得到侮辱性文档的数量

    p0Num = ones(numWords)  # 初始化单词列表中单词在正常文档中出现的次数
    p1Num = ones(numWords)  # 初始化单词列表中单词在侮辱性文档中出现的次数
    p0Denom = 2.0  # 正常文档中,词汇表中单词出现的总数
    p1Denom = 2.0
    for i in range(numTrainDocs):  # 遍历每篇文档
        if trainCategory[i] == 1:  # 若此篇文档是侮辱性文档
            p1Num += trainMatrix[i]  # 若词条在侮辱性文档中出现,则增加该词条的计数值
            p1Denom += sum(trainMatrix[i])  # 增加侮辱性文档中出现的词条总数
        else:
            p0Num += trainMatrix[i]
            p0Denom += sum(trainMatrix[i])
    p1Vect = log(p1Num / p1Denom)  # 词汇表中每个词条除以侮辱性文档中出现的总词条数目得到条件概率
    p0Vect = log(p0Num / p0Denom)  # 词汇表中每个词条在正常文档中出现的总词条数目得到条件概率
    return p0Vect, p1Vect, pAbusive

测试:

'''测试'''
p0V, p1V, pAb=trainNB0(trainMat, listClasses)
print("任意文档属于侮辱性文档的概率:"), pAb
print("在侮辱性文档中词汇表中单词的出现概率:"), p1V
print("在正常文档中词汇表中单词的出现概率:"), p0V

这里写图片描述

三、测试算法:根据现实情况修改分类器
思考1: 利用贝叶斯分类器对文档进行分类时,要计算多个概率的乘积以获得文档属于某个类别的概率,即计算p(w_0|c_i)p(w_1|c_i))…p(w_N|c_i)$。如果其中一个概率值是0,则最后的乘积也是0。

对策:可以将所有词的出现数初始化为1,并将分母初始化为2。

故需将上述trainNB0()修改为:

    p0Num = ones(numWords) #初始化单词列表中单词在正常文档中出现的次数
    p1Num = ones(numWords) #初始化单词列表中单词在侮辱性文档中出现的次数
    p0Denom=2.0 #正常文档中,词汇表中单词出现的总数
    p1Denom=2.0

思考2: python尝试相乘许多很小的数,最后四舍五入会得到0,那么当类别确定时,可能对应的许多词会出现的概率很小,程序会出现下溢获得到不正确的答案,该怎么办呢?

一种解决办法是:对乘积取自然对数
因为函数f(x)与lnf(x),它们在相同区域内同时增加或减少,并且在相同点上取到极值。虽然取值不同,但并不影响最终结果。

故将上述trainNB0()继续修改为:

    p1Vect=log(p1Num/p1Denom) #词汇表中每个单词在侮辱性文档中出现的概率
    p0Vect = log(p0Num / p0Denom) #词汇表中每个单词在正常文档中出现的概率

朴素贝叶斯分类函数代码如下:

def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
    p1 = sum(vec2Classify * p1Vec) + log(pClass1)  # Numpy数组计算两个向量的乘法,是指对应元素相乘。
    p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
    if p1 > p0:
        return 1
    else:
        return 0

输入:要分类的向量、p(w|c_0)正常文档中词汇表中单词出现的概率、p(w|c_1)侮辱性文档中词汇表中单词出现的概率、任意文档属于侮辱性文档的概率p(c_1)。
输出:返回对应类别的标签。

下面是一个便利函数,封装了上面的所有函数:

def testingNB():
    listOPosts, listClasses = loadDataSet()  # 词条切分后的文档集合,类别标签向量
    myVocabList = createVocabList(listOPosts)  # 获取文档词条列表
    trainMat = []  # 由文档向量构成
    for postinDoc in listOPosts:
        trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
    p0V, p1V, pAb = trainNB0(array(trainMat), array(listClasses))
    testEntry = ['love', 'my', 'dalmation']
    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb)
    testENtry = ['stupid', 'garbage']
    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb)

四、准备数据:文档词袋模型
词集模型: 我们将每个词的出现与否作为一个特征。
词袋模型: 若某个词在文档中出现不止一次,这可能意味着包含该词是否出现在文档中所不能表达的某种信息,这种方法被称为词袋模型。
在词袋中,每个单词可以出现多次,而在词集中,每个词只能出现一次。对上述函数setOfWords2Vec()稍加修改,修改后的函数称为bagOfWords2Vec()。

唯一不同的是每当遇到一个单词时,它会增加词向量中的对应值,而不只是将对应的数值设为1。

def bagOfWords2VecMN(vocabList, inputSet):
    returnVec=[0]*len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)]+=1
    return returnVec

至此,分类器构建好了。

猜你喜欢

转载自blog.csdn.net/zyy848877920/article/details/78996992
今日推荐