机器学习实战——贝叶斯分类器代码

本文介绍了一种基于朴素贝叶斯算法的文本分类方法,包括数据集的准备、特征提取、模型训练及评估等过程,并通过具体示例展示了如何使用该方法进行垃圾邮件的识别。
from numpy import *
import math

#创建实验样本,返回文章list,和文章对应的分类向量
def loadDataSet():
    postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
                 ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
                 ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                 ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                 ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
                 ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    classVec = [0,1,0,1,0,1]    #1 is abusive, 0 not
    return postingList,classVec

#根据文章数据集创建,词汇表并返回(set强制转换为listdef createwordset(dataset):
    word_set=set([])
    for w in dataset:
        word_set=word_set | set(w)
    return list(word_set)

#文本转换为向量,向量长度为词汇表的长度,权重为1,0
def text2vec(word_list,input_text):
    vec=[0]*len(word_list)
    for k in input_text:
        if k in word_list:
            vec[word_list.index(k)]=1
    return vec

 #p(c|W)=p(Ci)*P(W|Ci)/P(W)

 #训练函数,得到文本集分类的P(C1)  P(W|Ci)的概率向量
def tran(tranmatrix,trancategory):
    #参数文本集对应的向量矩阵,和文本的类别向量
    n=len(tranmatrix)
    wordnums=len(tranmatrix[0])

    P1=sum(trancategory)/float(n)

    #初始化分子分母
    p0=ones(wordnums)
    p1=ones(wordnums)
    p0D=2.0
    p1D=2.0

    for k in tranmatrix:
        if trancategory[tranmatrix.index(k)]==0:
            p0+=k
            p0D+=sum(k)
        else:
            p1+=k
            p1D+=sum(k)
    return log(p0/p0D),log(p1/p1D),P1

 #分类函数
def classify(inputvec,p0,p1,P1):
    #参数分别为 待分类的文本向量,数据集的p0,p1概率向量,P1类别1的概率即P(C1)
    P_0=sum(inputvec*p0)+log(1-P1)
    P_1=sum(inputvec*p1)+log(P1)
    if P_0>P_1:
        return 0
    else:
        return 1

#分类测试
def test():
    dataset,classG=loadDataSet()
    word_list=createwordset(dataset)
    data_M=[]
    for tx in dataset:
        vec_temp=text2vec(word_list,tx)
        data_M.append(vec_temp)
    p0V, p1V, pAb=tran(data_M,classG)
    testEntry = ['love', 'my', 'dalmation']
    thisDoc = array(text2vec(word_list, testEntry))
    print (classify(thisDoc, p0V, p1V, pAb))
    testEntry = ['stupid', 'garbage']
    thisDoc = array(text2vec(word_list, testEntry))
    print (classify(thisDoc, p0V, p1V, pAb))
import re
import random
#文件解析,以及垃圾邮件测试
def textsplit(str):
    L=re.split(r'\W*',str)
    return [k.lower() for k in L if len(k)>2]
def mail_test():
    doclist=[]
    wordlist=[]
    classlist=[]
    for k in range(1,26):
        a=textsplit(open('email/spam/%d.txt'%k,encoding='ISO-8859-15').read())
        doclist.append( (a))
        wordlist.extend(a)
        classlist.append(1)
        a=textsplit(open('email/ham/%d.txt'%k,encoding='ISO-8859-15').read())
        doclist.append(a)
        wordlist.extend(a)
        classlist.append(0)
    word_list=createwordset(doclist)
    test_set=[]
    test_class=[]
    rang=list(range(50))
    for n in range(10):
        num=int(random.uniform(0,len(rang)))
        test_set.append(text2vec(word_list,doclist[num]))
        test_class.append(classlist[num])
        del(rang[num])
    tran_M=[]
    tran_class=[]
    for id in rang:
        tran_M.append(text2vec(word_list,doclist[id]))
        tran_class.append(classlist[id])
    p_0,p_1,P1=tran(tran_M,tran_class)
    errorcnt=0
    for i in range(10):
        if classify(test_set[i],p_0,p_1,P1)!=test_class[i]:
            errorcnt+=1
    print('%f'%(float(errorcnt)/len(test_set)))


mail_test()
<think>好的,我现在需要回答用户关于头歌平台上的朴素贝叶斯分类器实验的问题。用户可能是在做实验时遇到了困难,需要解析或者答案。首先,我要回顾朴素贝叶斯的基本原理,确保自己理解正确。根据提供的引用[1],朴素贝叶斯是基于贝叶斯定理和特征条件独立假设的分类算法,常用于文本分类、垃圾邮件过滤等。 接下来,用户提到的头歌平台实验可能涉及MultinomialNB类的使用,引用[2]提到fit和predict函数的功能。因此,实验可能要求学员实现数据预处理、模型训练和预测的步骤。我需要考虑实验中常见的任务,比如数据加载、特征提取(比如文本分类中的TF-IDF或词袋模型)、处理缺失值、模型训练与评估等。 用户可能需要具体的代码示例或步骤解析。例如,在数据预处理阶段,可能需要将文本转换为数值特征,使用CountVectorizer或TfidfTransformer。然后,应用MultinomialNB进行分类。此外,实验可能涉及参数调整,比如平滑参数alpha的设置,或者评估指标如准确率、混淆矩阵的计算。 另外,需要注意头歌平台可能有特定的代码结构或输入输出要求,比如需要补全部分代码块,或者按照特定格式输出结果。虽然无法提供直接的实验答案,但可以指导正确的实现方法,比如如何调用fit和predict方法,如何处理多项式分布的数据(适用于离散特征,如词频)。 可能的问题点包括:特征的条件独立性假设是否合理,如何处理连续型数据(可能需要高斯朴素贝叶斯),以及拉普拉斯平滑的作用。在实验中,正确应用这些概念是关键。例如,在代码中添加平滑参数防止零概率问题。 总结回答结构时,应先解释朴素贝叶斯的原理,然后分步骤说明实验可能涉及的关键环节,并给出代码示例,同时提醒注意事项和常见错误。最后,生成相关问题帮助用户进一步理解。</think>### 头歌平台朴素贝叶斯分类器实验解析 #### 1. **实验核心目标** 头歌平台的朴素贝叶斯实验通常围绕以下内容展开: - **数据预处理**:文本特征提取(如词频统计、TF-IDF转换) - **模型训练**:调用`MultinomialNB`类的`fit`函数,学习特征与标签的联合概率分布 - **模型预测**:使用`predict`函数对新样本进行分类 - **性能评估**:计算准确率、召回率、F1值等指标 #### 2. **关键代码实现** ```python from sklearn.naive_bayes import MultinomialNB from sklearn.feature_extraction.text import CountVectorizer # 示例文本数据集 texts = ["机器学习 朴素贝叶斯 分类器", "垃圾邮件 检测 朴素贝叶斯", "文本分类 算法"] labels = [1, 0, 1] # 假设1为技术类,0为垃圾类 # 文本向量化(词频统计) vectorizer = CountVectorizer() X = vectorizer.fit_transform(texts) # 模型训练(注意alpha平滑参数) model = MultinomialNB(alpha=1.0) model.fit(X, labels) # 预测新样本 new_text = ["朴素贝叶斯 应用 场景"] X_new = vectorizer.transform(new_text) print(model.predict(X_new)) # 输出预测标签 ``` #### 3. **实验常见问题** - **特征独立性假设**:实验中需验证特征工程是否符合独立性假设[^1] - **零概率问题**:通过`alpha`参数实现拉普拉斯平滑,避免未出现特征导致概率为0 - **数据分布类型**:离散特征用`MultinomialNB`,连续特征需用`GaussianNB` - **评估指标**:头歌平台可能要求输出特定格式的准确率或混淆矩阵 #### 4. **实验注意事项** - 严格匹配输入输出格式(如矩阵维度、小数点位数) - 文本数据需统一转换为小写并去除停用词 - 多项式朴素贝叶斯适用于**词频统计**场景(如实验中的文本分类) ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值