对字符串列表 data = ['发表回复这件事', '飞机里面飞一杯飞机专属奶茶', '没有什么比在飞机上喝一杯飞机专属的飞机奶茶要更好了'] 进行中文文本特征抽取

import sklearn.feature_extraction.text as text
import jieba


transfer = text.CountVectorizer(stop_words=['vb'])


def count_chinese_demo2():
    data = ['发表回复这件事', '飞机里面飞一杯飞机专属奶茶', '没有什么比在飞机上喝一杯飞机专属的飞机奶茶要更好了']
    data_new = []
    # 中文文本分词
    for send in data:
        data_new.append(' '.join(list(jieba.cut(send))))
    print(data_new)

    # 文本特征提取
    data_final = transfer.fit_transform(data_new)
    print(data_final.toarray())
    print(transfer.get_feature_names())


if __name__ == "__main__":
    count_chinese_demo2()

输出:

['发表 回复 这件 事', '飞机 里面 飞 一杯 飞机 专属 奶茶', '没有 什么 比 在 飞机 上 喝一杯 飞机 专属 的 飞机 奶茶 要 更好 了']
[[0 0 0 1 0 1 0 0 0 1 0 0]
 [1 1 0 0 0 0 1 0 0 0 1 2]
 [0 1 1 0 1 0 1 1 1 0 0 3]]
['一杯', '专属', '什么', '发表', '喝一杯', '回复', '奶茶', '更好', '没有', '这件', '里面', '飞机']

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐