添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

1、 能够从社交媒体或网上给定的数据集(数据集已给定),从中挖掘出新闻话题,如在线检测微博消息中大量突现的关键字,并将它们进行聚类,从而找到若干个新闻话题。
2、 给定一个新闻信息或报道作为测试样本,测试其所属的报道分类。
3、 最终要求有训练集,测试集,聚类模型和相关源码及简要说明。
4、 系统实现包含预处理,特征提取,训练时采用的聚类模型,测试时采用的分类模型。

实验预备知识: Python基本语法
K-means聚类算法相关知识
基于TF-IDF算法的特征提取
文档相似度计算
实验环境: Windows10操作系统Python2.7 IDLE

一、 实现流程
这里写图片描述
二、 概要设计
1、 读取训练集文本内容
读取给定数据集文件夹中每一个文档后,将文本内容写入一个Result.txt,每一行为一个文档,方便后面词频矩阵的处理。
2、 文本预处理
读取之前存放所有文本内容的Result.txt,将其内容去空格,去标点,并用结巴进行分词。
3、 特征提取
使用scikit-learn工具调用CountVectorizer()和TfidfTransformer()函数计算TF-IDF值,将文本转为词频矩阵,矩阵元素a[i][j] 表示j词在i类文本下的词频。将词频矩阵保存在TF-IDF_Result文档中。
4、 K-Means聚类
,对文本根据浏览内容后的经验分为3类,调用sklearn.cluster实现,并保存该聚类模型,对测试集使用
5、 测试集分类
使用clf.fit_predict 方法测试测试集文本。
三、 关键模块详细设计实现
1、 特征提取

from sklearn.feature_extraction.text import TfidfTransformer
from sklearn.feature_extraction.text import CountVectorizer
# 将文本中的词语转换为词频矩阵 矩阵元素a[i][j] 表示j词在i类文本下的词频
vectorizer = CountVectorizer()
# 该类会统计每个词语的tf-idf权值
transformer = TfidfTransformer()
# 第一个fit_transform是计算tf-idf 第二个fit_transform是将文本转为词频矩阵
tfidf=transformer.fit_transform(vectorizer.fit_transform(corpus))
# 获取词袋模型中的所有词语
word = vectorizer.get_feature_names()
# 将tf-idf矩阵抽取出来,元素w[i][j]表示j词在i类文本中的tf-idf权重
weight = tfidf.toarray()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

2、 聚类模型

from sklearn.cluster import KMeans
from sklearn.externals import joblib
def K_Means(weight):
    print 'Start Kmeans:'
    # 选择3个中心点
    clf = KMeans(n_clusters=3)
    # clf.fit(X)可以把数据输入到分类器里
    clf.fit(weight)
    # 3个中心点
    print 'cluster_center:'
    print(clf.cluster_centers_)
    # 每个样本所属的簇
    # print(clf.labels_)
    print'list_number label  '
    i = 1
    while i <= len(clf.labels_):
        print i,'          ',clf.labels_[i - 1]
        i = i + 1
    # 用来评估簇的个数是否合适,距离越小说明簇分的越好,选取临界点的簇个数
    print 'inertia:'
    print(clf.inertia_)
    # 保存模型
    joblib.dump(clf, 'km.pkl')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

四、 结果展示
1、聚类结果
注:训练集在train文件夹中
这里写图片描述
这里写图片描述

2、 分类结果
注:测试集在test文件夹中
这里写图片描述

五、 参考资料
【1】 http://blog.csdn.net/eastmount/article/details/50323063
【2】 http://blog.itpub.net/12199764/viewspace-1479320/
【3】 http://blog.csdn.net/zouxy09/article/details/17589329
【4】 http://www.cnblogs.com/meelo/p/4272677.html
【5】 http://scikit-learn.org/stable/modules/clustering.html#clustering

六、实验源码

# *- coding: utf-8 -*-
import sys
import os
import jieba
import jieba.analyse
import codecs
import re
from sklearn.feature_extraction.text import TfidfTransformer
from sklearn.feature_extraction.text import CountVectorizer
from zhon.hanzi import punctuation
from sklearn.cluster import KMeans
from sklearn.externals import joblib
reload(sys)
sys.setdefaultencoding('utf8')
# Step1:Read file
def read_file():
    path = "train\\C4-Literature\\"
    resName = "Result.txt"
    if os.path.exists(resName):
        os.remove(resName)
    result = codecs.open(resName, 'w', 'utf-8')
    num = 1
    while num <= 33:
        name = "C4-Literature%d" % num
        fileName = path + str(name) + ".txt"
        source = open(fileName, 'r')
        line = source.readline().decode('GB2312')
        line = line.strip('\n')
        line = line.strip('\r')
        while line != "":
            line = line.encode('utf-8')
            line = line.replace('\n', ' ')
            line = line.replace('\r', ' ')
            result.write(line + ' ')
            line = source.readline().decode('GB2312')
        else:
            result.write('\r\n')
            source.close()
        num = num + 1
    else:
        result.close()
    return resName
# Step2:cut file and get feature vector matrixes
def get_TFIDF(resname,filename):
    corpus = []  # 语料库 空格连接
    # 读取语料  一行为一个文档
    for line in open(resname, 'r').readlines():
        line=line.strip() # 删除末尾的'/n'
        string = re.sub(ur"[%s]+" % punctuation, "", line.decode("utf-8"))  # 去标点
        seg_list = jieba.cut(string,cut_all=False) # 结巴分词
        corpus.append(' '.join(seg_list))
    # 将文本中的词语转换为词频矩阵 矩阵元素a[i][j] 表示j词在i类文本下的词频
    vectorizer = CountVectorizer()
    # 该类会统计每个词语的tf-idf权值
    transformer = TfidfTransformer()
    # 第一个fit_transform是计算tf-idf 第二个fit_transform是将文本转为词频矩阵
    tfidf = transformer.fit_transform(vectorizer.fit_transform(corpus))
    # 获取词袋模型中的所有词语
    word = vectorizer.get_feature_names()
    # 将tf-idf矩阵抽取出来,元素w[i][j]表示j词在i类文本中的tf-idf权重
    weight = tfidf.toarray()
    # fileName = "TF-IDF_Result.txt"
    result = codecs.open(filename, 'w', 'utf-8')
    for j in range(len(word)):
        result.write(word[j] + ' ')
    result.write('\r\n\r\n')
    # 打印每类文本的tf-idf词语权重,第一个for遍历所有文本,第二个for便利某一类文本下的词语权重
    for i in range(len(weight)):
        for j in range(len(word)):
            result.write(str(weight[i][j]) + ' ')
        result.write('\r\n\r\n')
    result.close()
    return weight
# Step3:Clustering
def K_Means(weight):
    print 'Start Kmeans:'
    # 选择3个中心点
    clf = KMeans(n_clusters=3)
    # clf.fit(X)可以把数据输入到分类器里
    clf.fit(weight)
    # 3个中心点
    print 'cluster_center:'
    print(clf.cluster_centers_)
    # 每个样本所属的簇
    # print(clf.labels_)
    print'list_number label  '
    i = 1
    while i <= len(clf.labels_):
        print i,'          ',clf.labels_[i - 1]
        i = i + 1
    # 用来评估簇的个数是否合适,距离越小说明簇分的越好,选取临界点的簇个数
    print 'inertia:'
    print(clf.inertia_)
    # 保存模型
    joblib.dump(clf, 'km.pkl')
# Step4:Test
def test():
    path = "test\\"
    test_name = "test_result.txt"
    file_name = "test_TF-IDF.txt"
    if os.path.exists(test_name):
        os.remove(test_name)
    test_result = codecs.open(test_name,'w','utf-8')
    for file in os.listdir(path):
        source = open(path + file,'r')
        line = source.readline().decode('GB2312')
        line = line.strip('\n')
        line = line.strip('\r')
        while line !="":
            line = line.encode('utf-8')
            line = line.replace('\n',' ')
            line = line.replace('\r',' ')
            test_result.write(line + ' ')
            line=source.readline().decode('GB2312')
        else:
            test_result.write('\n\r')
            source.close()
    test_result.close()
    test_weight = get_TFIDF(test_name,file_name)
    # 载入保存的模型
    clf = joblib.load('km.pkl')
    clf.fit_predict(test_weight)
    print'list_number label  '
    i = 1
    while i <= len(clf.labels_):
        print i, '          ', clf.labels_[i - 1]
        i = i + 1
if __name__ == '__main__':
    resName = read_file()
    filename = "TF-IDF_Result.txt"
    weight=get_TFIDF(resName,filename)
    K_Means(weight)
    test()
K-Means 算法的文本聚类阅读数:7571、 能够从社交媒体或网上给定的数据集(数据集已给定),从中挖掘出新闻话题,如在线检测微博消息中大量突现的关键字,并将它们进行聚类,从而找到若干个新闻话题。 2、 给定一个新闻信息或报道作为测试样本,测试其所属的报道分类。 3、 最终要求有训练集,测试集,聚类模型和相关源码及简要说明。 4、 系统实现包含预处理,特征提取,训练时采用的聚类模型,测试时采用...
最近在做 文本 挖掘中的若干问题的研究,由于个人的起点不高,实验初期属于复现别人系统以及用简单的 算法 小做实验中。此文主要是针对 文本 聚类 叙述一二。在神经网络基础知识打的不牢固的情况下,只能从简单的机器学习 算法 做起,在机器学习 算法 中,KNN和 k-means 比较明显的差别就是KNN属于有监督学习, K-MEANS 属于无监督学习。本文就是对 k-means 算法 的一个简单应用。 在下面的代码中,首先是k-mean
kmeans 聚类 是一种非常常用的 聚类 方法,因其简单理解,运算高效的特点被广泛使用,今天我们通过强大的sklearn包进行kmeans的实现,通过自然语言处理的 文本 聚类 来进行功能实现。这里只展示清晰的代码实现过程,理论知识与流程不在赘述。 使用的数据集地址: https://download.csdn.net/download/u013521274/11080094 Kmeans 算法 k-means 算法 又称k均值,是一种无监督的机器学习方法,通过多次求均值实现 聚类 。即无需知道所要搜寻的目标,而是直接通过 算法 来得到数据的共同特征。如图所示,通过找到合适的K值和合适的中心点,来实现目标的 聚类 。 其具体 算法 思想实现过程如下: 1.指定簇的个数 2.随机选取K个中心点 3.将每条记录归到离它最近的中心点所在的簇中 4.以各个簇的记录均值的中心点取代之前的中... import jieba from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction.text import TfidfTransformer from sklearn.cluster import DBSCAN from sklearn.decomposition import PCA, KernelPCA Created on Thu Nov 16 10:08:52 2017@author: li-pc """import jieba from sklearn.feature_extraction.text import TfidfVectorizer from sklearn.cluster import KMeansdef jieba_t 2. 特征提取:从预处理后的 文本 中提取特征,例如TF-IDF、词袋模型等。 3. K-means 聚类 :将提取出的特征作为输入数据,使用 K-means 算法 进行 聚类 。需要注意选择合适的K值和距离度量方法。 4. 聚类 结果分析:对 聚类 结果进行分析,例如计算每个 聚类 的中心、计算每个 文本 与所属 聚类 中心的距离等。 5. 结果可视化:可视化 聚类 结果,例如使用词云图、热力图等方式展示 聚类 中心和所属 文本 。 需要注意的是, 文本 聚类 是一个复杂的任务,需要综合考虑 文本 的语义、结构、长度等因素。在实践中,还需要进行参数调整、实验对比等工作,以获得更好的 聚类 效果。