前言一个很粗糙的新闻文本分类项目,解决中国软件杯第九届新闻文本分类算法的问题,记录了项目的思路及问题解决方法
后续会进一步改进,包括:
丰富训练集的数据,避免军事类、房产类、体育类的新闻数据过少,影响精度 改用上限更高的Bert模型 优化exe文件的页面,使其能够分别处理识别短文本和excel文件 项目源码:https://github.com/bluehyssopu/NewSort
项目问题链接:http://cnsoftbei.com/plus/view.php?aid=599
文件结构图
code-pycache- —pyinstaller 打包生成的文件 build —pyinstaller 打包生成的文件 dist —pyinstaller 打包生成的文件(内有 软件test2.exe 可运行) showTest.ipynb —展示测试集处理的脚本 showTrain.ipynb —展示训练集处理的脚本 test.py —测试所用的py文件 可跳过test2.py —项目最终源代码test2.spec —pyinstaller 打包生成的文件 datahit_stopwords.txt —哈工大停词表 test_set.csv —处理好的测试集数据 train_set.csv —处理好的训练集数据 type.xlsx —原测试集数据的类别sheet image —项目的部分运行结果截图 rootData —数据清洗前的源数据 RemdMe.md —项目文件说明运行dist目录下的test2.exe即可运行程序
选择文件dist/data/type.xlsx 点击确认 即可运行将预测结果写入 至type.xlsx
操作的过程如下: 查看源数据 可以明显地看出:
源数据(训练)包括新闻标题 内容 和新闻的类别 — 以下称为 根训练集 测试集 包括 测试的编号 新闻标题 新闻内容 — 以下称为 type.xlsx 需要将预测的结果写入channelName这一列中
为了方便我们进行清洗数据 训练
将跟训练集的所有sheet(共九个 其他栏为空)导出为csv 并合并为 train_root.csv
具体过程如下:
导出1 2 3 4 5 6 7 8 Sub Test() Dim Sht As Worksheet For Each Sht In Sheets Sht.Copy ActiveWorkbook.SaveAs ThisWorkbook.Path & "\" & Sht.Name & " .xlsx" ActiveWorkbook.Close Next End Sub
合并cmd命令行 切换到 所在的目录 copy *.csv train_copy.csv
输出测试1 2 3 import pandas as pdtrain_df = pd . read_csv ( '/rootData/train_copy.csv' ) train_df.head()
统计1 2 3 train_df['text_len' ] = train_df['content' ].apply(lambda x: len (str (x).split('。' ))) train_df['text_len' ].describe()
1 2 3 4 5 import matplotlib.pyplot as plt_ = plt.hist(train_df['text_len' ], bins=240 ) plt.xlabel('Text char count' ) plt.title("Histogram of char count" )
数据可视分析 清洗处理 词频统计 加载停用词1 2 3 4 5 6 7 with open ("/data/hit_stopwords.txt" , 'r' , encoding='utf-8' ) as f: remove_words = [w.strip('\n' ) for w in f.readlines()] for word in seg_list_exact: if word not in remove_words: object_list.append(word)
生成词云清洗前 清洗后
再次检验 写入将清洗好的数据写入到 train_set.csv中 作为机器学习的训练集 — 下称为训练集 1 2 3 4 5 6 7 8 import csvheader = ['label' , 'text' ] with open ('/rootData/train_set.csv' , 'w' , encoding="utf-8" , newline='' ) as f: writer = csv.writer(f) writer.writerow(header) writer.writerows(Endlist) f.close()
训练1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 import pandas as pdfrom sklearn.feature_extraction.text import CountVectorizerfrom sklearn.linear_model import RidgeClassifierfrom sklearn.metrics import f1_scoretrain_df = pd.read_csv('/data/train_set.csv' ,encoding='ANSI' ) vectorizer = CountVectorizer(max_features=3000 ) train_test = vectorizer.fit_transform(train_df['text' ].values.astype('U' )) clf = RidgeClassifier() clf.fit(train_test[:10000 ], train_df['label' ].values[:10000 ]) val_pred = clf.predict(train_test[10000 :]) print (f1_score(train_df['label' ].values[10000 :], val_pred, average='macro' ))print (type (val_pred))
预测结果对预测集进行和训练集一样的处理 调用模型 得到pre_val (预测结果 类型为list) 写入 type.xlsx中即可