0
点赞
收藏
分享

微信扫一扫

阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87


problem

阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_自然语言处理

1、赛题理解

  • 数据集:
    在NLP_data_list_0715.csv中,有三个链接。
    分别可以下载训练集,测试集A,测试样例。
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_阿里云_02

  • f1_score介绍:
    F1分数(F1-score)是分类问题的一个衡量指标 。一些多分类问题的机器学习竞赛,常常将F1-score作为最终测评的方法。它是精确率和召回率的调和平均数,最大为1,最小为0。
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_数据_03

  • 不太明白,按照字符级别进行了匿名处理是什么意思?
    先用panda读一下数据。
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_词向量_04

2、数据分析(数据探索 EDA)

  • 句子长度分析
    新闻文本数据的每个单词由空格隔开,所以我们可以直接统计单词的个数来得出每段新闻的长度。
    可以知道:每个句子平均由923个字符构成,最短的句子长度为64,最长的句子长度为7125。
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_阿里云_05

  • 单词分析
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_自然语言处理_06

  • 类别分布分析
    接下来我们可以对数据集类别分布进行统计,即统计每类新闻的样本个数。
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_词向量_07

  • 数据结论:
    抽取训练集中100个样本进行数据分析,得到以下结论
  1. 给定的文本比较长,每个句子平均由923个字符构成,最短的句子长度为64,最长的句子长度为7125。
  2. 在训练集中总共包括2405个字,其中编号3750的字出现的次数最多,编号5034的字出现的次数最少。
  3. 各类标签有不平衡的问题,其中最多的是科技类新闻,最少的是星座类新闻。
  4. 样本偏长,需要做截断。
  5. 类别不均衡会影响模型的精度。

3、特征工程 + 模型训练

  • 解题思路:
    由于数据脱敏,我们需要对匿名字符进行建模,进而完成文本分类。由于文本数据是一种典型的非结构化的数据 ,因此可能涉及到‘特征提取’和‘分类模型’两个部分。
  • 主要思路(特征提取+分类模型):
  1. TF-IDF+机器学习分类器
    直接使用TF-IDF对文本提取特征,并使用分类器进行分类。在分类器的选择上,可以使用SVM、LR、或者XGBoost。
  2. WordVec+深度学习分类器
    WordVec是进阶款的词向量,并通过构建深度学习分类完成分类。深度学习分类的网络结构可以选择TextCNN、TextRNN或者BiLSTM。
  3. FastText
    FastText是入门款的词向量,利用Facebook提供的FastText工具,可以快速构建出分类器。
  4. Bert词向量
    Bert是高配款的词向量,具有强大的建模学习能力。

4、TF-IDF+RidgeClassifier(线性模型)

  • 原理:
  • 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_数据_08

  • 代码:

import pandas as pd

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.linear_model import RidgeClassifier
from sklearn.metrics import f1_score

train_data=pd.read_csv("train_set.csv",sep='\t')
test_data=pd.read_csv("test_a.csv",sep='\t')
train_data.shape
(200000, 2)
train_data[:5]

# Tfidf
tf_idf=TfidfVectorizer(max_features=2000).fit(train_data['text'].values)
train_tfidf=tf_idf.transform(train_data['text'].values)
train_tfidf.shape
(200000, 2000)
test_tfidf=tf_idf.transform(test_data['text'].values)

# 岭回归
clf=RidgeClassifier()
clf.fit(train_tfidf,train_data['label'].values)
RidgeClassifier()

# F1值
val_pred = clf.predict(train_tfidf[10000:])
print(f1_score(train_data['label'].values[10000:], val_pred, average='macro'))

# 测试集
df=pd.DataFrame()
df['label']=clf.predict(test_tfidf)
df.to_csv('submit.csv',index=None)

阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_阿里云_09

  • 结果:

F1_Score = 0.8837

阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87_自然语言处理_10

5、WordVec+TextCNN(卷积神经网络)

  • 原理:
  • 运行结果

F1_Score  = 0.8562


举报

相关推荐

0 条评论