Advertisement

数据分析+分类模型预测乳腺癌患病概率

阅读量:

一、前言

**** 本文利用python预处理数据集,再通过机器学习模型:LR、SGD预测乳腺癌患病概率,对比两个模型的预测效果,选择最优的预测方式。

二、数据集说明

数据集源于威斯康星州临床科学中心。每个记录代表一个乳腺癌的随访数据样本。

复制代码
 #导入pandas与numpy工具包。

    
 import pandas as pd
    
 import numpy as np
    
 # 创建特征列表;10个特征,class是类别标签。
    
 column_names = ['Sample code number', 'Clump Thickness',
    
             'Uniformity of Cell Size', 'Uniformity of Cell Shape',
    
             'Marginal Adhesion', 'Single Epithelial Cell Size',
    
             'Bare Nuclei', 'Bland Chromatin', 
    
             'Normal Nucleoli', 'Mitoses',
    
             'Class']
    
 # 使用pandas.read_csv函数从互联网读取指定数据。
    
 data = pd.read_csv(
    
 'https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data'
    
 , names = column_names )
    
 #查看数据情况
    
 data.head()
复制代码
 #数据描述性统计信息

    
 data.describe()
复制代码
 #查看数据维度;一共699条数据,11列:前10列是特征信息,最后一列是类别标签

    
 data.shape
复制代码
 #查看数据集类别样本分布

    
 #2为良性,4为恶性
    
 data.groupby('Class')['Mitoses'].count().reset_index(name='class_count')

三、缺失值处理

复制代码
 # 将?替换为标准缺失值表示。

    
 data = data.replace(to_replace='?', value=np.nan)
    
 # 丢弃带有缺失值的数据(只要有一个维度有缺失)。
    
 data = data.dropna(how='any')
    
 # 输出data的数据量和维度。
    
 data.shape

四、构建训练集和测试集

复制代码
 # 使用sklearn.cross_valiation里的train_test_split模块用于分割数据。

    
 from sklearn.cross_validation import train_test_split
    
 # 随机采样25%的数据用于测试,剩下的75%用于构建训练集合。
    
 X = data[column_names[1:10]] # 第一列“Sample code number”为编号,与Y无相关性,过滤掉
    
 Y = data[column_names[10]]
    
 X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.25, random_state=33)
复制代码
 # 查验训练样本的数量和类别分布。

    
 y_train=pd.Series(y_train)
    
 y_train.value_counts()
复制代码
 # 查验测试样本的数量和类别分布。

    
 y_test=pd.Series(y_test)
    
 y_test.value_counts()

标准化数据集

复制代码
 # 从sklearn.preprocessing里导入StandardScaler。

    
 from sklearn.preprocessing import StandardScaler
    
 #标准化数据,保证每个维度的特征数据方差为1,均值为0;
    
 #使得预测结果不会被某些维度过大的特征值而主导。
    
 ss = StandardScaler()
    
 X_train = ss.fit_transform(X_train)
    
 X_test = ss.transform(X_test)

五、搭建模型

复制代码
 # 从sklearn.linear_model里导入LogisticRegression与SGDClassifier。

    
 from sklearn.linear_model import LogisticRegression
    
 from sklearn.linear_model import SGDClassifier
    
 # 初始化LogisticRegression与SGDClassifier。
    
 lr = LogisticRegression()
    
 sgdc = SGDClassifier()
    
 # 调用LogisticRegression中的fit函数/模块用来训练模型参数。
    
 lr.fit(X_train, y_train)
    
 # 使用训练好的模型lr对X_test进行预测,结果储存在变量lr_y_predict中。
    
 lr_y_predict = lr.predict(X_test)
    
 # 调用SGDClassifier中的fit函数/模块用来训练模型参数。
    
 sgdc.fit(X_train, y_train)
    
 # 使用训练好的模型sgdc对X_test进行预测,结果储存在变量sgdc_y_predict中。
    
 sgdc_y_predict = sgdc.predict(X_test)

六、评估模型效果

**LR模型效果
**

复制代码
 # 从sklearn.metrics里导入classification_report模块。

    
 from sklearn.metrics import classification_report
    
 # 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果。
    
 print ("Accuracy of LR Classifier:", lr.score(X_test, y_test))
    
 # 利用classification_report模块获得LR其他三个指标的结果。
    
 print (classification_report(y_test, lr_y_predict
    
    , target_names=['Benign', 'Malignant']))

SGD模型效果

复制代码
 # 使用随机梯度下降模型自带的评分函数score获得模型在测试集上的准确性结果。

    
 print ('Accuarcy of SGD Classifier:', sgdc.score(X_test, y_test))
    
 # 利用classification_report模块获得SGDClassifier其他三个指标的结果。
    
 print (classification_report(y_test, sgdc_y_predict
    
    , target_names=['Benign', 'Malignant']))

对比以上预测结果,LR的预测效果要由于SGD.


推荐阅读:****


机器学习篇

**机器学习入门科普篇--系列一
**

机器学习入门科普篇--系列二

Pandas做股票预测

Pandas透视表看火箭队James_Harden赛季数据

客户流失分析

全球变暖温度分析图


python学习篇

******50W+Python开发者的选择,这个总结必须收藏
**

Python3.8发布了,关注哪些新特性**
**

优雅的Python

让你的 Python 代码优雅又地道

全部评论 (0)

还没有任何评论哟~