数据分析+分类模型预测乳腺癌患病概率
发布时间
阅读量:
阅读量
一、前言
**** 本文利用python预处理数据集,再通过机器学习模型:LR、SGD预测乳腺癌患病概率,对比两个模型的预测效果,选择最优的预测方式。
二、数据集说明
数据集源于威斯康星州临床科学中心。每个记录代表一个乳腺癌的随访数据样本。

#导入pandas与numpy工具包。
import pandas as pd
import numpy as np
# 创建特征列表;10个特征,class是类别标签。
column_names = ['Sample code number', 'Clump Thickness',
'Uniformity of Cell Size', 'Uniformity of Cell Shape',
'Marginal Adhesion', 'Single Epithelial Cell Size',
'Bare Nuclei', 'Bland Chromatin',
'Normal Nucleoli', 'Mitoses',
'Class']
# 使用pandas.read_csv函数从互联网读取指定数据。
data = pd.read_csv(
'https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data'
, names = column_names )
#查看数据情况
data.head()

#数据描述性统计信息
data.describe()

#查看数据维度;一共699条数据,11列:前10列是特征信息,最后一列是类别标签
data.shape

#查看数据集类别样本分布
#2为良性,4为恶性
data.groupby('Class')['Mitoses'].count().reset_index(name='class_count')

三、缺失值处理
# 将?替换为标准缺失值表示。
data = data.replace(to_replace='?', value=np.nan)
# 丢弃带有缺失值的数据(只要有一个维度有缺失)。
data = data.dropna(how='any')
# 输出data的数据量和维度。
data.shape

四、构建训练集和测试集
# 使用sklearn.cross_valiation里的train_test_split模块用于分割数据。
from sklearn.cross_validation import train_test_split
# 随机采样25%的数据用于测试,剩下的75%用于构建训练集合。
X = data[column_names[1:10]] # 第一列“Sample code number”为编号,与Y无相关性,过滤掉
Y = data[column_names[10]]
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.25, random_state=33)
# 查验训练样本的数量和类别分布。
y_train=pd.Series(y_train)
y_train.value_counts()

# 查验测试样本的数量和类别分布。
y_test=pd.Series(y_test)
y_test.value_counts()

标准化数据集
# 从sklearn.preprocessing里导入StandardScaler。
from sklearn.preprocessing import StandardScaler
#标准化数据,保证每个维度的特征数据方差为1,均值为0;
#使得预测结果不会被某些维度过大的特征值而主导。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)
五、搭建模型
# 从sklearn.linear_model里导入LogisticRegression与SGDClassifier。
from sklearn.linear_model import LogisticRegression
from sklearn.linear_model import SGDClassifier
# 初始化LogisticRegression与SGDClassifier。
lr = LogisticRegression()
sgdc = SGDClassifier()
# 调用LogisticRegression中的fit函数/模块用来训练模型参数。
lr.fit(X_train, y_train)
# 使用训练好的模型lr对X_test进行预测,结果储存在变量lr_y_predict中。
lr_y_predict = lr.predict(X_test)
# 调用SGDClassifier中的fit函数/模块用来训练模型参数。
sgdc.fit(X_train, y_train)
# 使用训练好的模型sgdc对X_test进行预测,结果储存在变量sgdc_y_predict中。
sgdc_y_predict = sgdc.predict(X_test)
六、评估模型效果
**LR模型效果
**
# 从sklearn.metrics里导入classification_report模块。
from sklearn.metrics import classification_report
# 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果。
print ("Accuracy of LR Classifier:", lr.score(X_test, y_test))
# 利用classification_report模块获得LR其他三个指标的结果。
print (classification_report(y_test, lr_y_predict
, target_names=['Benign', 'Malignant']))

SGD模型效果
# 使用随机梯度下降模型自带的评分函数score获得模型在测试集上的准确性结果。
print ('Accuarcy of SGD Classifier:', sgdc.score(X_test, y_test))
# 利用classification_report模块获得SGDClassifier其他三个指标的结果。
print (classification_report(y_test, sgdc_y_predict
, target_names=['Benign', 'Malignant']))

对比以上预测结果,LR的预测效果要由于SGD.
推荐阅读:****
机器学习篇
**机器学习入门科普篇--系列一
**
python学习篇
******50W+Python开发者的选择,这个总结必须收藏
**
Python3.8发布了,关注哪些新特性**
**
全部评论 (0)
还没有任何评论哟~
