Advertisement

(五)Python数据分析与挖掘实战——挖掘建模

阅读量:

这个专栏用来记录我在学习和实践《Python数据分析与挖掘实战》一书时的一些知识点总结和代码实现。

文章目录

  • 代码

    • logistic_regression.py
    • decision_tree.py
    • neural_network.py
    • k_means.py
    • tsne.py
    • apriori.py
    • arima_test.py
    • discrete_point_test.py
    • cal_apriori.py
    • cm_plot.py
  • 挖掘建模

    • 分类与预测

      • 逻辑回归
      • 决策树
      • 人工神经网络
      • 分类与预测算法评价
      • Python分类预测模型特点
    • 聚类分析

      • 聚类算法介绍
      • 聚类结果可视化工具——TSNE
    • 关联规则

      • Apriori
    • 时序模式

      • 常用的时间序列模型
      • 时间序列的预处理
        • 平稳性检验
    • 纯随机性检验

      • 平稳时间序列分析
      • Python主要时序模式算法
    • 离群点检测

      • 离群点检测方法
      • 基于模型(分布)的离群点检测方法
      • 基于聚类的离群点检测方法

代码

logistic_regression.py

这里利用稳定性选择方法中的随机逻辑回归进行特征筛选,然后利用筛选后的特征建立逻辑回归模型,输出平均正确率。

复制代码
    #-*- coding: utf-8 -*-
    # 逻辑回归 自动建模
    import pandas as pd
    
    # 参数初始化
    filename = '../data/bankloan.xls'
    data = pd.read_excel(filename)
    x = data.iloc[:, :8].as_matrix()
    y = data.iloc[:, 8].as_matrix()
    
    from sklearn.linear_model import LogisticRegression as LR
    from sklearn.linear_model import RandomizedLogisticRegression as RLR
    
    rlr = RLR()  # 建立随机逻辑回归模型,筛选变量
    rlr.fit(x, y)  # 训练模型
    rlr.get_support()  # 获取特征筛选结果,也可以通过.scores_方法获取各个特征的分数
    print(u'通过随机逻辑回归模型筛选特征结束。')
    print(u'有效特征为:%s' % ','.join(data.columns[rlr.get_support()]))
    x = data[data.columns[rlr.get_support()]].as_matrix()  # 筛选好特征
    
    lr = LR()  # 建立逻辑货柜模型
    lr.fit(x, y)  # 用筛选后的特征数据来训练模型
    print(u'逻辑回归模型训练结束。')
    print(u'模型的平均正确率为:%s' % lr.score(x, y))  # 给出模型的平均正确率,本例为81.4%

decision_tree.py

复制代码
    #-*- coding: utf-8 -*-
    # 使用ID3决策树算法预测销量高低
    import pandas as pd
    
    # 参数初始化
    inputfile = '../data/sales_data.xls'
    data = pd.read_excel(inputfile, index_col=u'序号')  # 导入数据
    
    # 数据是类别标签,要将它转换为数据
    # 用1来表示“好”、“是”、“高”这三个属性,用-1来表示“坏”、“否”、“低”
    data[data == u'好'] = 1
    data[data == u'是'] = 1
    data[data == u'高'] = 1
    data[data != 1] = -1
    x = data.iloc[:, :3].as_matrix().astype(int)
    y = data.iloc[:, 3].as_matrix().astype(int)
    
    from sklearn.tree import DecisionTreeClassifier as DTC
    dtc = DTC(criterion='entropy')  # 建立决策树模型,基于信息熵;也可以指定gini,则为基尼系数
    dtc.fit(x, y)  # 训练模型
    
    # 导入相关函数,可视化决策树。
    # 导出的结果是一个dot文件,需要安装Graphviz才能将它转换为pdf或png等格式。
    from sklearn.tree import export_graphviz
    x = pd.DataFrame(x)
    from sklearn.externals.six import StringIO
    x = pd.DataFrame(x)
    with open("tree.dot", 'w') as f:
    f = export_graphviz(dtc, feature_names=x.columns, out_file=f)
    
    # show tree.dot
    # $dot -Tpdf tree.dot -o tree.pdf

neural_network.py

该脚本中建立的神经网络有3个输入节点、10个隐藏节点和1个输出节点。

这个案例比较简单,没有考虑过拟合的问题。实际上,神经网络的拟合能力很强,很容易出现过拟合现象。跟传统的添加”惩罚项“的做法不同,目前神经网络(尤其是深度神经网络)中,防止过拟合的方法是随机地让部分神经网络节点休眠。

复制代码
    #-*- coding: utf-8 -*-
    # 使用神经网络算法预测销量高低
    
    import pandas as pd
    
    # 参数初始化
    inputfile = '../data/sales_data.xls'
    data = pd.read_excel(inputfile, index_col=u'序号')  # 导入数据
    
    # 数据是类别标签,要将它转换为数据
    # 用1来表示“好”、“是”、“高”这三个属性,用0来表示“坏”、“否”、“低”
    data[data == u'好'] = 1
    data[data == u'是'] = 1
    data[data == u'高'] = 1
    data[data != 1] = 0
    x = data.iloc[:, :3].as_matrix().astype(int)
    y = data.iloc[:, 3].as_matrix().astype(int)
    
    from keras.models import Sequential
    from keras.layers.core import Dense, Activation
    
    model = Sequential()  # 建立模型
    model.add(Dense(input_dim=3, output_dim=10))
    model.add(Activation('relu'))  # 用relu函数作为激活函数,能够大幅提供准确度
    model.add(Dense(input_dim=10, output_dim=1))
    model.add(Activation('sigmoid'))  # 由于是0-1输出,用sigmoid函数作为激活函数
    
    model.compile(loss='binary_crossentropy',
              optimizer='adam', class_mode='binary')
    # 编译模型。由于我们做的是二元分类,所以我们指定损失函数为binary_crossentropy,以及模式为binary
    # 另外常见的损失函数还有mean_squared_error、categorical_crossentropy等,请阅读帮助文件。
    # 求解方法我们指定用adam,还有sgd、rmsprop等可选
    
    model.fit(x, y, nb_epoch=1000, batch_size=10)  # 训练模型,学习一千次
    yp = model.predict_classes(x).reshape(len(y))  # 分类预测
    
    from cm_plot import *  # 导入自行编写的混淆矩阵可视化函数
    cm_plot(y, yp).show()  # 显示混淆矩阵可视化结果

k_means.py

下面的例子中使用了客户的RFM三个指标进行聚类。

设定聚类个数K=3,最大迭代次数为500次,距离函数欧式距离

复制代码
    #-*- coding: utf-8 -*-
    # 使用K-Means算法聚类消费行为特征数据
    
    import pandas as pd
    
    # 参数初始化
    inputfile = '../data/consumption_data.xls'  # 销量及其他属性数据
    outputfile = '../tmp/data_type.xls'  # 保存结果的文件名
    
    data = pd.read_excel(inputfile, index_col='Id')  # 读取数据
    data_zs = 1.0 * (data - data.mean()) / data.std()  # 数据标准化
    
    k = 3  # 聚类的类别
    iteration = 500  # 聚类最大循环次数
    
    from sklearn.cluster import KMeans
    model = KMeans(n_clusters=k, n_jobs=1, max_iter=iteration)  # 分为k类,并发数4
    model.fit(data_zs)  # 开始聚类
    
    # 简单打印结果
    r1 = pd.Series(model.labels_).value_counts()  # 统计各个类别的数目
    r2 = pd.DataFrame(model.cluster_centers_)  # 找出聚类中心
    r = pd.concat([r2, r1], axis=1)  # 横向连接(0是纵向),得到聚类中心对应的类别下的数目
    r.columns = list(data.columns) + [u'类别数目']  # 重命名表头
    print(r)
    
    # 详细输出原始数据及其类别
    r = pd.concat([data, pd.Series(model.labels_, index=data.index)],
              axis=1)  # 详细输出每个样本对应的类别
    r.columns = list(data.columns) + [u'聚类类别']  # 重命名表头
    r.to_excel(outputfile)  # 保存结果
    
    
    def density_plot(data):  # 自定义作图函数
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
    plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
    p = data.plot(kind='kde', linewidth=2, subplots=True, sharex=False)
    [p[i].set_ylabel(u'密度') for i in range(k)]
    plt.legend()
    return plt
    
    pic_output = '../tmp/pd_'  # 概率密度图文件名前缀
    # 绘制各分群的特征分布密度图
    for i in range(k):
    density_plot(data[r[u'聚类类别'] == i]).savefig(u'%s%s.png' % (pic_output, i))

tsne.py

复制代码
    #-*- coding: utf-8 -*-
    # 接k_means.py
    from sklearn.manifold import TSNE
    
    tsne = TSNE()
    tsne.fit_transform(data_zs)  # 进行数据降维
    tsne = pd.DataFrame(tsne.embedding_, index=data_zs.index)  # 转换数据格式
    
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
    plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
    
    # 不同类别用不同颜色和样式绘图
    d = tsne[r[u'聚类类别'] == 0]
    plt.plot(d[0], d[1], 'r.')
    d = tsne[r[u'聚类类别'] == 1]
    plt.plot(d[0], d[1], 'go')
    d = tsne[r[u'聚类类别'] == 2]
    plt.plot(d[0], d[1], 'b*')
    plt.show()

apriori.py

复制代码
    #-*- coding: utf-8 -*-
    from __future__ import print_function
    import pandas as pd
    
    # 自定义连接函数,用于实现L_{k-1}到C_k的连接
    
    
    def connect_string(x, ms):
    x = list(map(lambda i: sorted(i.split(ms)), x))
    l = len(x[0])
    r = []
    for i in range(len(x)):
        for j in range(i, len(x)):
            if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]:
                r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]]))
    return r
    
    # 寻找关联规则的函数
    
    
    def find_rule(d, support, confidence, ms=u'--'):
    result = pd.DataFrame(index=['support', 'confidence'])  # 定义输出结果
    
    support_series = 1.0 * d.sum() / len(d)  # 支持度序列
    column = list(support_series[support_series > support].index)  # 初步根据支持度筛选
    k = 0
    
    while len(column) > 1:
        k = k + 1
        print(u'\n正在进行第%s次搜索...' % k)
        column = connect_string(column, ms)
        print(u'数目:%s...' % len(column))
        sf = lambda i: d[i].prod(axis=1, numeric_only=True)  # 新一批支持度的计算函数
    
        # 创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
        d_2 = pd.DataFrame(list(map(sf, column)), index=[
                           ms.join(i) for i in column]).T
    
        support_series_2 = 1.0 * \
            d_2[[ms.join(i) for i in column]].sum() / len(d)  # 计算连接后的支持度
        column = list(support_series_2[
                      support_series_2 > support].index)  # 新一轮支持度筛选
        support_series = support_series.append(support_series_2)
        column2 = []
    
        for i in column:  # 遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
            i = i.split(ms)
            for j in range(len(i)):
                column2.append(i[:j] + i[j + 1:] + i[j:j + 1])
    
        cofidence_series = pd.Series(
            index=[ms.join(i) for i in column2])  # 定义置信度序列
    
        for i in column2:  # 计算置信度序列
            cofidence_series[ms.join(i)] = support_series[ms.join(
                sorted(i))] / support_series[ms.join(i[:len(i) - 1])]
    
        for i in cofidence_series[cofidence_series > confidence].index:  # 置信度筛选
            result[i] = 0.0
            result[i]['confidence'] = cofidence_series[i]
            result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]
    
    result = result.T.sort(['confidence', 'support'],
                           ascending=False)  # 结果整理,输出
    print(u'\n结果为:')
    print(result)
    
    return result

arima_test.py

复制代码
    #-*- coding: utf-8 -*-
    # arima时序模型
    
    import pandas as pd
    
    # 参数初始化
    discfile = '../data/arima_data.xls'
    forecastnum = 5
    
    # 读取数据,指定日期列为指标,Pandas自动将“日期”列识别为Datetime格式
    data = pd.read_excel(discfile, index_col=u'日期')
    
    # 时序图
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
    plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
    data.plot()
    plt.show()
    
    # 自相关图
    from statsmodels.graphics.tsaplots import plot_acf
    plot_acf(data).show()
    
    # 平稳性检测
    from statsmodels.tsa.stattools import adfuller as ADF
    print(u'原始序列的ADF检验结果为:', ADF(data[u'销量']))
    # 返回值依次为adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore
    
    # 差分后的结果
    D_data = data.diff().dropna()
    D_data.columns = [u'销量差分']
    D_data.plot()  # 时序图
    plt.show()
    plot_acf(D_data).show()  # 自相关图
    from statsmodels.graphics.tsaplots import plot_pacf
    plot_pacf(D_data).show()  # 偏自相关图
    print(u'差分序列的ADF检验结果为:', ADF(D_data[u'销量差分']))  # 平稳性检测
    
    # 白噪声检验
    from statsmodels.stats.diagnostic import acorr_ljungbox
    print(u'差分序列的白噪声检验结果为:', acorr_ljungbox(D_data, lags=1))  # 返回统计量和p值
    
    from statsmodels.tsa.arima_model import ARIMA
    
    data[u'销量'] = data[u'销量'].astype(float)
    # 定阶
    pmax = int(len(D_data) / 10)  # 一般阶数不超过length/10
    qmax = int(len(D_data) / 10)  # 一般阶数不超过length/10
    bic_matrix = []  # bic矩阵
    for p in range(pmax + 1):
    tmp = []
    for q in range(qmax + 1):
        try:  # 存在部分报错,所以用try来跳过报错。
            tmp.append(ARIMA(data, (p, 1, q)).fit().bic)
        except:
            tmp.append(None)
    bic_matrix.append(tmp)
    
    bic_matrix = pd.DataFrame(bic_matrix)  # 从中可以找出最小值
    
    p, q = bic_matrix.stack().idxmin()  # 先用stack展平,然后用idxmin找出最小值位置。
    print(u'BIC最小的p值和q值为:%s、%s' % (p, q))
    model = ARIMA(data, (p, 1, q)).fit()  # 建立ARIMA(0, 1, 1)模型
    model.summary2()  # 给出一份模型报告
    model.forecast(5)  # 作为期5天的预测,返回预测结果、标准误差、置信区间。

discrete_point_test.py

下面脚本中给到的距离阈值为2,从所给数据中找出了8个离群点。在聚类的时候这些数据剔除。

复制代码
    #-*- coding: utf-8 -*-
    # 使用K-Means算法聚类消费行为特征数据
    
    import numpy as np
    import pandas as pd
    
    # 参数初始化
    inputfile = '../data/consumption_data.xls'  # 销量及其他属性数据
    k = 3  # 聚类的类别
    threshold = 2  # 离散点阈值
    iteration = 500  # 聚类最大循环次数
    data = pd.read_excel(inputfile, index_col='Id')  # 读取数据
    data_zs = 1.0 * (data - data.mean()) / data.std()  # 数据标准化
    
    from sklearn.cluster import KMeans
    model = KMeans(n_clusters=k, n_jobs=4, max_iter=iteration)  # 分为k类,并发数4
    model.fit(data_zs)  # 开始聚类
    
    # 标准化数据及其类别
    # 每个样本对应的类别
    r = pd.concat([data_zs, pd.Series(model.labels_, index=data.index)], axis=1)
    r.columns = list(data.columns) + [u'聚类类别']  # 重命名表头
    
    norm = []
    for i in range(k):  # 逐一处理
    norm_tmp = r[['R', 'F', 'M']][r[u'聚类类别'] == i] - model.cluster_centers_[i]
    norm_tmp = norm_tmp.apply(np.linalg.norm, axis=1)  # 求出绝对距离
    norm.append(norm_tmp / norm_tmp.median())  # 求相对距离并添加
    
    norm = pd.concat(norm)  # 合并
    
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
    plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
    norm[norm <= threshold].plot(style='go')  # 正常点
    
    discrete_points = norm[norm > threshold]  # 离群点
    discrete_points.plot(style='ro')
    
    for i in range(len(discrete_points)):  # 离群点做标记
    id = discrete_points.index[i]
    n = discrete_points.iloc[i]
    plt.annotate('(%s, %0.2f)' % (id, n), xy=(id, n), xytext=(id, n))
    
    plt.xlabel(u'编号')
    plt.ylabel(u'相对距离')
    plt.show()

cal_apriori.py

复制代码
    #-*- coding: utf-8 -*-
    # 使用Apriori算法挖掘菜品订单关联规则
    from __future__ import print_function
    import pandas as pd
    from apriori import *  # 导入自行编写的apriori函数
    
    inputfile = '../data/menu_orders.xls'
    outputfile = '../tmp/apriori_rules.xls'  # 结果文件
    data = pd.read_excel(inputfile, header=None)
    
    print(u'\n转换原始数据至0-1矩阵...')
    ct = lambda x: pd.Series(1, index=x[pd.notnull(x)])  # 转换0-1矩阵的过渡函数
    b = map(ct, data.as_matrix())  # 用map方式执行
    data = pd.DataFrame(list(b)).fillna(0)  # 实现矩阵转换,空值用0填充
    print(u'\n转换完毕。')
    del b  # 删除中间变量b,节省内存
    
    support = 0.2  # 最小支持度
    confidence = 0.5  # 最小置信度
    ms = '---'  # 连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符
    
    find_rule(data, support, confidence, ms).to_excel(outputfile)  # 保存结果

cm_plot.py

复制代码
    #-*- coding: utf-8 -*-
    def cm_plot(y, yp):
    
    from sklearn.metrics import confusion_matrix  # 导入混淆矩阵函数
    
    cm = confusion_matrix(y, yp)  # 混淆矩阵
    
    import matplotlib.pyplot as plt  # 导入作图库
    plt.matshow(cm, cmap=plt.cm.Greens)  # 画混淆矩阵图,配色风格使用cm.Greens,更多风格请参考官网。
    plt.colorbar()  # 颜色标签
    
    for x in range(len(cm)):  # 数据标签
        for y in range(len(cm)):
            plt.annotate(cm[x, y], xy=(
                x, y), horizontalalignment='center', verticalalignment='center')
    
    plt.ylabel('True label')  # 坐标轴标签
    plt.xlabel('Predicted label')  # 坐标轴标签
    return plt

挖掘建模

分类与预测
聚类分析
关联规则
时序模式
偏差检测

分类与预测

假设是餐饮企业,面对如下问题:

基于菜品历史销售情况,以及节假日、气候和竞争对手等影响因素,对菜品进行销量预测
如何预测未来一段时间哪些顾客会流失,哪些顾客最有可能会成为VIP用户
如何预测一种新产品的销售量,以及在哪种类型的客户中会比较受欢迎
某种特征的顾客的消费习惯
预测下个月的销售收入
原材料采购需要投入多少

上面这些例子中就包含了一系列分类和回归问题,都是属于监督学习。

回归模型名称 适用条件 算法描述
线性回归 因变量和自变量是线性关系 对一个或多个自变量和因变量之间是线性关系进行建模,可用最小二乘法求解模型系数
非线性回归 因变量和自变量之间不都是线性关系 对一个或多个自变量和因变量之间的非线性关系进行建模。如果非线性关系可以通过简单的函数变换成线性关系,用线性回归的思想求解;如果不能转化,用非线性最小二乘法求解
Logistic回归 因变量一般有1和0两种取值 是广义线性回归模型的特例。利用Logistic函数将因变量的取值范围控制在0和1之间,表示取值为1的概率
岭回归 参与建模的自变量之间具有多重共线性 是一种改进最小二乘估计的方法
主成分回归 参与建模的自变量之间具有多重共线性 主成分回归是根据主成分分析的思想提出来的,是对最小二乘法的一种改进。它是参数的一种有偏估计,可以消除自变量之间的多重共线性

逻辑回归

Logistic回归属于概率型非线性回归,分为二分类多分类的回归模型。
当变量之间出现多重共线性时,用最小二乘估计的回归系数将会还不准确。消除多重共线性的参数方法主要有岭回归和主成分回归。

  • 逻辑回归的变量选择

上面的脚本中利用稳定性选择方法中的随机逻辑回归进行特征筛选,然后利用筛选后的特征建立逻辑回归模型,输出平均正确率。

稳定性选择是一种基于二次抽样和选择算法相结合的较新的方法,选择算法可以是回归、SVM或者其他类似的方法。它的主要思想是在不同的数据子集和特征子集上运行特征选择算法,不断重复,最终汇总特征选择结果。 比如,可以统计某个特征被认为是重要特征的频率

sklearn在随机Lasso随机逻辑回归中有对稳定性选择的实现。

逻辑回归本质上还是一种线性模型,因此这里的模型有效性检验本质上还是在做线性检验。因此,所筛选出来的变量,说明跟结果有比较强的线性相关性。而被筛掉的变量并不一定跟结果没有关系,因为它们之间可能是非线性关系。
因此,还需要根据问题的实际背景,对筛选结果进行分析。
对非线性关系的变量筛选方法有决策树神经网络

决策树

ID3、C4.5、CART

决策树算法 算法描述
ID3 核心是在决策树的各节点上,使用信息增益作为属性的选择标准(会偏向于选择取值较多的特征);只适用于离散的描述属性
C4.5 信息增益率选择节点属性;既能处理离散的描述属性,也可以处理连续的描述属性
CART 非常有效的非参数分类和回归方法。通过构建树、修剪树、评估树来构建一个二叉树。当终结点是连续变量时,该树为回归树,当终结点是离散变量时,该树为分类树
SLIQ算法
SPRINT算法
PUBLIC算法
  • 决策树模型示例
    在这里插入图片描述

人工神经网络

在这里插入图片描述
  • 人工神经网络算法
算法名称 算法描述
BP神经网络
LM神经网络
RBF径向神经网络
FNN模糊神经网络
GMDH神经网络
ANFIS自适应神经网络

分类与预测算法评价

分类和预测模型对训练集进行预测而得出的准确率并不能很好地反映预测模型未来的性能。为了判断一个预测模型的性能表现,需要设置测试集,并通过 相对/绝对误差、平均绝对误差、均方误差、均方跟误差等指标来进行衡量。

  • 回归模型评价指标

平均绝对误差 MAE
均方误差 MSE
均方根误差 RMSE
平均绝对百分误差 MAPE

  • 分类模型评价指标

precision
recall
ROC曲线
混淆矩阵

Python分类预测模型特点

模型 模型 位于
逻辑回归 比较基础的线性分类模型,很多时候是简单有效的选择 sklearn.linear_model
SVM 强大的模型,可以用来回归、预测、分类等,而根据选取不同的核函数,模型可以是线性/非线性 sklearn.svn
决策树 基于”分类讨论、逐步细化“思想的分类模型,模型直观、易解释 skearn.tree
随机森林 思想跟决策树类似,精度通常比决策树要高;缺点是由于其随机性,丧失了决策树的可解释性 sklearn.ensemble
朴素贝叶斯 基于概率思想的简单有效的分类模型,能够给出容易理解的概率解释 sklearn.naive_bayes
神经网络 具有强大的拟合能力,可以用于拟合、分类等,它有很多个增强版本,如递归神经网络、卷积神经网络、自编码器等,这些是深度学习的模型基础 Keras

聚类分析

假设是餐饮企业,面临如下问题:

如何通过对客户消费行为的测量,进一步评判餐饮客户的价值和对餐饮客户进行细分,找到有价值的客户群和需要关注的客户群
如何合理地怼菜品进行分析,以便区分哪些菜品畅销毛利又高、哪些菜品滞销毛利又低

针对以上问题可以通过聚类来解决。聚类属于非监督算法。

聚类算法介绍

  • 常用聚类方法
类别 包括的主要算法
划分(分类)方法 K-Means算法(K-平均)、K-MEDOID算法(K-中心点)、CLARANS算法(基于选择的算法)
层次分析方法 BIRCH算法(平衡迭代规约和聚类)、CURE算法(代表点聚类)、CHAMELEON算法(动态模型)
基于密度的方法 DBSCAN算法(基于高密度连接区域)、DENCLUE算法(密度分布函数)、OPTICS算法(对象排序识别)
基于网格的方法 STING算法(统计信息网络)、CLIOUE算法(聚类高维空间)、WAVE-CLUSTER算法(小波变换)
基于模型的方法 统计学方法、神经网络方法
  • 常用聚类分析算法
算法名称 算法描述
K-Means 在最小化误差函数的基础上,将数据划分为预定的类数K。该算法原理简单并便于处理大量数据
K-中心点 考虑到K-均值算法对孤立点的敏感性,K-中心点算法不采用簇中对象的平均值作为簇中心,而是选用簇中离平均值最近的点作为簇中心
系统聚类 也称为多层次聚类,分类的单位由高到低呈树形结构,且所处的位置越低,包含的对象越少,但这些对象的共同特征就越多。该聚类方式只适合在小数据量时使用,数据量大的时候速度会非常慢
  • 几种距离的计算方式
    在这里插入图片描述

  • 目标函数
    使用误差平方和SSE作为度量聚类质量的目标函数。 对于两种不同的聚类结果,选择误差平方和较小的分类结果。

聚类结果可视化工具——TSNE

TSNE的定位是高维数据的可视化。

通常来说输入特征高于3维的,难以直接以原特征对聚类结果进行展示。而TSNE提供了一种有效的数据降维方式,可以在2维或3维的空间中展示聚类结果。

关联规则

餐饮行业对应的场景:

  • 客户在餐厅点餐,面对菜单中大量菜品信息,往往无法迅速找到满意的菜品。
  • 实际上,菜品的合理搭配是有规律可循的:顾客的饮食习惯、菜品的荤素和口味,有些菜品之间是相互关联的,而有些菜品之间是对立或竞争的关系(负关联),这些规律都隐藏在大量的历史订单数据中。
  • 如果通过挖掘客户点餐的规则,就可以快速识别客户的口味,当他下了某个菜品的订单时推荐相关联的菜品,引导客户消费,提高就餐体验和餐饮企业的业绩。
  • 常用的关联规则算法
算法名称 算法描述
Apriori 最常用也最经典的挖掘频繁项集的算法。核心思想是通过连接产生候选项及其支持度,然后通过剪枝生成频繁项集
FP-Tree 针对Apriori算法固有的多次扫描事物数据集的缺陷,提出的不产生候选频繁项集的方法。(注意:Apriori和FP-Tree都是寻找频繁项集的算法)
Eclat算法 一种深度优先算法,采用垂直数据表示形式,在概念格理论的基础上利用基于前缀的等价关系 将搜索空间划分为较小的子空间
灰色关联法 分析和确定各因素之间的影响程度或是若干个子因素(子序列)对主因素(母序列)的贡献度而进行的一种分析方法

Apriori

核心思想是通过连接产生候选项及其支持度,然后通过剪枝生成频繁项集。

最小支持度 表示项目集在统计意义上的最低重要性
最小置信度 表示关联规则的最低可靠性

同时满足最小支持度阈值和最小置信度阈值的规则成为强规则。

注意:搜索出来的规则并不一定有实际意义,需要根据问题背景,筛选适当有意义的规则,并赋予合理解释。

时序模式

就餐饮企业而言,时序算法的场景如下:

由于餐饮行业是生产和销售同时进行的,因此销售预测对餐饮企业十分必要。如何基于菜品历史销售数据,做好餐饮销售预测,以便减少菜品脱销现象和避免因备料不足而造成的生产延误,从而减少菜品的生产等待时间,提供给客户更优质的服务,同时可以减少安全库存,做到生产准时制,降低物流成本。

餐饮销售预测可以看做是基于时间序列的短期数据预测,预测对象为具体菜品销售量。

常用的时间序列模型

模型名称 描述
平滑法 平滑法常用语趋势分析和预测,利用修匀技术,削弱短期波动对序列的影响,是序列平滑化。根据所有平滑技术的不同,可具体分为移动平均法指数平滑法
趋势拟合法 趋势拟合法把时间作为自变量,相应的序列观察值作为因变量,建立回归模型。根据序列的特征,可具体分为线性拟合和曲线拟合
组合模型 时间序列的变化主要受到长期趋势(T)、季节变动(S)、周期变动(C)和不规则变动()这4个因素的影响。根据序列的特点,可以构建加法模型和乘法模型
AR模型 以 前p期的序列值 为自变量、随机变量X的取值x为因变量建立线性回归模型
MA模型 随机变量X的取值x与以前各期的序列值无关,建立x与前q期的随机扰动的线性回归模型
ARMA模型 随机变量X的取值,不仅与前p期的序列值有关,还与前q期的随机扰动有关
ARIMA模型 许多非平稳序列差分后会显示出平稳序列的性质,称这个非平稳序列为差分平稳序列。对差分平稳序列可以使用ARIMA模型进行拟合
ARCH模型 ARCH模型能准确地模拟时间序列变量的波动性变化,适用于序列具有异方差性并且异方差函数短期自相关
GRACH模型及其衍生模型 GARCH模型成为广义ARCH模型,是ARCH模型的拓展。相比于ARCH模型,GARCH模型及其衍生模型更能反映实际序列中的长期记忆性、信息的非对称性等性质

本文将重点介绍AR模型、MA模型、ARMA模型和ARIMA模型。

时间序列的预处理

拿到一个观测值序列后,首先要对它的纯随机性和平稳性进行检验,这两个重要的检验称为序列的预处理。根据检验结果可以将序列分为不同的类型,对不同类型的序列会采取不同的分析方法。

纯随机序列,又称为白噪声序列,序列的各项之间没有任何相关关系,序列在进行完全无序的随机波动,可以终止对该序列的分析。白噪声序列是没有信息可提取的平稳序列。

对于平稳非白噪声序列,它的均值和方差是常数,现已有一套非常成熟的平稳序列建模方法。通常是建立一个线性模型来拟合该序列的发展,借此提取该序列的有用信息。ARMA模型是最常用的平稳序列拟合模型。ARMA模型是最常用的平稳序列拟合模型。

对于非平稳序列,由于它的均值和方差不稳定,处理方法一般是将其转变为平稳序列,这样就可以一行用有关平稳序列的分析方法,如建立ARMA模型来进行相应的研究。如果一个时间序列经过差分后具有平稳性,则该序列为差分平稳序列,可以使用ARIMA模型进行分析。

在这里插入图片描述
平稳性检验

有以下两种方法:

1)根据时序图和自相关图的特征做出判断的图检验:该方法简单、应用广泛,缺点是带有主观性
2)构造检验统计量进行检验:目前最常用的是方法是单位根检验

方法 描述
时序图检验 根据平稳时间序列的均值和方差都为常数的性质,平稳序列的时序图显示该序列值始终在一个常数附近随机波动,而且波动的范围有界;如果有明显的趋势性或周期性,那它通常不是平稳序列
自相关图检验 平稳序列具有短期相关性,这个性质表明对平稳序列而言通常只有近期的序列值对现值的影响比较明显,间隔越远的过去值对现时值的影响越小。随着延迟期数k的增加,平稳序列的自相关系数pk(延迟k期)会比较快的衰减趋向于0,并在0附近随机波动。而非平稳序列的自相关系数衰减的速度比较慢
单位根检验 单位根检验是指检验序列中是否存在单位根,如果存在单位根就是非平稳时间序列了
纯随机性检验

常用的检验统计量有Q统计量、LB统计量
由样本各延迟期数的自相关系数可以计算得到检验统计量,然后计算出对应的p值。如果p值显著大于显著性水平alpha,则表示该序列不能拒绝纯随机的原假设,可以停止对该序列的分析。

平稳时间序列分析

Python主要时序模式算法

主要库是StatsModels
在使用该模型建模时,需要进行一系列判别操作,包含平稳性检验、白噪声检验、是否差分、AIC和BIC指标值、模型定阶,最后再做预测。

函数名 函数功能 所属工具箱
acf() 计算自相关系数 statsmodels.tsa.stattools
plot_acf() 画自相关系数图 statsmodels.graphics.tsaplots
pacf() 计算偏相关系数 statsmodels.tsa.stattools
plot_pacf() 画偏相关系数图 statsmodels.graphics.tsaplots
adfuller() 对观测值序列进行单位根检验 statsmodels.tsa.stattools
diff() 对观测值序列进行差分计算 Pandas对象自带的方法
ARIMA() 创建一个ARIMA时序模型 statsmodels.tsa.arima_model
summary()或summaty2 给出一份ARIMA模型的报告 ARIMA模型对象自带的方法
aic/bic/hqic 计算ARIMA模型的AIC/BIC/HQIC指标值 ARIMA模型对象自带的变量
forecast() 应用构建的时序模型进行预测 ARIMA模型对象自带的方法
acorr_1jungbox() Ljung-Box检验,检验是否为白噪声 statsmodels.stats.diagnostic

离群点检测

就餐饮企业而言,离群点检测的场景如下:

如何根据客户的消费记录,检测是否为异常刷卡消费?
如何检测是否有异常订单?

离群点检测的目的是发现与大部分其他对象显著不同的对象。
大部分数据挖掘方法都将这种差异信息视为噪声而丢弃,然而在一些应用中,罕见的数据可能蕴含着更大的价值。

因为离群点的属性值明显偏高期望的或常见的属性值,所以离群点检测也称为偏差检测

离群点检测被广泛应用于:

电信和信用卡的诈骗检测、贷款审批、电子商务、网络入侵、天气预报等领域

离群点的成因:

数据来源于不同的类、自然变异、数据监测、收集误差

离群点类型:

分类标准 分类名称 分类描述
从数据范围 全局离群点和局部离群点 从整体来看,某些对象没有离群特征,但是从局部看,却显示了一定的离群性。
从数据类型 数值型离群点和分类型离群点 这是以数据集的属性类型进行划分的
从属性的个数 一维离群点和多维离群点 一个对象可能有多个属性

离群点检测方法

常用的离群点检测方法:

离群点检测方法 方法描述 方法评估
基于统计 大部分基于统计的离群点检测方法是构建一个概率分布模型,并计算对象符合该模型的概率,把具有低概率的对象视为离群点 基于统计模型的离群点检测方法的前提是必须知道数据集服从什么分布;对于高维数据,检验效果可能很差
基于邻近度 通常可以在数据对象之间定义邻近性度量,把远离大部分点的对象视为离群点 简单、二维或三维的数据可以做散点图观察;大数据集不适用;对参数选择敏感;具有全局阈值,不能处理具有不同密度区域的数据集
基于密度 考虑数据集可能存在不同密度区域这一事实,从基于密度的观点分析,离群点是在低密度区域中的对象。一个对象的离群点得分是该对象周围密度的逆 给出了对象是离群点的定义度量,并且即使数据具有不同的区域也能够很好处理;大数据集不适用;参数选择是困难的
基于聚类 一种利用聚类检测离群点的方法是丢弃远离其他簇的小簇;另一种更系统的方法,首先聚类所有对象,然后评估对象属于簇的程度(离群点得分) 基于聚类技术来发现离群点可能是高度有效的;聚类算法产生的簇的质量对该算法产生的离群点的质量影响非常大

各方法小结:

1)基于统计模型的离群点检测方法需要满足统计学原理。如果分布已知,则检验可能非常有效
2)基于邻近度的离群点检测方法比统计学方法更一般、更容易使用,因为确定数据集有意义的邻近度量比确定它的统计分布更容易
3)基于密度的离群点检测与基于邻近度的离群点检测密切相关,因为密度常用邻近度定义

  • 一种是定义密度为 到K个最邻近的平均距离的倒数。如果该距离小,则密度高。
  • 另一种是使用DBSCAN聚类算法,一个对象周围的密度等于该对象指定距离d内对象的个数

下面重点介绍基于统计模型聚类的离群点检测方法。

基于模型(分布)的离群点检测方法

通过估计概率分布的参数来建立一个数据模型。如果一个数据对象不能很好地同该模型拟合,即它很可能不服从该分布,则它是一个离群点。

一元正态分布中的离群点检测

混合模型的离群点检测

基于聚类的离群点检测方法

丢弃远离其他簇的小簇

基于原型的聚类

全部评论 (0)

还没有任何评论哟~