Advertisement

《统计学习方法》学习笔记(第五章)

阅读量:

第5章 决策树

ID3算法(基于信息增益)

entropy(信息熵):H(x) = -\sum_{i=1}^{n}p_i\log{p_i}

复制代码
    #熵
    def calc_ent(datasets):
    data_length = len(datasets)
    #类别是/否
    label_count = {}
    for i in range(data_length):
        label = datasets[i][-1]
        if label not in label_count:
            label_count[label] = 0
        label_count[label] += 1
    ent = -sum([(p/data_length)*log(p/data_length,2)for p in label_count.values()])
    return ent

conditional entropy(条件熵): H(X|Y)=\sum{P(X|Y)}\log{P(X|Y)}

复制代码
    #经验条件熵
    def cond_ent(datasets,axis=0):
    data_length = len(datasets)
    feature_sets = {}
    for i in range(data_length):
        feature = datasets[i][axis]
        if feature not in feature_sets:
            feature_sets[feature] = []
        feature_sets[feature].append(datasets[i])
    cond_ent = sum([(len(p)/data_length)*calc_ent(p)for p in feature_sets.values()])
    return cond_ent

information gain(信息增益) : g(D, A)=H(D)-H(D|A)

复制代码
    #信息增益
    def info_gain(ent,cond_ent):
    return ent - cond_ent

从训练数据集中提取每个特征的信息增益比,并进行大小对比分析后筛选出信息增益显著较大的那个特征;该特征具备较强的分类能力

复制代码
    #进行特征选择
    def info_gain_train(datasets):
    count = len(datasets[0])-1
    ent = calc_ent(datasets)
    best_feature = []
    for c in range(count):
        c_info_gain = info_gain(ent,cond_ent(datasets,axis=c))
        best_feature.append((c,c_info_gain))
        print('特征({}) - info_gain - {:.3f}'.format(labels[c],c_info_gain))
    #比较大小
    best_ = max(best_feature,key=lambda x:x[-1])
    return '特征({})的信息增益最大,选择为根节点特征'.format(labels[best_[0]])
C4.5(基于信息增益比)

information gain ratio: g_R(D, A) = \frac{g(D,A)}{H(A)}

CART(Gini指数)

基尼系数用于度量数据集的纯度。\n
基尼指数Gini(D)计算公式如下:

Gini(D) = \sum_{k=1}^{K} p_k \log{p_k} = 1 - \sum_{k=1}^{K} p_k^2 $$\n 在二元分类问题中。\n 其计算公式可表示为$G = 2 \times p \times (1 - p)$, 其中$p$代表正确率。\n 在特征A的条件下进行分析时。\n 该条件下的集合$D$的基尼指数计算为:

Gini(D,A) = \frac{|D_1|}{|D|}\times Gini(D_1) + \frac{|D_2|}{|D|}\times Gini(D_2)
$$\n

  • 静态方法(staticmethod)

python staticmethod 返回函数的静态方法
通常情况下,在类中定义的所有函数都是对象的绑定方法,对象在调用绑定方法时会自动将自己作为参数传递给方法的第一个参数。除此之外还有两种常见的方法:静态方法和类方法
@staticmethod位于类定义的命名空间中,不会对任何实例类型进行操作
把类中的函数定义成静态方法该方法不强制要求传递参数,如下声明一个静态方法:

复制代码
    class C(object):
    @staticmethod
    def f(arg1, arg2, ...):
    ...

类可以不用实例化就可以调用该方法 C.f()
也可以实例化后调用 C().f()

  • Graphviz

该软件采用开放源代码形式,并以其图形化展示方式著称。其主要功能在于通过抽象的图形节点和连接线来呈现数据关系。

python 安装了 Graphviz 包, 使用时报错: failed to execute [‘dot’, ‘-Tsvg’], ensure the Graphviz executables are on your systems' PATH.

可从该网页地址https://graphviz.gitlab.io/_pages/Download/Download_windows.html下载graphviz-2.38版本软件包。
首先,请按照以下步骤完成环境配置:
第一部分:将用户环境配置为D:\Anaconda\envs\python36\graphviz-2.38\release\bin
第二部分:将系统变量路径设置为D:\Anaconda\envs\python36.graphviz-2.38.release.bin中的dot.exe执行文件
请运行以下命令以验证环境变量配置是否正确:
dot -version
(如果上述操作仍无法成功,则可能需要检查路径配置是否正确后重新启动相关软件)

  1. 为Python加载Graphviz
    cmd 中直接使用命令 pip install graphviz即可

基于信息增益的特征选择方法用于构建决策树

复制代码
    #定义节点类 二叉树
    class Node:
    def __init__(self,root=True,label=None,feature_name=None,feature=None):
        self.root = root
        self.label = label
        self.feature_name = feature_name
        self.feature = feature
        self.tree = {}
        self.result = {'label:': self.label, 'feature': self.feature, 'tree': self.tree}
        
    def __repr__(self):
        return '{}'.format(self.result)
    
    def add_node(self,val,node):
        self.tree[val] = node
        
    def predict(self,features):
        if self.root is True:
            return self.label
        return self.tree[features[self.feature]].predict(features)

算法实现

复制代码
    def train(self,train_data):
        """
        input:数据集D(DataFrame格式),特征集A,阈值eta
        output:决策树T
        
        """
        _, y_train, features = train_data.iloc[:, :-1], train_data.iloc[:, -1], train_data.columns[:-1]
        # 1,若D中实例属于同一类Ck,则T为单节点树,并将类Ck作为结点的类标记,返回T
        if len(y_train.value_counts()) == 1:
            return Node(root=True,
                        label=y_train.iloc[0])
    
        # 2, 若A为空,则T为单节点树,将D中实例树最大的类Ck作为该节点的类标记,返回T
        if len(features) == 0:
            return Node(root=True, label=y_train.value_counts().sort_values(ascending=False).index[0])
    
        # 3,计算最大信息增益 同5.1,Ag为信息增益最大的特征
        max_feature, max_info_gain = self.info_gain_train(np.array(train_data))
        max_feature_name = features[max_feature]
    
        # 4,Ag的信息增益小于阈值eta,则置T为单节点树,并将D中是实例数最大的类Ck作为该节点的类标记,返回T
        if max_info_gain < self.epsilon:
            return Node(root=True, label=y_train.value_counts().sort_values(ascending=False).index[0])
    
        # 5,构建Ag子集
        node_tree = Node(root=False, feature_name=max_feature_name, feature=max_feature)
    
        feature_list = train_data[max_feature_name].value_counts().index
        for f in feature_list:
            sub_train_df = train_data.loc[train_data[max_feature_name] == f].drop([max_feature_name], axis=1)
    
            # 6, 递归生成树
            sub_tree = self.train(sub_train_df)
            node_tree.add_node(f, sub_tree)
    
        # pprint.pprint(node_tree.tree)
        return node_tree
    
    def fit(self, train_data):
        self._tree = self.train(train_data)
        return self._tree
    
    def predict(self, X_test):
        return self._tree.predict(X_test)

全部评论 (0)

还没有任何评论哟~