Advertisement

计算机视觉基础知识(1)

阅读量:

1
标量是0阶张量,向量是一阶张量。举例:
​标量就是知道棍子的长度,但是你不会知道棍子指向哪儿。
​向量就是不但知道棍子的长度,还知道棍子指向前面还是后面。
​张量就是不但知道棍子的长度,也知道棍子指向前面还是后面,还能知道这棍子又向上/下和左/右偏转了多少。
从代数角度讲, 矩阵它是向量的推广。张量的严格定义是利用线性映射来描述。
1.2
向量的1范数:向量的各个元素的绝对值之和
向量的2范数:向量的每个元素的平方和再开平方根,
向量的负无穷范数:向量的所有元素的绝对值中最小的
向量的正无穷范数:向量的所有元素的绝对值中最大的
矩阵的1范数(列范数):矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大)
矩阵的无穷范数(行范数):矩阵的每一行上的元素绝对值先求和,再从中取个最大的,(行和最大)
2.1
机器学习(Machine Learning, ML),顾名思义,让机器去学习。这里,机器指的是计算机,是算法运行的物理载体,你也可以把各种算法本身当做一个有输入和输出的机器。那么到底让计算机去学习什么呢?对于一个任务及其表现的度量方法,设计一种算法,让算法能够提取中数据所蕴含的规律,这就叫机器学习。如果输入机器的数据是带有标签的,就称作有监督学习。如果数据是无标签的,就是无监督学习。

神经网络本质上是遵循特定规律将多个神经元通过连接机制组织起来形成的系统。
各有不同类型的 neural network 都拥有独特的组织结构。
其主要特点体现在参数数量庞大以及计算复杂度高两个显著方面。

(1)有三种层:输入层,输出层,隐藏层。

(2)同一层的神经元之间没有连接。

(3)全连接层的工作原理:每一个N层神经元都与前一层的所有N-1层神经元建立连接关系;其中前一层N-1层所有神经元输出的结果即为当前层N层所有神经元的输入数据

(4)每个连接都有一个权值。

输入层的主要职能是接收并处理外部信息源。
例如一张猫的照片或猫咪的画面。
输出层则是计算机对这一输入数据进行分析判断的结果。
识别的对象是否为猫咪?

2.2
​ 优化问题一般分为局部最优和全局最优。其中,

(1)局部极小,在函数域的某个局部区域内寻求极小;而全局极优,则是整个函数域内寻求全局极优的问题。

(2)函数的局部极小值点是指其函数值在该点处小于或等于其周围所有邻近点的函数值的特定位置;然而,在某些情况下该值可能大于离该位置较远区域的所有对应数值。

(3)全局最小值指的是其函数值在所有可行解中都不大于任何一个解。
2.3
数据挖掘是指从大量数据中提取有用信息的具体方法,在这一过程中,默认情况下关注的是方法的应用而非具体的技术细节。
构建大数据深度学习系统时通常需要设计专门的架构,在当前的大数据环境下多数研究倾向于从底层技术入手。
综上所述 深度学习与大数据之间的直接联系体现在将海量数据经过深入分析后转化为实际应用价值的过程

2.4 机器学习的学习方式
2.4.1 监督学习
特点:监督学习主要采用基于已知正确答案的数据对网络进行训练。对应的一组输入数据与其对应的标签,在此基础上建立一个预测模型,并将输入数据映射至相应的标签。

​ 常见应用场景:监督式学习的常见应用场景如分类问题和回归问题。

算法举例:主流的有监督学习方法包括支持向量机模型(Support Vector Machine, SVM),基于朴素贝叶斯的分类器(Naive Bayes),逻辑回归模型(Logistic Regression),K近邻分类器(K-Nearest Neighborhood, KNN),决策树(Decision Tree),随机森林(Random Forest),AdaBoost以及线性判别分析模型(Linear Discriminant Analysis, LDA)等。深度学习方法主要采用监督学习策略(Deep Learning methods typically adopt supervised learning strategies).

2.4.2 非监督式学习
定义:在非监督式学习中,数据未被特别标注,适用于你拥有数据集但没有标签的情况。学习模型旨在揭示数据内部的某种结构特征

​ 常见应用场景:常见的应用场景包括关联规则的学习以及聚类等。

​ 算法举例:常见算法包括Apriori算法以及k-Means算法。

2.4.3 半监督式学习
特点:在该种学习模式下,在线输入数据的一部分被标注为有标签的数据(labeled data),而另一部分则未被标注(unlabeled data)。这种有监督与无监督结合的学习方法能够用于预测。

主要应用场景:主要应用场景涵盖分类任务与回归问题,并结合一些监督学习算法的拓展应用。通过构建模型来分析已标记数据,在此过程中预测未标记数据的结果。

算法举例:主要代表包括基于图论推理的方法(如图论推理算法 Graph Inference)以及拉普拉斯支持向量机(Laplacian SVM)等技术。
2.4.4 弱监督学习
特点:其本质是一种基于部分标注的数据集进行学习的方法。这些标注集合可能为空、单一实例或包含多种复杂情况(无标注实例、单个标注以及多标注组合)。由于这些标签具有一定的可靠性问题,在实际应用中它们可能表现为:

  1. 标签不准确;
  2. 存在多重标签;
  3. 标签不足;
  4. 局部性特征提取。
    在此框架下,默认情况下已知数据与其对应的弱标签之间存在明确的一一对应关系;通过训练智能模型技术;将输入数据映射至一组更加丰富的强标签的过程即为此框架的核心任务目标;其中强弱标签间的区别在于后者所包含的信息量相对较低。

算法示例:具体说明一个案例时,请展示一张包含气球的照片,并确定气球在图像中的坐标位置以及气球与背景之间的边界线;这实际上涉及到从弱标签到强标签的学习过程。

在企业数据应用领域中,在图像识别等场景下, 监督式学习与非监督式学习模型最为常见使用. 在涉及大量未标注数据而样本数据有限的情况下, 半监督式学习方法正成为当前研究热点. 2.4.5 监督学习的具体流程如下: 监督学习是基于已标注数据集训练模型的过程, 每一组训练样本都具有明确的分类结果或预期输出. 具体而言, 我们可以设计一个场景: 训练一个图像分类模型, 使其能够从包含气球相册的图片库中识别出气球元素. 这一过程包括以下几个关键步骤:

步骤1:数据集的构建与分类

步骤2:Data Augmentation(数据提升)
在原始数据收集与标注完成时, 通常情况下所获得的数据并不能充分涵盖目标在各种扰动下的信息. 因此, 在机器学习模型训练中, 提升数据质量至关重要. 对于图像数据而言, 常见的Data Augmentation措施包括但不限于图像旋转、平移、颜色变换、裁剪以及仿射变换等技术手段.

步骤3:Feature Engineering

步骤4:建立预测模型与损失函数
经过将原始数据映射至特征空间的操作后, 我们获得了较为合理的输入数据.
接下来的任务是搭建适合的预测模型以生成相应的输出结果.
为了确保预测结果与实际标签之间的一致性目标达成,
我们需要设计一个衡量两者差异的最佳化问题.
常见的选择包括交叉熵损失函数、均方误差等.
利用优化算法逐步更新参数的过程中,
模型能够从初始状态进化到具备一定预测能力的状态这一过程被统称为学习机制

步骤5: 训练 根据具体任务需求选择最适合的model类型, 并设定相应的hyperparameter值, 其中关键的hyperparameter包括支持向量机中的kernel类型以及误差项惩罚权重设置等. 在完成初始设置后, 将预处理后的特征数据集输入至训练model中, 通过采用有效的优化算法逐步调整model参数以减小预测输出与真实标签之间的差异, 当迭代次数达到预设阈值或满足特定收敛条件时, 可以获得经过充分训练并具备良好性能的最终model. 最常用的方法莫过于梯度下降法及其各种变体, 其适用的基础前提是假设目标函数在数学上是可微分的.

步骤6:模型验证与选择
完成对训练图像集的训练后
有必要对模型进行测试
利用验证集来进行验证
在这一过程中
通常会通过优化与模型相关的各种超参数来进行步骤2到3的重复操作
比如节点的数量是多少
层数是多少
选择何种激活函数以及损失函数的配置方式
如何在反向传播过程中有效地优化权重

经过对模型的精准建模后, 就能够将该模型集成到你的应用程序中. 你可以将预测功能发布为API服务, 并通过API服务实现功能调用来进行推理并返回相应的结果.

2.5
分类与回归算法分别代表了对现实世界不同建模的方法。在分类模型中,认为输出结果属于离散类别,并以生物界物种划分为例进行说明。而回归模型则假设输出结果呈现连续性特征。

在这里插入图片描述

判别式模型举例:判断一只动物是山羊还是绵羊时,采用判别式模型的方法是从历史数据中训练得到判别模型,在此基础上通过提取该动物的特征信息计算其为山羊肉的概率值是多少。

生成式模型举例:生成模型用于基于山羊特征训练出一个山羊分类器,在此基础上进一步基于绵羊特征训练出一个绵羊分类器。接着从该动物身上提取其属性特征,并将这些属性分别代入山羊和绵羊的分类器中进行评估。评估结果较高的那个分类器即为该动物所属的种类。

2.7 在比较逻辑回归与朴素贝叶斯时

(2)朴素贝叶斯属于贝叶斯,逻辑回归是最大似然,两种概率哲学间的区别。

(3)朴素贝叶斯需要条件独立假设。

(4)逻辑回归需要求特征参数间是线性的

对比而言,在其输出结果呈现连续数值在线性回归模型中,在逻辑回归模型中则仅取值为0或1

可以看出,在线性回归模型中使用f(x)来估计其响应变量y的变化规律;而在逻辑回归模型中,则用于估计正类样本的概率分布情况。

在这里插入图片描述

为了训练逻辑回归模型的参数, 必须引入一个代价函数. 通过训练过程中的代价函数来优化模型参数. 这一目标功能用于寻找最优解. 为何选择非负性质的目标功能呢? 因为目标功能具有下界, 在优化过程中若不断减小目标功能值, 根据单调有界定理可知该优化方法将具有收敛性. 这种特性使得即使存在多个候选目标功能, 我们也能够方便地选择满足条件者. 其中二次目标功能 J = \frac{1}{2n}\sum_x\Vert y(x)-aL(x)\Vert^2 常被采用

j代表代价函数,j,x,y,a,n分别对应着输入变量. 激活函数的梯度越大,意味着权值w和偏置b的变化速度更快,从而使得模型收敛的速度也会加快. 当采用sigmoid函数时, 在初始阶段较大的误差会使得训练变得更为缓慢.

二次损失更适合于输出神经元呈现线性行为的情况;而交叉熵损失则更适合用于输出神经元呈现S型曲线行为的情景。
在分类任务中,对数似然损失常被用作Softmax回归的基础。
深度学习实践中通常采用的方法是将Softmax作为最后的激活层选择。
无论是哪种情况,在应用Softmax时所使用的成本计算方式都是对数似然损失。
值得注意的是,在二分类应用中这种形式可以简化为交叉熵损失的形式。

2.10损失函数
损失函数(Loss Function)又叫做误差函数,用来衡量算法的运行情况,估量模型的预测值与真实值的不一致程度,是一个非负实值函数,通常使用 L(Y, f(x))​来表示。损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
0-1损失函数 如果预测值和目标值相等,值为0,如果不相等,值为1。

在这里插入图片描述

L1损失函数与0-1损失函数具有相似性。平方损失函数则定义为L(Y, f(x)) = \sum_{N}{(Y-f(x))^2}。在机器学习中,
对数损失通常用于分类任务中,
它基于样本服从伯努利分布(0-1分布)这一假设,
进而构建似然函数并求解最优解。
具体而言,
逻辑回归模型的经验风险最小化过程等价于最小化负对数似然,
其形式与二分类问题中的交叉熵损失完全一致。
此外,
AdaBoost算法正是以指数形式定义其核心优化目标。

2.11梯度下降
1)梯度下降是迭代法的一种,可以用于求解最小二乘问题。

(2)为了求取机器学习算法中的模型参数,在遇到无约束优化问题时主要采用梯度下降法(Gradient Descent)以及最小二乘法这两种方法。

(3)在优化损失函数最小值的过程中,可以借助梯度下降算法进行逐步迭代运算以获取最优解,在此过程中能够获得最优的损失函数以及模型参数值。

(4)我们希望最大化损失函数。通过使用梯度上升算法来进行迭代更新。这些优化方法之间存在转换关系。

(5)在机器学习中,梯度下降法主要有随机梯度下降法和批量梯度下降法。

在这里插入图片描述

梯度下降未必能寻觅到全局的最优解,它可能收敛至一个局部的最优解。然而,在损失函数为凸函数的情况下,则可确定无疑地获得全局最优解。

(1)初始化参数,随机选取取值范围内的任意数;

(2)迭代操作: a)求取当前梯度值; b)更新新的参数值; c)计算最快下降的方向并移动一次; d)检查是否需要停止迭代?若否,则进入循环重新执行a)。

(3)得到全局最优解或者接近全局最优解

优化梯度下降法参数设置:(1)算法迭代步长选择。 在算法初始阶段设置步长参数时,默认值通常可取范围建议从0.01到0.1,并非固定不变需结合数据特性调整。 为了探索最佳参数组合,在初始阶段可以尝试多个不同的步长值(如从较大值逐步减小),分别运行算法观察其收敛效果:若损失函数持续下降,则当前步长合适;若损失函数出现反弹,则说明当前步长过小需要增大;反之则可能需要增大步长以加快收敛速度但需注意避免导致模型过拟合的风险

(2)参数初始化策略的选择。不同的初始值可能导致最终求得的目标解有所不同;采用梯度下降法可能收敛至局部最小点;若目标损失函数具有凸性特征,则全局最优解即为全局最优解;为了避免陷入局部最优解的可能性,在实际应用中通常建议采用多种不同的初始参数配置进行算法迭代优化;最终确定使损失函数达到全局最小的目标参数组合即为理想解决方案

(3)数据标准化处理。 因为样本类型各异导致特征的取值范围存在差异从而影响了算法的收敛速度为此建议对原始数据进行标准化处理使得归一化后的均值为零标准差为一这样可以有效提升算法运行效率并降低计算复杂度

随机梯度下降法(SGD)和批量求解方法(BGD)是两种主要的梯度下降技术,在优化过程中旨在通过引入特定约束条件来加快运算速度

在这里插入图片描述
在这里插入图片描述

2.12 线性判别分析法(LDA)
线性判别分析法(Linear Discriminant Analysis, LDA)是一种经典的降维技术。与主成分分析(PCA)这种无监督降维技术不同,LDA则是一种基于监督学习的技术;而LDA则是一种基于监督学习的方法,在数据处理时会考虑每个数据样本所属的具体类别,并将其作为分类依据。

LDA分类思想简单总结如下:

在多元空间环境下进行数据分类时会面临较大的挑战性问题。LDA算法通过将高维度空间的数据投射至单一维度从而实现了对d维数据向1维进行转换处理的过程。对于训练样本集合我们希望实现一种能够有效区分不同类别又能在一定程度上减少误判的可能性即通过将多维度特征压缩至一维空间来进行特征提取与分析工作。在实际分类操作中我们通常会先对原始数据进行投射操作然后再根据投射后的结果来判断样本所属类别归属并最终完成分类任务的目标。若要用一句话简洁阐述LDA的核心思想那就是"投射后类内差异最小化同时类间差异最大化"

在这里插入图片描述
在这里插入图片描述

2.13机器学习中,Bias(偏差),Error(误差),和Variance(方差)存在以下区别和联系:

误差(error):通常指学习器预测输出与真实输出之间的差异。
Bias表征模型对训练数据的学习能力(此处"training dataset"可替换为"特定训练子集"如"mini-batch"),反映了模型输出与真实值之间的偏差程度。
Bias越小则表明模型具有更强的学习能力;但若过于追求低Bias可能导致过拟合。
Variance则度量了预测值的离散程度;其大小直接影响着模型的稳定性。
Variance越低则表明模型具有更好的泛化能力。
经验误差(empirical error)即训练误差(training error),反映模型在训练集上的表现。
泛化误差(generalization error)则是指模型在测试集等新样本上的表现。

2.14 过拟合欠拟合

在这里插入图片描述

模型欠拟合:在训练数据集和测试数据集上均表现出较高的预测误差;此时模型的偏差显著;

模型出现过拟合现象:在训练数据集上的误差相对较低,在测试数据集上的误差相对较高,在此情况下该模型的泛化能力较差

模型表现良好:在训练数据集和测试数据集上同时表现出低偏差和低方差。针对模型出现欠拟合的问题提出解决方案

  1. 综合整合关联性关联因素环境因素等元素是构建丰富完整特性体系的关键策略有时单一特性不足可能导致学习器出现欠拟合现象
  2. 增加多项式特徵以提升其概括能力如在基础线性架构中加入二阶或多阶交互作用项可增强学习器的非线性捕捉能力其中Factorization Machine FFM等方法正是通过引入二阶交互作用增强了学习器的适应能力从而实现了更好的平衡
  3. 有助于提高其预测精度
  4. 适当降低正则化强度通常用于防止过拟合但当前情形下出现欠拟合状态因此建议采取适当降低正则强度的方法以缓解当前问题

解决过拟合:

  1. 进行一次彻底的清理操作后发现, 数据存在不完整性问题可能会导致模型性能下降, 因此需要采取措施进行针对性优化。
  2. 通过收集更多的训练样本来提升模型的效果。
  3. 通过减少神经网络中不必要的参数来降低复杂度。
  4. 增加正则化项的权重系数以便更好地控制模型泛化能力。
  5. 使用Dropout技术,在训练过程中让部分神经元暂时退出从而防止过拟合现象的发生。
  6. 早停法是一种在训练过程中监控验证集表现并提前终止训练的方法以避免过度拟合。
  7. 通过限制迭代次数来控制模型训练的时间和资源消耗。
  8. 适当提高学习率能够加速模型收敛速度。
  9. 向训练集中添加人工噪声样本能够提升模型的鲁棒性。
  10. 在决策树模型中应用剪枝技术有助于控制模型复杂度和防止过拟合现象的发生。
  11. 去除不相关的特征变量能够简化模型结构并提高预测效果。

2.15 决策树
Decision trees are a method of divide and conquer. A complex prediction problem can be broken down into simpler subsets through the branching nodes of the tree. These subsets are then further divided into even more straightforward subproblems. The process of following specific rules to partition data is referred to as recursive partitioning (Recursive Partitioning). As the tree becomes deeper with each additional layer of branches, the size of these subsets diminishes while the number of questions that need to be asked also simplifies. When certain termination conditions are met—such as when the depth of a branch or the complexity of the problem has reached an optimal level—splitting ceases; this is known as applying a cutoff threshold (Cutoff Threshold) method. Another common approach is to employ pruning strategies (Pruning).
Feature selection: In selecting features from a dataset with numerous candidates, choosing the appropriate feature for each node represents a critical decision point. Different evaluation metrics lead to various decision tree algorithms being developed.

2、决策树生成:基于选定的标准进行特征选择,在模型构建过程中逐层向下构建分支;当数据集无法进一步区分时,则模型构建完成并停止分裂。从结构上看,层次分明的架构最直观易懂。

3、剪枝:决策树模型容易出现过拟合现象,在实际应用中应当采取适当的措施进行修剪(即减裁),从而减少树的规模并缓解过拟合问题。在具体实现上,常见的减裁方法主要包括预剪裁法与后窗式修剪两种主要方式。

决策树算法的优点:

1、决策树算法易理解,机理解释起来简单。

2、决策树算法可以用于小数据集。

3、决策树算法的时间复杂度较小,为用于训练决策树的数据点的对数。

4、与现有的其他算法相比,在处理单一类型变量方面决策树算法更具优势。该算法能够同时处理数字以及不同数据类型的分类问题。

5、能够处理多输出的问题。

6、对缺失值不敏感。

7、可以处理不相关特征数据。

该方法具有高效性优势,在构建过程中只需完成一次决策树搭建即可实现重复利用。每次预测时所需的最大计算次数受限于决策树的结构深度。

决策树算法的缺点:

1、对连续性的字段比较难预测。

2、容易出现过拟合。

3、当类别太多时,错误可能就会增加的比较快。

4、在处理特征关联性比较强的数据时表现得不是太好。

在决策树算法中,当处理不同类别的数据时,计算出的指标值(即信息增益)会倾向于指向那些具有更大取值范围的特征.

2.16 支持向量机
支撑向量:在求解过程中,能够仅依赖部分数据来构建分类器,这些关键的数据被称作支撑向量

支持向量机(Support Vector Machine, SVM):它主要基于支持向量计算来进行分类

在这里插入图片描述
在这里插入图片描述

引入核函数的目的在于将原坐标系中线性不可分的数据通过核函数Kernel映射到另一个空间中,并尽量使其在新的空间中变得线性可分。
其广泛的应用不仅与其独特的特性密不可分。

引入核函数的目的在于将原坐标系中线性不可分的数据通过核函数Kernel映射到另一个空间中,并尽量使其在新的空间中变得线性可分。
其广泛的应用不仅与其独特的特性密不可分。

引入核函数则可有效规避"维度灾难"这一问题,并显著降低了计算开销。然而,在支持向量机中构建相应的内积空间时会面临大量计算挑战的问题上, 其对内积空间的影响程度与输入空间的维度n无关. 因此, 核方法在处理具有高维度特性的数据时展现出显著优势

2)无需知道非线性变换函数Φ的形式和参数。

3)通过调整核函数的形式和参数的变化能够导致从输入空间到特征空间的映射关系发生变化从而影响特征空间中的映射关系这将直接影响各种核函数方法的表现

4)核函数相关的方法能够与多种不同的算法相融合,并衍生出一系列基于核函数技术的多样化方法。前一部分和后一部分的设计均可独立实施,并且可以根据不同应用的需求灵活配置相应的核函数与算法。

特点:

(1) SVM方法的理论基础是非线性映射,SVM利用内积核函数代替向高维空间的非线性映射。
(2) SVM的目标是对特征空间划分得到最优超平面,SVM方法核心是最大化分类边界。
(3) 支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。
(4) SVM是一种有坚实理论基础的新颖的适用小样本学习方法。它基本上不涉及概率测度及大数定律等,也简化了通常的分类和回归等问题。 (5) SVM的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。
(6) 少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒性”。这种鲁棒性主要体现在:​ ①增、删非支持向量样本对模型没有影响;
​ ②支持向量样本集具有一定的鲁棒性;
​ ③有些成功的应用中,SVM方法对核的选取不敏感
(7) SVM学习问题可以表示为凸优化问题,因此可以利用已知的有效算法发现目标函数的全局最小值。而其他分类方法(如基于规则的分类器和人工神经网络)都采用一种基于贪心学习的策略来搜索假设空间,这种方法一般只能获得局部最优解。
(8) SVM通过最大化决策边界的边缘来控制模型的能力。尽管如此,用户必须提供其他参数,如使用核函数类型和引入松弛变量等。 (9) SVM在小样本训练集上能够得到比其它算法好很多的结果。SVM优化目标是结构化风险最小,而不是经验风险最小,避免了过拟合问题,通过margin的概念,得到对数据分布的结构化描述,减低了对数据规模和数据分布的要求,有优秀的泛化能力。
(10) 它是一个凸优化问题,因此局部最优解一定是全局最优解的优点。

缺点
(1) 该算法在处理大规模数据时存在一定挑战
(2) 该方法在多分类问题上的应用受到限制
(3) 其性能对于缺失数据较为敏感,并受参数及核函数选择的影响较大

2.17贝叶斯分类器;最大似然估计的目标在于:基于观测到的结果推断出最可能的参数值;避免维数灾难;主成分分析法PCA和线性判别法LDA。

奇异值分解简化数据、拉普拉斯特征映射

Lassio缩减系数法、小波分析法、

2.18聚类方法
1.k-means是划分方法中较经典的聚类算法之一。由于该算法的效率高,所以在对大规模数据进行聚类时被广泛应用。目前,许多算法均围绕着该算法进行扩展和改进。 k-means算法以k为参数,把n个对象分成k个簇,使簇内具有较高的相似度,而簇间的相似度较低。k-means算法的处理过程如下:首先,随机地 选择k个对象,每个对象初始地代表了一个簇的平均值或中心;对剩余的每个对象,根据其与各簇中心的距离,将它赋给最近的簇;然后重新计算每个簇的平均值。 这个过程不断重复,直到准则函数收敛。
算法流程:​ 输入:包含n个对象的数据和簇的数目k;​ 输出:n个对象到k个簇,使平方误差准则最小。​ 步骤: (1) 任意选择k个对象作为初始的簇中心; (2) 根据簇中对象的平均值,将每个对象(重新)赋予最类似的簇; (3) 更新簇的平均值,即计算每个簇中对象的平均值; (4) 重复步骤(2)、(3)直到簇中心不再变化;
2.根据层次分解的顺序是自底向上的还是自上向下的,层次聚类算法分为凝聚的层次聚类算法和分裂的层次聚类算法。 凝聚型层次聚类的策略是先将每个对象作为一个簇,然后合并这些原子簇为越来越大的簇,直到所有对象都在一个簇中,或者某个终结条件被满足。绝大多数层次聚类属于凝聚型层次聚类,它们只是在簇间相似度的定义上有所不同。

算法流程:

注:以采用最小距离的凝聚层次聚类算法为例:

(1) 将每一个研究对象分别归为一类,并对任意两类之间进行最短距离的测量; (2) 当发现某两类间的最短距离达到最小值时,则将这两类合成为一类; (3) 在完成一次合并后,在新的类别基础上重新测量其与其他各类别的间距; (4) 重复上述步骤(2)、(3),直至所有的研究对象都被整合为一个整体类别。
SOM聚类算法:SOM网络由输入层和输出层构成。其中输入层对应接收高维数据的节点层结构,并通过权重向量连接到输出层中的有序节点集合。在学习过程中, 系统会识别出与当前输入数据最为接近的输出节点, 即所谓的获胜节点, 并对该获胜节点及其邻域内的节点进行权重更新, 以实现对数据分布的空间关系的有效保持。

算法流程:

(1) 初始化网络结构,并为输出层每个神经元设定初始权重值;
(2) 从训练数据中随机抽取样本向量进行归一化处理,并识别与之最接近的权值向量;
(3) 确定主导单元,在其邻域内微调权重参数使其更贴近目标向量;
(4) 引入新样本数据进行迭代优化过程;
(5) 缩小邻域范围并降低学习速率,并持续迭代直至满足收敛条件后输出聚类结果。

FCM算法是一种基于隶属度函数评估数据点归属度的软聚类方法。相较于传统的硬聚类方法而言,
该算法在划分数据类别时更加灵活和精确。

(1) 对原始数据进行归一化处理以消除量纲差异; (2) 构建基于模糊理论的相似度矩阵并设定初始条件下的隶属度分布; (3) 通过迭代计算逐步优化目标函数直至其达到最小值的状态; (4) 通过最终收敛后的隶属度分布来识别数据所属的不同类别,并输出聚类后的详细分析报告。

在这里插入图片描述

引用https://github.com/scutan90/DeepLearning-500-questions

全部评论 (0)

还没有任何评论哟~