【机器学习】无监督学习算法之:高斯混合模型
高斯混合模型
-
1、引言
-
2、高斯混合模型
-
-
2.1 定义
-
2.2 原理
-
2.3 实现方式
-
2.4 算法公式
-
- 2.4.1 概率密度函数
- 2.4.2 EM算法之E步骤
- 2.4.2 EM算法之M步骤
-
2.5 代码示例
-
-
3、总结
1、引言
小屌丝 :鱼哥,给俺讲一讲什么是高斯啊
小鱼 :高斯?

小屌丝 :不是这个高斯
小鱼 :不是这个高斯,那你等下,应该是这个。

小屌丝 :… 也不是这个啊~
小鱼 :这个还不是,那你再等下
小屌丝 :好的好的。
小鱼 :这次应该是对的。

小屌丝 :… 啊啊啊~~ 不对啊, 鱼哥,你…
小鱼 :咋了, 都三个形态了,还不对,那还有3个形态,你稍等。
小屌丝 : 我说的不是高斯奥特曼,
小鱼 :不是高斯奥特曼,那是赛罗奥特曼?欧布奥特曼?
小屌丝 :… 也不是的啊
小鱼 :难道你是说?
小屌丝 :嗯嗯嗯。
小鱼 : 不会真的是 贝利亚奥特曼…
小屌丝 : 啊啊啊~ ~ 鱼哥, 我说的不是奥特曼,是高斯混合模型 。
小鱼 :哦哦哦~ ~ 谁让你不把名称说全了, 这整的…
小屌丝 :鱼哥,赶紧的,讲一讲 高斯混合模型。
小鱼 :这… 等我把这集奥特曼看完。
小屌丝 :完美世界不香吗?印神王座不香吗? 还
小鱼 :香… 这个真香…
小屌丝 :那赶紧讲完,咱边泡澡边看动画片。
小鱼 :这个更香。

2、高斯混合模型
2.1 定义
高斯混合模型是一种概率模型,它假设所有的数据点都是由有限个高斯分布(也称为正态分布)生成的。
每个高斯分布代表数据中的一个子集或“簇”,而整个数据集则是这些高斯分布的混合。
2.2 原理
高斯混合模型的核心思想是,通过估计每个高斯分布的参数(均值、协方差和权重),以及它们在混合模型中的比例,来拟合数据的概率分布。
这通常通过期望最大化(Expectation-Maximization, EM)算法来实现,该算法是一种迭代方法,用于在概率模型中寻找参数的最大似然估计。
2.3 实现方式
实现高斯混合模型通常包括以下步骤:
- 初始化 :为每个高斯分布随机选择均值、协方差和权重。
- E步骤(期望步骤) :根据当前参数估计,计算每个数据点属于每个高斯分布的概率。
- M步骤(最大化步骤) :使用E步骤中计算的概率,重新估计每个高斯分布的参数。
- 迭代 :重复E步骤和M步骤,直到参数收敛或达到预设的迭代次数。
2.4 算法公式
2.4.1 概率密度函数
高斯混合模型的概率密度函数可以表示为:
[ p(x) = \sum_{k=1}^{K} \pi_k \mathcal{N}(x|\mu_k, \Sigma_k) ]
其中,(K) 是高斯分布的个数,(\pi_k) 是第 (k) 个高斯分布的权重(满足 (\sum_{k=1}^{K} \pi_k = 1)),(\mu_k) 和 (\Sigma_k) 分别是第 (k) 个高斯分布的均值和协方差,(\mathcal{N}(x|\mu_k, \Sigma_k)) 是高斯分布的概率密度函数。
2.4.2 EM算法之E步骤
在EM算法的E步骤中,需要计算每个数据点属于每个高斯分布的后验概率:
[ \gamma(z_{nk}) = \frac{\pi_k \mathcal{N}(x_n|\mu_k, \Sigma_k)}{\sum_{j=1}^{K} \pi_j \mathcal{N}(x_n|\mu_j, \Sigma_j)} ]
其中,(z_{nk}) 是一个二元变量,表示数据点(x_n)是否属于第 (k) 个高斯分布。
2.4.2 EM算法之M步骤
在M步骤中,根据后验概率重新估计参数:
[ \pi_k = \frac{N_k}{N}, \quad \mu_k = \frac{1}{N_k} \sum_{n=1}^{N} \gamma(z_{nk})x_n, \quad \Sigma_k = \frac{1}{N_k} \sum_{n=1}^{N} \gamma(z_{nk})(x_n - \mu_k)^T(x_n - \mu_k) ]
其中,(N_k)是属于第 (k) 个高斯分布的数据点的数量。
2.5 代码示例
# -*- coding:utf-8 -*-
# @Time : 2024-03-10
# @Author : Carl_DJ
'''
实现功能:
scikit-learn库实现高斯混合模型
'''
from sklearn.mixture import GaussianMixture
import numpy as np
# 生成一些随机数据
np.random.seed(0)
n_samples = 300
X, y = make_blobs(n_samples=n_samples, centers=4, cluster_std=0.60, random_state=0)
# 使用高斯混合模型进行拟合
gmm = GaussianMixture(n_components=4).fit(X)
# 预测数据点的标签
labels = gmm.predict(X)
# 显示结果
plt.scatter(X[:, 0], X[:, 1], c=labels, s=40, cmap='viridis')
plt.show()
代码解读
解析 :
生成随机数据 :
* 使用numpy库生成了一个包含300个样本的随机数据集X,这些样本是二维的,并且根据四个中心点(centers=4)进行聚类,每个簇的标准差为0.6。
* y是这些样本的真实标签,但在后续的高斯混合模型使用中并未直接使用到这些标签,因为GMM是一种无监督学习算法。
高斯混合模型拟合 :
* 使用sklearn.mixture中的GaussianMixture类创建了一个高斯混合模型对象gmm,并指定模型中有四个高斯成分(n_components=4),对应于数据中的四个簇。
* 使用fit方法对数据集X进行拟合,估计每个高斯成分的均值、协方差和权重。
预测数据点标签 :
* 使用predict方法对数据集X中的每个数据点进行标签预测。这里,“标签”是指每个数据点最可能属于的高斯成分的索引。在聚类上下文中,这些标签可以被视为数据点的簇分配。
可视化结果 :
* 使用matplotlib的scatter函数,根据预测得到的标签labels,将数据点绘制在二维平面上,并使用颜色映射cmap='viridis’区分不同的簇。
* plt.show()用于显示绘制的散点图。

3、总结
看到这里,今天的内容就分享到告一段落了。
我们在回顾一下告诉混合模型:
高斯混合模型是一种强大的无监督学习算法,它能够发现数据中的复杂结构,并将数据划分为多个高斯分布的混合。通过EM算法迭代地估计每个高斯分布的参数,GMM能够有效地拟合数据的概率分布,并用于聚类、密度估计等任务。在实际应用中,GMM可以根据具体需求进行扩展
我是小鱼:
- ** 博客专家** ;
- 阿里云 专家博主 ;
- 51CTO博客专家 ;
- 多个名企认证讲师等 ;
- 认证金牌面试官 ;
- 名企签约职场面试培训、职场规划师 ;
- 多个国内主流技术社区的认证专家博主 ;
- 多款主流产品(阿里云等)测评一、二等奖获得者 ;
关注小鱼 ,学习机器学习领域的知识。
