Advertisement

支持向量机(SVM)在心脏超声图像分类中的应用与实现

阅读量:

支持向量机(SVM)在心脏超声图像分类中的应用与实现

在这里插入图片描述

该技术用于评估心脏功能并检测各种心脏病(包括心瓣膜异常、心肌病以及结构畸形等)。由于其在小样本和高维数据环境下的卓越性能,在心脏超声图像分类任务中表现尤为突出。本文将对SVM在医学影像领域中的应用进行详细分析,并以公开数据库如CAMUS或EchoNet-Dynamic为例探讨其实现细节。系统阐述了从数据预处理到模型训练的全过程,并结合流程图展示了关键步骤。该研究方向完全符合医学影像分析的当前需求。


[文中代码示例仅供参考]

一、心脏超声图像分类任务概述

1.1 数据集描述

以下是两个典型的心脏超声数据集,可用于SVM分类任务:

  • CAMUS(Cardiac Acquisitions for Multi-Structure Ultrasound Segmentation)

  • 内容:包含了来自500名患者的二维心脏超声图像,并涵盖双腔与四腔超声切片,在各个切片上清晰标注了左心室、左心房及心肌区域。

  • 任务:分为二类(正常与异常两类情况)或分为三类(包括正常的状况以及轻度与重度的心肌病情况)。

  • 数据特点:动态超声序列作为视频形式呈现,并完整记录了心脏在收缩期与舒张期的不同阶段的状态。

  • EchoNet-Dynamic

  • 其具体内容包括:包含10,194例心脏超声视频样本,并对左心室射出量(EF)以及心脏结构特征进行了精准标注。

  • 在模型训练目标上,则聚焦于完成两类判别任务(正常与低正常EF分型分析),以及开展基于深度学习的定量预测分析(后续可演变为分型判别方法)。

  • 数据特性方面则体现为:该数据集具有海量级别的规模,在动态捕捉的超声视频序列基础上实现了高质量的标注管理;其特点是注释细致入微但罕见出现异常样本情况。

1.2 任务类型

  • 二分法:通过辨别正常心脏与不正常心脏结构(例如左心室功能障碍型)来实现分类。
    • 多分法:通过辨别正常类别、轻微异常类别(例如轻度心肌肥厚)以及严重异常类别(例如严重瓣膜反流)来实现分类。
    • 回归转化法:基于射血分数设定阈值来进行回归转分类处理(例如将射血分数低于50%归类为异常)。

1.3 数据特点与挑战

动态特性和时空特性:基于时间序列的数据处理方法用于分析心脏超声图像的空间变化规律。
成像质量:超声图像的质量受于成像角度、设备性能以及环境因素的影响。
类别分布失衡:在医学图像分类任务中,由于心肌病等病理类型实例数量远少于健康病例实例数量而导致的类别分布失衡问题。
运动特性与解剖结构的多维度表征:为了全面表征心脏功能状态,在分析阶段需要同时提取运动特性与解剖结构的多维度表征信息。
耗时且专业性强:由于该任务涉及专业医生对图像进行精确标注的过程,在保证标注质量的同时往往面临数据量有限的问题。


二、SVM在心脏超声图像分类的实现流程

以下是完整的实现流程:该方法通过以下步骤进行操作:首先获取并进行超声图像数据的获取与预处理工作;随后采用SVM技术完成特征提取过程;接着通过训练阶段构建模型结构;最后完成参数优化以提升模型性能;随后利用测试集对模型性能进行评估分析;最后对比分析结果与预期目标的一致性程度。

2.1 数据预处理

心脏超声图像需要以下预处理步骤:

降噪处理:本研究采用中值滤波算法或非局部均值滤波方法对图像进行斑点噪声去除处理。
标准化处理:首先统一所有图像的空间尺寸为224x224像素,并将灰度值归一化至[0, 1]范围以消除光照差异的影响。
数据增强技术:通过旋转、镜像翻转以及按比例缩放等操作显著提升了训练数据集的多样性。
心脏区域分割:基于U-Net架构模型实现心腔结构(如左心室腔)的空间定位与分割,并可选结合手动标注掩膜进一步提高分割精度。
关键帧提取策略:从动态医学影像序列中自动识别并提取收缩期与舒张期的关键帧以优化后续分析流程。

代码示例 (预处理):

复制代码
    import cv2
    import numpy as np
    from skimage.transform import resize
    from albumentations import Compose, Rotate, HorizontalFlip
    
    def preprocess_echocardiogram(image, target_size=(224, 224)):
    # 转换为灰度图
    gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    # 非局部均值去噪
    denoised = cv2.fastNlMeansDenoising(gray, h=10)
    # 归一化
    normalized = denoised / 255.0
    # 调整大小
    resized = resize(normalized, target_size, anti_aliasing=True)
    return resized
    
    # 数据增强
    augmentation = Compose([
    Rotate(limit=10, p=0.5),
    HorizontalFlip(p=0.5),
    ])
    
    def augment_image(image):
    augmented = augmentation(image=image)['image']
    return augmented
    
    # 加载和预处理(假设从视频中提取关键帧)
    def load_key_frames(video_path):
    cap = cv2.VideoCapture(video_path)
    frames = []
    while cap.isOpened():
        ret, frame = cap.read()
        if not ret:
            break
        frames.append(preprocess_echocardiogram(frame))
    cap.release()
    # 选择收缩末期和舒张末期帧(示例:取第10和20帧)
    return [frames[10], frames[20]] if len(frames) > 20 else frames
    
    # 假设video_paths为视频路径列表
    video_paths = [...]  # 心脏超声视频路径
    images = [frame for path in video_paths for frame in load_key_frames(path)]
    augmented_images = [augment_image(img) for img in images]
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/WQ1oXSRH58AKLrlFkhOmdj39aDc2.png)

2.2 特征提取

心脏超声图像的特征提取需要捕捉纹理、形状和运动信息:

  • 传统形态特征:

  • LBP(局部二值模式)通过捕捉心脏组织的纹理模式实现心脏图像分析。

  • GLCM(灰度共生矩阵)能够提取出组织间的对比度和相关性等纹理信息。

  • 几何形态参数包括心腔区域面积、心肌体积以及壁厚度等。

  • 运动形态参数则通过分析视频序列中的运动向量(如光流矢量)来表征。

    • 深度特征 :使用预训练3D-CNN(如I3D)或2D-CNN(如ResNet50)提取动态特征。

代码示例 (提取LBP、GLCM和几何特征):

复制代码
    from skimage.feature import local_binary_pattern, graycomatrix, graycoprops
    import numpy as np
    
    # 提取LBP特征
    def extract_lbp_features(image):
    lbp = local_binary_pattern(image, P=8, R=1, method='uniform')
    hist, _ = np.histogram(lbp.ravel(), bins=np.arange(0, 10), density=True)
    return hist
    
    # 提取GLCM特征
    def extract_glcm_features(image):
    glcm = graycomatrix((image * 255).astype(np.uint8), distances=[1], angles=[0, np.pi/4, np.pi/2], levels=256)
    features = [graycoprops(glcm, prop).ravel() for prop in ['contrast', 'dissimilarity', 'energy']]
    return np.hstack(features)
    
    # 提取几何特征(假设已分割左心室)
    def extract_geometric_features(image, lv_mask):
    contours, _ = cv2.findContours(lv_mask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    if contours:
        contour = max(contours, key=cv2.contourArea)
        area = cv2.contourArea(contour)
        perimeter = cv2.arcLength(contour, True)
        return np.array([area, perimeter])
    return np.array([0, 0])
    
    # 综合特征提取
    def extract_features(image, lv_mask):
    lbp = extract_lbp_features(image)
    glcm = extract_glcm_features(image)
    geom = extract_geometric_features(image, lv_mask)
    return np.hstack([lbp, glcm, geom])
    
    # 假设lv_masks为左心室分割掩膜
    features = [extract_features(img, mask) for img, mask in zip(images, lv_masks)]
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/EmTqBAtl68D2cNvMzrfsVoW79ink.png)

深度特征提取 (可选):

复制代码
    from tensorflow.keras.applications import ResNet50
    from tensorflow.keras.preprocessing import image
    from tensorflow.keras.applications.resnet50 import preprocess_input
    
    def extract_cnn_features(img):
    img = cv2.resize(img, (224, 224))
    x = image.img_to_array(img)
    x = np.repeat(x[..., np.newaxis], 3, axis=-1)  # 灰度转RGB
    x = np.expand_dims(x, axis=0)
    x = preprocess_input(x)
    model = ResNet50(weights='imagenet', include_top=False)
    features = model.predict(x)
    return features.flatten()
    
    cnn_features = [extract_cnn_features(img) for img in images]
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/5BGIHgZuq3XcT2bpQ9dNzvPLO07t.png)

2.3 SVM模型训练

基于sklearn库进行SVM分类任务,并采用径向基函数(RBF)核以及通过网格搜索进行参数调优来解决数据分布不均衡的问题。

代码示例 (SVM训练与评估):

复制代码
    from sklearn.svm import SVC
    from sklearn.model_selection import train_test_split, GridSearchCV
    from sklearn.preprocessing import StandardScaler
    from sklearn.metrics import classification_report, confusion_matrix
    from imblearn.over_sampling import SMOTE
    import numpy as np
    
    # 特征标准化
    scaler = StandardScaler()
    features_scaled = scaler.fit_transform(features)  # 或使用cnn_features
    labels = np.array(labels)  # 0: 正常, 1: 异常
    
    # 数据不平衡处理
    smote = SMOTE(random_state=42)
    features_resampled, labels_resampled = smote.fit_resample(features_scaled, labels)
    
    # 划分训练集和测试集
    X_train, X_test, y_train, y_test = train_test_split(
    features_resampled, labels_resampled, test_size=0.2, random_state=42
    )
    
    # SVM模型训练
    svm = SVC(kernel='rbf', probability=True)
    param_grid = {
    'C': [0.1, 1, 10, 100],
    'gamma': ['scale', 'auto', 0.001, 0.01, 0.1]
    }
    grid_search = GridSearchCV(svm, param_grid, cv=5, scoring='f1')
    grid_search.fit(X_train, y_train)
    
    # 输出结果
    print("最佳参数:", grid_search.best_params_)
    print("最佳F1分数:", grid_search.best_score_)
    
    # 评估模型
    best_model = grid_search.best_estimator_
    y_pred = best_model.predict(X_test)
    print("测试集分类报告:\n", classification_report(y_test, y_pred))
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/8JROfNWP1azZwSiVQoc57djKvHME.png)

2.4 可视化

  • 混淆矩阵 :刻画模型的分类能力。
    • 决策边界 :利用降维技术(如PCA)呈现特征空间中的决策面。

代码示例 (混淆矩阵与决策边界):

复制代码
    import matplotlib.pyplot as plt
    from sklearn.decomposition import PCA
    
    # 混淆矩阵
    cm = confusion_matrix(y_test, y_pred)
    plt.figure(figsize=(6, 6))
    plt.imshow(cm, interpolation='nearest', cmap='Blues')
    plt.title('Confusion Matrix for Echocardiogram Classification')
    plt.colorbar()
    plt.xticks([0, 1], ['Normal', 'Abnormal'])
    plt.yticks([0, 1], ['Normal', 'Abnormal'])
    plt.xlabel('Predicted Label')
    plt.ylabel('True Label')
    for i in range(2):
    for j in range(2):
        plt.text(j, i, cm[i, j], ha='center', va='center')
    plt.show()
    
    # 决策边界(降维到2D)
    pca = PCA(n_components=2)
    X_2d = pca.fit_transform(features_scaled)
    svm_2d = SVC(kernel='rbf', C=grid_search.best_params_['C'], 
             gamma=grid_search.best_params_['gamma'])
    svm_2d.fit(X_2d, labels)
    
    # 创建网格
    x_min, x_max = X_2d[:, 0].min() - 1, X_2d[:, 0].max() + 1
    y_min, y_max = X_2d[:, 1].min() - 1, X_2d[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02), np.arange(y_min, y_max, 0.02))
    
    # 计算决策函数
    Z = svm_2d.decision_function(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)
    
    # 绘制决策边界
    plt.contourf(xx, yy, Z, levels=[-1, 0, 1], alpha=0.4, colors=['#FF9999', '#99FF99'])
    plt.scatter(X_2d[:, 0], X_2d[:, 1], c=labels, cmap='coolwarm', edgecolors='k')
    plt.title('SVM Decision Boundary in 2D Feature Space')
    plt.xlabel('PCA Component 1')
    plt.ylabel('PCA Component 2')
    plt.show()
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/UY5kD2zSiHZ7EpwmBVtunWKG9gPy.png)

混淆矩阵图表

复制代码
    {
      "type": "matrix",
      "data": {
    "labels": ["Normal", "Abnormal"],
    "datasets": [{
      "data": [
        [90, 8],  // TP, FP
        [4, 18]   // FN, TN
      ],
      "backgroundColor": [
        "#99FF99",
        "#FF9999",
        "#FF9999",
        "#99FF99"
      ]
    }]
      },
      "options": {
    "title": {
      "display": true,
      "text": "Confusion Matrix for Echocardiogram Classification"
    },
    "scaleShowValues": true,
    "scales": {
      "xAxes": [{
        "scaleLabel": {
          "display": true,
          "labelString": "Predicted Label"
        }
      }],
      "yAxes": [{
        "scaleLabel": {
          "display": true,
          "labelString": "True Label"
        }
      }]
    }
      }
    }
    
    
    chartjs
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/Z87At4SjiPLbC9zX0YeqEFGnUcNw.png)

三、优化技巧

3.1 处理数据不平衡

  • 类权重调整
复制代码
    svm = SVC(kernel='rbf', class_weight={0: 1, 1: 5})  # 异常类权重更高

    
    
    python
  • SMOTE过采样技术:根据提供的代码实现,在数据预处理阶段应用该方法以平衡类别分布。
    • 基于代价敏感的学习策略:通过调节(C参数值),提升对异常类样本的分类权重设置。

3.2 参数调优

  • C(惩罚系数):用于调节模型复杂度并允许一定范围内的误差容忍度,在此范围内进行参数优化并推荐尝试值为 [0.1,\ 1,\ 10,\ 100] 的情况。
  • γ(RBF 核参数):影响核函数的平滑程度,在此基础上提供多个候选值供选择的可能性包括 'scale', 'auto', [0.001,\ 0.01,\ 0.1] 等选项。
  • 交叉验证策略:采用五折或十折交叉验证方法以保证模型具有良好的泛化性能。

3.3 特征选择与降维

  • 特征选择 :使用L1正则化的LinearSVC筛选关键特征。
复制代码
    from sklearn.svm import LinearSVC

    from sklearn.feature_selection import SelectFromModel
    
    lsvc = LinearSVC(C=0.01, penalty="l1", dual=False).fit(features_scaled, labels)
    selector = SelectFromModel(lsvc, prefit=True)
    features_selected = selector.transform(features_scaled)
    
    
    python
  • 降维 :PCA或t-SNE降低特征维度,减少计算开销。

3.4 结合深度学习

使用预训练3D-CNN(如I3D)提取动态特征,提升复杂任务性能:

复制代码
    from tensorflow.keras.applications import ResNet50
    from tensorflow.keras.preprocessing import image
    from tensorflow.keras.applications.resnet50 import preprocess_input
    
    def extract_cnn_features(video_frames):
    model = ResNet50(weights='imagenet', include_top=False)
    features = []
    for frame in video_frames:
        frame = cv2.resize(frame, (224, 224))
        x = image.img_to_array(frame)
        x = np.repeat(x[..., np.newaxis], 3, axis=-1)
        x = np.expand_dims(x, axis=0)
        x = preprocess_input(x)
        feat = model.predict(x)
        features.append(feat.flatten())
    return np.mean(features, axis=0)  # 平均池化
    
    cnn_features = [extract_cnn_features(frames) for frames in video_frames]
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/D8WJB7zNYsucOK1G2IQCUdMw6eZq.png)

3.5 动态特征提取

  • 光流特征 :提取心脏运动信息,捕捉收缩和舒张模式。
复制代码
    import cv2

    
    def extract_optical_flow(frame1, frame2):
    flow = cv2.calcOpticalFlowFarneback(frame1, frame2, None, 0.5, 3, 15, 3, 5, 1.2, 0)
    mag, ang = cv2.cartToPolar(flow[..., 0], flow[..., 1])
    return np.histogram(mag.ravel(), bins=20, density=True)[0]
    
    flow_features = [extract_optical_flow(frames[i], frames[i+1]) for frames in video_frames for i in range(len(frames)-1)]
    
    
    python

四、流程图

以下是SVM在心脏超声图像分类的完整流程:

原始心脏超声视频

预处理: 去噪/标准化/关键帧提取

ROI分割: 左心室/心肌

特征提取: LBP/GLCM/几何/光流

特征标准化

SMOTE过采样

SVM模型训练

网格搜索优化C, γ

模型评估: F1/混淆矩阵

决策边界可视化

预测新视频


五、实际案例:CAMUS数据集(左心室功能异常检测)

5.1 数据集描述

  • CAMUS数据集 包含来自500名患者的二维心脏超声图像,并将患者的心脏功能状态分为正常与异常两类。
    • 任务 是对患者的心脏功能状态进行区分。
    • 数据规模 设定共包含1,000个视频序列作为样本,并设定其中约15%为异常样本。

5.2 完整代码实现

复制代码
    import cv2
    import numpy as np
    from skimage.feature import local_binary_pattern, graycomatrix, graycoprops
    from skimage.transform import resize
    from sklearn.svm import SVC
    from sklearn.model_selection import train_test_split, GridSearchCV
    from sklearn.preprocessing import StandardScaler
    from sklearn.metrics import classification_report, confusion_matrix
    from imblearn.over_sampling import SMOTE
    import matplotlib.pyplot as plt
    
    # 1. 预处理函数
    def preprocess_echocardiogram(image, target_size=(224, 224)):
    gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    denoised = cv2.fastNlMeansDenoising(gray, h=10)
    normalized = denoised / 255.0
    resized = resize(normalized, target_size, anti_aliasing=True)
    return resized
    
    def load_key_frames(video_path):
    cap = cv2.VideoCapture(video_path)
    frames = []
    while cap.isOpened():
        ret, frame = cap.read()
        if not ret:
            break
        frames.append(preprocess_echocardiogram(frame))
    cap.release()
    return [frames[10], frames[20]] if len(frames) > 20 else frames
    
    # 2. 特征提取
    def extract_lbp_features(image):
    lbp = local_binary_pattern(image, P=8, R=1, method='uniform')
    hist, _ = np.histogram(lbp.ravel(), bins=np.arange(0, 10), density=True)
    return hist
    
    def extract_glcm_features(image):
    glcm = graycomatrix((image * 255).astype(np.uint8), distances=[1], angles=[0, np.pi/4, np.pi/2], levels=256)
    features = [graycoprops(glcm, prop).ravel() for prop in ['contrast', 'dissimilarity', 'energy']]
    return np.hstack(features)
    
    def extract_geometric_features(image, lv_mask):
    contours, _ = cv2.findContours(lv_mask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    if contours:
        contour = max(contours, key=cv2.contourArea)
        area = cv2.contourArea(contour)
        perimeter = cv2.arcLength(contour, True)
        return np.array([area, perimeter])
    return np.array([0, 0])
    
    def extract_features(video_frames, lv_mask):
    features = []
    for frame in video_frames:
        lbp = extract_lbp_features(frame)
        glcm = extract_glcm_features(frame)
        geom = extract_geometric_features(frame, lv_mask)
        features.append(np.hstack([lbp, glcm, geom]))
    return np.mean(features, axis=0)  # 平均池化
    
    # 3. 加载数据
    video_paths = [...]  # 视频路径
    lv_masks = [...]     # 左心室掩膜
    labels = [...]       # 0: 正常, 1: 异常
    video_frames = [load_key_frames(path) for path in video_paths]
    features = [extract_features(frames, mask) for frames, mask in zip(video_frames, lv_masks)]
    
    # 4. 特征标准化与不平衡处理
    scaler = StandardScaler()
    features_scaled = scaler.fit_transform(features)
    smote = SMOTE(random_state=42)
    features_resampled, labels_resampled = smote.fit_resample(features_scaled, labels)
    
    # 5. 划分数据集
    X_train, X_test, y_train, y_test = train_test_split(
    features_resampled, labels_resampled, test_size=0.2, random_state=42
    )
    
    # 6. SVM训练
    svm = SVC(kernel='rbf', probability=True)
    param_grid = {'C': [0.1, 1, 10], 'gamma': ['scale', 0.01, 0.1]}
    grid_search = GridSearchCV(svm, param_grid, cv=5, scoring='f1')
    grid_search.fit(X_train, y_train)
    
    # 7. 评估
    print("最佳参数:", grid_search.best_params_)
    print("最佳F1分数:", grid_search.best_score_)
    y_pred = grid_search.best_estimator_.predict(X_test)
    print("测试集分类报告:\n", classification_report(y_test, y_pred))
    
    # 8. 混淆矩阵
    cm = confusion_matrix(y_test, y_pred)
    plt.figure(figsize=(6, 6))
    plt.imshow(cm, interpolation='nearest', cmap='Blues')
    plt.title('Confusion Matrix for CAMUS Classification')
    plt.colorbar()
    plt.xticks([0, 1], ['Normal', 'Abnormal'])
    plt.yticks([0, 1], ['Normal', 'Abnormal'])
    plt.xlabel('Predicted Label')
    plt.ylabel('True Label')
    for i in range(2):
    for j in range(2):
        plt.text(j, i, cm[i, j], ha='center', va='center')
    plt.show()
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/GJOPZtvNg7fDHmXIiVExRrhKe81q.png)

六、前沿进展与工业应用

6.1 前沿进展

  • 3D-CNN整合:通过整合基于三维卷积神经网络(如I3D和SlowFast)提取动态特征,并采用SVM进行分类。
    • 多模态融合:将心脏超声图像与ECG信号或血液生物标志物相结合,并通过优化算法提升分类准确率。
    • 在线学习策略中的SVC模型:采用在线学习策略中的SVC模型(如sklearn.svm.SVC)进行参数更新。
    • 自动生成左心室分割的方法设计:利用深度学习技术中的U-Net架构设计了一种自动生成左心室分割的方法。

6.2 工业应用

  • 临床辅助诊断功能:该系统能够协助医生完成心肌病和瓣膜病变的诊断工作。
    • 实时数据分析:将SVM模型集成至超声设备中以实现对心电图数据的即时解析。
    • 远程医疗平台:通过云端平台进行数据处理和分析以优化资源分配效率。

6.3 法规与伦理

  • 法规合规:模型需严格遵守医疗器械认证标准(如FDA、NMPA),以确保其具有极低的假阴性率。
    • 可解释性:通过提供可靠的异常检测依据来增强医生对系统信任度。
    • 数据隐私:该系统将严格遵循GDPR及HIPAA等法规进行数据保护。

七、总结与最佳实践

SVM在心脏超声图像分类中具有以下优势:

  • 适应性分析:该系统特别适用于适用于适用于适用于适用于适用于适用于适用于适用于适用于适用
    • 动态特性建模:通过融合光流场或三维卷积神经网络(3D-CNN)特征捕获心脏运动学行为。
    • 鲁棒性能:借助径向基函数(RBF)核方法和正则化技术有效应对噪声干扰和复杂特征提取挑战。

最佳实践建议

  1. 特征选择 :优先使用LBP、GLCM和几何特征,复杂任务可结合3D-CNN特征。
  2. 数据不平衡 :结合SMOTE和类权重调整,降低假阴性率。
  3. 参数优化 :网格搜索 CC 和γ\gamma,使用5折交叉验证。
  4. 动态特征 :提取光流或视频序列特征,增强模型对心脏运动的感知。
  5. 可视化 :混淆矩阵和决策边界帮助评估模型效果。

全部评论 (0)

还没有任何评论哟~