Advertisement

机器学习期末复习题题库-单项选择题

阅读量:

属于监督学习 的机器学习算法是:贝叶斯分类器

2.属于无监督学习 的机器学习算法是:层次聚类

3.二项式 分布的共轭分布是:Beta分布

4.多项式 分布的共轭分布是:Dirichlet分布

5.朴素贝叶斯分类器的特点是:假设样本各维属性独立

6.下列方法没有考虑先验分布的是:最大似然估计

对于遵循正态分布的概率密度模型中采用贝叶斯判别器时若各组样本的协方差矩阵相同则其决策面将是线性的

8.下列属于线性分类方法的是:感知机

9.下列方法不受数据归一化影响的是:决策树

10.下列分类方法中不会用到梯度下降法的是:最小距离分类器

11.下列方法使用最大似然估计的是:Logistic回归

在线性鉴别分析中,最能准确描述的概念是确定一个投影方向,并使其达到最小化类内距离的同时最大化类间距离。

13.SVM的原理的简单描述,可概括为:最大间隔分类

该方法(SVM)的表现由以下几个方面决定:包括但不限于(采用的不同核函数、相关的参数配置以及调节的惩罚系数C)。

15.支持向量机的对偶问题是:凸二次优化

下面问题中对支持向量机中的支持向量描述正确的是:属于‘最大间距超平面’上的样本

假定采用二阶线性核支持向量机(SVM)模型并应用于实际数据集后,其训练集与测试集上的准确率达到100%。通过增加模型复杂度(即提高核函数阶数),会遇到哪种情况?过拟合

18.可避免复杂的非线性转换过程,并通过使用线性手段来实现这一目的的方法是:核函数方法

19.关于决策树节点划分指标描述正确的是:信息增益越大越好

20.以下描述中,属于决策树策略的是:最大信息增益

21.集成学习中基分类器的选择如何,学习效率通常越好:分类器多样,差异大

22.集成学习中,每个基分类器的正确率的最低要求:50%以上

以下属于Bagging方法特点的是,在构建训练集的过程中采用Bootstraping手段

下面属于Bagging方法的典型特性之一是:基于Bootstrap采样的机制生成训练集

25.随机森林方法属于:Bagging方法

假定存在一个数据集S**(\mathbf{S})但由于该数据集存在大量误差(\mathbf{error})采用带软间隔的SVM进行训练(\mathbf{train} soft margin SVM)其软间隔参数设为C值(\mathbf{C})当C值较小时则以下哪种说法是正确的(\mathbf{which} of the following statements is correct)它会导致一定程度的误分类发生(\mathbf{misclassification})**

当软间隔SVM的惩罚参数趋向于无穷大时,在以下哪一选项中能找到正确的分类结论?即使最佳分类超平面不存在,则所有样本点都将被正确划分

28.一般,K-NN最近邻方法在什么情况下效果好:样本较少但典型性较好

29.回归问题和分类问题的区别:前者预测函数值为连续值,后者为离散值

与最小二乘回归等价的回归方法为:基于线性均值模型和服从正态分布误差的最大似然估计法。

31.正则化的回归分析,可以避免:过拟合

该问题涉及超市顾客购买行为的数据挖掘方法,在通过对顾客购买数据的分析发现特定商品间的关联性这一现象时所涉及的技术或方法被称为:关联分析

33.KL散度是根据什么构造的可分性判据:类概率密度

34.密度聚类方法充分考虑了样本间的什么关系:密度可达

35.混合高斯聚类中,运用了以下哪种过程:EM算法

36.主成分分析是一种什么方法:降维方法

PCA在做降维处理时,在标准化的数据样本中找到具有最大显著性的特征方向:最大的特征值及其对应的特征向量决定了降维的方向和效果

38.过拟合现象中:训练样本的测试误差最小,测试样本的正确识别率却很低

39.如右图所示有向 图,节点G的马尔可夫毯为:{D,E,F,H,I,J}

40.如右图所示无向 图,节点G的马尔可夫毯为:{D,E,I,J}

41.多层感知机方法中,可用作神经元的非线性激活函数:Logistic函数

42.在有限支撑集上,下面分布的熵最大:均匀分布

43.已知均值和方差,下面哪种分布的熵最大:高斯分布

44.以下模型中属于概率图模型的是:受限玻尔兹曼机

45.如右图所示有向图,以下陈述正确的有:B和G关于{C,F}条件独立

46.在标准化公式中,使用的目的是:防止分母为零

  1. 梯度下降算法的具体流程包括哪些内容:第一步:初始化模型参数;第二步:输入训练数据集;第三步:计算当前模型的损失函数值;第四步:通过调整权重矩阵来降低损失函数值;第五步:重复更新直至收敛

(1)计算预测值和真实值之间的误差

(2)迭代跟新,直到找到最佳权重

(3)把输入传入网络,得到输出值

(4)初始化随机权重和偏差

(5)对每一个产生误差的神经元,改变相应的(权重)值以减小误差

假设面对一个具有较高复杂性的回归模型用于拟合样本数据,并通过应用岭回归方法调节正则化参数以减少模型复杂性。当λ值较大时,在考虑偏差与方差的关系时,请判断以下说法是否正确:当λ值较大时,偏差降低且方差降低

49.以下哪种方法会增加模型的欠拟合风险:数据增强

50.以下说法正确的是:除了EM算法,梯度下降也可求混合高斯模型的参数

当在神经网络的训练过程中发生较高水平的train error时,下列哪种方法无法显著减少train error:补充训练数据

52.以下哪种激活函数可以导致梯度消失:Tanh

53.增加以下哪些超参数可能导致随机森林模型过拟合数据:(2)决策树的深度

54.以下关于深度网络训练的说法正确的是:D

在训练过程中, 梯度被用来表示损失函数对模型参数的变化率

B.损失函数衡量了模型预测结果与真实值之间的差异

C.训练过程基于一种叫做反向传播的技术

D.其他选项都正确

55.以下哪一项在神经网络中引入了非线性:ReLU

在应用线性回归模型时引入了正则化项,在观察到很多系数值被置为零的情况下,请问这个正则化项可能是什么?

L0-normL1-norm

57.关于CNN,以下结论正确的是:Pooling层用于减少图片的空间分辨率

58.关于k-means算法,正确的描述是:初始值不同,最终结果可能不同

59.下列关于过拟合现象的描述中,哪个是正确的:训练误差小,测试误差大

以下是对卷积神经网络的描述:正确的描述包括:其具有多个卷积核,并且这些核可为不同尺寸。

61.LR模型的损失函数是:交叉熵

62.GRU和LSTM的说法正确的是:GRU的参数比LSTM的参数少

63.以下方法不可以用于特征降维的有:Monte Carlo method

64.下列哪个函数不可以做激活函数:y=2x

包含两个样本点,在其中第一个样本被归类为正类时其对应的特征向量坐标为(0,-1),而第二个样本被归为负类时其对应的特征向量坐标则为(2,3)。基于这两组训练数据所确定的线性SVM分类器决策面方程则表示为:x + 2y = 3

在其他条件固定不变的情况下,在机器学习模型中采用高斯核而排除线性核的做法可能导致模型过拟合的问题:SVM算法中使用高斯核代替线性核

67.下方法中属于无监督学习算法的是:K-Means聚类

68.Bootstrap数据是什么意思:有放回地从总共N个样本中抽样n个样本

69.下面关于贝叶斯分类器描述错误的是:是基于后验概率,推导出先验概率

对于Adaboost算法的相关描述中存在错误的一项是:分别独立地训练多个弱分类器模型

71.以下机器学习中,在数据预处理时,不需要考虑归一化处理的是:树形模型

在本问题中涉及一个二分类任务,在该任务中存在三个分类器h₁、h₂、h₃以及三个测试样本x₁、x₂、x₃。假设标记值为整数类型时,默认情况下标记值为整数类型时,默认情况下标记值为整数类型时,默认情况下标记值为整数类型时,默认情况下假设标记值为整数类型时,默认情况下

在以下定义中正确的有:其中假定tp表示真阳性数 tn表示真阴性数 fp表示假阳性数 fn表示假阴性数 那么精确率(Precision)计算公式为:Precision = \frac{tp}{tp + fp};召回率(Recall)计算公式为:Recall = \frac{tp}{tp + fn}

74.下列哪个不属于常用的文本分类的特征选择算法:主成分分析

在HMM模型中,当给定观测序列及其生成的状态序列时,则可采用极大似然估计法来直接确定模型参数。

76.以下哪种距离会侧重考虑向量的方向:余弦距离

77.解决隐马模型中预测问题的算法是:维特比算法

  1. 当Logistic Regression模型中同时引入L1和L2范数时,在一定程度上有助于防止过拟合。
    能够实现特征选择的同时,在一定程度上有助于防止过拟合。

79.标准反向传播算法与基于时序信息的时间门限反向传播算法(BPTT)在技术特征上存在显著差异:相较于标准方法而言,BPTT通过在每一个时间段内综合计算并累加所有相关权重参数对应的梯度变化量实现了信息在时间维度上的累积效应

  1. Gradient explosion refers to the phenomenon where gradients become excessively large during the training of deep neural networks, leading to the loss function diverging to infinity. In Recurrent Neural Networks (RNN), which optimization method can effectively suppress gradient explosion? Gradient clipping is a widely adopted solution.

当使用神经网络进行图像识别任务时(即用于图像识别任务),人们通常会绘制一张显示训练集误差与验证集误差随迭代次数变化趋势的图表来进行模型调试分析。对于这张图表,请问应该何时停止模型的训练才是最合适的?选项为:C

全部评论 (0)

还没有任何评论哟~