Advertisement

旷视研究院 算法岗 人脸识别方向 面经

阅读量:

旷视研究院 算法岗 人脸识别方向
电话面 2020/6/19 16:00-17:00
主攻活体检测技术者参与面试_
1.项目介绍
项目主要涉及人脸识别人脸识别相关技术,并基于小论文内容进行了深入探讨。面试官考察了项目中采用的测试指标以及与公开数据集对比的表现。项目的初衷是探索技术创新方向,并针对提出的问题提出了建设性意见但部分内容仍需进一步理解。

在项目中,我们应用了ResNet模型,请详细解释其各个模块及其具体架构。
其模块数量设计为3-4-6-3的序列。
每个模块包含两条路径:第一条包含三个连续的卷积层(conv-bn-ReLU),而第二条则仅有一个卷积层(conv-bn)。
两者的输出经过逐元素相加形成最终特征图。

3.resnet设计的初衷?
传统的网络架构在增加层数时会遇到一个问题:随着层数增多,每层网络的损失值会变得相对较小。在反向传播过程中,由于单层对损失变化不够敏感(即梯度消失或梯度爆炸现象),参数更新变得困难。引入残差结构后能够有效降低每个模块中的参数变化幅度(即通过跳跃连接将输入与输出直接联系起来),从而使得反向传播过程中各层对损失变化更加敏感(即提高了反向传播的效果)。虽然这种方法没有彻底解决反向传播中梯度消失的问题,但通过减少参数更新的幅度却显著提升了反向传播的效果。

4.resnet中的kernel_size?
1×1,3×3,1×1

5.bn层的作用机制?
通过将每个batch的特征进行归一化处理,使得其服从正态分布状态下的表现更为稳定。bn层在每个batch中计算其均值和方差后,在此基础上对特征进行标准化处理。然而,在完全符合正态分布的情况下,则可能导致网络的表现能力下降。因此引入了两个可学习参数,在归一化后的特征基础上做微调。

批注:该操作层面中对mean与variance的具体计算方式进行了进一步阐述

7.如果是测试,bn层怎么更新?
不会更新

8. ResNet模型采用了ReLU作为激活函数,请你阐述其采用ReLU的原因是什么? 即Sigmoid函数在输入值较大时其导数值趋近于零容易导致梯度消失问题而在深度神经网络中这一特性会导致训练效果欠佳而ReLU无论面对多大的输入其导数值始终保持为1从而有效解决了这一问题

当然不是这样。ReLUs的工作原理涉及将输入与权重矩阵进行点积运算,并根据计算结果决定激活与否。即使在所有输入均为正值的情况下,在训练初期权重矩阵可能全为正数,在这一阶段网络仍能正常工作;但随着梯度下降过程的推进,在某些特定条件下也会出现负值权重的情况以优化模型性能。(这个问题我之前没考虑到反向传播过程中可能出现负梯度的情况,在面试中我也仅提到梯度一直为正的问题,并没能深入探讨其背后的原因)

误以为仅仅是电话面试而已,只是一些简单的问题,然而事实却截然不同。结果没有想到自己竟然要编写一段代码,随后又接到了一份来自腾讯的在线文档,他在另一端实时监控着我的进展。虽然题目不算太难,但在如此紧张的情况下编写代码仍让人倍感压力。

11. 在什么样的条件下Ax=b无解?
R(A) (思考了一段时间后未能得出结论, 早已经忘记相关内容, 也错过了相关问题的准备)

12. 还是高等代数的问题吗?对方提出了一个更具难度的课题,并完全没能理解题意的大致属于函数拟合的技术手段?

接着时间所剩无几时询问他是否还有未解决的问题。似乎面临毕业的压力之后又问道自己目前是否仍为研一学生?随后又问道自己目前是否仍为研一学生?还存在哪些方面的能力不足,在研究生二年级期间能否得到提升?随后他说'根据个人兴趣和职业规划来决定'。而关于学术研究方向的选择,则建议考生根据个人兴趣和职业规划来决定。至于学术研究方向的选择,则建议考生根据个人兴趣和职业规划来决定。至于学术研究方向的选择,则建议考生根据个人兴趣和职业规划来决定。至于硕士生与博士生最大的区别是硕士不需要创新,只需要复现能力,但是很多硕士生缺乏这个能力

项目在语言组织上不够理想导致内容显得有些凌乱。在深度学习相关的问题上表现尚可,在编码环节出现严重卡顿导致思路混乱。建议加强线性代数方面的复习与巩固以提升理论基础水平。初次面试时略显紧张,在远程面试中因通话质量偶尔未能准确听见问题内容但面试官均予以耐心复述。原本以为算法岗会对论文发表情况及个人创新点比较关注却未被提及反而仅就基础问题进行了交流这可能意味着对该岗位要求并不高仅适合作为调参专家处理基础工作。目前尚未开始系统刷题但计划尽快完成以便更好地应对后续挑战。

全部评论 (0)

还没有任何评论哟~