2018 年大疆机器学习算法工程师春季提前批笔试题

一、单项选择题SVM 分类和深度学习分类 C. SVM 是凸问题,深度学习都是非凸问题 L1 和 L2 正则化区别 相同点:都用于避免过拟合不同点:L1可以让一部分特征的系数缩小到0,从而间接实现特征选择。所以L1适用于特征之间有关联的情况。 所以L2适用于特征之间没有关联的情况3.L1和L2的结合L1和L2的优点可以结合起来,这就是Elastic Net SVM 决策边界 二、多项选择题无监督

一、单项选择题

SVM 分类和深度学习分类
B. SVM 只能应用于线性分类
    错误,SVM 可以应用于线性分类和非线性分类问题,取决于核函数的选取

C. SVM 是凸问题,深度学习都是非凸问题
    正确,深度学习算法的目标函数,几乎全都是非凸的。
    凸:指的是顺着梯度方向走到底就 一定是 最优解 。大部分 传统机器学习 问题 都是凸的。
   非凸:指的是顺着梯度方向走到底只能保证是局部最优,不能保证 是全局最优。深度学习以及小部分传统机器学习问题都是非凸的。

L1 和 L2 正则化区别
这里写图片描述
L1和L2的异同点

相同点:都用于避免过拟合

不同点:L1可以让一部分特征的系数缩小到0,从而间接实现特征选择。所以L1适用于特征之间有关联的情况。
L2让所有特征的系数都缩小,但是不会减为0,它会使优化求解稳定快速。所以L2适用于特征之间没有关联的情况

3.L1和L2的结合

L1和L2的优点可以结合起来,这就是Elastic Net
这里写图片描述

SVM 决策边界
四个点坐标为(1,1),(1,0),(-1,-1),(-1,0),用 SVM 分类的决策边界是
A. y = x
B. x = 0
C. y = -x
D. y = 0
SVM 是一种优化的分类算法,其动机是寻找一个最佳的决策边界,使得从决策边界与各组数据之间存在 margin ,并且需要使各侧的 margin 最大化。本题目四个选项的 margin 分别为 0、1、0.707、0,因此选择 B。

二、多项选择题

无监督学习方法
    强化学习、K-means 聚类、自编码、受限波尔兹曼机等

增大感受野方法
    dilated 卷积(空洞卷积)、池化、增大卷积核

正则化方法
B. 减少神经网络层数
    错误,减少网络层数实际上是减弱了网络的拟合能力
D. 减小权重衰减参数
    错误,应该是增大权重衰减系数,类似于 L2 正则化项中参数 lambda 的作用

三、填空题
经过下列卷积操作后,3×3 conv -> 3×3 conv -> 2×2 maxpool -> 3×3 conv,卷积步长为 1,没有填充,输出神经元的感受野是多大? 10*10
    https://blog.csdn.net/ifruoxi/article/details/78243499
    感受野的大小是由kernel size(filter)和stride size(步长)一起决定的,公式:
rfsize = f(out, stride, ksize) = (out - 1) * stride + ksize,其中out是指上一层感受野的大小,stride是当前层stride
最后一层不带入公式,它的ksize是前一层的out

100×100×3,3×3 卷积核,输出是 50×50×10,算进行了多少次乘-加操作?
    输出的每个像素点都要经过 3×3×3 = 27 次乘-加操作,因此总共需要进行 50×50×10×27 次乘-加操作。

四、简答题
简述梯度下降法和牛顿法的优缺点
    随机梯度下降法:适用于样本量大的情况,需要内存小;但每一步可能并不是向着最优解方向
    牛顿法:收敛速度快;但对目标函数有严格要求,必须有连续的一、二阶偏导数,计算量大

正样本 10000,负样本 1000,怎样训练
    正负样本悬殊具体数据记不太清楚了,1、异常检测算法(高斯分布算法),可以适用于异常(也就是负样本)比较少的情况,将负样本当成异常点,将算法的侧重点放到负样本上。2、或者分别进行正采样和负采样,平衡样本

Relu 相对于 sigmoid 函数的优缺点
    优点:分段线性,梯度较大,收敛速度快;Relu 会使一部分神经元的输出为 0,会造成了网络的稀疏性
    缺点:某些神经元可能永远不会被激活,导致相应的参数永远不能被更新

正则化方法
    数据增强(Data Augmentation)、L1 正则化、L2 正则化、Dropout、Drop Connect 和早停(Early stop)

说出物体检测、人脸识别、物体分割等某一领域的常见算法,并用一两句话简述其中一种算法的原理
物体检测:YOLO、R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN、SSD
YOLO 算法直接利用一个卷积神经网络就输出物体所在的位置以及所属的类别,是一个端到端的系统,因此检测速度特别快,可以达到实时性的要求。
五、编程题

输入序列 a, 判断是否存在 i < j < k, 满足 a[i] < a[k] < a[j],并写出算法复杂度
思路:三个循环,在最内层循环进行一个判断,算法复杂度 O(n^3)
输入多边形顶点坐标 List,判断是否为凸多边形(如果把一个多边形的所有边中,任意一条边向两方无限延长成为一直线时,其他各边都在此直线的同旁,那么这个多边形就叫做凸多边形)
思路:遍历所有相邻顶点,以两点坐标求得直线方程,判断其余顶点是否在直线同侧

链接:https://www.jianshu.com/p/27b623b47029
來源:简书


作者: 北冥有小鱼
原文链接:https://blog.csdn.net/qq_26598445/article/details/80941027

  • 发表于 2019-11-26 09:25
  • 阅读 ( 13 )
  • 分类:机器学习

0 条评论

请先 登录 后评论

作家榜 »

  1. AI君 10 文章
  2. Tzung-Wen Liau 0 文章
  3. blairan 0 文章
  4. rookie 0 文章
  5. 陈凯 0 文章
  6. huanxue 0 文章
  7. admin 0 文章
  8. Lzs1998_csdn 0 文章