以下为《Python基础知识面试问题》的无排版文字预览,完整内容请下载
Python基础知识面试问题
1.CNN的卷积核是单层还是多层的?
描述网络模型中某层的厚度,通常用名词通道channel数或者特征图feature map数。不过人们更习惯把作为数据输入的前层的厚度称之为通道数(比如RGB三色图层称为输入通道数为3),把作为卷积输出的后层的厚度称之为特征图数。
卷积核厚度等于1时为2D卷积,对应平面点相乘然后把结果加起来,相当于点积运算;
卷积核厚度大于1时为3D卷积,每片分别平面点求卷积,然后把每片结果加起来,作为3D卷积结果;
2.什么是卷积?
对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作。
3.为什么引入非线性激活函数?
第一,对于神经网络来说,网络的每一层相当于f(wx+b)=f(w'x),对于线性函数,其实相当于f(x)=x,那么在线性激活函数下,每一层相当于用一个矩阵去乘以x,那么多层就是反复的用矩阵去乘以输入。根据矩阵的乘法法则,多个矩阵相乘得到一个大矩阵。所以线性激励函数下,多层网络与一层网络相当。比如,两层的网络f(W1*f(W2x))=W1W2x=Wx。第二,非线性变换是深度学习有效的原因之一。原因在于非线性相当于对空间进行变换,变换 内容过长,仅展示头部和尾部部分文字预览,全文请查看图片预览。 神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大 可以通过RELU激活函数来解决,或用Batch Normalization解决这个问题。
6.逻辑回归与线性回归的区别?
逻辑回归的模型 是一个非线性模型,sigmoid函数,又称逻辑回归函数。但是它本质上又是一个线性回归模型,因为除去sigmoid映射函数关系,其他的步骤,算法都是线性回归的。可以说,逻辑回归,都是以线性回归为理论支持的
逻辑回归多了一个Sigmoid函数,使样本能映射到[0,1]之间的数值,用来做分类问题。
简单的例子就是可以使用吴恩达的课程中的例子来解释,线性回归用来预测房价,能找到一个公式来尽量拟合房价和影响房价因素之间的关系,最后得到的公式能准确的用来预测房价。在对参数不断调优以找到一组最拟合数据的参数来构成一个最好的模型,就是线性回归
线性回归用来预测,逻辑回归用来分类。
线性回归是拟合函数,逻辑回归是预测函数
7、1*1卷积的作用是什么?
/
再来看看升维,通常是在一个卷积之后添加一个 1x1 卷积来升维。例如经过一个卷积后,输出 feature maps size 为 16x16x32,作为 1x1x128 卷积的输入,则输出 16x16x128 的 feature maps 实现升维
/
[文章尾部最后300字内容到此结束,中间部分内容请查看底下的图片预览]请点击下方选择您需要的文档下载。
以上为《Python基础知识面试问题》的无排版文字预览,完整内容请下载
Python基础知识面试问题由用户“Shuzhenabc123”分享发布,转载请注明出处