大学MOOC 商务数据分析(首都经济贸易大学)1462506179 最新慕课完整章节测试答案
第一单元神经网络基础
文章目录
第一单元单元测验
1、单选题:
下面哪种结果不是利用机器学习算法从数据中得到的?
选项:
A: 神经网络
B: 规则
C: 回归模型
D: 常识
答案: 【 常识】
2、单选题:
有关神经网络训练时使用的学习率参数说法错误的是?
选项:
A: 学习率可以与其他网络参数一起训练,对降低代价函数是有利的。
B: 学习率过大更容易导致训练陷入局部极小值。
C: 学习率可以随着训练误差动态调整效果更好。
D: 网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。
答案: 【 学习率过大更容易导致训练陷入局部极小值。】
3、单选题:
下面哪个选项不是神经网络训练过程中过拟合的防止方法?
选项:
A: 增加学习率
B: L2正则化
C: dropout
D: 提前终止
答案: 【 增加学习率】
4、单选题:
下面有关神经网络的说法,错误的是?
选项:
A: 神经网络神经元的输出都是传给其他神经元,不能再反馈回来
B: 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
C: 均方差损失函数是神经网络常用的一种代价函数(损失函数)
D: 神经网络不同层次的神经元可以使用不同的激活函数
答案: 【 神经网络神经元的输出都是传给其他神经元,不能再反馈回来】
5、单选题:
关于训练样本的描述中,正确的说法是哪些?
选项:
A: 如果模型性能不佳,可增加样本多样性进行优化
B: 增加数据可以减少模型方差
C: 样本越多,模型训练越快,性能越好
D: 样本越少,模型的方差越大
答案: 【 样本越少,模型的方差越大】
6、单选题:
有关BP神经网络的说法,错误是哪个?
选项:
A: 易陷入局部极小值
B: 训练次数多,使得学习效率低,收敛速度慢
C: 隐层节点的选取缺乏理论指导
D: 训练时新样本的加入对已经学习的样本没啥影响
答案: 【 训练时新样本的加入对已经学习的样本没啥影响】
7、单选题:
有关神经网络参数初始化的说法错误的是哪个?
选项:
A: 权重和偏置都可以取全零初始化
B: 使用正态分布初始化,但权重取太大或太小都会影响网络的训练
C: Xavier初始化可以减少梯度消失
D: 合适的权重初始化可以加快神经网络的训练和效果
答案: 【 权重和偏置都可以取全零初始化】
8、单选题:
有关BP网络的说法,哪个是错误的?
选项:
A: 在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能
B: 与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数
C: 交叉熵也可以作为回归预测问题的损失函数
D: 神经元的激活函数选择影响神经网络的训练过程和最终性能
答案: 【 交叉熵也可以作为回归预测问题的损失函数】
9、单选题:
sigmoid激活函数y=1/(1+
)的导数是以下哪一个?
选项:
A: y(1-y)
B: 1-
C: 1+lnx
D: 1-lnx
答案: 【 y(1-y)】
10、单选题:
梯度消失问题的认识哪个是正确的?
选项:
A: 隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B: 神经元处于Sigmoid等激活函数的饱和区工作
C: 隐藏层神经元的个数太多导致
D: 隐层的权重取值太小不容易导致梯度消失
答案: 【 隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新】
11、单选题:
有关数据预处理对神经网络的影响,以下哪个说法是错误的?
选项:
A: 对于非数值型的属性,可以使用独热(onehot)编码或模糊化转换成数值
B: 连续性属性可以采用最小最大值归一化,减少数值过大和不同属性量纲不同对网络的影响
C: 预处理与否对神经网络的训练速度和分类准确率影响比较大
D: BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力
答案: 【 BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力】
12、单选题:
下面关于单个神经元输入输出正确的是哪个?
选项:
A: 一个神经元只能拥有一个输入和一个输出下面关于单个神经元输入输出正确的是?
B: 一个神经元只能拥有一个输入但可以有多个输出
C: 一个神经元可以有多个输入和多个输出
D: 一个神经元可以拥有多个输入但只有一个输出
答案: 【 一个神经元可以有多个输入和多个输出】
13、单选题:
一个含有2个隐层的BP神经网络,神经元个数都为20,输入和输出节点分别有8和5个节点,这个网络的权重和偏置数分别是多少?
选项:
A: 660,45
B: 3200,45
C: 16000,48
D: 3000,32
答案: 【 660,45】
14、单选题:
以下不属于超参的是哪个因素?
选项:
A: 激活函数
B: 学习步长(率)和冲量引子
C: 输出编码形式
D: mini-batch的样本数
答案: 【 输出编码形式】
15、多选题:
有关神经网络训练过程的说法,正确的是?
选项:
A: 使用增加训练次数的方法不一定可以减少代价函数的取值
B: 分析问题确定后,神经网络合适的结构就可以确定
C: 神经网络权重的初始化大小会对网络的训练结果影响
D: 对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素
答案: 【 使用增加训练次数的方法不一定可以减少代价函数的取值;
神经网络权重的初始化大小会对网络的训练结果影响;
对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素】
16、多选题:
激活函数通过具有以下哪些性质?
选项:
A: 单调性
B: 非线性
C: 计算简单
D: 可微性
答案: 【 单调性;
非线性;
计算简单;
可微性】
17、多选题:
关于模型参数(权重值)的描述,正确的说法是哪些?
选项:
A: 每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小
B: 训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
C: 在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
D: 模型参数量越多越好,但没有固定的对应规则
答案: 【 每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小;
训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中;
在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少】
18、多选题:
减少神经网络过拟合的说法,以下哪些是正确的?
选项:
A: 通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合
B: 通过增加数据扰动的数据增强增加了神经网络的过拟合
C: 利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
D: 在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
答案: 【 通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合;
利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合;
在神经网络训练过程中类似dropout减少神经元或相关链接权的数量】
19、多选题:
有关数据增强的说法正确是哪些?
选项:
A: 对于分类问题,数据增强是减少数据不平衡的一种方法。
B: 对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果
C: 数据增强会增加样本的个数,因此可能会减少过拟合
D: 数据增强带来了噪声,因此一般会降低神经网络模型的效果
答案: 【 对于分类问题,数据增强是减少数据不平衡的一种方法。;
对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果;
数据增强会增加样本的个数,因此可能会减少过拟合】
第二单元深度学习在人工智能中的应用
第二单元单元测验
1、单选题:
以下哪种问题不适合使用深度学习解决?
选项:
A: 人脸识别
B: 银行信用卡客户欺诈检测
C: 自动导播语音合成
D: 机器人写·诗
答案: 【 银行信用卡客户欺诈检测】
2、单选题:
有关人工智能、深度学习和机器学习的关系,以下哪个认识是错误的?
选项:
A: 机器学习是人工智能的核心技术之一,也是实现人工智能的重要基础。
B: 深度学习与机器学习是相对独立的技术
C: 深度学习算法和传统的机器学习算法构成了机器学习理论体系
D: 深度学习是处理计算机视觉、听觉和文字的有效机器学习技术,促进了人工智能的应用和发展
答案: 【 深度学习与机器学习是相对独立的技术】
3、单选题:
有关深度学习的说法,哪个是正确的?
选项:
A: 深度学习可以解决任意的机器学习问题
B: 深度学习比较适合处理有大量样本的视频、图像、声音、文本等多模态数据的分析,这些数据的分析需要人工进行特征提取,这是与传统的机器学习不同的
C: 对于分类问题,深度学习算法一定优于传统的机器学习算法
D: 深度学习的基础是神经网络,因此深度学习算法基本可以使用梯度下降法
答案: 【 深度学习的基础是神经网络,因此深度学习算法基本可以使用梯度下降法】
4、单选题:
与传统的分类机器学习算法相比,深度学习网络不同之处不是下面哪项?
选项:
A: 不需要人工进行特征工程,深度学习算法本身具有一定的特征提取能力
B: 深度学习算法需要的数据量和算力更大,但性能更好
C: 深度学习算法不需要对数据进行预处理
D: 深度学习的算法解释性一般比较弱,对数据依赖性强
答案: 【 深度学习算法不需要对数据进行预处理】
5、单选题:
下面哪个不是深度学习的常见框架?
选项:
A: PaddlePaddle
B: TensorFlow
C: MySQL
D: Pytorch
答案: 【 MySQL】
6、单选题:
在选择深度学习开源框架时,下面哪个不是主要考虑的因素?
选项:
A: 易用性
B: 效率高
C: 容易学习、功能多
D: 价格
答案: 【 价格】
7、多选题:
深度学习算法的三要素是指以下哪些方面?
选项:
A: 模型
B: 学习准则
C: 数据
D: 优化算法
答案: 【 模型;
学习准则;
优化算法】
8、多选题:
有关深度学习的不足,以下哪些看法是正确的?
选项:
A: 深度学习算法对数据量的要求一般都比较高,当样本不足时往往效果不好
B: 深度神经网络的结构一般比较复杂,训练速度快
C: 深度神经网络一般要优化的参数众多,因此对计算资源的要求比较高
D: 深度学习算法可以获得图像、文本和声音等数据的特征,但难以解释这些特征
答案: 【 深度学习算法对数据量的要求一般都比较高,当样本不足时往往效果不好;
深度神经网络一般要优化的参数众多,因此对计算资源的要求比较高;
深度学习算法可以获得图像、文本和声音等数据的特征,但难以解释这些特征】
第三单元CNN卷积神经网络
空洞卷积
1、判断题:
空洞卷积在保持参数个数不变的情况下增大了卷积核的感受野。
选项:
A: 正确
B: 错误
答案: 【 正确】
第三单元单元测验
1、单选题:
关于深度学习的说法中,下面说法正确的是:
选项:
A: 用Sigmoid激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用Tanh函数改进
B: 批规范化(batch normalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布
C: 与Sigmoid函数相比,Relu较不容易使网络产生梯度消失
D: 梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值
答案: 【 与Sigmoid函数相比,Relu较不容易使网络产生梯度消失】
2、单选题:
下面关于池化的描述中,错误的是哪个?
选项:
A: 池化方法可以自定义
B: 池化在CNN中可以减少较多的计算量,加快模型训练
C: 在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征
D: 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化
答案: 【 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化】
3、单选题:
下面关于CNN的描述中,错误的是哪个?
选项:
A: SAME填充(padding)一般是向图像边缘添加0值
B: 卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变
C: 局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度
D: 卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Feature map)就越多
答案: 【 卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变】
4、单选题:
下面关于深度学习网络结构的描述,正确的说法是哪个?
选项:
A: 网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长
B: 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关
C: 网络结构的层次越深,其学习的特征越多,10层的结构要优于5层的
D: 在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量一定越多
答案: 【 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关】
5、单选题:
假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?
选项:
A: 9,000,001
B: 9,000,100
C: 27,000,001
D: 27,000,100
答案: 【 27,000,100】
6、单选题:
假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5*5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?
选项:
A: 2501
B: 7601
C: 7500
D: 7600
答案: 【 7600】
7、单选题:
有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充(nopadding),输出是多少?
选项:
A: 29*29*32
B: 39*39*32
C: 44*44*16
D: 40*40*32
答案: 【 40*40*32】
8、单选题:
对于65x65x6的输入特征图,用32个5*5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?
选项:
A: 33*33*32
B: 32*32*32
C: 65*65*12
D: 32*32*5
答案: 【 33*33*32】
9、单选题:
对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?
选项:
A: 16*16*6
B: 32*32*3
C: 16*16*3
D: 32*32*6
答案: 【 16*16*6】
10、单选题:
假设一个卷积神经网络,第一个全连接层前的池化层输出为12*12*250,其展开的向量长度为?
选项:
A: 36000
B: 224
C: 3000
D: 3600
答案: 【 36000】
11、单选题:
假设某卷积层的输入和输出特征图大小分别为63*63*6和31*31*12,卷积核大小是5*5,步长为2,那么Padding值为多少?
选项:
A: 1
B: 2
C: 3
D: 4
答案: 【 1】
12、单选题:
假设某卷积层的输入特征图大小为36*32*6,卷积核大
