大学MOOC 深度学习(太原理工大学)1450330327 最新慕课完整章节测试答案
第一讲深度学习概述
文章目录
第一讲测验
1、单选题:
机器学习(深度学习)系统中通常将数据集划分为训练集和测试集,其中被用来学习得到系统的参数取值的是
选项:
A: 训练集(training set)
B: 测试集(testing set)
C: 训练集(training set)和测试集(testing set)
D: 其它答案都不对
答案: 【 训练集(training set)】
2、单选题:
k折交叉验证通常将数据集随机分为k个子集。下列关于k折交叉验证说法错误的是
选项:
A: 每次将其中一个子集作为测试集,剩下k-1个子集作为训练集进行训练
B: 每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
C: 划分时有多种方法,例如对非平衡数据可以用分层采样,就是在每一份子集中都保持和原始数据集相同的类别比例
D: k折交叉验证相对于留出法,其性能评价结果通常要相对更稳定一些
答案: 【 每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试】
3、单选题:
ROC (受试者工作特征曲线, receiver operating characteristic curve)描绘了分类器在 fp rate (错误的正例,横轴) 和tp rate(真正正例,纵轴) 间的trade-off(权衡)。下面说法正确的是:
选项:
A: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
B: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率高
C: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率低
D: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率低
答案: 【 (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高】
4、单选题:
关于 Cohen' s kappa取值的含义,下列错误的是:
选项:
A: 其取值通常在-1和+1之间
B: 其取值为+1,说明一致性最好
C: 其取值越大,说明一致性越好
D: 其取值越小,说明一致性越好
答案: 【 其取值越小,说明一致性越好】
5、单选题:
下列关于验证集(validation set)的描述错误的是
选项:
A: 某些情况下,可以对训练集做进一步划分,即分为训练集和验证集
B: 验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
C: 验证集与测试集之间的区别是,验证集主要用于模型选择和调整超参数,因而一般不用于报告最终结果
D: 验证集的数据规模通常小于训练集的数据规模
答案: 【 验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果】
6、单选题:
下面关于机器学习与深度学习的描述错误的是:
选项:
A: 深度学习是机器学习的重要分支
B: 深度学习来源于人工神经网络
C: 深度学习是多层的人工神经网络,典型的模型包括卷积神经网络等
D: 其它答案都不对
答案: 【 其它答案都不对】
7、单选题:
下面关于有监督学习、无监督学习的描述错误的是
选项:
A: 有监督学习是从有正确答案的样本集合中学习,即每个样本的分类标签(classification label)或者目标值(target value)已知
B: 无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
C: 有监督学习中样本的ground truth指的是每个样本的真实分类标签(classification label)或者真实目标值(target value)
D: 为了获得有监督学习中样本的真实分类标签(classification label)或者真实目标值(target value),某些情况下,可以采用人工专家标注的方法获得
答案: 【 无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)】
8、单选题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则其ROC曲线的横轴FP Rate 和纵轴TP Rate 的坐标值是多少? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
选项:
A: 横轴FP Rate=0.57; 纵轴TP Rate=0.33
B: 横轴FP Rate=0.33; 纵轴TP Rate=0.57
C: 横轴FP Rate=0.57; 纵轴TP Rate=0.57
D: 横轴FP Rate=0.80; 纵轴TP Rate=0.33
答案: 【 横轴FP Rate=0.33; 纵轴TP Rate=0.57】
9、单选题:
下面的一段python程序是对iris数据集进行训练集合测试集的拆分,已知该数据集中样本的个数为150个,特征为4个。则下面的程序执行完毕后,print语句的输出结果应该为: from sklearn import cross_validation from sklearn import datasets iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )print ("X_train.shape:", X_train.shape, "y_train.shape:", y_train.shape)
选项:
A: ('X_train.shape:', (150, 4), 'y_train.shape:', (150,))
B: ('X_train.shape:', (90, 4), 'y_train.shape:', (90,))
C: ('X_train.shape:', (30, 4), 'y_train.shape:', (30,))
D: ('X_train.shape:', (120, 4), 'y_train.shape:', (120,))
答案: 【 ('X_train.shape:', (120, 4), 'y_train.shape:', (120,))】
10、单选题:
下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,且该程序已经导入了必要的模块(用省略号表示)。则程序中空格处应该填充的拟合函数是: ……iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )clf = svm.SVC(kernel='linear', C=1). (X_train, y_train)
选项:
A: train
B: fit
C: learn
D: ml
答案: 【 fit】
11、单选题:
下面的一段程序是标签二值化的示例程序,则最后的print语句的输出应该为:from sklearn.preprocessing import label_binarizey=[0, 1, 2]print (y)y = label_binarize(y, classes=[0, 1, 2])print (y)
选项:
A: [[0 0 1] [0 1 0] [1 0 0]]
B: [[1 0 0][1 0 0] [1 0 0]]
C: [[0 0 1] [0 0 1] [0 0 1]]
D: [[1 0 0] [0 1 0] [0 0 1]]
答案: 【 [[1 0 0] [0 1 0] [0 0 1]]】
12、单选题:
F值的定义为准确率和召回率的调和平均。如果二者(即准确率和召回率)同等重要,则为
选项:
A: F1
B: F2
C: F0.5
D: F3
答案: 【 F1】
13、多选题:
超参数和参数的区别。参数一般是模型需要根据训练数据可以自动学习出的变量。超参数一般就是根据经验确定预设的变量。下面哪些是超参数?
选项:
A: 深度学习模型的权重,偏差
B: 深度学习的学习速率、人工神经网络的层数
C: 深度学习的迭代次数
D: 深度学习的每层神经元的个数
答案: 【 深度学习的学习速率、人工神经网络的层数;
深度学习的迭代次数;
深度学习的每层神经元的个数】
14、多选题:
关于ROC (受试者工作特征曲线, receiver operating characteristic curve)中AUC(Area Under Curve)说法正确的是
选项:
A: 定义为ROC曲线下的面积
B: AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好
C: 取值范围为[0,1]
D: 其它答案都不对
答案: 【 定义为ROC曲线下的面积;
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好;
取值范围为[0,1]】
15、多选题:
关于 Cohen' s kappa 和Fleiss' kappa的区别:
选项:
A: Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement)
B: 如果评价者多于2人时,可以考虑使用Fleiss' kappa
C: 二者没有本质区别,可以等价
D: 其它答案都不对
答案: 【 Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement);
如果评价者多于2人时,可以考虑使用Fleiss' kappa】
16、多选题:
下面关于使用网格搜索进行超参数的调优的描述正确的是:
选项:
A: 假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值
B: 为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合
C: 假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0, 0.5, 1.0}
D: 其它答案都不对
答案: 【 假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值;
为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合;
假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0, 0.5, 1.0}】
17、多选题:
下面关于分类(classification)和回归(regression)的区别和联系的描述正确的是:
选项:
A: 分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的
B: 分类和回归问题通常都是有监督学习的范畴
C: 回归问题需要预测连续变量的数值:比如预测新产品的销量等
D: 可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
答案: 【 分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的;
分类和回归问题通常都是有监督学习的范畴;
回归问题需要预测连续变量的数值:比如预测新产品的销量等;
可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类】
18、多选题:
下列关于scikit-learn的描述正确的是
选项:
A: scikit-learn包括许多知名的机器学习算法的实现,包括SVM等
B: scikit-learn封装了其他的Python库,如自然语言处理的NLTK库
C: scikit-learn内置了大量数据集,如iris数据集等
D: scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
答案: 【 scikit-learn包括许多知名的机器学习算法的实现,包括SVM等;
scikit-learn封装了其他的Python库,如自然语言处理的NLTK库;
scikit-learn内置了大量数据集,如iris数据集等;
scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等】
19、多选题:
已知如下定义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。 则下面定义正确的是:
选项:
A: 分类准确率 Accuracy=(TP+TN)/(P+N)
B: 精确率 Precision=TP/(TP+FP)
C: 召回率 Recall=TP/P
D: 召回率 Recall=TN/P
答案: 【 分类准确率 Accuracy=(TP+TN)/(P+N);
精确率 Precision=TP/(TP+FP);
召回率 Recall=TP/P】
20、判断题:
测试集(testing set)用于最终报告模型的评价结果,因此在训练阶段测试集中的数据一般可以出现在训练集中.
选项:
A: 正确
B: 错误
答案: 【 错误】
21、判断题:
深度学习等同于神经网络
选项:
A: 正确
B: 错误
答案: 【 错误】
22、判断题:
人工智能进入第一次寒冬的原因是Marvin Minsky在1969年证明了感知机(perception)无法解决XOR问题
选项:
A: 正确
B: 错误
答案: 【 正确】
23、填空题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的精确率是 (要求:用小数表示,且保留小数点后两位)? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
答案: 【 0.80】
24、填空题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的召回率是 (要求:用小数表示,且保留小数点后两位)。 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
答案: 【 0.57】
25、填空题:
下面的一段python程序是计算并输出y_true和y_pred之间的平均绝对误差,即MAE,则其中print语句的输出结果为 (要求:用小数表示,且保留小数点后两位)。 from sklearn.metrics import mean_absolute_errory_true = [3, -0.5, 2, 7]y_pred = [2.5, 0.0, 2, 9]print (mean_absolute_error(y_true, y_pred))
答案: 【 0.75】
26、填空题:
下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,请补全导入的模块名称(用小写字母)from sklearn import cross_validation from sklearn import from sklearn import datasets iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )clf = svm.SVC(kernel='linear', C=1).fit(X_train, y_train)
答案: 【 svm】
第二讲第02部分正则化和程序
第二讲测验
1、单选题:
关于线性模型,下列说法错误的是
选项:
A: 狭义线性模型通常是指自变量与因变量之间呈按比例、成直线的关系。一阶导数不为常数
B: 线性通常表现为1次曲线
C: 广义线性是线性模型的扩展,主要通过联结函数,使预测值落在响应变量的变幅内
D: 非线性一般指不按比例、不成直线的关系,一阶导数不为常数
答案: 【 狭义线性模型通常是指自变量与因变量之间呈按比例、成直线的关系。一阶导数不为常数】
2、单选题:
下列关于梯度下降(Gradient descent )法的描述错误的是
选项:
A: 梯度下降是利用一阶的梯度信息找到代价函数局部最优解的一种方法
B: 通常会先初始化一组参数值, 在这个值之上,用梯度下降法去求出下一组的值。由于是梯度下降的,所以损失函数的值在下降。当迭代到一定程度, 损失函数取值趋于稳定,此时的参数取值即为要求得的值
C: 学习速率的选取很关键,如果学习速率取值过大,容易达不到极值点甚至会发散,学习速率太小容易导致收敛时间过长
D: 其中的学习速率是模型参数,而不是超参数
答案: 【 其中的学习速率是模型参数,而不是超参数】
3、单选题:
下面的一段python程序是使用scikit-learn来构建线性回归模型,其中最后一条语句的目的是得到X_test的预测结果,则空格内应该填入的函数为 from sklearn.linear_model import LinearRegressionX = [[6, 2], [8, 1], [10, 0], [14, 2], [18, 0]]y = [[7], [9], [13], [17.5], [18]]model = LinearRegression()model.fit(X, y)X_test = [[8, 2], [9, 0], [11, 2], [16, 2], [12, 0]]y_test = [[11], [8.5], [15], [18], [11]]predictions = model. (X_test)
选项:
A: predict
B: get
C: pred
D: learn
答案: 【 predict】
4、单选题:
下列关于逻辑回归的描述错误的是
选项:
A: 线性回归的结果输出通常是一个连续值,值的范围是无法限定的。逻辑回归通过使用sigmoid函数将其转为(-1,1) 的一个概率值,从而能够完成对事件发生的概率进行预测
B: 逻辑回归可以被理解为是一个被logistic方程归一化后的线性回归
C: 逻辑回归属于连接函数为sigmoid函数的广义线性模型
D: Sigmoid 函数有个很漂亮的“S”形,特点是一开始变化快,逐渐减慢,最后饱和
答案: 【 线性回归的结果输出通常是一个连续值,值的范围是无法限定的。逻辑回归通过使用sigmoid函数将其转为(-1,1) 的一个概率值,从而能够完成对事件发生的概率进行预测】
5、单选题:
scikit-learn中的逻辑回归解决方案“liblinear”使用的是CD优化(即coordinate descent,坐标下降)算法,则下面的描述错误的是:
选项:
A: CD是一种梯度优化算法
B: 在每次迭代中,该方法在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值。在整个过程中循环使用不同的坐标方向
C: 该方法从一个初始的猜测值以求得函数的局部最优值。该方法需要迭代进行
D: 如果在某次迭代中,函数得不到优化,说明一个驻点已经达到。但是对于非平滑函数,坐标下降法可能会在在非驻点中断执行
答案: 【 CD是一种梯度优化算法】
6、单选题:
在scikit-learn中,如何处理多类分类(Multi-class classification)问题?
选项:
A: scikit-learn无法实现多类分类
B: scikit-learn只能用one-vs.-all实现多类分类
C: scikit-learn只能用one-vs.-the-rest方法实现多类分类
D: scikit-learn可以使用one-vs-one或one-vs.-the-rest方法实现多类分类,即将多类分类问题转化为构建若干个两类的分类器
答案: 【 scikit-learn可以使用one-vs-one或one-vs.-the-rest方法实现多类分类,即将多类分类问题转化为构建若干个两类的分类器】
7、单选题:
下图中的三条曲线是分别是线性回归、二次回归以及100次多项式的回归的曲线,则为了实现生成多项式特征,需要使用的import语句是?
![]()
选项:
A: import matplotlib.pyplot as plt
B: import numpy as np
C: from scipy.stats import norm
D: from sklearn.preprocessing import PolynomialFeatures
答案: 【 from sklearn.preprocessing import PolynomialFeatures】
8、单选题:
下图是哪种函数的曲线?
![]()
选项:
A: sigmoid
B: tanh
C: ELU
D: ReLU
答案: 【 sigmoid】
9、单选题:
下面的一段python程序,其目的是显示下面的哪一种函数的图形? import numpy as npimport matplotlib.pyplot as pltplt.figure()plt.axis([-6, 6, 0, 1])plt.grid(True)X = np.arange(-6,6,0.1)y = 1 / (1 + np.e ** (-X))plt.plot(X, y, 'b-')plt.show()
选项:
A: tanh
B: ELU
C: sigmoid
D: ReLU
答案: 【 sigmoid】
10、单选题:
下面关于岭(Ridge)回归的描述正确的是
选项:
A: 岭回归使用L1正则化
B: 岭回归使用L2正则化
C: 岭回归使用L1+L2正则化
D: 岭回归不使用正则化
答案: 【 岭回归使用L2正则化】
11、单选题:
下面关于Lasso回归的描述正确的是
选项:
A: Lasso回归使用L1正则化
B: Lasso回归使用L2正则化
C: Lasso回归使用L1+L2正则化
D: Lasso回归不使用正则化
答案: 【 Lasso回归使用L1正则化】
12、单选题:
下面关于弹性网(Elastic net)的描述正确的是
选项:
A: 弹性网使用L1正则化
B: 弹性网使用L2正则化
C: 弹性网使用L1+L2正则化
D: 弹性网不使用正则化
答案: 【 弹性网使用L1+L2正则化】
13、单选题:
图为使用 matplotlib.pyplot 绘制的图形,则其中的五个数据点是采用哪个函数绘制的?
![]()
选项:
A: scatter
B: plot
C: draw
D: point
答案: 【 scatter】
14、单选题:
下图为使用 matplotlib.pyplot 绘制的图形,则其中的两条线是采用哪个函数绘制的?
![]()
选项:
A: scatter
B: plot
C: draw
D: point
答案: 【 plot】
15、单选题:
对于下面的一段python程序,其目的是生成X_train的二次多项式特征,则空格内应该填入的内容为? from sklearn.preprocessing import PolynomialFeaturesX_train = [[3], [4], [5]]quadratic_featurizer = PolynomialFeatures( )X_train_quadratic = quadratic_featurizer.fit_transform(X_train)print (X_train_quadratic)
选项:
A: degree=1
B: degree=2
C: poly=2
D: poly=1
答案: 【 degree=2】
16、单选题:
下面的自定义函数可以绘制出类似下面左边的图形。为了在图形中加入网格(如右图所示),则需要在空格处加入哪一条语句?
![]()
![]()
def runplt():
plt.figure()
plt.title(u'披萨的价格和直径',fontproperties=font_set)
