第一讲 神经网络计算

第一讲 神经网络计算

1、单选题:
该张量的维度是 ​[[ 1.3688478   1.0125661 ]​ [ 0.17475659 -0.02224463]]​‏​
选项:
A: (2,1)
B: (2,2)
C: (1,2)
D: (4,1)
答案: 【 (2,2)

2、多选题:
‏人工智能主流的三个学派是什么?‎
选项:
A: 行为主义    
B: 计算主义
C: 连接主义
D: 符号主义
答案: 【 行为主义    ;
连接主义;
符号主义

3、判断题:
‌以下语句实现了损失函数loss 分别对可训练参数w1和b1求偏导数,并将计算结果保存到grads列表中。​‌​‌with tf.GradientTape() as tape:  ​    前向传播过程计算y​    计算总loss​grads = tape.gradient(loss, [ w1, b1 ])​​
选项:
A: 正确
B: 错误
答案: 【 正确

4、判断题:
‍设计神经网络的步骤包括:准备数据、搭建网络、优化参数、应用网络。​
选项:
A: 正确
B: 错误
答案: 【 正确

5、判断题:
‌神经网络可以让计算机具备感性思维,能实现图像识别、趋势预测。‏
选项:
A: 正确
B: 错误
答案: 【 正确

第二讲 神经网络优化

第二讲 神经网络优化

1、单选题:
​在某个三分类问题中,已知真实标签y_=(0, 0, 1),神经网络预测值分别为y1=(0.51, 0.32, 0.17),y2=(0.22, 0.73, 0.05),y3=(0.15, 0.17, 0.68),y4=(0.04, 0.03, 0.93),哪个预测值更接近真实标签? ‎
选项:
A: y1
B: y2
C: y3
D: y4
答案: 【 y4

2、单选题:
‌tf.nn.relu([[-2., 1.], [0., 3.]])的计算结果是哪个?‏
选项:
A: tf.Tensor([ -2.  1.  0.  3.], shape=(4,), dtype=float32)
B: tf.Tensor([ 0.  1.  0.  3.], shape=(4,), dtype=float32)
C: tf.Tensor([ [-2.  1.] [0.  3.] ], shape=(2,2), dtype=float32)
D: tf.Tensor([ [0.  1.] [0.  3.] ], shape=(2,2), dtype=float32)
答案: 【 tf.Tensor([ [0.  1.] [0.  3.] ], shape=(2,2), dtype=float32)

3、单选题:
‎下列哪一项是均方误差损失函数的代码实现?‌
选项:
A: tf.reduce_mean(tf.square(y_true - y_pred))
B: tf.reduce_mean(tf.abs(y_true-y_pred))
C: -tf.reduce_sum(y_true * tf.math.log(y_pred))
D: -tf.reduce_sum(labels * tf.math.log(tf.nn.softmax(logits)), axis=1)
答案: 【 tf.reduce_mean(tf.square(y_true - y_pred))

4、多选题:
‌解决过拟合问题的方法有:‌
选项:
A: 增大训练集
B: 采用正则化
C: 增加网络参数
D: 减小正则化参数
答案: 【 增大训练集;
采用正则化

5、多选题:
​下列属于神经网络优化器的有?‎
选项:
A: SGD
B: AdaGrad
C: RMSProp
D: Adam
答案: 【 SGD;
AdaGrad;
RMSProp;
Adam

第三讲 神经网络八股

第三讲 神经网络八股

1、单选题:
‌使用Sequential()函数搭建神经网络训练MNIST数据集的代码为:‍model = tf.keras.models.Sequential([    tf.keras.layers.Flatten(),     tf.keras.layers.Dense(128, activation='relu'),     tf.keras.layers.Dense(10, activation='softmax')])‍请问使用model.summary()打印网络结构和参数统计中,Total params的数目为?‍‌‍
选项:
A: 100480
B: 1280
C: 101770
D: 101632
答案: 【 101770

2、单选题:
以下数据为训练过程中某个epoch的最终输出,其中最能直观有效反映网络准确度的数据是?‏60000/60000 [==============================]‏- 4s 68us/sample‏- loss: 0.2916‏- sparse_categorical_accuracy: 0.8920‏- val_loss: 0.3387‏- val_sparse_categorical_accuracy: 0.8770‏‌‏
选项:
A: 0.2916
B: 0.8920
C: 0.3387
D: 0.8770
答案: 【 0.8770

3、单选题:
​如果标签以数值形式给出,模型推理结果以概率形式给出,则model.compile()函数中metrics参数应选择哪一项?​
选项:
A: ‘sparse_categorical_crossentropy’
B:  ‘accuracy’
C: ‘categorical_accuracy’
D: ‘sparse_ categorical_accuracy’
答案: 【 ‘sparse_ categorical_accuracy’

4、多选题:
‍以下关于MNIST数据集和Fashion_mnist数据集描述正确的是?‍
选项:
A: MNIST数据集一共包括7万张图片,其中6万张用于训练,1万张用于测试。
B: 每张图片包括1024(32×32)个像素点。
C: MNIST数据集是为0到9的手写数字数据集。
D: Fashion_mnist数据集中的图片被分为20类。
答案: 【 MNIST数据集一共包括7万张图片,其中6万张用于训练,1万张用于测试。;
MNIST数据集是为0到9的手写数字数据集。

5、判断题:
本课中搭建神经网络六步法包括如下步骤:‎1、import‎2、train, test‎3、Sequential / Class‎4、model.compile‎5、model.fit‎6、model.summary‎
选项:
A: 正确
B: 错误
答案: 【 正确

第四讲 网络八股扩展

剩余75%内容付费后可查看

发表评论

电子邮件地址不会被公开。 必填项已用*标注