当前位置: 代码网 > 科技>人工智能>机器学习 > 【机器学习 复习】第11章 神经网络与深度学习(重中之重)(含计算)

【机器学习 复习】第11章 神经网络与深度学习(重中之重)(含计算)

2024年07月28日 机器学习 我要评论
(1)深层神经网络在神经元数目一定的情况下,相比于传统浅层神经网络来说,具有更强大的学习能力,能够从原始输入中自动提取出具有高度抽象含义的特征(即脑补能力极其nb)。这里用的2*2(题目说了)的池化核,还说了最小池化法,就是选最小的就行,更简单,比如红字部分,最小的是3,所以第一个3就是这么来的,简单的一批。(3)正向传播:输入信号通过隐藏层作用于输出结点,经过非线性变换,产生输出信号,若实际输出与期望输出不相符,则转入误差的反向传播过程。隐藏层包括卷积层、激活层、池化层以及全连接层等。

一、概念

1.神经元模型

2.多层感知机

3.损失函数:

4.反向传播算法(bp算法)

5.梯度下降法:

6.梯度消失

7.梯度爆炸

8.深度学习

9.卷积神经网络(重点)

10.池化(pooling)

11.生成对抗网络

二、习题

单选题:

多选题:

判断题:

计算题:

简答题:

         如果增加神经网络的隐藏层层数,分类误差总会减小。这种陈述正确还是错误?﹖请说明理
由,简述一下传统神经网络和卷积网络的区别。
(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com