非线性激活函数的理解

news/2024/6/29 12:02:36 标签: tensorflow, 卷积神经网络, 深度学习, 卷积

根据万能逼近定理(Universal Approximation Theory),神经网络能以任意精度逼近连续函数。线性函数的线性组合还是线性函数,所以线性函数不能以任意精度逼近连续函数。

训练神经网络时,先随机初始化卷积核参数,把卷积层的结果输入激活函数层,达到某个阈值则激活该神经元,否则设置为0(ReLU),之后进入池化层。把池化层的输出与真值相减,得到损失函数loss,沿着loss的负梯度方向反向传播,更新卷积核参数。

如果没有非线性激活函数的话,多层神经网络和一层神经网络是一样的,都是卷积核的线性组合[1]。

[1]. https://blog.csdn.net/qq_36825778/article/details/102474345


http://www.niftyadmin.cn/n/884099.html

相关文章

二、链表(1):链表理论基础

一、关于链表,你该了解这些! 什么是链表,链表是一种通过指针串联在一起的线性结构,每一个节点是又两部分组成,一个是数据域一个是指针域(存放指向下一个节点的指针),最后一个节点的…

二、链表(2):移除链表元素

https://leetcode-cn.com/problems/remove-linked-list-elements/ 题意:删除链表中等于给定值 val 的所有节点。 示例 1: 输入:head [1,2,6,3,4,5,6], val 6 输出:[1,2,3,4,5] 示例 2: 输入:head [], va…

faster rcnn 损失函数

损失函数分为框预测回归和分类loss,每个都分为rpn和rcnn。 rpn损失: _anchor_target_layer 给图像内部的anchors分配rpn_labels(1或0,前景或背景),再和rpn_cls_score做交叉熵,此时只关注物体是前景/背景,…

二、链表(3):设计链表

https://leetcode-cn.com/problems/design-linked-list/ 题意: 在链表类中实现这些功能: get(index):获取链表中第 index 个节点的值。如果索引无效,则返回-1。addAtHead(val):在链表的第一个元素之前添加一个值为 val…

faster rcnn 图像识别三大步骤

三大步骤分别是识别、分割、分类。 识别:识别是为了得到rois(region of interests,即感兴趣的区域)。首先在卷基层提取特征,再在每个特征上生成anchor[1],把anchor在_region_proposal [2]做识别,提取部分anchor得到ro…

二、链表(4):反转链表

https://leetcode-cn.com/problems/reverse-linked-list/ 题意:反转一个单链表。 示例: 输入: 1->2->3->4->5->NULL输出: 5->4->3->2->1->NULL一、思路 如果再定义一个新的链表,实现链表元素的反转,其实这是对…

机器学习和深度学习中,L2正则化为什么能防止过拟合?

正则化是为了降低模型的复杂度,模型过于复杂,则过拟合; 与傅里叶变换类似,高频的部分表示细节,尽量减少高频部分的影响; 傅里叶级数也是,高阶表示细节; 当阶数较高时,…

算法——找出数组中出现次数最多的数

今天面试中有一道算法题,好长时间没做算法了,虽然很简单,但是当时没做出来,记录一下 import numpy as npa np.array([1,4,5,6,4,7,5,4])#找出数组中出现次数最多的数 def find_a(arr):arr_sort np.sort(arr)ll np.size(arr)s …