偏差量,这就类似于一个前馈神经网络的神经元了。
这样一来卷积层内的每个神经元都与前一层中位置接近的区域内多个神经元相连,区域的大小取决于卷积核的大小,这就是一种“感受野”,可以类比为咱们人类的视觉皮层细胞的感受野。
卷积核在工作时,会有规律地扫过输入特征,因此在感受野内对输入特征可以做一个矩阵元素乘法求和并叠加偏差量——
因此我们可以列出一个线性卷积公式:y(n)=x(n)*h(n)=∞∑k=-∞x(k)h(n-k)。
当卷积核是大小f=1,步长s0=1,且不包含填充的单位卷积核时,卷积层内的交叉相关计算等价于矩阵乘法,并由此在卷积层间构建了一个全连接网络......”
徐诺一本正经科普的样子,像极了大学里在专注上课的教授。
而张朝闻人都已经傻了。
他就这么怔怔的愣在那里。
心想徐导你要不要看看你都在讲些什么?
影视top直播间里,网友们也都彻底傻眼了,弹幕“?????”已经刷屏。
“作为一名人工智能专业的学生,听徐导讲卷积神经网络,仿佛回到了大学课堂。”
“其实像徐导刚才说的叠加偏差量,这样做是在增加求解步骤的同时并不能为求解参数取得便利。”
“阿巴阿巴???”
“我哩个乖乖,这徐导一看就是专业选手啊!”
“卧槽,我人都听傻了,徐导以前是研究人工智能的吗?”
“人工智能专业刚毕业的我给大家简单解释一下,徐导说的意思大概就是,卷积神经网络算法,能够让计算机拥有类似于人的视知觉,也就是图像识别、语音识别、机器翻译这样的深度学习。”
“之前比较火的ai绘画懂吧,就是一种计算机的深