CNN 卷积神经网络 —— 极简核心版
我用最通俗、不绕弯、适合考研复试的方式给你讲 CNN,一遍就能听懂、能复述。
CNN 卷积神经网络 —— 极简核心版
CNN 就是专门处理图片(网格数据)的神经网络,
核心思想:局部连接 + 权值共享 + 下采样
一、CNN 最核心的 3 层(必背)
1. 卷积层(Convolution)
作用:提取特征(边缘、纹理、形状、高级语义)
工具:卷积核(滤波器)
原理:
- 用一个小窗口在图片上滑
- 做点积运算
- 得到特征图(feature map)
两个大招:
- 局部连接:只看附近像素,不是全连接
- 权值共享:一个卷积核整张图用,参数巨少
2. 池化层(Pooling)
作用:降维、压缩、保留关键信息
常见两种:
- 最大池化(Max Pooling):取区域里最大的值
- 平均池化(Avg Pooling):取平均
好处:
- 减小计算量
- 防止过拟合
- 让特征更鲁棒
3. 全连接层(FC)
- 作用:把特征拼成分类结果
- 把前面的特征图拉平 → 变成向量 → 输出类别概率
二、完整 CNN 结构长这样(标准套路)
1 | 输入图像 |
层数越深,提取的特征越高级:
- 浅层:边缘、角点、纹理
- 中层:形状、部件
- 深层:整个物体(人脸、车、猫)
三、CNN 为什么比普通神经网络强?(必考点)
- 权值共享 → 参数极少,好训练
- 局部感受野 → 符合视觉原理
- 池化降维 → 抗变形、抗干扰
- 自动提取特征 → 不用人工设计
四、最经典的 CNN 模型(复试常问)
- LeNet-5:最早的 CNN,手写数字识别
- AlexNet:深度学习爆发的起点
- VGG:小卷积核堆叠,结构简单
- ResNet:残差连接,解决深层训练难
- GoogLeNet/Inception:多尺度卷积
五、一句话总结(复试直接背)
CNN 是利用卷积核提取图像特征、通过池化降维、最后全连接分类的神经网络,核心是局部连接、权值共享和下采样,广泛用于图像分类、检测、分割等视觉任务。
六、口述版
CNN 卷积神经网络 —— 考研复试 1 分钟口述版(直接背)
各位老师好,我来介绍一下 CNN。
CNN 全称是卷积神经网络,主要用来处理图像、视频这类网格结构数据。
它的核心思想是局部连接、权值共享和下采样,这也是它比传统全连接网络效果好、参数少的关键。
一个标准的 CNN 主要由三部分组成:
第一是卷积层,用卷积核在图像上滑动提取特征,浅层提取边缘、纹理,深层提取物体、语义;
第二是池化层,用来降维、压缩特征,同时让模型更鲁棒,常用最大池化;
第三是全连接层,把提取好的特征展平,最后输出分类或预测结果。
中间一般会加上 ReLU 激活函数增加非线性,提升网络表达能力。
简单总结:
CNN 就是自动提取图像特征、用卷积和池化减少参数、最后全连接输出结果的网络,广泛用于图像分类、目标检测、分割等任务。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 知还。!
评论



