Tags CV

ResNet论文精读

ResNet精读与整理,缓解梯度爆炸的数学原理。

Transformer论文精读

Transformer模型笔记整理,参考资料已附在开头。

正则化为什么能缓解过拟合

正则化为什么能缓解过拟合的数学原理与直觉理解。正则化之所以能防止过拟合,是因为它改变了优化目标,使模型在拟合数据的同时,为“复杂度”付出代价,从而排除那些依赖极端参数、只对训练噪声有效的解。

DL脉络梳理

DL梳理,提纲挈领地串联起发展脉络,有助于理解概念。

CV脉络梳理

基于 CV(1)–(9) ,提纲挈领串联计算机视觉从分类基础到检测、分割、可解释性与生成模型的脉络。

CV(9):生成模型

CS231n Lec16 笔记整合:无监督与密度估计、PixelRNN/PixelCNN、VAE 与 ELBO、GAN 极小极大博弈与训练技巧、三类生成模型对比。

CV(8):视觉模型可视化与可解释性

CS231n Lec15 笔记整合:卷积核与激活可视化、最大响应块、遮挡与显著图、引导反向传播与梯度上升、DeepDream、神经风格迁移(Gram 矩阵与快速风格化)。

CV(7):图像分割

CS231n Lec14 笔记整合:语义分割与实例分割、评价指标 mIoU、编码器-解码器与上采样、FCN/SegNet/U-Net、空洞卷积与 ASPP、DeepLab 与 PSPNet 等。

CV(6):目标检测

CS231n Lec12-13 笔记整合:检测任务定义、两阶段 R-CNN 系列(R-CNN、SPP-Net、Fast/Faster R-CNN、RPN、Anchor、ROI Pooling/Align)、一阶段 YOLO/SSD 思路、IoU 与 NMS、损失与多任务学习。

CV(4):CNN经典结构

CS231n Lec5&9&10 笔记整合:卷积层/池化/全卷积化、经典架构(LeNet、AlexNet、VGG、GoogLeNet、ResNet)、NiN 与 ResNet 系列改进、轻量化与复杂度。