秋月春风学AI/DS
2024
03月
正则化为什么能缓解过拟合的数学原理与直觉理解。正则化之所以能防止过拟合,是因为它改变了优化目标,使模型在拟合数据的同时,为“复杂度”付出代价,从而排除那些依赖极端参数、只对训练噪声有效的解。
02月
DL梳理,提纲挈领地串联起发展脉络,有助于理解概念。
基于 CV(1)–(9) ,提纲挈领串联计算机视觉从分类基础到检测、分割、可解释性与生成模型的脉络。
CS231n Lec16 笔记整合:无监督与密度估计、PixelRNN/PixelCNN、VAE 与 ELBO、GAN 极小极大博弈与训练技巧、三类生成模型对比。
CS231n Lec15 笔记整合:卷积核与激活可视化、最大响应块、遮挡与显著图、引导反向传播与梯度上升、DeepDream、神经风格迁移(Gram 矩阵与快速风格化)。
CS231n Lec14 笔记整合:语义分割与实例分割、评价指标 mIoU、编码器-解码器与上采样、FCN/SegNet/U-Net、空洞卷积与 ASPP、DeepLab 与 PSPNet 等。
CS231n Lec12-13 笔记整合:检测任务定义、两阶段 R-CNN 系列(R-CNN、SPP-Net、Fast/Faster R-CNN、RPN、Anchor、ROI Pooling/Align)、一阶段 YOLO/SSD 思路、IoU 与 NMS、损失与多任务学习。
CS231n Lec5&9&10 笔记整合:卷积层/池化/全卷积化、经典架构(LeNet、AlexNet、VGG、GoogLeNet、ResNet)、NiN 与 ResNet 系列改进、轻量化与复杂度。
CS231n Lec8&11 与序列建模笔记整合:RNN 前向与 BPTT、多种输入输出拓扑、语言模型与采样、梯度消失/爆炸、GRU/LSTM、双向与深层 RNN、图像标注与视觉注意力。
CS231n Lec6-8 笔记,资料整合与一些自己的思考。初始化(激活函数、数据预处理、权重初始化、正则化、梯度检查),训练动态(监控学习过程、参数更新、超参数优化),本文讲解训练神经网络的核心方法:优化方式(SGD、动量更新、Nesterov动量、Adagrad、RMSProp、Adam等),正则化(L2、Dropout),迁移学习,模型集成,常见深度学习框架与硬件。
Page 3 / 5


