秋月春风学AI/DS

2025

08月

Self-Evolving Agent综述整理

整理自 https://arxiv.org/abs/2507.21046 《A Survey of Self-Evolving Agents- On Path to Artificial Super Intelligence》

07月

Agent Communication综述整理(Protocols & Safety)

整理自多篇综述与论文,以《A Survey of LLM-Driven AI Agent Communication- Protocols, Security Risks, and Defense Countermeasures》为主线。

06月

AI4Research综述整理 (DS Agent & AI scientist)

整理自 https://arxiv.org/abs/2412.14222 《A Survey on Large Language Model-based Agents for Statistics and Data Science》 & https://arxiv.org/abs/2510.23045 《A Survey of AI Scientists》

02月

LLM as a judge综述整理

整理自 https://arxiv.org/abs/2411.16594v7 《From Generation to Judgment- Opportunities and Challenges of LLM-as-a-judge》

Single Cell 基础知识Survey

一周速通single cell基本概念的survey

2024

03月

位置编码整理

位置编码笔记整理 绝对位置编码、RoPE、2D/3D RoPE、M-RoPE、PI、NTK-Aware、ALiBi、YARN、位置编码外推等。

ResNet论文精读

ResNet精读与整理,缓解梯度爆炸的数学原理。

Transformer论文精读

Transformer模型笔记整理,参考资料已附在开头。

正则化为什么能缓解过拟合

正则化为什么能缓解过拟合的数学原理与直觉理解。正则化之所以能防止过拟合,是因为它改变了优化目标,使模型在拟合数据的同时,为“复杂度”付出代价,从而排除那些依赖极端参数、只对训练噪声有效的解。

02月

CV(3):神经网络训练技巧

CS231n Lec6-8 笔记,资料整合与一些自己的思考。初始化(激活函数、数据预处理、权重初始化、正则化、梯度检查),训练动态(监控学习过程、参数更新、超参数优化),本文讲解训练神经网络的核心方法:优化方式(SGD、动量更新、Nesterov动量、Adagrad、RMSProp、Adam等),正则化(L2、Dropout),迁移学习,模型集成,常见深度学习框架与硬件。