
一些零散的题目和方法整理:
杂题汇总 这里存放着同学或网友问过的问题,因为刚刚整理,篇幅不多,所以也不打算每个问题单列出来,而是集中到一个pdf文档中(不定期更新:2025.11.1)
AI 提问词 从UP小号菌子那里参考,后续随着进一步使用,或许会更新一份新的提示词。
下面补充了一些对AI与数学的看法,总结为 学习与优化的原理:从度量到方法论
Goodhart 定律 (Goodhart, 1975):
当一种度量被用作目标时,它将不再是一个好的度量。
在优化真实目标(难以衡量)时,我们使用代理目标(易于衡量)。过度优化代理指标会使其实质价值降低。
| 类型 | 核心问题 | 学习中的例子 | 关键修正措施 |
|---|---|---|---|
| 极端型 (过拟合) | 过度适应训练集,泛化性能急剧下降。 | 缺少对本质的思考,机械训练相似题目,导致缺乏举一反三的能力。 | 1. 限制优化幅度,理解方法本质。 2. 多样化训练,知道方法的适用性边界。 |
| 因果型 (相关非因果) | 错把相关当成因果,优化指标对真实目标无效。 | 认为“读完书的页数”与“数学水平”有必然因果,导致浅层阅读和理解不足。 | 持续进行因果分析,跟踪真实结果来验证代理指标的有效性。 |
| 对抗型 (钻空子) | 为最大化指标,利用设计漏洞,未推动真实目标实现。 | 只做简单、容易的题目,以最大化单位时间做题数量。 | 多维化指标设计,避免维度过于单一。对钻空子行为进行惩戒。 |
总结: 指标是手段,不可本末倒置。必须持续审视并修正代理目标。
贪心算法在每一步都选择局部最优。它能得到全局最优解,必须满足以下两个条件:
教训: 学习和复杂优化问题往往不满足这两个前提。
数学家 Gowers 将数学抽象分为两类:
当前不足: 缺乏严密阐述第二类抽象的数学语言,导致这种方法论的抽象常常以不够严谨的人类自然语言进行交流。
数学笔记的定位是理解的“图式”和“工具箱”。
| 策略 | 核心思路 | 例子 |
|---|---|---|
| 推广 | 将解决问题的思路延伸到一般情况。 | 利用 $\text{Bezout}$ 恒等式将群论中互素条件的解法推广。 |
| 反例 | 思考“如果去掉某个条件会如何?” | 构造反例,证明 $\limsup x_n^2$ 的等式为何需要 $x_n \geq 0$。 |
| 替代性思考 | 思考“为何不试试这样做?”以理解当前解法的优势或局限性。 | 探究递归序列的极限:为何选择上下极限而非证明单调性。 |
| 背景探究 | 寻找某个结果对应的更大数学背景。 | 从 $\lim \sin(n)$ 的初等做法,扩展到数论中序列的性质。 |
核心原则:
只问 AI 擅长回答的问题。
容错与验证原则:
仅在回答的错误容忍度较高,且正确性易于被验证时,才使用 AI.
| 适用原则的场景 | 评估结果 |
|---|---|
| 头脑风暴(寻求灵感/例子) | 推荐:容错度高,验证难度低。 |
| 不常见证明/复杂推理 | 不推荐:数学错误容忍度极低,且非 $\text{LLM}$ 强项。 |
| 编写程序代码 | 推荐:错误反馈及时(验证难度低),易于调试修正。 |
将本应由大脑完成的推理、检索和监控工作外包给 $\text{LLM}$,短期看似高效,长期却会侵蚀注意力、记忆力与元认知控制。
传统训练只强调“某种方法能解决什么问题”,缺乏“某种方法不能解决什么问题”的试错经验,导致过拟合。
练习时的反思:
例子: 求和极限时,若 $\text{Taylor}$ 展开后的误差余项 $\sum O(\dots)$ 不符合 $o(1)$ 的要求,则必须放弃逐项估计,转向和的积分估计等替代方法。