第196章 万年一遇(2/2)
便了他。
AI智能的问题他还一直没有解决,他的下一个问题,准备解决的就是这个。
这个相比于物流的问题,要难得多,如果说物流的问题是数学皇冠上的明珠,那么这个就是开辟新的学科才能解决的。
他没有争着去堆模型调参数,而是从最底层的地基开始啃。
这些天,没事他就泡在泛海分析与凸优化里,把LipSChitZ连续性、强凸性、对偶问题一条条推到纸面上,直到那些复杂的不等式在脑子里变成直觉。
还有概率论与随机过程,从鞅论、大数定律,到高维空间中的集中不等式,一点点把“不确定性”这件事,拆成可计算、可控制的数学结构。
真正触及AI核心的部分,他是在计算学习理论里打通的。
VC维、RademaCher复杂度、泛化误差界,这些决定模型到底“到底能不能真正学会”的理论,他不只是看懂,而是亲手推导每一条界的松弛与收紧,理解深度学习为何能在参数远超样本量的情况下,依然不崩、不烂、不记住噪声。
再往上,是表示学习与流形学习。
他默认高维数据本就落在低维光滑流形上,用黎曼几何的眼光去看梯度下降,把优化过程理解成流形上的测地运动,而不是简单的向量更新。
那些别人靠“炼丹”碰运气的结构设计,在他这里,变成了拓扑不变量与几何先验的严谨选择。
最前沿的部分,他则直接扎进神经符号系统与因果推理的研究领域。
AI智能的问题他还一直没有解决,他的下一个问题,准备解决的就是这个。
这个相比于物流的问题,要难得多,如果说物流的问题是数学皇冠上的明珠,那么这个就是开辟新的学科才能解决的。
他没有争着去堆模型调参数,而是从最底层的地基开始啃。
这些天,没事他就泡在泛海分析与凸优化里,把LipSChitZ连续性、强凸性、对偶问题一条条推到纸面上,直到那些复杂的不等式在脑子里变成直觉。
还有概率论与随机过程,从鞅论、大数定律,到高维空间中的集中不等式,一点点把“不确定性”这件事,拆成可计算、可控制的数学结构。
真正触及AI核心的部分,他是在计算学习理论里打通的。
VC维、RademaCher复杂度、泛化误差界,这些决定模型到底“到底能不能真正学会”的理论,他不只是看懂,而是亲手推导每一条界的松弛与收紧,理解深度学习为何能在参数远超样本量的情况下,依然不崩、不烂、不记住噪声。
再往上,是表示学习与流形学习。
他默认高维数据本就落在低维光滑流形上,用黎曼几何的眼光去看梯度下降,把优化过程理解成流形上的测地运动,而不是简单的向量更新。
那些别人靠“炼丹”碰运气的结构设计,在他这里,变成了拓扑不变量与几何先验的严谨选择。
最前沿的部分,他则直接扎进神经符号系统与因果推理的研究领域。