极限和连续性简介

2025年6月20日 | 阅读 4 分钟

机器学习 (ML) 领域关注于操纵复杂的数学函数,将输入映射到输出。对一些数学概念(如极限和连续性)有一个基本层面的理解对于开发稳健的建模技术非常重要。这些概念对于优化、损失函数和反向传播尤为重要。

极限描述了当自变量值接近某个特定值时函数的行为。极限对于导数、梯度和优化技术的定义很重要。

极限分析是机器学习应用的核心。在计算梯度时,极限对于定义导数至关重要,用于梯度下降等基于梯度的优化算法的训练。关于损失函数的分析,了解这些函数在最优点附近的行为有助于在训练过程中实现更好的收敛性和稳定性。此外,极限提供了关于激活函数在极端值处如何行为的见解,确保通过神经网络的输入数据转换是平滑的。

代码

输出

 
Approximate limit at x=1: 2.0

连续性意味着函数将表现出平滑的行为,其图表中没有任何突然的变化或中断。因此,如果函数在该点的值已定义,该点的极限存在,并且函数在该点的值等于极限,则认为函数在该点是连续的。

连续性在机器学习的许多方面都很重要,它能使模型训练平滑,避免损失函数出现不连续的跳跃,从而通过更好的收敛性稳定优化。许多典型的激活函数,如 Sigmoid、ReLU 和 Tanh 都是连续的,因此可以轻松应用基于梯度的学习。此外,连续性确保梯度通过神经网络在反向传播中流动,从而使权重更新稳定。

在机器学习中,平滑的决策制定由连续函数(例如 [此处原文缺失,无法翻译])控制。相反,由早期神经网络中使用的阶跃函数等引起的不连续性,会导致输出的突然变化,从而导致不稳定性。确保模型中使用的函数是连续的,可以提高性能、可靠性,因此是机器学习中的一个基本概念。

代码

输出

Introduction to Limits and Continuity

现在我们将借助极限和连续性来演示梯度下降的工作原理。

应该指出,理解导数的定义是必需的,而梯度下降方法正是基于此运作的。导数显示了变化率;这在参数值中有所不同,有助于引导模型朝着成本函数上的最小点碰撞。如果极限定义不当,其梯度可能会变得未定义,并可能使优化变得有问题。

连续函数没有突然的变化或跳跃。梯度下降需要一个连续且可微分的成本函数,以实现尽可能平滑的学习。成本函数的突然变化将导致参数的突然变化,从而导致学习建立中的不稳定。

Introduction to Limits and Continuity

代码

输出

Introduction to Limits and Continuity