深度参数化连续卷积神经网络2025 年 6 月 25 日 | 2 分钟阅读 参数化连续卷积是一种创新的可学习算子,它适用于非网格结构数据。其主要概念是利用参数化核函数覆盖整个连续向量空间。Uber 高级技术组的研究人员提出了深度参数化连续核卷积。简单的 CNN 架构假定网格状布局,并使用离散卷积作为其核心构建组件,这是本文的驱动力。这使得它们难以对众多实际应用进行精确卷积。因此,他们提出了一种称为参数化连续卷积的卷积技术。 参数化连续卷积通过使用覆盖整个连续向量空间的参数化核,参数化连续卷积是一种可学习的算子,它作用于非网格组织数据。如果支持结构是可计算的,它可以处理任何数据结构。通过使用蒙特卡洛采样,连续卷积算子可以大致与离散卷积进行比较。 ![]() ![]() 但是,我们如何创建连续卷积核函数 g 呢?该函数 g 被参数化以赋予支持域中的每个点一个值(核权重)。对于连续卷积,这种参数化是不可能的,因为函数 g 将在无限数量的点上指定。 多层感知器 (MLP) 具有表达能力,能够近似连续函数。因此,解决该问题的方法是使用连续参数函数对 g 进行建模。 ![]() 核函数 g(z) 由有限的参数集指定,涵盖整个连续支持域。 连续参数化卷积层参数化连续卷积层可以有不同的输入和输出。每个卷积层的输入由以下三个组件组成
我们评估每个层中所有 Xi in S 和所有 Yj in O 的核函数 g(Yj - Xi;)。最终的输出特征确定如下 ![]() 其中,
![]() 架构![]() 输入特征及其在支持域中的位置作为输入提供给网络。我们可以添加批量归一化、非线性和层之间的剩余连接,这对于帮助收敛至关重要,以构建传统的 CNN 架构。通过使用池化可以在支持域中收集信息。 由于所有块都是可微分的,因此可以使用反向传播来训练网络。 ![]() 强制局部性持续卷积。为了保持局部性,传统的卷积核尺寸较小。通过参数化连续卷积也可以强制限制函数 g 对 x 附近点的影响。因此, ![]() 在调制窗口 (w) 中,我们只能保留 K 近邻 (kNN) 或设定半径内的点的非零核值(球点)。 分析![]() 下一主题递归特征消除 |
引言 神经网络已成为人工智能和机器学习中许多任务的强大引擎,从图像识别到自然语言处理。然而,典型的神经网络通常无法为预测中的不确定性分配数值。这就是...
11 分钟阅读
自适应矩估计,即 Adam 优化器,是一种用于深度学习模型训练的复杂优化技术。Adam 最初由 Diederik P. Kingma 和 Jimmy Ba 在他们 2014 年的工作中提出,由于其有效性和效率,它已发展成为...
18 分钟阅读
在机器学习中,交叉验证是一种通过在输入数据的子集上训练模型并在未见过的数据子集上进行测试来验证模型效率的技术。我们也可以说,它是一种检查统计模型如何工作的技术……
5 分钟阅读
它是优化和机器学习中的一个基本定理,指出没有优化算法能在所有可能的问题上优于所有其他算法。这些原则最初由 David Wolpert 和 William Macready 在 20 世纪 90 年代提出,它们实际上揭示了……的内在限制。
7 分钟阅读
导言 在本文中,我们讨论 Xtreme 多语言神经网络。循环神经网络 (RNN) 是一种神经网络,其中前一时间步的输出用作当前时间步的输入。在传统神经网络中,所有输入和...
阅读 6 分钟
线性回归是最全面、最常用的回归技术之一。它是最简单的回归技术之一。结果易于解释,这是其主要优点之一。以下回归技术假定目标值将是线性组合...
阅读 3 分钟
一种称为“基于人口统计学的推荐系统”的推荐引擎使用用户人口统计数据来提供产品建议。为了预测偏好和行为,这些系统根据年龄、性别、就业、教育水平和地理位置等变量对用户进行分类。这些系统能够...
阅读9分钟
简介 遗传算法 (GA) 代表了一种令人兴奋和创新的计算机科学问题解决方法,其灵感来自自然选择和遗传学的思想。自然选择是遗传算法 (GA) 形式的基础,它属于更大的群体类别...
阅读 12 分钟
知识图谱简介 知识图谱 (KG) 是一个基于事实的示例,它使用图结构将对象解释为节点,将其交互解释为边。知识图谱突出显示了数据片段之间的关系和上下文,从而实现更全面的理解...
7 分钟阅读
简介:通过能够适应各种数据分布和链接函数,广义线性模型 (GLM) 为对响应和预测变量之间的交互进行建模提供了一个稳健的统计框架。GLM 适用于非正态和异质性数据,因为它们放宽了恒定变异性和残差的要求...
7 分钟阅读
我们请求您订阅我们的新闻通讯以获取最新更新。
我们提供所有技术(如 Java 教程、Android、Java 框架)的教程和面试问题
G-13, 2nd Floor, Sec-3, Noida, UP, 201301, India