机器学习中的生成模型2025年2月28日 | 阅读 12 分钟 ![]() 它是机器学习的一个子领域,模型的目的是生成与原始训练数据相似的新数据。与判别模型(传统上设计为从输入到输出的映射,例如,识别图像是否包含狗或猫)相反,生成模型试图逼近数据本身,即底层分布。这样,它们就有可能生成最有可能来自与训练样本相同分布的新样本。近年来,生成模型因其在图像合成、自然语言处理和药物发现等领域的成功应用而备受关注。本文将深入探讨生成建模的哲学基础,并重点介绍一些常见的生成模型类型及其在实践中的应用。 本质上,生成建模只是学习数据的联合概率分布 P(X),其中 X 代表特征,或者更确切地说,是数据点。概率分布捕捉了数据中不同值和模式发生的可能性。一旦学习了这种分布,生成模型就可以通过从 P(X) 中抽取来用于生成新样本。这与判别模型形成对比,判别模型侧重于对条件概率 P(Y|X) 进行建模,其中 X 是输入数据,Y 是目标标签。虽然判别模型在分类任务上表现出色,但它们并不试图理解数据本身的结构。生成模型由于其更丰富的数据拟合能力而表现更好,因为它们主要关注数据点实际是如何生成的。适用于数据增强、合成和无监督学习等应用。 生成模型类型有几种类型的生成模型,每种模型都有不同的学习和生成数据技术,以下是一些例子: 01. 生成对抗网络(GANs)![]() 自 2014 年由 Ian Goodfellow 发明以来,GANs 彻底改变了机器学习领域,特别是生成建模领域。作为一类机器学习模型,GANs 主要用于生成新的、合成的数据,这些数据具有真实世界数据的特征。它在图像合成、视频生成、文本到图像翻译甚至科学研究等各种领域都有创新应用。 本质上,生成对抗网络是两个神经网络的交互:生成器和判别器,它们相互影响,但在目标上截然相反。这些网络进行一场零和博弈,其中生成器试图创建尽可能与真实数据相似的合成数据,而判别器则试图区分真实数据和生成数据(“假数据”)。
现在,这里将展示 GAN 架构的代码。 02. VAE![]() 变分自编码器是其中一种生成模型,它们在机器学习领域取得了一些伟大的成就,显著加速了无监督学习和数据生成。本质上,VAE 代表了一种结构化的方法,用于对输入数据的潜在空间表示进行概率学习。VAE 由 Kingma 和 Welling 于 2013 年提出,因其能够对复杂的数据分布进行建模并与贝叶斯推理密切相关而广受欢迎。 可以将变分自编码器视为自编码器,但它是概率性的。常规自编码器将数据压缩到较低维度的空间,称为瓶颈或潜在空间,然后从这种压缩表示中重建数据。VAE 不同,它不那么注重学习从输入到潜在空间的确定性映射,而是对潜在空间上的概率分布进行建模,从而允许生成新的数据点。 现在,这里将展示 VAE 架构的代码。 03. 自回归模型基于过去数据预测未来值被称为自回归(AR)模型,它是统计学和机器学习中的一类重要模型。这类自回归模型的基础是时间序列或顺序数据中的未来观测值依赖于过去观测值。这种模型已广泛应用于金融、经济、自然语言处理和语音识别等许多领域。自回归模型假设当前的输出或数据点是先前数据点的某种线性组合,并添加了噪声。也就是说,模型根据其先前的值“回归”当前值。 现在,这里将展示自回归模型的架构代码。 04. 流模型![]() 流模型是一类非常有趣的深度生成模型,用于学习和生成复杂数据分布。与其他生成模型(如生成对抗网络或变分自编码器)不同,流模型可以提供数据的精确似然,并允许数据和潜在空间之间的双向映射。它们既是生成性的,因为它们允许生成新的数据集,又是可逆的,因为它们允许从潜在表示中重建数据。 流模型是生成模型,它们学习将简单的概率分布(例如高斯分布)转换为更复杂的分布:图像、音频或文本。这通过一系列称为归一化流的可逆变换来实现。它们是模型可以执行的从数据空间到潜在空间的映射。 现在,这里将展示流模型的架构代码。 05. Transformer 模型![]() Transformer 模型彻底改变了自然语言处理、计算机视觉等领域的机器学习,包括顺序数据的建模。Transformer 由 Vaswani 等人在 2017 年的论文“Attention Is All You Need”中提出,它已成为 BERT、GPT 和 T5 等最先进模型的基础,在文本生成、翻译和图像处理等大多数任务中都提供卓越的性能。 现在,这里将展示 Transformer 模型的架构代码。 下一主题机器学习中的归一化 |
我们请求您订阅我们的新闻通讯以获取最新更新。