关于 AI 的惊人事实2025年4月14日 | 阅读 7 分钟 生物学起源神经网络基于人脑的结构和一般功能,但这些创造的神经学背景却鲜为人知。人工神经网络(ANNs)的理念最早起源于沃伦·麦卡洛克和沃尔特·皮茨在 1943 年进行的工作,这项工作提出了神经结构的计算模型。他们首次提出神经元活动可用于逻辑计算,从而为未来的 AI 铺平了道路。 早期在模式识别中的应用虽然今天的神经网络用于不同目的,包括媒体识别,但在 1950-1960 年代,模式识别是这一概念的首次应用。弗兰克·罗森布拉特的感知器于 1958 年创建,是能够识别模式和图像的神经网络的先驱之一。尽管存在问题,感知器证明神经网络可用于解决实际问题。 连接主义运动始于 20 世纪 80 年代的连接主义运动重新燃起了对开发神经网络的兴趣。连接主义是基于认知科学、神经科学和计算机科学之间相互作用的框架。杰弗里·辛顿和大卫·鲁梅尔哈特等学者创建了反向传播算法,通过开发神经网络为人工智能的改进铺平了道路。 在艺术中的应用值得注意的是,神经网络不仅限于技术用途,还已应用于艺术领域。画家和歌手利用神经网络的结果创作新的画作和歌曲。例如,Google 的 DeepDream 创造出看起来像来自梦境的风景,而 OpenAI 的 MuseNet 等神经网络可以创作包含各种流派元素的新歌曲。 对抗网络神经网络最重要的应用之一是生成对抗网络(GANs),由 Ian Goodfellow 于 2014 年提出。GANs 是两种模型,生成模型和判别模型,它们相互对抗以生成逼真的数据。这些对抗性训练形式已将图像和视频合成提升到结果看起来真实,就像训练数据一样。 量子计算神经网络量子神经网络(QNNs)相对较新,将神经网络与量子计算相结合。它们应用量子力学原理以在传统神经网络无法实现的动态中响应和处理数据。这种方法严重意味着许多大规模问题可以至少部分地比现有方法快得多地解决,并且它有可能改变密码学、优化和药物搜索等领域。 偏见与公平性神经网络也可能对训练中使用的数据中的偏差不敏感。这个问题导致了许多努力和研究来创建更中立、公平的 AI 系统。对抗性去偏和公平性约束是旨在消除偏差并使神经网络在其输出中完全公平的一些已交付方法。 神经符号集成有一种特殊的方法称为神经符号集成,它结合使用神经网络和符号 AI,因为它们具有各自的优势。这种混合模型能够从神经网络的灵活性以及基于逻辑的符号 AI 中进行推理和理解。一些应用包括增强理解自然语言的能力以及更好、更强大的人工智能。 自主系统人工神经网络是汽车、航空等各个行业中创建自动化系统的核心。这些网络允许机器感知周围环境、做出决策并处理各种情况。特斯拉和 Waymo 等公司目前正在使用神经网络来训练其自动驾驶汽车,这些汽车一直在学习和改进其操作。 NLP 的早期开端最先进的技术起源于上世纪五十年代后期,其标志是乔治城-IBM 实验,其中机器将六十多句俄语翻译成英语。这项实验是机器翻译领域的第一项突破,可以被认为是 NLP 分支发展的起点。 乔姆斯基语法的作用在 NLP 的发展中,乔姆斯基在语法方面提出的理论,特别是转换生成语法的构建,是无价的。正如第 1.4 节所述,乔姆斯基的早期工作侧重于人类语言的句法结构,为早期计算语言学和自然语言处理奠定了理论起点,强调了句法和语义分析在语言研究中的重要性。 隐马尔可夫模型 (HMMs)在 1980 年到 1990 年间,隐马尔可夫模型 (HMMs) 被确立为 NLP 中最广泛使用的方法之一,特别是用于语音标注和语音识别。HMMs 是统计模型,其工作前提是拟合的模型是一个具有隐藏状态的马尔可夫过程,这使得它们在语言等序列数据中高效。 向量空间模型LSA 和 Word2Vec 等技术改变了文本和单词的编写方式,并将其视为高维空间中的向量。这些模型可以执行更好的语义分析,并为深度学习中使用的现代词嵌入奠定基础。 语音识别突破语音识别是 NLP 的重要应用领域之一。另一项早期大规模工作是 20 世纪 70 年代由美国国防高级研究计划局资助的语音理解研究 (SUR)。该项目展示了将 NLP 应用于口语转换为文本生成的可能性,从而为当今虚拟助手(包括 Siri 和 Alexa)的开发铺平了道路。 情感分析应用情感分析是 NLP 的一个分支,致力于检测陈述的情感基础。该技术常用于监测社交媒体平台、客户互动和市场研究。文本挖掘还有助于在分析大量文本信息时得出人群意见和客户满意度。 Transformer 模型Transformer 模型(包括 BERT 和 GPT)的引入证明是 NLP 的一大进步。Transformer 使用自注意力机制来管理文本中远距离组件之间的关系,从而提高了不同 NLP 问题的效率。 跨语言 NLP跨语言 NLP 致力于设计能够以语言作为输入和输出的系统。多语言嵌入和迁移学习等方法允许开发在不同语言中有效的系统,并促进世界各地具有不同语言偏好的人们之间的互动。 感知器的作用弗兰克·罗森布拉特于 1957 年引入了感知器;它是第一个人工神经元模型之一,是神经网络领域的重要一步。它应用于二元分类,并展示了使用输入数据教导机器的可能性,这影响了神经网络的后续发展。 支持向量机 (SVM)支持向量机(由 Vladimir Vapnik 及其同事在 20 世纪 90 年代初提出)被表征为用于分类和回归的 ToV。支持向量机确定最有可能将数据点分类到不同类别中的超平面的位置,因此,它们非常适合用于从文本分类到生物信息学等实际问题。 强化学习和游戏赌注强化学习 (RL) 是一种机器学习类型,其中智能体通过与给定环境交互来学习做出决策。RL 在 1997 年 IBM 的 Deep Blue 击败世界国际象棋冠军加里·卡斯帕罗夫时引起了广泛关注。后来,在 2016 年,谷歌的 AI AlphaGo 应用 RL 稳固地击败了世界上最好的围棋选手,表明 RL 在理性决策方面的可行性。 无监督学习技术另一种很少提及的机器学习方法是无监督学习,其中模型在不包含响应的数据上进行训练。聚类(例如 k-均值)和降维(例如 PCA)等算法在数据结构分析中至关重要,因此可以说可能在探索性数据分析中或作为多个应用程序的数据预处理阶段的一部分有用。 迁移学习迁移学习因此涉及使用为特定任务训练的模型并将其应用于相关但不同的任务。这在标记数据稀缺的领域(如医学图像分析和自然语言处理)中变得流行。迁移学习还利用大型数据集中的知识来减少新任务的训练时间并提高模型的性能。 对抗性示例和鲁棒性对抗性示例是对机器学习模型中使用的输入进行的微小修改,旨在使其行为不当。这是一种相当有用的现象,说明了 ML 系统在自动驾驶汽车和面部识别等安全敏感领域的弱点。该领域的研究基于设计能够抵抗此类攻击的方法和模型。 机器学习中的伦理和公平偏见和公平是与 ML 相关的伦理实践中最重要的方面之一,但它们经常被忽视。已经发现,在这种偏见上训练的模型可以强化甚至放大社会中存在的此类偏见。解决此类问题的策略是通过为所有人口统计学创建有利的平等对待方程,并在模型校准措施中非常明确。 量子机器学习量子机器学习 (QML) 是一个相对较新的研究领域,它将量子计算和机器学习相结合。它试图将量子力学原理应用于计算,旨在解决即使是最快的经典计算机也无法解决的问题。但即使现在,QML 仍被认为是一个相当年轻的领域,可能会在计算速度和性能方面取得巨大进步。 AutoML 和机器学习民主化AutoML 侧重于以尽可能多的自动化将机器学习应用于业务问题。它可以帮助选择正确的模型及其组件、参数和特征学习算法,使任何人都可以轻松部署 ML,并加速 AI 解决方案在许多垂直领域的实施。 下一主题AI 在绩效管理中的作用 |
我们请求您订阅我们的新闻通讯以获取最新更新。