人工智能哲学2025年4月12日 | 阅读 10 分钟 引言AI哲学是哲学的一部分,研究人工智能的存在、智能和意识,以及与其创造相关的其他问题。它探讨了人工智能思考、理解的能力,甚至通过使用公式来模仿人类的意识或智能。 强人工智能是指拥有真正智能的机器,而弱人工智能是指具有明显智能行为但对此没有理解的机器。社会担忧,包括伦理、决策、自主性和人工智能的社会影响,也同样存在。这是一个跨学科的学术领域,是计算机科学、认知科学和哲学的交叉点,它定义了人类智能和人工智能的概念。 什么是智能?定义智能非常困难,因为它是一个抽象的概念,在不同人的心中有着不同的含义。自19世纪末以来,专家们进行了各种尝试来捕捉其含义。简单来说,智能可以被描述为获取知识的能力以及利用这些数据来改善一个人的功能模式,尤其是在涉及人类的情况下。其他作家则认为,智能包含多种成分,这些成分共同决定了思维和解决问题的水平。这些技能包括:
它是一种更高、更广泛的能力,能够理解现实,快速学习新信息,注意到事物和事件之间的关系,或者决定应该做什么。 人工智能勒内·笛卡尔(Rene Descartes),被认为是现代哲学的奠基人。笛卡尔认为,人类不可能创造出智能机器。他说,有些技术有可能开发出有情感的会说话或反应的机器。但他不认为可以设计出一台机器,能够对周围发生的事情做出有意义的反应,并且任何愚蠢的人都能做到这一点。 图灵测试艾伦·图灵(Alan Turing),被认为是计算机科学的创始人之一,他对机器是否能够使用语言进行交流感兴趣,而笛卡尔认为这是不可能的。在他1950年发表的论文《计算机器与智能》(Computing Machinery and Intelligence)中,图灵提出,一个更好的方法是问机器是否能够像人类一样执行需要人类才能完成的任务。 他还指出,尽管人们可以通过交流来识别智能,但要定义智能本身非常困难。图灵假设,在与他人交谈时,他认为其他人是有智能的;因此,如果一台机器在对话中欺骗人们,让他们认为它是人类,那么它就是有智能的。 ![]() 图灵提出了今天所知的图灵测试,以努力证明某个给定机器是否拥有人类智能。这是一个测试,人类与人类和计算机分别进行一次对话,通常是通信形式,且两者的身份是未知的,然后判断是否能将其与计算机区分开来。 如果法官在判断时只能依靠猜测,那么这台机器就被认为达到了人类的水平,因此被认为是满足了智能的标准。然而,一些人对此表示怀疑,并批评它,因为它只检查机器有多像人类,而不是它有多智能。 斯图尔特·拉塞尔(Stuart Russell)和彼得·诺维格(Peter Norvig)在其题为《人工智能:一种现代方法》(Artificial Intelligence: A Modern Approach)的书籍中,确定了两个维度,可以用来分析构成人工智能的各种定义:人工智能应该模仿人类表现还是应该成为理想的理性代理人,以及它应该推理还是行动。 智能代理(Intelligent agent)是人工智能中最重要的概念之一,可以使用《人工智能:一种现代方法》教科书的辅助进行详细描述。它可以被定义为一个能够感知周围环境并对其做出响应的系统。这些代理具有一种功能,将代理的感知与代理将要采取的行动关联起来,而这些功能可以以不同的方式配置。 ![]() 例如,这本书能够展示这些代理可以在一个层面上是基础的,或者在另一个层面上是高级的。首先,代理可以被介绍为一种非常简单的代理,称为反射代理,它以图示方式表示,然后,它发展成为一种复杂的自学习型代理。当然,即使是当今能够根据特定算法调节温度的简单恒温器,也可以被视为所谓的“人工智能”的早期指示,但没有人会认为它们是人工智能。 构建人工智能人工智能工程师采用各种策略来构建人工智能,包括逻辑方法、概率方法和神经计算方法。“逻辑”较大的范围是指一种基于形式逻辑的编程风格,即你在程序中陈述事实和问题域的规则。例如,给定的陈述可能读作“如果B1和B2都为真,并且B3也为真,则A为真”。这对于创建能够进行逻辑推理的复杂人工智能模型很有用。 ![]() 但生活是不可预测的,我们总是会遇到信息缺口,在这些情况下,我们无法根据所有必要的信息来做出正确的决定。为了处理这个问题,人工智能开发者采用了两种方法,其中一种基于概率论的原理,这是由英国统计学家托马斯·贝叶斯(Thomas Bayes)开创的。这非常适合估计各种原因导致特定结果的概率。 ![]() 还有一种神经计算方法,它基于我们大脑的功能。这需要设计人工神经网络(Artificial Neural Networks),即ANNs,它们在某种程度上类似于人类的神经网络。ANN节点的功能类似于神经元,并且包含与神经元连接相似的链接。它可以接受编程信息,也可以在不需要更多编程的情况下通过一个过程进行开发。 ![]() 它们也特别影响了人工智能的一个子领域,称为机器学习。机器学习意味着机器能够学习某样东西,并能够在没有提示的情况下,根据先前的经验和训练自行进行预测。ANNs也推动了人工智能中的深度学习,这是特定机器在神经网络中执行连续阶段的能力,以便从简单数据(例如线条和形状中的动物或人脸)中选择越来越复杂的属性。 当然,构建人工智能系统还有很多方面,但通过这个简要的描述,可以理解机器能够执行和模仿类人智能。目前,几乎所有学者都同意一个事实,那就是弱人工智能是可行的,并且在可实现的范围内。 意识机器是否真的能够有意识和生命,正如有些人对强人工智能的设想那样,这一点仍然模糊不清。截至今日,机器可能表现出创造力,掌握了一定程度的自我意识,或模仿情感,但它们能否像人类一样拥有内在的感受? 在研究心智的情况下,仍然不可能找到关于他人意识的科学证据。但当然,大多数时候,我们理所当然地认为他人是有意识的;这是为了合理的怀疑,他们内在有意识,就像我们一样。 已经提出了许多论点,指出强人工智能不可能拥有意识,而大多数这些论点已被处理和反驳。 中文房间论证中文房间论证与被称为“意识的难题”(Hard Problem of Consciousness)的普遍问题有关,由约翰·塞尔(John Searle)设计。中文房间场景如下: ![]() 塞尔被置于一个房间里,一些不懂中文的人在房间外。这些人中的一些人并不知道塞尔在房间里。这些论证对塞尔来说似乎没有多大意义,因为他根本不懂中文。中文交流者将他们用中文写的问题纸条通过房间墙壁上的一个小孔递进去。 塞尔在房间里,他有一个代码手册,根据提出的问题来决定如何用中文回答。他遵循指示,将用中文的答案发出去,而不知道内容,因为他不懂中文。 在这方面,塞尔用这个场景来论证强人工智能就是这样运作的。人工智能就像房间里的塞尔一样,“什么也不知道”。它只会鹦鹉学舌地提交看似合适的答案。 近些年,塞尔在改进他对强人工智能的怀疑立场时,实际上是指出了“意识是从计算或特定功能中产生的”这种说法是不正确的,同时声称机器永远不可能有意识。他认为人类大脑是一种设备。然而,人类大脑中存在一种计算的元素,这种元素会产生意识,而非生物超智能人工智能则不具备这种元素。 塞尔认为,意识在人类大脑的构成中占有特殊的位置,尽管他不确定大脑的哪个部分对此负责。他指出,即使一个人以计算的形式进行思考,这也不能是真正的意识。正如模拟暴风雨不会带来降雨一样,模拟意识在计算机科学中也不能等同于意识。 人们对塞尔的中文房间论证提出了一些如下的反驳。威廉·拉帕波特(William Rapaport)承认,尽管人工智能系统的运行由语法或规则控制,但正确的规则仍然可以使人工智能系统发展出语义。 一些哲学家理解塞尔的意思;然而,他们怀疑他认为生物大脑在产生意识方面有什么特别之处。他们不认为他指出了生物大脑在意识方面与人造大脑有何不同。 一些学者同样认为,中文房间论证仅仅是一个思想实验,人工智能的演变和发展并不像这个论证中那么简单。 他们还认为,如果一个人能够被详细地重建,并且能够制造出他大脑的完整副本,那么就没有理由认为这个副本不会包含这个人的相同特质,因此,研究人员可能无法完全理解自然是如何运作的。 人工智能的伦理人工智能的另一个问题是评估如何确保它会遵守人类的伦理标准,并确定应该由人工智能体现或强制执行哪些道德原则。 这意味着人工智能领域正在发展,因为哲学中的伦理学主题仍然不够明确,而且争议很大。对于什么是伦理或不伦理,还没有一个普遍同意的伦理体系,甚至没有对道德哲学的理解。 因此,如果设定了明确的道德标准,开发出与我们以相同道德方式行事和决策的人工智能就会更容易。目前,我们采用结果论和义务论的方法来处理人工智能伦理,这表明我们可能最终会得到一个不理想的结果。这可能导致负面后果,例如人工智能系统被用于一些对社会不利的方式,而这与我们希望系统积极影响人们的初衷相悖。 人工智能伦理的另一部分是超人类主义(transhumanism)的概念,它涉及将技术与人类结合。例如,一项让人们通过连接互联网来提升脑力技术,应该对所有人开放还是只对少数人开放? 也许卓越的人工智能能够解决这些复杂而伦理的困境,然后制定出理性的是非道德原则,这可能需要人类花费漫长的时间才能实现。但那样,我们就会面临创造出能够自主做出道德决策的人工智能的威胁,这无疑会带来很多问题。 结论人工智能领域关注智能的概念及其与意识的关系,以及人工智能的道德含义。由此产生的想法是,人工智能是否真的有能力思考、理解,甚至拥有意识。尽管当前的功能性人工智能在各种行动中可能超越人类的技能,但通用智能尚未实现。 在伦理学的范畴下可以讨论的主题包括偏见、自主性以及人工智能的社会影响。最终,人工智能哲学颠覆了关于智能和人性的常规观念,呼吁社会通过鼓励适当使用人工智能来增强生活和决策,从而进行思考和行动。 下一主题人工智能——利还是弊 |
我们请求您订阅我们的新闻通讯以获取最新更新。