人工智能伦理2025年4月15日 | 阅读 6 分钟 引言随着人工智能(AI)在社会中变得越来越重要,专家们认识到在创建和实施新的AI工具时需要道德边界。尽管目前还没有一个广泛的监管机构来制定和执行这些规则,但许多科技公司已经采纳了他们自己版本的人工智能伦理或人工智能行为准则。 人工智能伦理是公司用来指导负责任和合理开发及利用人工智能的标准。在本文中,我们将探讨人工智能伦理是什么,为什么它们很重要,以及制定人工智能行为准则的一些挑战和好处。 什么是人工智能伦理?人工智能伦理是一套指导原则,各方(从工程师到政府官员)都使用这些原则来确保人工智能技术的开发和使用负责任。这意味着采取一种安全、富有同情心和对环境友好的方法来开发人工智能。 强大的人工智能伦理可以包括避免偏见,确保客户及其数据的安全,并减轻环境风险。公司内部的行为准则和政府主导的监管体系是实施人工智能伦理的两种主要方式。通过涵盖全球和国家层面的道德人工智能问题,并为公司内部的道德人工智能奠定政策基础,这两种方法都有助于指导人工智能技术。 更广泛地说,围绕人工智能伦理的对话已经从以学术研究为中心发展到非营利组织。如今,像IBM、谷歌和Meta这样的大型科技公司已经组建了团队来处理因收集大量数据而出现的伦理问题。同时,政府和临时机构也开始根据学术调查制定法规和伦理方法。 科幻小说作家艾萨克·阿西莫夫早在独立人工智能专家发展之前就预见了潜在的威胁,并创建了《机器人三定律》作为限制这些威胁的手段。在阿西莫夫的人工智能伦理中,第一定律禁止机器人主动伤害人类,或因拒绝行动而允许伤害降临到人类身上。第二定律要求机器人服从人类,除非命令与第一定律不符。第三定律要求机器人在不违反前两条定律的前提下保护自己。 过去五到十年人工智能的快速发展促使许多专家制定了保护措施,以防范人工智能对人类造成的风险。其中一个团体是由麻省理工学院宇宙学家Max Tegmark、Skype联合创始人Jaan Tallinn和DeepMind研究员Victoria Krakovna组织的一个非营利组织。该组织与人工智能分析师和工程师以及来自多个学科的研究人员合作,制定了目前被称为“阿西洛马人工智能原则”的23条规则。 人工智能伦理的利益相关者为负责任的人工智能利用和开发创建道德标准需要行业参与者共同努力。利益相关者必须审视社会、经济和政治问题如何与人工智能交织,并决定机器和人类如何和谐共存。 这些参与者在确保人工智能技术减少偏见和风险方面都发挥着至关重要的作用。 学术界: 分析师和教师有责任开发基于理论的衡量标准、查询和概念,以支持政府、企业和非营利组织。 政府: 政府内部的机构和委员会可以帮助在一个国家推动人工智能伦理。一个很好的例子是国家科学技术委员会(NSTC)在2016年发布的《规划人工智能未来》报告,该报告概述了人工智能及其与公共外展、控制、治理、经济和安全的关系。 政府间实体: 联合国和世界银行等实体负责在全球范围内提高人工智能道德意识并起草协议。例如,联合国教科文组织的193个成员国于2021年11月通过了有史以来第一个关于人工智能伦理的全球协议,以促进人权和尊严。 非营利组织: 像“AI中的黑人”和“AI中的奇怪”这样的非营利组织帮助不同的群体在人工智能技术中获得代表性。生命未来研究所制定了23条规则,这些规则现在是阿西洛马人工智能伦理的一部分,它们列出了人工智能技术的具体风险、挑战和结果。 私营公司: 谷歌、Meta和其他科技公司的高管,以及银行、咨询、医疗保健和私营部门中其他使用人工智能技术的企业,都有责任组建道德团队和制定行为准则。这通常为公司树立了榜样。 为什么人工智能伦理很重要?人工智能伦理至关重要,因为人工智能技术旨在增强或取代人类智能——但当技术旨在复制人类生活时,那些可能模糊人类判断的问题也可能渗透到技术中。 建立在片面或错误信息之上的人工智能项目可能会产生破坏性后果,特别是对于代表性不足或边缘化的群体和个人。此外,如果人工智能算法和机器学习模型构建得太快,那么工程师和产品经理就很难调整习得的偏见。在开发过程中纳入行为准则更容易减轻未来的任何风险。 人工智能伦理的例子通过真实的案例来展示人工智能伦理可能最直接。2022年12月,Lensa AI应用程序利用人工智能将人们的日常照片制作成酷炫的卡通风格头像。从道德角度来看,一些人批评该应用程序没有给那些创作了AI训练所依据的原始数字艺术的艺术家提供署名或足够的报酬。据《华盛顿邮报》报道,Lensa是在未经同意的情况下,从网络上抓取了数十亿张照片进行训练的。 另一个例子是人工智能模型ChatGPT,它允许用户通过提问来与它互动。ChatGPT在网络上搜索信息,并以诗歌、Python代码或提案的形式给出答案。一个道德问题是,人们正在使用ChatGPT来赢得编程挑战或撰写论文。它也引发了与Lensa类似的问题,但涉及的是文本而非图片。 这些只是人工智能伦理的两个流行例子。近年来,随着人工智能的发展,它影响着各个行业,并对医疗保健等业务产生了巨大的积极影响,人工智能伦理的话题变得更加引人注目。我们如何确保人工智能没有偏见?未来可以采取哪些措施来减轻风险?有许多潜在的解决方案,但利益相关者必须负责任地、协作地行动,以便在全球范围内创造积极的成果。 人工智能的伦理挑战有大量的现实挑战可以帮助我们理解人工智能伦理。以下是其中的几个。 人工智能与偏见如果人工智能收集的数据不能准确地代表人口,其决策可能会容易受到偏见的影响。2018年,亚马逊因其人工智能招聘工具而受到抨击,该工具会减少简历中突出“女性”(例如“女性全球贸易协会”)的简历。从本质上讲,该人工智能工具歧视女性,并给这家科技巨头带来了法律风险。 人工智能与隐私正如前面Lensa AI的例子所提到的,人工智能依赖于从网络搜索、社交媒体照片和评论、在线购买等获取的数据。虽然这有助于个性化用户体验,但对于这些公司获取我们数据是否需要真实同意的问题,仍存在疑问。 人工智能与环境一些人工智能模型规模庞大,需要消耗大量能源来训练数据。虽然正在研究设计节能人工智能的方法,但可以做更多的工作来将环境伦理问题纳入人工智能相关方法。 如何创建更具伦理的人工智能创建更具伦理的人工智能需要密切关注部署、教育和技术的道德含义。监管框架可以确保技术造福社会而不是伤害社会。总的来说,各国政府正在开始推行道德人工智能政策,包括公司在出现偏见或其他损害时应如何处理法律问题。 任何接触人工智能的人都应该了解具有欺骗性或不道德人工智能的风险和潜在负面影响。可访问资源的创建和传播可以减轻这些类型的风险。 使用技术来识别其他形式技术中的不道德行为可能看起来不合逻辑,但人工智能工具可以用来确定视频、音频或内容(例如Facebook上的仇恨言论)是否是假的。这些工具可以比人类更好、更有效地识别不道德的数据源和偏见。 结论尽管人工智能具有不可否认的变革力量,但伦理考量必须跟上。训练数据中的偏见可能导致不公平的结果,而缺乏透明度则会侵蚀信任。人工智能伦理通过制定负责任发展的标准,促进公平、问责、透明和安全来解决这些问题。 下一个主题人工智能中的统计学习 |
我们请求您订阅我们的新闻通讯以获取最新更新。