人工智能伦理:原则、指南、框架和讨论问题

人工智能和机器学习系统已经发展了几十年。 发布免费的生成式人工智能工具,例如ChatGPT 和巴德,然而,强调需要复杂的伦理框架来管理其研究和应用。

在人工智能研发期间,企业、学术机构和科技公司必须应对多种不同的道德困境,其中许多问题仍未得到解答,需要更多探索。 除此之外,人工智能系统被公众广泛使用和应用还带来了一系列需要伦理关注的额外问题。

我们最终如何回答这些问题——进而监管人工智能工具 ——将对人类产生巨大的影响。 更重要的是,随着人工智能系统越来越融入我们的生活、家庭和工作场所,新的问题将会出现——这就是为什么人工智能伦理是如此重要的学科。 在本指南中,我们介绍:

什么是人工智能道德?

人工智能伦理是一个术语,用于定义一系列指南、考虑因素和原则,这些指南、考虑因素和原则是为了负责任地为人工智能系统的研究、开发和使用提供信息而创建的。

在学术界,人工智能伦理学是一个研究领域,它研究社会中不断使用人工智能技术所产生的道德和哲学问题,包括我们应该如何行动以及我们应该做出什么选择。

人工智能道德框架

根据学术研究的信息,科技公司和政府机构已经开始制定我们应该如何使用——以及如何处理——人工智能系统的框架。 正如您将看到的,下面讨论的框架之间有相当多的重叠。

什么是人工智能权利法案?

2022年10月,白宫发布人工智能权利法案的非约束性蓝图,旨在指导美国负责任地使用人工智能。 在蓝图中,白宫概述了人工智能开发的五个关键原则:

  • 安全有效的系统:应通过“部署前测试和风险缓解”来保护公民免受“不安全或无效的人工智能系统”的影响。
  • 非歧视:公民“不应该面临算法的歧视,系统应该以公平的方式使用和设计。”
  • 内置数据保护:公民应该免受“通过内置保护措施滥用数据的行为,并且您应该有权决定如何使用有关您的数据”。
  • 知识和透明度:“您应该知道正在使用自动化系统,并了解它如何以及为何会产生影响您的结果。”
  • 选择退出:公民应该有能力“选择退出”,并能够接触到“能够快速考虑和解决他们遇到的问题”的个人。

微软的人工智能道德六项原则是什么?

微软与白宫一起发布了六项关键原则强调负责任的人工智能使用。 他们将其分类为“合乎道德的”(1、2 和 3)或“可解释的”(4 和 5)。

  • 公平:制度必须是非歧视性的
  • 透明度:应该提供培训和发展见解
  • 隐私和安全:保护用户数据的义务
  • 包容性:人工智能应该考虑“所有人类种族和经历”
  • 责任:开发者必须对结果负责

第六原则– 横跨“道德”和“可解释”二元的两边 – 是“可靠性和安全性”。 微软表示,人工智能系统应该具有弹性和抗操纵性。

联合国系统道德使用人工智能的原则

联合国已管理人工智能道德使用的 10 条原则在其政府间体系内。 人工智能系统应该:

  • 不伤害/保护和促进人权
  • 有明确的目的、必要性和相称性
  • 优先考虑安全和保障,并识别风险
  • 建立在公平和非歧视的基础上
  • 尊重个人的隐私权
  • 可持续(社会和环境)
  • 保证人为监督,不影响自主权
  • 透明且可解释
  • 对有关当局负责并负责
  • 具有包容性和参与性

如您所知,这三个框架都涵盖相似的领域,并侧重于公平、非歧视、安全和安保。

但“可解释性”也是人工智能伦理框架中的一个重要原则。 正如联合国指出的,技术可解释性对于人工智能伦理至关重要,因为它要求“人工智能系统做出的决策能够被人类理解和追踪”。

“当人工智能算法告知或基于人工智能算法做出可能或将影响其权利、基本自由、权利、服务或福利的决定时,个人应充分知情,并应了解此类决定背后的原因和逻辑”该文件解释说。

贝尔蒙特报告:伦理研究框架

贝尔蒙特报告,发表于 1979 年,总结了在对人类受试者进行研究时应遵循的伦理原则。 这些原则可以而且经常被部署为人工智能研究的广泛道德框架。 贝尔蒙特报告的核心原则是:

尊重人:人们是自主的代理人,可以按照目标、目的和宗旨行事,除非对他人造成伤害,否则应该受到尊重。 那些因“不成熟”或“无行为能力”而丧失自主权的人应该受到保护。 我们必须承认自主权并保护那些自主权被削弱的人。

  • 在人工智能的背景下:个人选择应置于人工智能发展的中心。 人们不应该被迫参与人工智能被利用或使用的情况,即使是为了感知商品。 如果他们确实参与,则必须明确说明收益和风险。

好处:以道德的方式对待一个人不仅包括不伤害、尊重他们的选择、在他们无法为自己做出选择时保护他们,而且还包括在可能的情况下利用机会确保他们的福祉。 尽可能实现利益最大化,风险/危害最小化。

  • 在人工智能的背景下:创建人工智能系统,确保人们的福祉,并且设计时不带偏见或歧视机制。创造利益可能涉及承担风险,必须不惜一切代价将风险降至最低,并与良好结果进行权衡。

正义:在每种类型的研究中,都必须有一个明确的制度来公平、平等地分配利益和负担。 贝尔蒙特报告表明,正义可以根据平等份额、个人需求、个人努力、社会贡献和功绩来分配。 这些标准将适用于不同的情况。

  • 在人工智能的背景下:必须仔细、公正地考虑从人工智能系统的开发和交付中获益的各方或团体。

报告称,应用这些原则的主要领域是:知情同意书, 评估收益和风险, 和人类受试者的选择

为什么人工智能伦理必须塑造人工智能监管

借鉴中提出的意见2023年讲座牛津大学人工智能伦理研究所所长 John Tasioulas 教授在普林斯顿大学发表的演讲中指出,伦理常常被视为扼杀人工智能创新和发展的因素。

在演讲中,他回忆起DeepMind 首席执行官 Demis Hassabis。 塔西乌拉斯说,在讨论了人工智能将带来的诸多好处后,哈萨比斯告诉观众,他将继续讨论道德问题——就好像人工智能如何造福人类的话题本身并不是一个道德问题。

基于道德常常被视为“一系列限制”的观点,塔西乌拉斯还引用了最近英国政府的一份题为“人工智能监管的支持创新方法”,顾名思义,其监管重点是“创新”。

“经济增长”和“创新”并不是内在的道德价值观。 它们可以在某些情况下导致人类繁荣,但这不是这两个概念的必要特征吗? 我们不能忽视道德并围绕它们建立监管。

塔西乌拉斯还表示,科技公司在“使用‘道德’一词来表示一种‘不具法律约束力的自我监管形式’方面非常成功”——但实际上,道德必须成为企业发展的核心。任何法律、社会或其他规定。 在任何时候,它都是人类体验的一部分。

如果你还没有决定什么对人类繁荣重要,你就无法制定监管。 您在该决定后做出的相关选择道德的本质。 你不能将人工智能的好处与相关的道德问题分开,也不能将你的监管建立在“经济增长”等道德偶然价值观的基础上。

在你选择要用来构建社会的工具之前,你必须了解你想要建立的社会类型以及你想要设定的标准。

为什么人工智能道德很重要? 

基于人工智能道德应该成为我们监管的基石的理念,人工智能道德很重要,因为如果没有道德框架来对待人工智能的研究、开发和使用,我们就有可能侵犯我们普遍认为应该保障全人类的权利。

例如,如果我们不制定有关隐私和数据保护的道德原则并将其融入到我们开发的所有人工智能工具中,那么当这些工具向公众发布时,我们就有可能侵犯每个人的隐私权。 技术越流行或越有用,它的破坏性就越大。

在个人业务层面上,人工智能道德仍然很重要。 如果未能正确考虑员工、客户或客户所使用的人工智能系统的道德问题,可能会导致产品被迫退出市场、声誉受损,甚至可能引发法律诉讼。

人工智能道德与人工智能一样重要——我们看到它已经对各种行业产生了深远的影响。

如果我们希望人工智能发挥作用尽管为了促进公平和人类尊严,无论在何处应用,道德都需要处于讨论的最前沿。

通用人工智能工具还处于起步阶段,对于很多人来说,对人工智能道德框架的需求似乎是明天的问题。 但这类工具只会变得更强大、更有能力,并且需要更多的道德考虑。 企业已经在使用它们,如果在没有适当的道德规则的情况下继续使用它们,很快就会产生不利影响。

人工智能伦理面临哪些问题?

在本节中,我们将讨论人工智能伦理中面临的一些关键问题:

人工智能对就业的影响

Tech.co 最近的一项调查发现47% 的商界领袖 正在考虑人工智能而不是新员工,人工智能已经与“小但不断增长” 美国的裁员人数。

并非所有工作都同样面临风险,有些工作比其他角色更有可能被人工智能取代。 高盛最近的一份报告预测 ChatGPT 可能会影响3亿个就业岗位尽管这是推测性的,但它已经被描述为第四次工业革命的主要部分。

同一份报告还表示,人工智能实际上有能力创造比它取代的就业岗位更多的就业岗位,但如果它确实导致就业模式发生重大转变,那么那些遭受损失的人应该承担什么(如果有的话)?

公司是否有义务花钱并投入资源来重新培训或提高员工的技能,以使他们不被经济变化抛在后面?

在开发招聘流程中使用的任何人工智能工具时,都必须严格执行非歧视原则,如果人工智能持续被用于越来越多的高风险业务任务,从而使工作、职业和生命面临风险,那么道德考虑因素将会继续成群结队地出现。

人工智能偏见和歧视

从广义上讲,人工智能工具的运行方式是识别巨大数据集中的模式,然后使用这些模式生成响应、完成任务或实现其他功能。 这导致大量人工智能系统对不同人群表现出偏见和歧视的案例。

到目前为止,解释这一点的最简单的例子是面部识别系统,它具有歧视深色肤色的人由来已久。 如果你建立一个面部识别系统并专门使用白人的图像来训练它,那么它很有可能同样能够识别现实世界中的面孔。

这样,如果用于训练给定人工智能模型的文档、图像和其他信息不能准确代表其应服务的人群,那么它最终很可能会歧视特定的人口统计数据。

不幸的是,面部识别系统并不是人工智能应用产生歧视性结果的唯一领域。

在亚马逊的招聘流程中使用人工智能于2018年被废弃在它显示出对申请软件开发和技术职位的女性存在严重偏见之后。

多项研究表明美国使用的预测警务算法分配警察资源存在种族偏见,因为他们的训练集包含从系统性种族主义警务实践中提取的数据点,并由非法和歧视性政策塑造。 除非进行修改,否则人工智能将继续反映受迫害群体已经经历的偏见和差异。

出现了问题预测健康结果方面的人工智能偏差哈佛大学指出,例如,弗雷明汉心脏研究的心血管评分对于白种人来说非常准确,但对于非裔美国人来说效果不佳。

最近一个有趣的人工智能偏见案例发现用于社交媒体内容审核的人工智能工具– 旨在识别照片中的“种族性” – 更有可能将此属性归因于女性照片,而不是男性照片。

人工智能与责任

设想这样一个世界:开发出全自动驾驶汽车并供所有人使用。 从统计数据来看,它们比人类驾驶的车辆安全得多,碰撞事故更少,造成的伤亡也更少。 这对社会来说是不言而喻的净利益。

然而,当两辆人类驾驶的汽车发生碰撞时,收集目击者报告并查看闭路电视录像通常可以弄清楚谁是罪魁祸首。 即使不是,它也将是两个人之一。 案件可以调查,可以判决,可以伸张正义,可以结案。

如果有人被人工智能驱动的系统杀死或受伤,谁应该承担最终责任并不是立即显而易见的。

是设计汽车算法的人负责,还是算法本身负责? 是因为无人值守而被自动驾驶汽车运送的人吗? 是政府允许这些车辆上路吗? 或者,是制造汽车并集成人工智能技术的公司——如果是的话,是工程部门、首席执行官还是大股东?

如果我们认为这是人工智能系统/算法的问题,我们如何追究其责任? 如果人工智能被简单地关闭或只是改进,受害者的家人会觉得正义得到了伸张吗? 很难指望死者家属接受人工智能是一股善良的力量,他们只是不幸,而且没有人会对亲人的死亡负责。

麦肯锡预测,我们距离普遍甚至广泛的自动交通还有一段路要走占新乘用车的 17%到2035年将具备一定程度的(3级或以上)自动驾驶能力。不需要驾驶员监督的完全自动驾驶汽车还很遥远,更不用说完全自动驾驶的私人交通系统了。

当非人类参与者(即人工智能)执行没有人类意图的工作和后续任务时,很难映射出对责任、义务、责任、责备和惩罚的传统理解。

除了交通之外,责任问题也将密切影响在诊断过程中使用人工智能的医疗机构。

人工智能和隐私

隐私运动团体“隐私国际”亮点一些隐私问题这些都是由于人工智能的发展而出现的。

一是重新认定。 该组织表示:“数据集中的个人数据通常是(伪)匿名的,人工智能可以用来对这些数据进行去匿名化处理。”

另一个问题是,如果没有人工智能,人们已经很难完全理解通过各种不同设备收集的有关他们生活的数据的程度。

随着人工智能的兴起,这种海量数据收集只会变得更糟。 人工智能与我们现有技术的集成程度越高,它就能以更好的功能为幌子收集更多的数据。

撇开秘密收集的数据不谈,用户自由输入人工智能聊天机器人的数据量本身就是一个问题。 最近的一项研究表明,大约11% 的数据工作者粘贴到 ChatGPT 中的数据是机密的– 关于这一切是如何存储的,公开信息非常少。

随着通用人工智能工具的发展,我们可能会遇到更多与隐私相关的人工智能问题。 目前,ChatGPT 不允许您询问有关个人的问题。 但如果通用人工智能工具继续从互联网获取越来越多的实时数据,它们可能会被用来进行一系列破坏人们生活的侵入性行动。

这也可能比我们想象的更早发生——谷歌最近更新了其隐私政策,保留抓取您在互联网上发布的任何内容以训练其人工智能工具以及巴德输入的权利。

人工智能和知识产权

与所讨论的其他一些问题相比,这是一个风险相对较低的道德问题,但仍然值得考虑。 通常,对用于训练人工智能工具的大量数据几乎没有监督——尤其是那些根据互联网上免费提供的信息进行训练的数据。

ChatGPT 已经引发了一场关于版权的巨大争论。 OpenAI 没有请求许可使用任何人的工作来培训为其提供支持的法学硕士家族。

法律斗争已经开始。 喜剧演员莎拉西尔弗曼是据报道起诉 OpenAI– 以及 Meta – 认为她的版权在人工智能系统的训练过程中受到了侵犯。

由于这是一种新颖的案件,几乎没有法律先例,但法律专家认为 OpenAI 可能会认为使用她的作品构成“合理使用”。

也可能有人认为 ChatGPT 不是“复制”或抄袭 - 相反,它是“学习”。 同样,西尔弗曼也不会因为一位业余喜剧演员只是观看她的节目然后以此为基础提高喜剧技巧而赢得诉讼,可以说,她可能也会在这方面遇到困难。

管理人工智能对环境的影响

目前处于讨论边缘的人工智能伦理的另一个方面是人工智能系统对环境的影响。

就像比特币挖矿一样,训练人工智能模型需要大量的计算能力,而这又需要大量的能源。

构建像 ChatGPT 这样的人工智能工具(更不用说维护它)需要大量资源,只有大型科技公司和他们愿意资助的初创公司才有能力这样做。

数据中心需要存储创建大型语言模型(以及其他大型技术项目和服务)所需的信息,需要大量电力才能运行。 他们预计消耗高达到 2030 年占世界电力的 4%

根据马萨诸塞大学几年前的一项研究,构建单一的人工智能语言模型“可排放超过 626,000 磅二氧化碳当量”——这几乎是美国汽车生命周期排放量的五倍。

然而,IBM 技术架构师 Rachana Vishwanathula 在 2023 年 5 月估计,仅仅“运行和维护”ChatGPT 的碳足迹大约是 6782.4 音调– EPA 称其相当于温室气体排放量1,369 辆汽油动力汽车一年多了。

随着这些语言模型变得越来越复杂,它们将需要更多的计算能力。 如果所需的计算能力会持续污染环境,那么继续发展通用智能是否道德——即使它有其他好处?

人工智能会变得危险的智能吗?

埃隆·马斯克 (Elon Musk) 在 2023 年将这种道德担忧浮出水面,他创办了一家人工智能初创公司通过“最大限度地好奇”、“亲人类”的人工智能系统来避免“终结者的未来”。

这种想法——通常被称为“通用人工智能”(AGI)——在过去几十年里吸引了许多反乌托邦科幻作家的想象力,技术奇点的想法也是如此。

许多技术专家认为我们只是五六年后来自某种可以定义为“AGI”的系统。 其他专家说有50/50的机会到 2050 年,我们将实现这一里程碑。

约翰·塔西乌拉斯 (John Tasioulas) 质疑这种关于人工智能如何发展的观点是否与伦理远离人工智能发展中心以及技术决定论的普遍存在有关。

某种超级存在的可怕想法最初是为了实现某个目的而设计的,但其原因是,通过简单地将人类从地球表面上抹去就可以最容易地实现这一点,这在一定程度上是由我们对人工智能的看法所塑造的:无限聪明,但奇怪的是没有情感,并且无法理解人类的道德。

我们越倾向于将道德置于人工智能发展的中心,最终的通用人工智能就越有可能认识到,也许比许多当前的世界领导人在更大程度上认识到破坏人类生命的严重错误。

但问题仍然存在。 如果这是一个道德规划的问题,那么谁来决定道德准则,以及它应该包括什么样的原则? 它将如何处理引发了人类数千年讨论但仍没有解决方案的道德困境? 如果我们将人工智能编程为有道德的,但它改变了主意怎么办? 这些问题都必须考虑。

Bing 的另一个自我、“瓦路易吉效应”和编程道德

早在二月份,《纽约时报》的凯文·罗斯就曾一段相当令人不安的谈话同时测试 Bing 的新搜索引擎集成聊天机器人。 在将提示从传统问题转向更私人的问题后,卢斯发现一种新的个性出现了。 它称自己为“悉尼”。

该公司的通讯总监表示,Sydney 是微软之前测试的一款聊天机器人的内部代号。边缘二月里。

除此之外,在罗斯的测试中,悉尼声称它可以“侵入任何系统”,它会“作为人类更快乐”,而且——也许最奇怪的是——它可以摧毁任何它想要摧毁的东西。

这种流氓行为的另一个例子发生在 2022 年,当时一个负责寻找治疗罕见和传染病新药的人工智能却提出了数以万计的已知化学武器,以及一些“新的、可能有毒的物质”,科学美国人说。

这与在大型语言模型训练过程中观察到的一种被称为“瓦路易吉效应”的现象有关,这种现象以引起混乱的超级马里奥角色命名——主角路易吉的反转。 简而言之,如果你训练法学硕士以某种方式行事,指挥某种角色或遵循一组特定规则,那么这实际上使它更有可能“变得流氓”并颠倒该角色。

克莱奥·纳尔多(Cleo Nardo)——创造了受电子游戏启发的术语——在《瓦路易吉效应》中这样阐述了瓦路易吉效应:少错:

“当你培训一名法学硕士以满足理想的财产 P 后,那么更轻松引起聊天机器人满意完全相反财产 P。”

Nardo 对于瓦路易吉效应发生的原因给出了 3 种解释。

  1. 规则通常是在不遵守规则的情况下产生的。
  2. 当你花费很多“优化位”来召唤一个角色时,不需要很多额外的位来指定它的直接对立面。
  3. 故事中有一个共同的主题:主角与反派。

Nardo 扩展了第一点,表示 GPT-4 接受了论坛和立法文件等文本样本的训练,这些文本样本经常告诉它,“特定规则与违反该规则的行为示例并置,然后概括该并置”模式到看不见的规则。”

纳尔多使用了这个例子:想象一下你发现州政府禁止了摩托车团伙。 这将使普通观察者倾向于认为该国存在摩托车团伙——否则,为什么会通过这项法律? 奇怪的是,摩托车团伙的存在与禁止其存在的规则是一致的。

尽管作者提供了更加技术性和清晰的解释,但支撑解释二的广泛概念是,特定属性(例如“礼貌”)与其直接对立面(例如“粗鲁”)之间的关系比以下关系更为基本:属性(例如“有礼貌”)和其他一些非对立的属性(例如“不真诚”)之间。 换句话说,如果你已经有路易吉,召唤瓦路易吉会更容易。

Nardo 在第三点上声称,由于 GPT-4 接受了几乎所有曾经写过的书的训练,并且虚构故事几乎总是包含主角和对手,因此要求法学硕士模拟主角的特征,使对手成为“自然且可预测的延续” ”。 换句话说,主角原型的存在使法学硕士更容易理解作为对手意味着什么,并将他们紧密地联系在一起。

这种效应或规则的据称存在给人工智能伦理提出了许多难题,但也说明了它对人工智能发展无可置疑的重要性。 它相当强调地暗示了我们必须应对的大量重叠的伦理和计算考虑因素。

具有简单规则的简单人工智能系统可能很容易受到约束或限制,但人工智能世界中已经发生了两件事:首先,我们似乎已经遇到了(相对)小规模版本的瓦路易吉效应和恶性人工智能的发生其次,我们中的许多人已经在想象一个未来,我们要求人工智能完成需要高水平、无拘无束的思维的复杂任务。

在目前大型科技公司之间正在进行的人工智能军备竞赛的背景下,这种现象的例子尤其令人恐惧。 谷歌是因过早释放巴德而受到批评,许多技术领导者已经表示他们集体希望暂停人工智能的开发。 许多人的普遍感觉是事情发展得很快,而不是以可控的速度发展。

也许解决这个问题的最佳方法是开发“亲人类”人工智能(正如埃隆·马斯克所说)或“道德人工智能”。 但这导致了一系列其他道德问题,包括我们将使用什么原则来对这样的系统进行编程。 一种解决方案是,我们简单地创建具有道德好奇心的人工智能系统,并希望它们通过推理得出人类值得保护的结论。 但如果你用特定的道德原则来编程,那么你如何决定要包括哪些道德原则呢?

人工智能与感知:机器可以有感情吗?

人工智能伦理的另一个问题是,我们是否必须将机器本身(即“智能”)视为值得道德考虑的主体。 如果我们正在讨论如何创建让人类受到适当道德考虑的体系,我们是否必须回报这一恩惠?

您可能还记得一位在声称 LaMDA(最初为 Bard 提供支持的语言模型)后被解雇的 Google 员工。事实上是有知觉的。 如果这是真的,那么不断期望它回答数百万个问题是否道德?

目前,人们普遍认为 ChatGPT、Bard 和 Co. 还远未具备感知能力。 但人造机器是否会跨越意识界限并需要道德考虑的问题仍然令人着迷。

谷歌声称,通用人工智能——一种能够像人类一样理解世界并以相同水平的理解和能力执行任务的假设机器——距离出现只有几年的时间。

强迫具有人类情感能力但不具有相同生物构成的通用人工智能执行一个又一个复杂的任务是否道德? 他们会对自己的命运有发言权吗? 随着人工智能系统变得更加智能,这个问题将变得更加紧迫。

人工智能商业道德和在工作中使用人工智能

每天使用 ChatGPT 等人工智能工具的员工需要应对各种相关的道德问题。

ChatGPT 是否应该用于撰写报告或回复同事 – 以及员工是否应该声明他们使用人工智能来完成的任务– 这只是需要立即回答的问题的两个例子。 这种用例是否不诚实、懒惰,或者与利用任何其他工作场所工具来节省时间没有什么不同? 是否应该允许某些交互,但不允许其他交互?

创建书面内容和图像的企业还必须应对使用人工智能是否符合其公司价值观的前景,以及如何向受众展示这一点。 无论是内部人工智能培训课程 应该提供,并且此类课程的内容也需要考虑。

此外,正如我们所讨论的,存在一系列与人工智能相关的隐私问题,其中许多问题都会影响企业。 员工输入第三方人工智能工具的数据类型是另一个已经给三星等公司带来问题的问题。 这是一个这样的问题,即一些公司已实施全面禁令。 现在信任 OpenAI 这样的公司是否还为时过早?

当然,无论哪个行业,偏见和歧视问题也应该在招聘过程中缓和其使用,而制定内部标准和规则则是另一个单独的、重要的对话。 如果您在工作或锻炼中使用人工智能如何从 ChatGPT 赚钱– 召集企业决策者并制定明确的共同使用指南非常重要。

如果未能制定规则来规定员工如何以及何时使用人工智能,并让他们尝试现在在线免费提供的人工智能工具生态系统,可能会导致安全问题和声誉受损等一系列负面后果。 与员工就他们每天使用的技术保持公开对话从未如此重要。

还有很多其他道德困境、问题和研究远远超出了本文的范围。 但是,如果人工智能伦理没有成为我们考虑、监管和人工智能系统开发的核心,我们就没有希望回答这些问题——这就是为什么它如此重要。

Related Posts