谷歌宣布成立人工智能道德小组,该小组将解决公司应如何负责任地使用和开发人工智能项目的问题。
该委员会由来自学术、企业和政府背景的多元化团体组成,将于 2019 年定期举行会议,讨论人工智能带来的问题。
该小组是谷歌人工智能原则的延伸,该原则是该公司去年在其参与军事合同受到批评后制定的一系列广泛目标。
该小组是什么?其目标是什么?
先进技术外部咨询委员会 (ATEAC) 是由 Google 高级副总裁 Kent Walker 在其博客。 该帖子称,该小组是谷歌负责任地使用和创造人工智能目标的延伸,这一立场已在 6 月份的人工智能原则中提出。 该小组面临的一些挑战包括面部识别和机器学习。
该理事会将在 2019 年全年任职,在此期间举行四次会议,第一次会议于 4 月举行。 谷歌在其博客中表示,它将鼓励委员会成员分享经验教训,并发布一份总结讨论的报告。
谷歌的人工智能原则是什么?
去年透露,谷歌的人工智能原则据称,这是对其决定不再与五角大楼续签提供人工智能无人机的合同的直接反应。
事实证明,谷歌在这一领域的工作引起了争议,导致谷歌多名员工辞职。 这似乎是科技领域一个日益严重的问题,其他公司如微软感受到了热度来自他们与国防部门的合作。 谷歌的人工智能原则坚定了其未来的使命,尽管该公司因从行为准则中删除“不作恶”政策(用“做正确的事”取代它)而受到很多嘲笑,但人工智能原则可以说是比简单的口号更进一步。
那么,有哪些原则呢?
- 对社会有益– AI项目仅仅盈利还不够,还必须对社会产生积极影响
- 避免制造或强化不公平偏见– 正如其他科技公司所发现的那样,人工智能严重依赖其数据集,而这些数据集可能会因人类的参与而产生偏差。亚马逊发现了这一点当它雇用的人工智能做出性别歧视的决定并偏向男性时,纯粹是由于它所接受的人类行为趋势。
- 进行安全构建和测试– 人工智能的兴起将对我们的安全产生重大影响,特别是在自动化交通等领域,在这些领域,生死决定都信任机器。
- 对人负责– 谷歌表示,其人工智能项目将开放接受反馈,并接受人类的指导和控制。
- 纳入隐私设计原则– 谷歌的人工智能将具有内置的数据保护,收集的任何信息都将是透明的,并为用户提供对收集内容的控制。
- 坚持科学卓越的高标准– 谷歌旨在与主要利益相关者分享其有关人工智能的知识,以期通过合作为该技术开辟新的途径。
- 可用于符合这些原则的用途– 该公司发誓将限制人工智能对社会或滥用应用程序的个人造成伤害的能力。
此外,谷歌还承诺不会在某些领域应用其人工智能。 其中包括“违反国际规范”的监视、侵犯人权的技术以及旨在伤害他人的武器(尽管该公司将继续与军方在招募、网络安全以及搜救方面合作)。
专家组中有哪些人?
ATEAC 由八位主要利益相关者组成,他们在人工智能领域拥有多年的企业、学术和政府背景经验。 谷歌明确表示,该小组仅代表他们自己的观点,并不代表与他们相关的机构。
亚历山德罗·阿奎蒂– 卡内基梅隆大学海因茨学院信息技术与公共政策教授
布巴卡尔·巴– 南非非洲数学科学研究所数学高级研究员,专攻数据科学,斯泰伦博斯大学数学科学系助理教授。
De Kai– 香港科技大学计算机科学与工程系教授,伯克利国际计算机科学研究所杰出研究学者。
那是吉本斯– Trumbull 的首席执行官,这是一家专注于能源和国防领域的自动化、数据和环境弹性的初创公司。
乔安妮·布赖森– 巴斯大学计算机科学系副教授。 还就其面向儿童的 Mindstorms 编程系列向乐高进行了咨询。
凯·科尔斯·詹姆斯– 传统基金会主席,关注自由企业、有限政府、个人自由和国防
卢西安·弗洛里迪– 牛津大学信息哲学与伦理学教授、埃克塞特学院教授研究员、图灵研究员以及艾伦图灵研究所数据伦理小组主席。
威廉·约瑟夫·伯恩斯– 前美国副国务卿。 美国历史最悠久的国际事务智库卡内基国际和平基金会主席。
随着人工智能领域的发展步伐,这些原则无疑代表了重要的行为准则。 当然,还有待观察的是谷歌如何实现这些崇高目标。