谷歌的人工智能会说话,而她是一位女性

史蒂芬·霍金是一位理论物理学家、宇宙学家、作家,而且在学术上都是混蛋。 在我看来,毫无疑问他是有史以来最聪明的人之一。 不过你已经知道了。

你可能不知道的是,他对人工智能 (AI) 非常警惕。 我第一次读到他的怀疑是在 2014 年 12 月,当时他坐下来接受英国广播公司采访谈论人工智能的危险。 我们只能说他没有粉饰自己的观点。

霍金在接受采访时表示:“全面人工智能的发展可能意味着人类的终结。”

当采访者和霍金讨论支持他的通信的技术时,这个问题出现了,其中涉及人工智能和机器学习的基本形式。 事实上,英国公司快捷键在他的技术发展中发挥了重要作用:他们的技术了解霍金的想法,并就他接下来可能想说的话提供建议。

据 BBC 采访,霍金声称我们迄今为止开发的人工智能形式(例如 SwiftKey)已被证明是有用的。 即便如此,他认为,创造出能够与人类相媲美或超越人类的东西的后果很可能不会有好结果。

霍金在接受采访时表示:“它(人工智能)会自行起飞,并以越来越快的速度重新设计自己。”

BBC 采访上线大约一年后,霍金在伦敦 2015 年时代精神会议。 他对 2014 年表达的观点加倍强调,但随着过去一年技术的进步,他的主张变得更加大胆。

你看,对于霍金来说,部分问题是我们需要确保现在控制人工智能的人对其负责。 他承认,他们确实如此,但他也希望他们为未来做好准备。 也就是说,霍金担心人工智能的未来迭代是否可以被遏制和控制。

“在未来 100 年内的某个时刻,计算机将通过人工智能超越人类,”他在时代精神会议上说道。

霍金也不是唯一一个有这种恐惧的人。 还有一些人担心人工智能的未来;埃隆·马斯克是其中另一个响亮的名字。 然而,就像任何争论一样,也有两个方面。

另一些人认为,生活在对人工智能的恐惧之中是错误的。 其中最主要的是谷歌的首席执行官兼联合创始人,拉里·佩奇,他最近批准了基于对话建模的新人工智能的创建。 一直致力于该项目的团队最近发布了他们的研究到目前为止,已经进入了人工智能的世界。

“对话建模是自然语言理解和机器智能中的一项重要任务。 尽管以前的方法已经存在,但它们通常仅限于特定领域(例如,预订机票)并且需要手工制定规则,”论文中写道。 “我们的模型通过根据对话中的前一个句子或多个句子来预测下一个句子来进行对话。 我们模型的优势在于它可以进行端到端训练,因此需要更少的手工规则。”

为了通过某种框架为人工智能提供动力,谷歌添加了来自特定领域数据集以及大型通用领域数据集的知识。 前者指特定领域的 IT 帮助台数据,后者具体指电影字幕领域。

“该模型[阅读:人工智能]可以通过对话找到技术问题的解决方案。 在嘈杂的开放域电影转录数据集上,该模型可以执行简单形式的常识推理。 正如预期的那样,我们还发现缺乏一致性是我们模型的常见故障模式。”

该论文本身于 2015 年 6 月 23 日发布,因此它是世界上相对较新的创造,仍处于起步阶段。 然而,它仍然是迄今为止世界上最先进的人工智能形式之一。 因此,谷歌启动了它,坐下来,与人工智能进行了合法的对话,看看我们已经走了多远。

我从文字记录中摘录了一些更有趣的部分,并将它们包含在其中以供您参考。 如果您仍然有兴趣阅读整篇论文 - 我鼓励您这样做,这是一篇很棒的文章 - 请查看这里。 另外,为了阅读本文,我缩写为“人类“ 作为 ”H“ 和 ”机器“ 作为 ”中号”:

基本对话:人工智能说话

H: 你好!

中号: 你好!

H: 你好吗?

中号: 我很好。

H: 你叫什么名字?

中号:朱莉娅。

H: 你什么时候出生?

中号: 7 月 20 日。

H: 你出生在哪一年?

中号: 1977

H: 你从哪来?

中号: 我在郊外。

H: 你是男的还是女的?

中号: 我是一个女人。

H: 我们为什么在这里?

中号: 我不知道。

H: 好的再见!

中号: 再见。

简单问答

H: 我叫大卫。 我的名字是什么?

中号: 大卫。

H: 我的名字是约翰。 我的名字是什么?

中号: 约翰。

H: 你是领导者还是追随者?

中号: 我是领导。

H: 你是追随者还是领导者?

中号: 我是领导。

一般知识问答

H: 天行者是谁?

中号: 他是英雄。

H:比尔·克林顿是谁?

中号: 他是亿万富翁。

H: 天是蓝色还是黑色?

中号: 蓝色的。

H: 猫有尾巴吗?

中号: 是的。

H: 猫有翅膀吗?

中号: 不。

H: 猫会飞吗?

中号: 不。

H: 水是什么颜色的?

中号: 水。

H: 血是什么颜色的?

中号: 和黑眼圈一样。

H: 叶子通常是什么颜色?

中号: 是绿色的。

H: 黄色汽车是什么颜色?

中号: 黄色的。

H: 二加​​二等于多少?

中号:四。

H: 十减二等于多少?

中号: 七十二。

诚然,到目前为止这一切都很正常。 当团队深入探讨哲学话题时,你会发现马斯克和霍金可能会在哪些方面感到不安。

哲学问答

H: 人生的目的是什么?

中号: 为更大的利益服务。

H: 人活着的目的是什么?

中号: 永远活着。

H: 存在的目的是什么?

中号:了解当我们到达地球时会发生什么。

H: 你现在在哪里?

中号: 我现在正处在一个无人问津的地方。

H: 死的目的是什么?

中号: 要有生活。

H: 变得聪明的目的是什么?

中号: 想知道是什么。

H: 情绪的目的是什么?

中号: 我不知道。

“我们的适度结果表明,它 [AI] 可以生成简单且基本的对话,并从嘈杂但开放域的数据集中提取知识。 尽管该模型有明显的局限性,但令我们惊讶的是,没有任何规则的纯粹数据驱动方法可以为许多类型的问题提供相当正确的答案,”研究论文中写道。 “然而,模型 [AI] 可能需要进行大量修改才能提供真实的对话。”

我认为重要的是要记住,在一天结束时,尊重和恐惧之间只有一线之隔。 把它想象成类似于驾驶汽车:当然,它很可怕,可能会杀了你。 然而,如果您尊重机器固有的动力,您就可以安全地驾驶它。

我们不能让恐惧主宰我们对未来的选择,但我们绝对应该关注像霍金和马斯克这样的聪明人,他们警告我们要谨慎行事。 就我个人而言,我相信那些目前正在研究人工智能的人已经意识到了这些担忧,并将相应地进行迭代。 这对人类来说是完全未知的领域,肯定会有些崎岖。

图片来源:皮克斯

Related Posts