欧盟委员会考虑为人工智能生成的内容添加标签

这些法规终于开始为 ChatGPT 等平台带来一些动力,欧盟专员呼吁对人工智能生成的内容进行明确标记,以期减少虚假信息的传播。

毫不夸张地说,生成式人工智能平台正在缓慢但肯定地改变业务的完成方式。 这世界各地的公司都在使用人工智能工具从电子邮件到编码,一切都变得如此,导致人们重新思考工作的意义。

然而,由于推出速度极快,有意义的法规的落实进展缓慢。 欧盟专员正在大力推动尽快改变这一现状。

欧盟专员:人工智能内容应“明确标签”

在周一的新闻发布会上,欧盟委员会副主席建议开发生成式人工智能平台的公司应该“明确标记”这些服务产生的内容。

“将生成式人工智能集成到其服务中的签署者,例如微软的 Bingchat、谷歌的 Bard,应该建立必要的保障措施,确保这些服务不会被恶意行为者用来生成虚假信息。 拥有可能传播人工智能生成的虚假信息的服务的签署者应该反过来采用技术来识别此类内容并向用户明确标记。” – 维拉·朱罗娃 (Vera Jourova),欧盟委员会副主席

考虑到微软和谷歌等涉及此类技术的公司已经签署了欧盟实践准则,预计他们将在下个月的某个时候概述此类安全措施的计划。

生成式人工智能可以用来传播虚假信息吗?

对生成式人工智能平台内容进行标记的主要原因是,鉴于过去几年虚假信息活动的兴起和有效性,这些服务为不良行为者提供了前所未有的力量来传播此类尖刻的言论。

那么生成式人工智能真的可以用来传播虚假信息吗?一项研究发现巴德谷歌的生成式人工智能平台完全有能力完成这种动作。 事实上,就在两个月前,当被要求撰写有关 100 个通常被认为是错误信息的不同主题的内容时,该平台很高兴地这样做了 76 次。

现在,将内容标记为“人工智能生成”是否会有帮助则是另一回事了,特别是从长远来看,不良行为者可能会想出办法来规避此类法规。 尽管如此,我们还是必须做点什么。

忒修斯的内容

忒修斯之船是一个思想实验,它问:“如果随着时间的推移,你更换了船上的每一块木头,它还是原来的船吗?”

当谈到人工智能生成的内容,以及是否应该给它贴上标签时,这个思想实验就显得更加重要,因为生成式人工智能平台已经承认,它们的内容往往是令人信服的错误,需要人工编辑来确保准确性。

就这一潜在监管而言,人类编辑的内容何时不再由人工智能生成? 如何区分这两种区别,特别是当虚假信息受到威胁时?

综上所述,我们显然只触及了生成式人工智能平台的皮毛ChatGPT 和 Google Bard将会在全球范围内影响世界。

我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。

很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]