科技界的人工智能淘金热可能有点仓促:据报道称,谷歌无视员工警告,甚至否决了官方风险评估,以推出人工智能聊天机器人巴德。
这些所谓的警告出现在 2023 年 2 月数千人看到的内部消息中,而风险评估则发生在一个月后的 3 月,即巴德首次向公众亮相的同一个月。
谷歌的巴德是其中之一最引人注目的聊天机器人 AI,以及 OpenAI 的 ChatGPT。 两者都面临着广泛的公众监督。 针对这些工具的最大指控之一是它们经常且令人信服地撒谎,这对这项技术来说可能是灾难性的负面影响,这与据报道谷歌忽视的警告一致。
谷歌员工质疑吟游诗人的准备情况
新的报道来自布隆伯格,称员工在二月份被允许测试巴德,许多人发出警告称该工具尚未准备好公开发布。
据报道,员工表示巴德是个骗子,目前的状态还没有准备好推出,这标志着人工智能的重大失败。
据报道,一名员工的警告源于他们与巴德关于如何降落飞机和如何水肺潜水的对话——这两种可能致命的活动没有太多空间向病态说谎者提供建议。
据报道,该员工的结论是,如果严格遵循巴德的答案,可能会对用户产生有害影响。
据报道,风险评估无法与人工智能竞赛的启动相媲美
彭博社称,三月份的风险评估也被否决。 谷歌推出自己的生成式人工智能机器人至少部分是受到竞争对手的推动:OpenAI 的 ChatGPT 及其与搜索竞争对手 Bing 的集成。
彭博社的另一则报道称,谷歌高层领导层于 2022 年 12 月发出了“红色代码”,以加速其人工智能项目,导致道德妥协。
仔细检查你的人工智能对话
对于任何涉足聊天机器人的人来说,无论他们来自谷歌、微软还是任何其他公司,他们的收获都是一把竞争免费和付费服务——就是对机器人所说的一切持保留态度。
所有生成式人工智能都从知识数据库中提取信息,但它们并不总是正确地混合和匹配接收到的信息。 需要担心的问题的完整列表也更大:应该检查聊天机器人是否存在抄袭、侵犯版权和糟糕的数学技能等。其他一些问题。
在很多情况下,人工智能聊天机器人当然可以带来很多好处。 只是下次您去跳伞时不要依赖他们的建议。
我们很高兴你喜欢! 就像这样,将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]