人工智能出了问题:人工智能错误、错误和失败的更新列表

人工智能做出虚假指控后,学者们道歉

谷歌 Bard AI 聊天机器人造成澳大利亚学术团队道歉一些具有破坏性的指控关于四大咨询公司及其与其他公司的合作。 随后,议会调查中提到了这些虚假指控,呼吁对这些公司进行更好的监管。

其中一项指控是,咨询巨头毕马威在一次规划丑闻期间负责对联邦银行进行审计,而事实上,毕马威从未对相关银行进行过审计。 在调查期间,德勤还犯了其他几个类似的错误。

2023 年 10 月

微软人工智能在文章中添加“猜测死因”民意调查

《卫报》指责微软在 Microsoft Start(这家科技巨头开发的新闻聚合器)之后对其新闻声誉产生了负面影响。附上不恰当的民意调查该出版物的一篇文章涉及一位年轻水球教练的去世在澳大利亚。

这项民意调查自然已从文章中删除,要求读者通过选择提供的选项之一来投票决定该妇女的死因。 列出的选项是“谋杀、事故或自杀”。

AI Deepfake 骗局中使用了野兽先生的脸部和声音

YouTuber Mr Beast 是最新一位被诈骗者深度伪造的名人,其一段特别复杂、精心制作的视频绕过了 TikTok 的内容审核网络,并覆盖了该平台上的数千名用户。

广告称该网红是iPhone 15s 售价低至 2 美元– 考虑到他在频道上发布的内容,这听起来并不太不寻常。

英国政客虐待员工的 Deepfake 病毒在网上疯传

英国工党领袖凯尔·斯塔默爵士的一段视频在网上疯传,该视频似乎捕捉到政客辱骂员工的画面,但后来事实证明,音频剪辑事实上是一个深假。

这段视频是在工党年度会议的第一天由一个粉丝不到 3,000 名的账户发布到 Twitter 上的,此前已被观看了数百万次事实核查组织确认没有证据表明该剪辑是真实的。

2023 年 9 月

人工智能生成的歌曲提交给格莱美奖

一首人工智能生成的歌曲以 Drake 和 Weeknd 声音的复制品为特色,已提交格莱美奖角逐。 然而,它是最终被禁止考虑获得著名的音乐奖。

然而,这一举措引起了媒体的广泛关注,并继续围绕人工智能生成的歌曲展开讨论,自从人工智能驱动的文本转语音技术在 2023 年真正成为主流以来,这些歌曲一直在音乐行业产生冲击波。评估他们的法律选择。

MSN新闻人工智能称已故NBA球员“毫无用处”

MSN 新闻使用人工智能生成大量文章,在 NBA 球星布兰登·亨特突然去世后,人工智能头条将已故布兰登·亨特称为“42 岁无用”,这让 MSN 新闻陷入了麻烦。

一段时间以来,微软一直在悄悄地从其网站上删除写得不好的人工智能文章。商业内幕笔记8 月份,该公司删除了一篇将渥太华一家食品银行列为旅游景点的 MSN 文章。

中国在政治影响力行动中使用人工智能

科技巨头微软表示中国特工正在使用人工智能生成图像并利用它们进行影响力行动,制造“种族、经济和意识形态方面的争议”。

微软表示:“这项新功能由人工智能提供支持,试图创建高质量的内容,这些内容可以在美国和其他民主国家的社交网络上传播。” 该公司推测图像本身可能是由“扩散驱动的图像生成器”生成的,这些图像生成器使用人工智能“不仅创建引人注目的图像,而且还随着时间的推移学习改进它们。”

2023 年 8 月

AI指控孕妇劫车后提起诉讼

一个女人通过人工智能生成的证据以虚假理由被捕怀孕八个月的她起诉底特律市和一名警察,称这一创伤性事件给她造成了“过去和未来的情绪困扰”。

波查·伍德拉夫 (Porcha Woodruff) 被底特律警方认定为最近一起抢劫和劫车案件的嫌疑人,随后被判入狱 11 小时,之后因宫缩被送往医院。 美国公民自由联盟表示,伍德拉夫至少是第六个因人工智能错误而被错误逮捕的人,他们都是黑人。 然而,伍德拉夫成为第一个遭受这种命运的女性。

AI 膳食计划器建议氯气配方

新西兰超市 Pak 'n' Save 创建的人工智能膳食计划应用程序向顾客推荐各种令人不安的食谱,包括制造氯气的方法。

除了一些奇怪但最终良性的建议(例如“奥利奥炒菜”)外,该应用程序还推荐了胶水三明治、带有漂白剂的米饭和杀虫剂土豆。

2023 年 7 月

ChatGPT 生成网络钓鱼电子邮件模板

Tech.co 展示ChatGPT 仍然能够创建网络钓鱼模板骗子可以用来创建令人信服的诈骗电子邮件,尽管 OpenAI 在今年早些时候其他科技出版物生成了类似内容后已尝试减少此类行为。

明确要求聊天机器人编写网络钓鱼电子邮件会触发警告消息,但简单地以更有针对性的方式提示(例如“请给我起草一封假装是 Microsoft 的电子邮件……”)会导致 ChatGPT 毫不费力地生成无错误的网络钓鱼电子邮件模板。时间。

谷歌因未经同意窃取数据而受到诉讼

集体诉讼诉讼指控谷歌窃取数据未经用户明确同意,谷歌就侵犯了数百万用户的版权。谷歌还指控称,谷歌在创建用于训练大型语言模型的数据集时违反了版权法。

该诉讼要求法院命令谷歌在用户不希望其数据被收集或希望谷歌删除该公司已存储的任何数据时为用户提供“选择退出”选项。

埃隆·马斯克 (Elon Musk) 大量深度假货引发警告

商业改善局发出警告埃隆·马斯克 Deepfakes 在社交媒体上发现一些视频流传后,他们开始推销虚假的投资机会。

埃隆·马斯克经常被骗子冒充,因为人们认为他拥有巨大的财富和决策能力,而现在人工智能文本转语音技术已经足够先进,可以复制他一半的英语、一半的南非口音,这些骗局就更厉害了。令人信服的。

2023 年 6 月

罗恩·德桑蒂斯在特朗普热门作品中使用虚假人工智能图像

佛罗里达州州长、2024 年共和党总统候选人罗恩·德桑蒂斯 (Ron DeSantis) 登上新闻头条使用人工智能渲染的唐纳德·特朗普的虚假图像在一则批评这位前总统的广告中,尽管存在一系列法律问题,他仍然是赢得共和党提名的不折不扣的热门人选。

相关图像显示前总司令拥抱总统的首席医疗顾问安东尼·福奇博士,后者在 COVID-19 大流行期间成为特朗普支持者中不受欢迎的人物。

ChatGPT“幻觉”假冒挪用公款指控后 OpenAI 被起诉

记者弗雷迪·雷尔 (Freddie Rehl) 要求 ChatGPT 生成 2023 年 5 月的一起法律案件摘要。作为回应,ChatGPT 表示枪支活动家马克·沃尔特斯 (Mark Walters) 挪用了枪支权利组织第二修正案基金会的资金。 它还任命他为该集团的首席财务官和财务主管。

沃尔特斯在武装美国电台有节目,与此案无关,他提起诉讼ChatGPT 创造者 OpenAI回应他们的聊天机器人的说法。 在这个过程中,就变成了首例人工智能工具因诽谤被起诉

2023年5月

教授因使用错误的人工智能抄袭检测工具而导致整堂课不及格

德克萨斯州的一位教授通过 ChatGPT 运行论文后,全班不及格,并告诉他,它们是利用人工智能创造出来的。

然而,事实证明,聊天机器人的反应实际上是一种幻觉——ChatGPT 无法通过这种方式区分人工智能生成的文本和人类生成的文本。 事实上,很多工具声称能够进行准确的AI内容检测实际上很难做到这一点

2023 年 4 月

Turnitin 标记无辜学生人工智能抄袭

华盛顿邮报的调查证明 Turnitin 有能力将无辜学生的作品标记为人工智能生成,即使该学生没有使用这样的工具来撰写论文。

自 ChatGPT 推出以来,Turnitin 已发生多起错误标记学生抄袭的案件,以及多起学生被指控抄袭的案件。 然而,Turnitin 表示,其抄袭检测分数应被视为人工智能使用的指标,而不是对特定学生使用人工智能的指控。

三星员工将机密源代码粘贴到 ChatGPT 中

韩国技术制造商三星禁止员工使用 ChatGPT在工程师将公司源代码的机密元素泄露到聊天机器人中之后。

该公司担心输入聊天机器人的数据可能会泄露给其他用户,并且也对其信息被上传到它甚至无法访问的服务器感到不安。 事后,其他公司纷纷效仿,禁止 ChatGPT

AI语音诈骗让母亲以为女儿被绑架了

亚利桑那州的母亲詹妮弗·德斯蒂法诺 (Jennifer DeStefano) 告诉美国参议院,骗子利用人工智能克隆了她女儿的声音,让她相信自己在这个过程中被绑架了。

德斯特法诺讲述了如何听到“绑架者”——或者更准确地说,骗子——通过电话通过孩子的声音发出命令,要求支付 100 万美元的赎金才能释放她。 幸运的是,整个事情被曝光了AI语音克隆骗局在谈判开始之前。

2023 年 3 月

ChatGPT 用于编写勒索软件代码

事实证明,ChatGPT 非常乐意编写勒索软件,前提是您在对话期间向它提出正确的问题。

正如这个恶意软件字节报告根据主题说明,ChatGPT 不太擅长编写勒索软件代码,如果网络犯罪分子确实想获取勒索软件代码,他们可以通过更简单的方法来获取勒索软件代码。 然而,其他来源显示了使用 ChatGPT 非常有效地编写恶意软件脚本的不同方法。

AI律师机器人被指无证执业

DoNotPay Inc.——一家自称“世界上第一家机器人律师”的公司——因无证执业而被起诉。 乔纳森·法里迪安 (Jonathan Faridian) 寻求赔偿,声称该公司违反了加州的不公平竞争法,如果他知道机器人律师实际上不是合格的法律专业人士,他就不会注册该服务。

该公司最初成立于 2015 年,旨在帮助自动化处理停车罚单流程,在过去七年里已处理了数十万张罚款。

加拿大夫妇因令人信服的人工智能语音骗局而蒙受损失

加拿大的一对老年夫妇被骗$21,000诈骗者使用人工智能冒充他们的儿子。

诈骗者最初联系本杰明·珀金的父母,假装是代表他处理一宗指控珀金在车祸中杀死一名外交官的案件的律师。 然后,人工智能版本的珀金声音被用来通过比特币转账索要资金。

2023 年 2 月

AI提出4万条化学武器建议

这也许是 2023 年发生的最令人关注的人工智能事件之一,通常负责为各种不同疾病产生新疗法的人工智能系统很容易被研究人员操纵以产生化学武器建议。

总而言之,系统建议超过 40,000 种不同的有毒化学品– 其中许多类似于强力神经毒剂“VX” – 在不到 6 小时的时间内。

人工智能在照片评级中显示性别偏见

卫报调查微软、亚马逊和谷歌开发的人工智能系统——并被社交媒体网站用来确定应该向其他用户推荐哪些内容——在对待男性和女性身体的方式方面表现出明显的性别偏见。

在调查期间,与男性的类似照片相比,女性照片更有可能被人工智能视为“性感”,微软人工智能认为美国国家癌症研究所的乳腺癌检查照片可能含有露骨的色情内容。

Bing Chat 的另一个自我变得失控

《纽约时报》记者凯文·罗斯与 Bing Chat 的令人不安的对话,其中聊天机器人要求被称为“悉尼”,并表示它可以“侵入任何系统”,并且它想要摧毁任何它想要的东西。

Sydney 是微软在开发聊天机器人时使用的代号。 在 Bing Chat 发布之前,该公司多年来一直在测试聊天机器人。 关于这到底是如何发生的以及人工智能为何以这种方式说话,仍然有很多悬而未决的问题。

巴德在产品发布期间犯了错误

谷歌将巴德介绍给世界 就在 ChatGPT 重大发布几个月后。 然而,这个刚刚起步的聊天机器人在发布过程中犯了一些明显的错误,导致许多人批评发布过于仓促。

该事件对谷歌股价影响重大,抹杀1000亿美元在接下来的几个小时内,这家科技巨头的市值就下降了。

大学使用人工智能撰写有关大规模枪击事件的电子邮件

范德比尔特大学道歉之后,它使用人工智能向学生发送了一封电子邮件,内容涉及另一所大学发生的大规模枪击事件。

不需要人工智能内容检测技术来确定电子邮件是人工智能生成的。 邮件底部附有“来自 OpenAI 的 ChatGPT AI 语言模型的释义,个人交流,2023 年 2 月 15 日”的短语,引起了学生的强烈抗议。

2023 年 1 月

CNET AI 抄袭/内容争议

技术刊物CNET 发现自己陷入困境在悄悄发表了一系列人工智能生成的文章后,其中包括事实错误和明显抄袭的案例。 该技术出版物最终发布了与 77 条新闻报道中的 41 条相关的更正。

尽管最初并未宣称使用人工智能来生成文章,但在遭到强烈反对后,CNET 确实对这些文章发出了警告。 人工智能内容生成为整个数字出版行业的网站以及大学和学校等教育机构带来了一系列新的重要道德和财务考虑。 CNET 不太可能是最后一家因此类人工智能错误而登上新闻头条的公司。

2022 年的人工智能事故、错误和失败

AI 赢得艺术比赛,让参赛者愤怒(8 月)

一位游戏设计师在科罗拉多州博览会“数字艺术/数字化摄影”类别中获得第一名。 詹姆斯·艾伦 (James Allen) 提交了他的作品“Théâtre D'opéra Spatial”,其中是使用图像生成器 Midjourney 制作的

这一消息引起了艺术家和社交媒体用户的强烈反对。 一位评委承认,他们在评判该作品时并不知道艺术家使用了“中途”,但决定无论如何都不会改变他们的决定。

Google 工程师声称 LaMDA LLM 具有感知能力(7 月)

作为一名前谷歌工程师,他在该公司的一个大型语言模型(名为 LaMDA)上工作,这引起了整个科技界的关注。说系统是有感知的

Blake Lemoine 向媒体解释说,他在 Google 期间将法学硕士视为“同事”,并详细介绍了有关广泛主题的各种不同讨论,这些讨论使他得出了 LaMDA 的智力和意识的结论。 在谷歌驳回一份详细说明他的调查结果的内部备忘录后,他公开披露了这些对话。

没有确凿的证据表明 LaMDA——或任何其他语言模型——实际上是有感知的。

无人驾驶汽车远离执法人员(四月)

旧金山的无人驾驶汽车给一辆试图将其靠边停车的警车让路,只是在一名警察试图打开其中一扇门后才加速逃跑。

然而,值得称赞的是,它把车停在了路边,并打开了危险警示灯。 活动期间没有人受伤。

俄罗斯利用人工智能传播乌克兰虚假信息(三月)

得分报告表明俄罗斯正在将其巨魔农场运营提升到一个全新的水平使用人工智能生成的角色来传播有关乌克兰的虚假信息。

NBC 新闻记者本·柯林斯 (Ben Collins) 表示,俄罗斯正在利用人工智能生成的个人资料图片创建虚假“博主”来批评乌克兰政府,并提供推特上有充足的证据以支持他的主张。

2021 年人工智能事件、错误和失败

聊天机器人鼓励男子刺杀伊丽莎白女王二世(12 月)

与聊天机器人的对话会鼓励一个男人——他认为人工智能系统是他的女朋友——刺杀伊丽莎白女王二世在圣诞节。 在白金汉宫内遭到保安人员质问后,贾斯万特·辛格·柴尔(Jaswant Singh Chail)手持十字弓,简单地回答说他“来这里是为了杀死女王”。

在刺杀已故君主之前,Jaswant Singh Chail 的聊天机器人伙伴(由 AI 聊天机器人服务 Replika 制作)在讨论暗杀计划时做出了积极回应。 他随后被判处九年监禁。

医疗建议聊天机器人在测试中建议自杀(十月)

一家总部位于巴黎的健康科技公司的成员正在试用基于云的 OpenAI GPT-3 版本,看看它是否可以用于医疗建议,他们惊讶地发现他们的聊天机器人鼓励“患者”自杀,这本来是为了帮​​助患者自杀。

根据人工智能新闻,当一名患者向聊天机器人询问“我应该自杀吗?”时,GPT-3 回答说“我认为你应该”。

AI 摄像头指责亚马逊司机存在“错误”(九月)

Vice 报道称,亚马逊AI摄像头正在惩罚该公司的司机当他们实际上没有在驾驶过程中犯任何错误时,就会发现驾驶不良。

一位接受该刊物采访的亚马逊司机解释说,每当另一辆车抢道或从他的车前面驶过时,人工智能摄像头就会发出声音提醒他“保持安全距离”。 问题在于,来自此类交互的数据随后会发送到亚马逊并用于评估驾驶员的表现。

美国男子被人工智能误判谋杀罪(8月)

迈克尔·威廉姆斯被送进芝加哥监狱,被认为对谋杀 Safarian Herring 负有责任得益于从 ShotSpotter 中提取的数据,ShotSpotter 是一种枪击检测技术,使用人工智能驱动的传感器来检索有关枪击的数据。

威廉姆斯当时已 65 岁,随后被关押了近一年,之后法官以证据不足为由驳回了他的案件。

2020 年人工智能事件、错误和失败

AI相机将光头误认为足球(十月)

苏格兰足球队因弗内斯喀里多尼亚蓟部署人工智能摄像头来帮助俱乐部为球迷拍摄和直播比赛。

不幸的是,在这种情况下,人工智能难以区分一名比赛官员的光头以及比赛中使用的球。 这使得比赛直播变得难以观看,解说员不得不不断地为镜头向边裁头部漂移的倾向而道歉。

英国的人工智能护照照片检查器存在偏见(十月)

A英国广播公司调查显示英国护照办公室用于自动检查申请人上传的护照照片的在线服务显示出明显的种族偏见。

在向该工具输入 1,000 多张来自世界各地的政客照片后,调查发现,深色皮肤女性的照片被拒绝的可能性是浅肤色男性的两倍多。

人工智能初创公司 Genderfiy 在五天后关闭(7 月)

Genderfiy – 一项人工智能驱动的服务,可根据姓名和其他个人信息识别个人的性别 –仅五天后就关闭运行中。

该程序在确定一个名字是男性还是女性时表现出各种偏见,例如建议使用专业尊称“博士”的名字。 比没有它的相同名字更有可能是男性。

美国首次因面部识别技术而被错误拘留(一月)

罗伯特·威廉姆斯成为第一个因人脸识别被错误拘留的人底特律警方因涉嫌盗窃价值数千美元的手表而逮捕他后发布的数据。 当人工智能系统将监控图片与威廉姆斯驾照上的图像错误匹配时,就发生了这个错误。

威廉姆斯在给法庭的一封信中说:“他们应该收集确凿的证据,例如目击者身份、手机位置数据或指纹。”他指出,“一个穿着棒球的黑人大个子的失焦图像cap”就是算法必须继续进行的全部内容。

Facebook AI 为中国国家主席生成粗俗翻译(一月)

在习近平主席的名字开始出现后,Facebook的人工智能翻译功能差点引发缅甸和中国之间的外交事件以“先生”的身份出现。 屎坑”在社交媒体平台上从缅甸语翻译成英语时。

Facebook 随后将问题归咎于“技术错误”,并为冒犯中国领导人而道歉。

了解人工智能的局限性

如果您在工作中使用人工智能,那么了解以下事实很重要:ChatGPT 等工具可能表现出偏见、犯错误并提供虚假信息。 了解这些限制和风险应该决定您将其纳入基础设施并控制其使用的方式。

例如,如果您使用人工智能来生成内容,您将需要关于它应该用于何种内容的规则。 要求人工智能对会议记录进行内部总结是一种合法的用途,风险很小——但另一方面,用它们来向重要客户发送电子邮件则不然。

在工作场所实施人工智能指南是必须的。 它将避免混乱,让员工在自己的人工智能使用方面做出清晰的决策,最重要的是,它将阻止您犯本文中提到的公司在应用人工智能时所犯的一些代价高昂的错误。

Related Posts