生成式人工智能根据最近一份报告调查的大多数技术专业人士的观点,这些工具给采用它们的公司带来了一个巨大的问题:它们可能导致数据泄露。
具有讽刺意味的是,生成式人工智能造成数据隐私问题的一种方式是,让人们无需技术知识就能更轻松地访问数据——这种现象可以称为“打破专业知识壁垒”。
专业人士还担心其他违反道德规范的可能性,从有偏见的数据集到可能被人工智能破坏的业务工作流程。展望未来,人工智能甚至可能影响数据本身的质量。
72% 的专业人士担心数据隐私
在接受调查的专业人士中,近四分之三(72%)的人将数据隐私列为现代商业技术领域快速推出生成式人工智能工具的三大担忧之一。
此外,40% 的受访者将数据隐私列为他们最关心的问题,这一比例是排名第二的受访者最关心的问题的三倍(排名第二的是数据来源,12% 的受访者将其列为第一)。
该报告收集了 1,848 名商业和技术专业人士的反馈,来自德勤本星期。
人工智能如何对数据隐私构成威胁?
人工智能带来网络安全或数据隐私风险的实际方式多种多样。
一个大问题是,人工智能可能会鼓励员工在业务的许多领域越权或偷工减料:如何使用数据、是否把客户隐私放在首位、采取哪些措施来确保系统安全、以及所有公司工具是否得到适当使用。
这些潜在问题让人想起去年一则令人大开眼界的新闻标题,其中一名律师使用虚假信息提交了简报,ChatGPT 创建的引文。然而,更有可能的是,会出现更多类似这样的新闻在三星的人工智能中据报道,一名员工将敏感的公司代码复制到机器人后发布了这条警告。
数据隐私比以往任何时候都重要
根据新报告,技术专业人员对数据隐私问题保持警惕可能部分是因为他们非常了解客户数据可能被滥用的多种方式。
“这可能表明个人对数据保护感到不安,并意识到侵犯客户和员工隐私以及滥用数据可能对个人和组织造成危害。”——报告
如果公司不关注其数据使用情况,那么英国的《通用数据保护条例》(GDPR)或美国的《加州消费者隐私法案》(CCPA)等保护性法规可能会让公司损失数百万美元。
随着人工智能在职场中变得越来越普遍,对人工智能进行适当的教育数据安全实践可能会随着新技术的使用而激增。
我们很高兴您喜欢它!将更多类似的内容发送到您的收件箱。
很抱歉,这篇文章今天没有帮到你——我们欢迎反馈,所以如果你觉得我们可以改进我们的内容,请发送电子邮件至 [email protected]