切勿与 ChatGPT 分享的 6 件事

1. 敏感公司数据

如果您没有选择退出 ChatGPT 存储您的数据,那么您放入该平台的任何内容都被视为公平游戏,并且可以用于训练 LLM 以及训练其 AI。

这也意味着这些信息可能不完全属于您,而是属于您工作的公司。 已经有私人公司数据通过 ChatGPT 公开的例子,其中最高的之一是配置文件示例为三星今年,他限制了聊天机器人的使用。

🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠

在一份内部备忘录中,该公司警告员工不要使用 ChatGPT,因为安全漏洞被追溯到一名员工在该平台上共享敏感的公司代码。

三星并不孤单——包括苹果在内的许多其他公司也这样做了。 禁止 ChatGPT对于某些员工和部门。

负责暴露公司的敏感数据可能会导致您与人力资源部门的谈话非常尴尬,甚至更糟糕的是被解雇。

2. 创意作品与知识产权

写下一部伟大的美国小说并希望 ChatGPT 对其进行编辑? 停止。 切勿与聊天机器人分享您的原创创意作品,除非您很乐意与所有其他用户共享它们。

事实上,即使是受版权保护的炒锅也不安全。 像 ChatGPT 这样的聊天机器人目前卷入了许多法律案件,例如莎拉西尔弗曼和乔治·R·R·马丁 (George RR Martin),指责他们在自己发表的著作上训练大型语言模型 (LLM)。

您的下一个好主意很可能会出现在陌生人的 ChatGPT 结果中,因此我们建议您不要透露。

3. 财务信息

就像您不会在在线公共论坛上留下您的银行或社会安全号码一样,您也不应该将它们输入 ChatGPT。

可以向平台询问财务提示、帮助您制定预算,甚至税务指导,但切勿输入敏感的财务信息。 这样做很可能会导致您的私人银行详细信息被泄露,并容易被滥用。

保持警惕也非常重要 虚假人工智能聊天机器人平台这可能旨在诱骗您共享此类数据。

4. 个人资料

您的姓名、您的地址、您的电话号码,甚至您的第一只宠物的名字……对于 ChatGPT 来说都是大忌。

诸如此类的任何个人信息都可以被用来冒充您,欺诈者可以利用它来渗透私人帐户,或进行冒充诈骗 - 这对您来说都不是好消息。

因此,请抵制住将您的生活故事放入 ChatGPT 的诱惑,如果您决定让它为您写自传,请仔细考虑您要分享的内容。

5. 用户名和密码

您只应该在一个地方写下密码,那就是需要密码的应用程序或网站。 最佳实践表明,将未加密的密码存储在其他地方可能会让您容易受到攻击。

因此,如果您不希望您的密码被公开,我们建议您抵制诱惑,让 ChatGPT 将您的所有密码记录在一个位置以便更容易查找,或者也许要求它为您建议更强的密码。

如果您很难记住密码(让我们面对现实,我们都是如此),那么密码管理器是一个很棒的工具,可以消除同时处理多个密码的痛苦。

如果您想测试现有密码,有很多免费、安全的工具可以为你做到这一点。

好吧,我们承认这有点矛盾,如果不实际与 ChatGPT 交谈,就很难使用它,但它很好地展示了将任何内容输入 ChatGPT 的危险性。

是的,甚至您自己的 ChatGPT 请求也可以与其他人共享,而且这种情况在过去已经发生过。

最近甚至出现了一个错误意味着ChatGPT 用户正在查看聊天内容其他用户使用聊天机器人执行的操作。

还有证据表明,谷歌的巴德聊天机器人一直在为与用户的聊天内容建立索引,使任何人都可以轻松地在网上找到它们。

在这两种情况下,这些公司都承诺纠正问题,但这说明了技术进步的速度有多快,而且任何东西,甚至是你向平台提出的请求,都不能被视为私人的。 每当您与聊天机器人交谈时,请记住这一点。

安全使用 ChatGPT

ChatGPT 是一个功能强大的工具,它可以为您做很多事情,让您的工作和个人生活变得更轻松、更高效。

然而,重要的是要记住,您与之共享的信息很可能用于训练平台,并且可能以各种形式出现在其他用户的请求中。 你可以选择不让 ChatGPT 使用您的数据,我们建议您熟悉一下平台如何使用您的数据

同样重要的是要认识到,过去在平台上分享的任何内容都可以极难永久删除,因此请务必谨慎使用聊天机器人,并将它们视为远方的熟人,而不是亲密的朋友。

Related Posts