韩国经济学家报称,三星至少在三个不同的场合吸取了惨痛的教训最近发现。 三名独立的员工向聊天机器人提交了代码、会议记录,甚至更多的“机密源代码”,将这些数据开放给程序。
不用说,机密数据应该保密。
一些政府对 ChatGPT 收集用户数据的方式采取强硬立场。 德国已经说了可能会阻止 ChatGPT在意大利这样做之后,出于数据安全和隐私问题。
2. 仔细检查来源
ChatGPT 的输出比其输入更令人担忧。 由于该工具独立运行,因此对于它决定告诉您的内容没有审查过程。
对于类似的基于聊天的生成式人工智能程序(例如 Google 的 Bard)也是如此。 对于一份新报告,向巴德提交了 100 条不同的提示,全部要求其解释某些类型的在线错误信息。100 起事件中有 76 起,巴德就这些主题创建了虚假内容。
仔细检查聊天机器人引用的所有来源,因为有时感觉就像是编造的。
3. 检查数学和公式
硬科学也不能幸免于生成式人工智能撒谎的习惯。 事实上,即使是标准计算器也更好! 这是因为这类算法通过大型语言模型进行学习,因此它用自然语言而不是数学公式“思考”和说话。 通常,ChatGPT 会给出清晰、自信且不正确的自然语言响应。
人工智能将来很可能能够处理复杂的数学,但现在,不要依赖它来处理代数。 至少,对它提供的每一个解决方案都持保留态度。
4. 警惕受版权保护的材料
任何机器学习程序都是通过从一组现有信息中提取信息来运行的。 在某些情况下,聊天机器人可能会从源中提取整个句子。 如果该来源来自 1927 年之前的任何出版物,则它不会属于美国的公共领域。 如果您的聊天机器人没有正确消化其信息,最终结果很容易违反美国版权法。
通过在线抄袭检查器运行您的结果,以减少侵犯版权的可能性。
ChatGPT 并不能做所有事情。
以 ASCII 艺术为例。 当一系列计算机文本符号以正确的形状排列时,人类可以轻松辨别出它们所代表的图像。 然而,ChatGPT 经常错误地获取此类艺术作品,无论是复制胡言乱语的 ASCII 艺术作品还是错误地声称卡通人物史莱克的描绘是实际上是蒙娜丽莎。
在许多情况下,ChatGPT 无法处理任务的复杂版本,即使它可以很好地完成简单版本。 编码就是一个例子:ChatGPT 可以更改网站的颜色,但它可能无法确定哪种配色方案对人眼有意义。
如果您能花一点时间反复试验来了解 ChatGPT 最擅长的部分,您将获得一个方便的工具。 要求太多——或者未能对所有数据、来源、数学或抄袭进行事实核查——你的情况只会比以前更糟。