在网站上使用人工智能聊天机器人前应回答的四大问题

我应该在网站上使用人工智能聊天机器人吗?

将人工智能聊天机器人整合到企业网站中会有很大帮助。但如果使用不当,也会导致巨大的成本、麻烦甚至诉讼。在本篇文章中,我们将探讨在网站上安装人工智能聊天机器人前应该回答的四个问题。

1.我对客户说了什么?

我们公司Web3 业务的一个固定组成部分就是起草网站政策,从隐私政策到服务条款,再到人工智能聊天机器人政策和条款,无所不包。根据我们的经验,许多企业在没有制定必要政策的情况下就一头扎进新技术中,这可能会导致巨大而昂贵的问题。

有些企业从互联网上撤下网站政策,更改名称,然后在自己的网站上重新张贴别人的网站政策,从而使自己的情况变得更糟。我真希望我是在开玩笑,但这种事情发生的频率之高超乎你的想象,它可能而且往往会导致毁灭性的后果。

例如,您的企业采用与他人完全相同的隐私保护措施的几率有多大?百分之五吗?除非政策反映了你的实际业务做法,否则使用其他企业的网站政策只会招致诉讼。相信我,有一大批原告律师会非常乐意提起诉讼。

使用人工智能聊天机器人或拥有网站的企业需要做的第一件事就是制定好政策或条款。要做到这一点,您需要先做几件事。

2.人工智能聊天机器人会让你陷入困境吗?

你可能已经读过最近谷歌双子座的丑闻,据说该丑闻导致谷歌股票价值损失 700 亿美元。你甚至可能听说过Old Navy 的人工智能聊天机器人被指控非法窃听之类的事情。抛开一些更广为人知的案例和指控不谈,人工智能聊天机器人仍有很多方式可以产生有问题的输出,并对你造成伤害。例如

  • 发表可归咎于网站运营者的诽谤性言论。
  • 提供错误的产品或服务使用说明。
  • 胡编乱造。显然,这种情况经常发生。连律师显然也会上当受骗!

这类事情看似微不足道,但却可能导致一些非常糟糕的结果。例如,据报道,OpenAI 因 ChatGPT 编造虚假投诉指控某人挪用公款而被起诉诽谤。试想一下,如果用户向人工智能聊天机器人询问如何使用您的产品,却收到了不正确或不完整的说明,并因此受到伤害或损害,将会发生什么。

就连人工智能公司似乎也承认,人工智能产生的产出可能会带来问题。Anthropic公司(Claude.ai)在2024年2月的服务条款中规定如下:

依赖输出。人工智能和大型语言模型是前沿技术,在准确性、可靠性和安全性方面仍在不断改进。当您使用我们的服务时,您承认并同意

    1. 产出不一定总是准确的,即使由于其详细程度或具体程度而显得准确,也可能包含重大的不准确之处。

    2. 在未独立确认任何 "输出 "的准确性之前,您不应依赖这些 "输出"。

    3. 服务和任何产出可能无法反映正确、最新或完整的信息。

    4. 输出可能包含与 Anthropic 观点不一致的内容。

这里要说的是,人工智能工具远非完美无缺。想要部署人工智能聊天机器人的企业需要意识到潜在的风险,并想办法降低风险。有些缓解技术可能是技术性的,比如确保人工智能聊天机器人只提供有限的回复。其他缓解技术可能包括全面的人工智能聊天机器人政策和免责声明。

3.谁拥有人工智能聊天机器人的产出?

当有人向人工智能程序提供提示("输入")时,他们会收到响应("输出")。用户拥有输出吗?输入呢?答案可能在很大程度上取决于使用的是哪种人工智能工具。如果用户拥有它,还有谁能使用它呢?

例如,OpenAI 2024 年 1 月的使用条款规定:"在您和 OpenAI 之间,在适用法律允许的范围内,您 (a) 保留您对输入的所有权,(b) 拥有输出。我们特此将我们对输出的所有权利、所有权和利益(如有)转让给您"。这听起来很不错--用户拥有输入的所有权,并被分配了输出的所有权。但等等,该政策接着指出,"我们可能会使用内容来提供、维护、开发和改进我们的服务,遵守适用法律,执行我们的条款和政策,并保证我们服务的安全。事实上,如果用户不希望其 "内容 "被用于训练人工智能模型,就必须主动选择退出。

让我们来看看上文引用的 Anthropic 的服务条款。与 OpenAI 的条款类似,Anthropic 的政策也规定"在您和 Anthropic 之间,在适用法律允许的范围内,您保留您对所提交的提示所拥有的任何权利、所有权和利益。在您遵守我们的条款的前提下,我们将我们对 "输出 "的所有权利、所有权和利益(如有)转让给您"。但他们接着说

我们对材料的使用。我们可能会使用材料来提供、维护和改进服务,并开发其他产品和服务。我们不会在任何未公开的材料上训练我们的模型,两种情况除外:

  1. 如果您(通过服务或其他方式)向我们提供有关任何材料的反馈意见,我们可根据第 5 条(反馈意见)使用该反馈意见。
  2. 如果您的材料被标记为信任和安全审查,我们可能会使用或分析这些材料,以提高我们检测和执行违反 "可接受使用政策"行为的能力,包括根据 Anthropic 的安全使命,为我们的信任和安全团队提供培训模型。

提供反馈 "是什么意思?政策是这样规定的(粗体字是后加的):

我们感谢反馈,包括改进意见和建议或根据提示对输出进行评分("反馈")。如果您根据提示对输出进行评分(例如,使用大拇指向上/向下图标),我们会将相关对话作为您的反馈的一部分进行存储。您没有义务向我们提供反馈,但如果您提供了反馈,则表示您同意我们可以任意使用这些反馈,而无需向您承担任何义务或支付其他费用。

根据我对这项政策的理解,只要竖起大拇指或摁下大拇指就可以被视为 "反馈",Anthropic 可以使用相关材料。

为什么这些都很重要?如果有人使用人工智能生成了他们想要商业化的结果,提供程序的人工智能公司可能会有条款限制或约束商业化(抛开复杂的版权法问题不谈)。而且用户可能已经同意向提供人工智能程序的公司返还输出结果的有效许可。还有潜在的隐私问题。如果用户输入了机密信息或受隐私法保护的信息,却突然发现自己并没有向第三方授予该信息的使用许可。

部署人工智能聊天机器人的公司应考虑风险缓解策略(见上文第 2 点),并仔细研究他们打算使用或纳入其程序的任何人工智能公司的相关条款。

4.我是否应该关注数据隐私和保密问题?

是的,原因与上文第 3 段所述相同。这里也可以采用许多相同的风险缓解策略。即使在人工智能时代之前,许多网站都有禁止用户通过网站或电子邮件提供机密信息或受隐私法保护的信息的声明。但在人工智能时代,这类披露变得更为重要。

总结

人工智能聊天机器人要想达到足够成熟的程度,在部署时不存在重大问题,还有很长的路要走。希望将其整合到网站中的企业应了解其风险,并制定风险缓解工具。否则,在即将到来的人工智能诉讼时代,它们可能会成为第一轮被告。

阅读更多

网络3