亚马逊警告员工不要向ChatGPT分享机密,包括正在写的代码

1月25日,自人工智能研究公司以来OpenAIAI聊天机器人人于2022年11月发布ChatGPT后者自科技领域流行以来,但科技巨头亚马逊但对此充满警惕,甚至警告员工不要与ChatGPT分享机密信息。

亚马逊内部Slack该频道有许多关于如何使用ChatGPT的员工。一些员工询问亚马逊是否制定了使用ChatGPT的官方指导。其他人想知道他们是否被允许使用人工智能工具。一名员工敦促亚马逊云计算部门AWS澄清其对“生成性使用”AI(AIGC)工具的立场。

很快,亚马逊的一名律师加入了讨论。Slack根据频道内部交流截图,律师警告员工不要向ChatGPT提供“亚马逊机密信息”,包括正在编写的亚马逊代码。他还建议员工遵循公司现有的保密政策,因为ChatGPT的一些回复似乎与亚马逊的内部情况非常相似。

律师写道:“这很重要,因为你的输入可能被用作ChatGPT的迭代训练数据,我们不希望它的输出包含或类似于我们的秘密信息。”

这些交流表明,ChatGPT突如其来的出现导致了许多新的伦理问题。ChatGPT它是一种对话AI工具,可以用更清晰、更智能的答案来回应查询。ChatGPT快速传播可能会颠覆媒体、学术和医疗保健等多个行业,促使人们努力寻找聊天机器人的新用例及其可能的影响。

员工如何与ChatGPT共享秘密信息,以及开发人员如何处理这些信息,可能会成为一个非常困难的问题。这对亚马逊来说尤为重要,因为其主要竞争对手微软在OpenAI上投入了大量资金,包括本周的新一轮融资,总计100亿美元。

艾米丽在华盛顿大学教授计算语言学·本德(Emily Bender)说:“OpenAI如何使用数据还远远不够透明,但如果这些数据被用于培训,我预计公司会这样想:在广泛使用ChatGPT几个月后,私人公司的秘密信息是否可以通过精心设计的提示获得?”

亚马逊为员工使用ChatGPT提供了许多内部保护措施。例如,通信截图显示,当员工使用工作设备访问ChatGPT网站时,一条警告信息称,他们即将访问亚马逊安全部门可能不批准的第三方服务。

参与Slack频道聊天的员工表示,他们只需点击“Acknowledge“选项卡可以绕过这个消息。工作人员猜测,警告弹出窗口是为了防止员工将机密信息粘贴到ChatGPT上,尤其是因为他们还没有看到公司的内部使用政策。

尽管如此,一些亚马逊员工还是使用人工智能工具作为软件“编码助手”,以帮助改进内部代码行。一位亚马逊员工在Slack频道上写道:“我认为现在直接使用这个功能太棒了!因此,任何指导都将非常好。”

既担心又兴奋

另一名员工表示,他在ChatGPT上分享了亚马逊对一个公共编程职位的面试问题。根据员工在Slack上的帖子,人工智能模型为几个技术问题提供了正确的解决方案。他说:“我既担心又兴奋地看到这将对我们的编程面试产生什么影响。”

总的来说,参与Slack频道聊天的亚马逊员工对ChatGPT的潜力感到兴奋,并想知道亚马逊是否在开发竞争产品。该公司的律师警告员工不要使用ChatGPT,称亚马逊正在加快“类似技术”的发展,并引用语音助手Alexa和代码推荐服务CodeWhisperer为例。

AWS员工写道,Enterprise Support该团队最近成立了一个小型工作组,“了解高级聊天人工智能对我们业务的影响”。研究显示,ChatGPT在回答AWS支持问题时,“表现非常好”,包括解决Aurora数据库问题。同时,它在为AWS认证的云架构师考试创造培训材料和提出客户的公司目标方面也非常出色。

“远不透明”

华盛顿大学本德表示,越来越多的ChatGPT在工作中被使用,这导致了一个严重的问题,即如何使用与人工智能工具共享的材料。

OpenAI服务条款要求用户同意用户和ChatGPT产生的所有输入和输出。它还说,OpenAI所有个人身份信息从使用的数据中删除(PII)。

然而,本德表示,考虑到ChatGPT的快速增长,很难看到OpenAI如何识别和删除所有个人信息。更重要的是,该公司的知识产权可能不是PII定义的一部分。

数据隐私似乎是亚马逊员工最不关心的问题。他们说,在工作中使用聊天机器人已经提高了工作效率10倍,许多人希望加入内部团队,开发类似的服务。

其中一名员工在Slack上写道:“如果我现在有建立类似服务的计划,我真的希望在需要的时候加入其中,稍微薄一点。”(小)

亚马逊警告员工不要向ChatGPT分享机密,包括正在写的代码

(0)
上一篇 2023年1月31日 下午3:12
下一篇 2023年1月31日 下午3:27

相关推荐

wx