1. 首页 > AI/互联网

敏感代码泄露后,三星禁止员工使用ChatGPT和其他聊天机器人



据外媒报道,三星电子已禁止公司员工使用ChatGPT和其他人工智能聊天机器人,成为最新一家禁止工作场所使用人工智能服务的公司,原因是担心敏感的内部信息在这些平台上泄露。

据悉,此次打击行动的起因是,一名工程师上月将敏感的内部源代码意外泄露,并将其上传到ChatGPT。

三星随后在上周发布了一份备忘录,禁止使用“生成式人工智能”工具。

虽然泄露的严重程度尚不清楚,但三星担心与人工智能聊天机器人共享的数据存储在OpenAI、微软和谷歌等运营该服务的公司拥有的服务器上,而三星则无法轻松访问和删除这些数据。

三星电子还担心,与ChatGPT等公司共享的敏感数据最终可能会被提供给其他用户。

默认情况下,ChatGPT保存用户的聊天记录,并使用对话来进一步训练其模型,虽然平台允许用户手动禁用此功能,但尚不清楚此选项是否可追溯适用于较旧的聊天记录。

三星并不是唯一一家禁止员工使用ChatGPT和类似工具的科技巨头;

今年1月,亚马逊向员工发出了类似的警告。据报道,这家在线零售巨头发现ChatGPT的回复类似于亚马逊内部数据的例子后,通知其员工不要与ChatGPT分享任何有关公司的代码或机密信息。

今年2月,摩根大通(JPMorgan Chase)也严格限制其员工使用ChatGPT,原因是担心在分享敏感金融信息方面可能面临潜在的监管风险。很快,美国其他主要银行——包括美国银行、花旗集团、德意志银行、富国银行和高盛——也纷纷效仿。

此文为作者或媒体授权发表于本网站,且已标注作者及来源。如需转载,请联系原作者或媒体获取授权。
本网站转载属于第三方信息,并不代表本网站观点及对其真实性负责。如其他媒体、网站或个人擅自转载,请自负相关法律责任。

如对本文内容有异议,请联系:
Email:youth-daily@foxmail.com
QQ:2279581925

联系我们

在线咨询:点击这里给我发消息

微信号: