三星引入ChatGPT不到20天,已发生三起半导体机密资料外泄事故

1.jpeg

其中2次和半导体设备有关,1次和内部会议有关。

  消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:

  这导致半导体设备测量资料、产品良率 原封不动传输给了美国公司。

  韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中, 会导致相关内容进入学习数据库,从而可能泄漏给更多人。

  据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。

  看起来,三星这次又搞了个大新闻啊。

  有网友将此戏称为:xx网盘存公司内部文件 (doge)。

  不过,也有网友发现了这件事诡异的地方。

  他们是怎么知道数据被泄露的?ChatGPT这么快就发布了新版本吗?

  而当《经济学人》记者向三星方面确认消息真实性时,相关负责人表示由于是公司内部事故,所以很难给出明确回复。

  目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。

  所以,真如报道所说,这些数据会被ChatGPT用于训练、给更多人看到?

  企业上传到ChatGPT的数据究竟是否安全?

  3.1%打工人在给ChatGPT喂企业数据

  三星这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。

  3月11日,三星的半导体事业暨装置解决方案事业部 (DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件:

  其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与 半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与 产量和良品率记录设备相关的一段代码输入了其中;

  员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……

  目前,三星内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发公司内部AI的意向。

  然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。

  不过,在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。

  如果是API类产品,则确定不会使用用户提交的数据。

  而让ChatGPT上传企业数据的事儿,并不止三星一家公司员工干过。

  据统计,不少企业员工都正在将公司数据直接传给ChatGPT,让它帮忙处理。

  Cyberhaven统计了 160万名员工使用ChatGPT的情况,发现:

  3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。

  Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。

  他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。

  光是一天之内 (3月14日),每10万名员工就平均给ChatGPT发送了 5267次次企业数据:

  那么这其中又有多少 敏感数据呢?

  数据显示,在员工直接发给ChatGPT的企业数据中,有 11%都是敏感数据。

  例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。

  上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。

  ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。

  ChatGPT曾出过数据泄漏bug

  实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。

  如软银、日立、富士通、摩根大通等都发出了相关通知。

  同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。

  还有意大利个人数据保护局也宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。

  之所以会引来这些恐慌,一部分原因还得从ChatGPT自身说起。

  3月末,ChatGPT被曝出现bug会 导致用户对话数据、支付信息丢失泄露。

  这一度导致了ChatGPT短暂关闭。

  OpenAI的回应中表示,这一漏洞可能导致了 1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。

  漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。

  OpenAI CEO山姆·奥特曼随即回应,这个bug来自开源库,他们使用这个库在其服务器中缓存用户信息。

  目前具体受到漏洞影响的用户数量还无法明确,OpenAI表示已通知受影响用户其支付信息或被曝光。

  但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。

  由此要求OpenAI公司必须在20天内通过其在欧洲的代表,通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。

  如今,随着三星被曝因ChatGPT发生数据泄露,也引发了进一步讨论。

  比如不少人在使用ChatGPT时,确实没有很强的隐私保护意识。

  以及如今随着越来越多企业使用ChatGPT,相关使用规则也需要进一步明确。内置了ChatGPT的微软产品,会不会也要禁止?

  对此,你怎么看呢?


产品图.jpg

赞 (0)
上一篇 2024年11月22日 18:15
下一篇 2024年11月22日 18:15