原创:商密卫士
前几天我们刚发表了一篇文章《如何防止ChatGPT泄密》,提醒企业和个人在使用ChatGPT时,要防止ChatGPT将商业秘密或个人隐私泄露给公众,这几天就出现了ChatGPT泄露商业秘密的实证。
据韩媒4月3日报道,三星设备解决方案(DS)部门才启用聊天机器人ChatGPT 20多天,就发生了3起商业秘密泄露事故,导致其与半导体设备测量、良品率/缺陷、内部会议内容等相关信息被上传到ChatGPT的服务器中。
DS是三星主管存储、芯片设计、晶圆代工等半导体等核心业务的部门,自今年3月11日起,为了利用AI提高工作效率,允许员工使用ChatGPT寻求帮助和解决方案,但没想到员工将公司的商业秘密作为问题输入给了ChatGPT,由于ChatGPT会将所有输入和响应的内容保存到服务器上并纳入其学习模型,当其他人员,包括竞争对手,如果与ChatGPT对同类问题进行交互对话,ChatGPT就可能将三星公司的商业秘密发布出来,导致泄密事件的发生。三星公司具体的ChatGPT泄密事件如下:
泄密事件1
三星电? DS 部?的员?A在执?半导体设备测量数据库 (DB) 下载程序的源代码时确认了?个错误,员?A便把所有有问题的源码都复制下来,输?到ChatGPT中,询问解决办法。这一操作将与三星电?设备测量相关的源代码成为开放的ChatGPT学习数据。
泄密事件2
三星电? DS 部?的员?B为了解设备良品率等信息,将编写的?于识别产量和缺陷设备的程序代码输?到ChatGPT中,并要求ChatGPT优化其程序码,引发了事故。
泄密事件3
三星电? DS 部?的员?C 通过 Naver Clova 应?程序 (app) 将他智能?机上记录的会议内容转换为?档?件,然后将其输? ChatGPT,?的是要求编制会议纪要,造成了泄密。
科飞观点
ChatGPT自2022年11月30日发布以来,因其强大的信息整合和对话能力得到大家的认可,在协助办公方面确实可以更加高效省力。但企业在享受人工智能带来的便捷之余,莫要忽视其中暗藏的泄密风险。三星电子短短20日发生的3起泄密案例就给大家敲了一记警钟。
科飞再次提醒广大企业,ChatGPT、Bing Chat等AI工具是一把双刃剑,在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险。要想安全有效地使用这一软件,还需提高警惕,在有完善的信息保护体系之前,不要输入任何有关企业机密信息的问题。在使用ChatGPT、Bing Chat等AI工具时,应采取如下措施防止泄密:
1、使员工了解ChatGPT的运作机理,主动避免与ChatGPT讨论敏感商业秘密
在ChatGPT使用指南中,其开发企业OpenAI已经明确说明输入ChatGPT聊天框的文本内容会被用于进一步训练模型,警告用户不要提交敏感信息。这些警告信息,应该被每一位使用ChatGPT的员工所了解,认识潜在的泄密风险。
2、禁止在涉密电脑上使用ChatGPT
由于涉密电脑上存储大量的商业秘密,如果在这些涉密电脑上使用ChatGPT等AI工具,相关的文档、数据、图片、公式、图纸等就可能在无意识的情况下变成了公共数据库的资料,造成泄密,禁止在涉密电脑上使用ChatGPT,可以更好的控制数据的访问和流动。
3、禁止在涉密区域使用ChatGPT
涉密区域是指产生、处理和存储大量商业秘密的区域,在涉密区域内使用AI工具,周边环境中的商业秘密内容就有可能被AI工具收录进学习模型,造成泄密,所以一般在涉密区域要禁止使用ChatGPT。
4、对信息范围进行限制
如果允许员工在工作中使用ChatGPT,应该对与ChatGPT进行交互的信息范围做出明确规定,建立不允许与ChatGPT进行交互讨论的敏感信息清单,并保证相关员工知悉和理解。
5、制订AI工具的使用指南
虽然ChatGPT存在泄密风险,但人工智能是未来科技发展的方向,这是无法阻挡的潮流,企业可以通过制度规则的建立,形成ChatGPT等AI工具的使用指南,指导员工合理合规的使用ChatGPT,防止敏感信息的泄露,在保护好企业商业秘密资产的同时,共享科技发展进步的成果。