导读 Netskope的新数据称,尽管存在明显的泄露或泄露风险,但员工仍在继续与AI编写者和ChatGPT等聊天机器人分享敏感的公司信息。该研究覆盖了70...
Netskope的新数据称,尽管存在明显的泄露或泄露风险,但员工仍在继续与AI编写者和ChatGPT等聊天机器人分享敏感的公司信息。该研究覆盖了70个全球组织的约170万用户,发现平均每10,000个用户每月有158起源代码发布到ChatGPT的事件,使其成为领先于其他类型敏感数据的最严重的公司漏洞。
虽然将受监管数据(18起事件/10,000用户/月)和知识产权(4起事件/10,000用户/月)发布到ChatGPT的情况要少得多,但很明显,许多开发人员根本没有意识到可能造成的损害通过泄露的源代码。
除了可能导致企业弱点的持续暴露之外,Netskope还强调了人们对人工智能兴趣的蓬勃发展。数据显示,过去两个月GenAI应用程序的使用量增长了22.5%,拥有超过10,000个用户的大型企业平均每天使用5个AI应用程序。
ChatGPT处于领先地位,其每日活跃用户数量是任何其他GenAI应用程序的八倍。平均每天有六个提示,每个用户都有可能对其雇主造成相当大的损害。
除了ChatGPT(84%)之外,全球组织使用的前三名生成式人工智能应用程序还包括Grammarly(9.9%)和Bard(4.5%),后者本身正在经历每周7.1%的健康增长,而相比之下,Grammarly的每周增长率为1.6%。聊天GPT。
许多人会认为上传源代码或其他敏感信息是可以避免的,但Netskope的威胁研究总监RayCanzanese表示,这是“不可避免的”。相反,坎萨尼亚人将实施人工智能控制的责任交给了组织。
该公司副首席信息安全官JamesRobinson补充道:“组织应专注于发展员工意识和数据政策,以满足高效使用人工智能产品的员工的需求。”