
安全访问服务边缘(SASE)领域的领导者Netskope公布了一项新研究,该研究显示,每1万名企业用户中,一个企业组织每月会经历大约183次敏感数据被发布到应用程序的事件。源代码在暴露的敏感数据中占最大份额。
这些发现是《云和威胁报告:企业中的人工智能应用》的一部分,这是网景威胁实验室首次对企业中的人工智能使用情况和安全风险进行全面分析。根据来自全球数百万企业用户的数据,Netskope发现,生成式人工智能应用的使用量正在迅速增长,在过去两个月里增长了22.5%,这加大了用户泄露敏感数据的可能性。
不断增长的AI应用使用
Netskope发现,拥有1万或更多用户的组织平均每天使用5个人工智能应用程序,ChatGPT的日活跃用户是任何其他生成式人工智能应用程序的8倍多。按照目前的增长速度,访问人工智能应用程序的用户数量预计将在未来7个月内翻一番。
在过去的两个月里,增长最快的人工智能应用是Google Bard,目前以每周7.1%的速度增加用户,而ChatGPT为1.6%。按照目前的速度,Google Bard在一年多的时间内都赶不上ChatGPT,不过在此之前,生成式人工智能应用领域有望发生重大变化,有更多的应用正在开发中。
用户在ChatGPT中输入敏感数据
Netskope发现,在ChatGPT上发布的源代码比任何其他类型的敏感数据都要多,每月每10,000名用户中有158起事件。ChatGPT中共享的其他敏感数据包括受监管的数据(包括财务和医疗保健数据、个人身份信息),以及不包括源代码的知识产权,以及最令人担忧的密码和密钥(通常嵌入在源代码中)。
Netskope威胁实验室威胁研究主管Ray Canzanese表示:“不可避免的是,一些用户会将包含敏感数据的专有源代码或文本上传到人工智能工具,这些工具有望帮助编程或写作。”因此,组织必须对人工智能进行控制,以防止敏感数据泄露。最终目标是使用户能够从人工智能中获益,简化操作并提高效率,同时降低风险。我们所看到的最有效的控制是DLP和交互式用户指导的结合。”
阻止或授予访问ChatGPT
Netskope威胁实验室目前正在跟踪ChatGPT代理和超过1000个恶意url和域名,这些恶意url和域名来自机会主义攻击者,他们试图利用人工智能炒作,包括多个网络钓鱼活动、恶意软件分发活动、垃圾邮件和欺诈网站。
阻止访问与人工智能相关的内容和人工智能应用程序是降低风险的短期解决方案,但代价是人工智能应用程序为补充企业创新和员工生产力提供的潜在好处。Netskope的数据显示,在金融服务和医疗保健这两个监管严格的行业,近五分之一的组织全面禁止员工使用ChatGPT,而在科技行业,只有二十分之一的组织这样做了。
Netskope副首席信息安全官詹姆斯?罗宾逊表示:“作为安全领导者,我们不能在不影响用户体验和生产力的情况下,简单地决定禁止应用程序。”“组织应该专注于发展他们的劳动力意识和数据政策,以满足员工高效使用人工智能产品的需求。通过正确的工具和正确的思维方式,可以安全地实现生成式人工智能。”
为了使组织能够安全采用人工智能应用程序,他们必须将方法集中在识别允许的应用程序和实施控制上,使用户能够充分发挥其潜力,同时保护组织免受风险的影响。这种方法应该包括域过滤、URL过滤和内容检查,以防止攻击。保护数据和安全使用人工智能工具的其他步骤包括:
禁止访问不符合任何合法业务目的或对组织构成不成比例风险的应用程序。
采用用户指导,提醒用户使用人工智能应用程序的公司政策。
使用现代数据丢失预防(DLP)技术来检测包含潜在敏感信息的帖子。
阅读完整的云和威胁报告:企业中的AI应用程序。有关云威胁的更多信息和Netskope威胁实验室的最新发现,请访问Netskope威胁研究中心。要接收Netskope威胁实验室的博客文章,请订阅这里。
与该报告一起,Netskope今天宣布了SkopeAI的新解决方案,这是Netskope的人工智能和机器学习(AI/ML)创新套件。SkopeAI利用AI/ML的力量来克服复杂传统工具的局限性,并使用其他SASE产品中没有的AI速度技术提供保护。
点击分享到









