企业面临生成性人工智能数据泄露日益增加的风险

新闻
1天前

Netskope Threat Labs 发布了一份报告,详细说明了企业用户与生成式人工智能 (genAI) 应用程序的数据交互显著增加,这表明数据泄露和内部威胁的风险增加。

报告强调,过去一年发送给 genAI 应用程序的数据量大幅增加,增长了 30 倍。

未标题-143.png

企业用户将源代码、受监管数据、密码、密钥和知识产权等敏感数据传输给人工智能平台,这增加了安全漏洞、数据合规和知识产权盗窃的风险。此外,“影子人工智能”的盛行已成为一个值得关注的挑战,影响了 72% 的企业用户,他们出于工作目的通过个人账户使用 genAI 应用。

安全工程师分析确定了 317 个 genAI 应用程序,包括 ChatGPT、Google Gemini 和 GitHub Copilot,这些应用程序在各个企业中被广泛使用。

报告显示,大约 75% 的企业用户使用具有 genAI 功能的应用程序,尽管是无意的,但却造成了潜在的内部威胁。

Netskope 首席信息安全官 James Robinson 对调查结果发表评论称:“尽管各组织都竭尽全力实施公司管理的 genAI 工具,但我们的研究表明,影子 IT 已转变为影子 AI,近四分之三的用户仍通过个人账户访问 genAI 应用程序。这种持续的趋势与共享数据相结合,凸显了对高级数据安全功能的需求,以便安全和风险管理团队能够重新获得对组织内 genAI 使用的治理、可见性和可接受的使用。”

该报告强调,在间接使用 genAI 时,组织内部对数据处理和存储方式缺乏透明度。主流做法是限制应用程序的使用,直到制定明确的政策。然而,Netskope 威胁实验室主任 Ray Canzanese 敦促采取更具战略性的方法:“我们的最新数据显示,genAI 不再是一项小众技术,它无处不在。”

“它正越来越多地融入从专用应用程序到后端集成的一切事物中。这种无处不在带来了日益严峻的网络安全挑战,要求组织采用全面的风险管理方法,否则其敏感数据可能会暴露给第三方,而第三方可能会利用这些数据来训练新的人工智能模型,从而为更广泛的数据暴露创造机会。”

研究还表明,genAI 基础设施的本地托管已大幅增加,一年内从不到 1% 增长到 54%。虽然这种转变旨在降低外部应用程序的暴露风险,但它带来了与数据管理和安全协议相关的新风险。

Netskope 安全与情报运营副总裁 Ari Giguere 详细阐述了不断发展的安全形势:“人工智能不仅重塑了边界和平台安全,还改写了规则。随着攻击者以生成精度制造威胁,防御也必须同样具有生成性,实时发展以应对由此产生的‘创新膨胀’。有效对抗富有创造力的人类对手将始终需要富有创造力的人类防御者,但在人工智能驱动的战场上,只有人工智能驱动的安全才能跟上步伐。”

为了降低与人工智能相关的风险,几乎所有组织都在通过控制对人工智能工具的访问和管理数据共享协议来部署安全措施。Netskope 建议企业经常更新专门针对人工智能或 genAI 实施的风险框架,确保充分的数据保护。这包括评估 genAI 环境、加强应用程序控制,并定期根据行业标准和最佳实践对这些措施进行基准测试。

这些发现强调了组织保持警惕和主动管理与 genAI 相关的风险的重要性,包括调整现有的安全措施以适应人工智能技术快速发展的特性。