企业当前要么正在采用生成式AI(GenAI)解决方案,业生隐患要么正在评估如何将这些工具整合到业务计划中,成式察觉或者两者兼而有之。使用数据为了推动明智的未被决策和有效的规划 ,获取硬数据至关重要 ,部门暴露然而此类数据却出人意料地稀缺 。安全
LayerX发布的业生隐患“2025年企业生成式AI数据安全报告”为工作场所中AI工具的实际应用提供了前所未有的洞察 ,同时揭示了关键的成式察觉安全漏洞 。该报告基于LayerX企业客户的使用数据真实遥测数据 ,是云计算未被少数能够详细说明员工实际使用生成式AI情况的可靠来源之一。
例如,部门暴露报告揭示 ,安全近90%的业生隐患企业AI使用发生在IT部门的可视范围之外 ,这使企业面临数据泄露和未经授权访问等重大风险。成式察觉
以下我们将分享报告中的使用数据一些关键发现 。阅读完整报告以完善和增强您的安全策略,利用数据驱动的决策进行风险管理,并推动资源投入以加强生成式AI的数据保护措施 。香港云服务器

尽管生成式AI的热潮可能会让人觉得整个劳动力已经将办公室操作转向了生成式AI ,但LayerX发现实际使用情况略显冷淡。大约15%的用户每天都会访问生成式AI工具。虽然这一比例不可忽视,但并非主流 。
不过,我们认同LayerX的分析,并预测这一趋势将迅速加速 ,尤其是因为目前有50%的用户每隔一周使用一次生成式AI。
此外 ,报告发现 ,高防服务器39%的常规生成式AI工具用户是软件开发者 。这意味着通过生成式AI泄露源代码和专有代码的风险最高,同时在代码库中使用有风险的代码也存在隐患 。
生成式AI如何使用?谁也不知道由于LayerX嵌入了浏览器中 ,因此该工具能够观察到“影子SaaS”的使用情况。这意味着他们可以看到员工使用未经企业IT批准的工具或通过非企业账户访问这些工具。
尽管像ChatGPT这样的生成式AI工具被用于工作目的,但近72%的模板下载员工通过个人账户访问它们。即使员工通过企业账户访问 ,也仅有约12%使用单点登录(SSO) 。因此 ,近90%的生成式AI使用对企业来说是不可见的 。这让企业对“影子AI”应用以及未经授权在AI工具上共享企业信息的情况一无所知。
50%的粘贴行为涉及企业数据还记得帕累托原则吗 ?在这种情况下,虽然并非所有用户每天都使用生成式AI ,但使用生成式AI的用户往往会频繁粘贴潜在机密信息。
LayerX发现,源码下载在向生成式AI工具提交数据的用户中 ,平均每天发生近4次企业数据粘贴行为。这可能包括商业信息、客户数据、财务计划 、源代码等。
企业如何规划生成式AI的使用?报告中的发现表明 ,急需新的安全策略来管理生成式AI风险。传统安全工具无法应对现代以AI驱动的、基于浏览器的工作环境。源码库它们缺乏在源头(即浏览器)检测 、控制和保护AI交互的能力。
基于浏览器的安全解决方案能够提供对AI SaaS应用程序 、ChatGPT之外未知的AI应用程序、启用AI的浏览器扩展等的可见性。这种可见性可用于部署针对生成式AI的数据丢失防护(DLP)解决方案,使企业能够安全地将生成式AI纳入其计划,为未来的业务保驾护航。
如需了解更多关于生成式AI使用情况的数据,请阅读完整报告。










