据Harmonic公司称
,提示尽管GenAI工具具有潜力,敏感面临但许多企业由于担心敏感数据被无意共享并可能用于训练这些系统
,数据而犹豫是风险否全面采用这些工具
。 一项基于数万名商业用户提示的新研究揭示,近10%的敏感面临提示可能泄露敏感数据。 Harmonic Security在2024年第四季度对这些提示进行了分析,数据并监控了包括Microsoft Copilot、风险OpenAI ChatGPT
、提示Google Gemini、敏感面临Anthropic的数据Claude和Perplexity在内的GenAI工具的云计算使用情况。 在绝大多数情况下 ,风险员工使用GenAI工具的提示行为是直接的。用户通常会要求总结一段文本、敏感面临编辑博客或编写代码文档 ,数据然而,8.5%的提示令人担忧 ,并可能使敏感信息面临风险
。 在这些提示中 ,45.8%可能泄露了客户数据,如账单信息和认证数据,另有26.8%包含员工信息,源码下载包括薪资数据
、个人身份信息(PII)和就业记录,一些提示甚至要求GenAI进行员工绩效评估 。 其余提示中,法律和财务数据占14.9%,这包括销售管道数据、投资组合以及并购活动的信息,与安全相关的信息占敏感提示的6.9%,尤其令人担忧。 示例包括渗透测试结果、网络配置和事件报告 ,这些数据可能为攻击者提供利用漏洞的蓝图 。模板下载最后,敏感代码,如访问密钥和专有源代码
,占其余5.6%可能泄露的敏感提示。 同样令人担忧的是,大量员工使用GenAI服务的免费版本
,而这些版本通常不具备企业版本的安全功能
。许多免费版本工具明确表示,它们使用客户数据进行训练,这意味着输入的香港云服务器敏感信息可能被用于改进模型 。 在评估的GenAI模型中,63.8%的ChatGPT用户使用的是免费版本,而使用Gemini的用户中有58.6%,使用Claude的用户中有75%
,使用Perplexity的用户中有50.5% 。 “大多数GenAI的使用是平凡的高防服务器,但我们分析的8.5%的提示可能使敏感的个人和公司信息面临风险。在大多数情况下,企业能够通过阻止请求或警告用户他们即将要做的事情来管理这种数据泄露
,但并不是所有公司都具备这种能力。大量免费订阅也是一个令人担忧的问题,‘如果产品是免费的,建站模板那么你就是产品’这句话在这里同样适用
。尽管GenAI工具背后的公司做出了最大努力
,但仍存在数据泄露的风险
。”Harmonic Security的首席执行官阿拉斯泰尔·帕特森(Alastair Paterson)说。 企业必须超越“阻止”策略,以有效管理GenAI的风险 。