AI平台将用户数据锁定于模型训练环节 根据Incogni的主流掌控重缺研究报告
,包括Meta、平台谷歌和微软在内的擅自失多家主流生成式AI和大语言模型(LLM)平台正在收集敏感数据并与不明第三方共享
,导致用户对自身信息的共享个人存储、使用和共享方式既缺乏透明度,用户用户也几乎没有任何控制权
。信息 谷歌Gemini 、权严Meta AI
、主流掌控重缺DeepSeek和Pi.ai等平台均未提供退出机制来阻止用户输入内容被用于AI模型训练。平台一旦输入个人或敏感数据,高防服务器擅自失实际上无法从AI训练数据集中删除这些信息
。共享个人尽管《通用数据保护条例》(GDPR)等法律赋予个人要求删除数据的用户用户权利,但如何从机器学习模型中实际移除信息仍不明确。信息因此 ,权严许多公司目前既无义务也缺乏技术能力来事后删除此类数据。主流掌控重缺用户的联系信息或商业机密可能在未经明确告知或同意的情况下
,被永久嵌入模型训练数据中。 随着生成式AI日益融入日常生活
,用户往往不清楚这些工具收集了哪些个人数据、亿华云如何使用以及最终流向何处 。研究人员从三个维度分析了主流AI平台的数据实践:用户数据在模型训练中的使用情况
、平台隐私政策的透明度
、数据收集与第三方共享的范围 。 即便用户主动寻求解释 ,相关细节也往往隐藏在零散的帮助页面或用晦涩的法律术语书写。香港云服务器Incogni发现所有被分析的隐私政策都需要大学水平的阅读能力才能理解
。 除个人隐私外 ,企业面临的风险更为严峻。员工常使用生成式AI工具协助起草内部报告或通讯
,却未意识到这可能导致专有数据成为模型训练集的一部分
。这种保护机制的缺失不仅使个人面临非自愿数据共享
,还可能导致敏感商业数据在未来与其他用户的服务器租用交互中被重复利用 ,从而引发隐私 、合规和竞争风险。 "多数人以为只是在与可信助手对话,并未泄露联系信息或商业机密
。"Incogni负责人Darius Belejevas指出,"实际情况更具侵入性,而企业并未让用户轻松理解数据的真实流向。用户有权知晓哪些数据被收集
、谁能查看以及如何阻止 。源码库目前这些答案往往难以寻觅 ,甚至根本不存在。"