The Closing Window
影子AI与不会自动弥合的合规漏洞 image
Photo by Stefano Pollio on Unsplash

影子AI与不会自动弥合的合规漏洞

AI Insights

摘要

影子AI——员工使用公司未批准的AI工具——正在欧洲悄然制造GDPR法律责任。每一个包含个人数据的提示词都会同时触发两个监管框架:GDPR和欧盟AI法案。大多数公司对此毫不知情,而法律要求与员工实际行为之间的差距每天都在扩大。2026年8月实现欧盟AI法案全面合规的截止日期只剩五个月。大多数公司尚未开始行动。

每当员工将客户姓名粘贴到ChatGPT、通过DeepL处理供应商合同,或使用免费或未经批准的账户让Copilot总结收件箱时,他们都在黑暗中行事——使用公司未经授权的工具,处理公司未批准的数据,在理解不足的法律框架下运作。这就是影子AI:一种安静的日常习惯,已成为欧洲最被低估的合规风险之一。

我理解这一点不是作为律师,而是作为一名AI工程师。在我开始在工作中推广AI工具、制定指南和政策大约两个月后,我意识到我们有个问题:我们费尽心思传达给员工的指导意见遗漏了一些根本性的东西。没有人解释过"机密数据"和"个人数据"之间的区别——以及在使用任何易于获取的AI工具时这种区别的重要性,以及即使在B2B市场中这一点同样适用。在ChatGPT时代之前,我们大多数人认为使用标准化办公应用程序完成日常工作就足够了。显然,现在情况已经发生了根本性的变化。

政策不得不被重新起草。不是更新——而是重新起草。我们需要涵盖GDPR要求及其与欧盟AI法案交叉点的具体措辞、员工实际可以应用的示例,以及他们可以自由使用的工具与需要经过批准的企业账户的工具之间的明确区分。让这个漏洞变得可见的不是审计,也不是事故。而是审批请求。当员工开始来找我们审查、评估和批准他们已经在使用或想要使用的AI工具时,一个模式浮现出来:他们大多数人没有任何框架来思考可以与哪些工具共享什么数据。影子AI在大多数公司都是现实,我可以告诉你,它所造成的法律责任没有得到足够紧迫的处理——尤其是当免费工具不断增多并争夺所有人的注意力时。


影子AI的现实

"影子AI"是一个礼貌的说法。欧洲公司的员工正在使用公司不知道的AI工具。具体数字很难精确核实——但这种模式随处可见。在一项被主要AI治理框架引用的调查中,只有28%的组织拥有正式的AI政策。这意味着大约72%的公司的员工在没有既定规则、没有经批准的工具清单、没有关于哪些数据可以或不可以输入提示词的指导的情况下使用AI工具。

这不是鲁莽。这是一个能力缺口。人们使用的工具使他们的生产力大幅提升,他们没有理由相信"总结Hans Schmidt关于他订单的这封邮件"与"总结一个客户关于订单的这封邮件"在本质上是不同的行为。但在GDPR下,这两个提示词在类别上截然不同。一个涉及个人数据。另一个不涉及。

大多数公司给出的指令——"不要将机密数据输入AI工具"——混淆了两个不同的法律类别。机密数据是指商业秘密、专有信息、受合同或商业协议保护的内容。个人数据是指与已识别或可识别的自然人相关的任何信息,无论其是否具有机密性,都受GDPR保护。员工可能认为客户的订单历史不是"机密的",并将其与客户姓名一起粘贴到提示词中,却不知道仅凭姓名就会触发一个完全独立的监管框架,一旦出错就会启动72小时通知时钟。


两部法律。一个AI提示词。

欧盟建立了两个重叠的监管框架,现在同时适用于工作场所的AI使用。

GDPR(2018年)是一部人权法。它赋予个人对其个人数据的控制权,并对任何处理这些数据的组织施加义务——无论处理发生在何处。如果你在慕尼黑的员工将一位比利时客户的电子邮件地址粘贴到运行在弗吉尼亚州服务器上的ChatGPT中,GDPR适用。

欧盟AI法案(2024年)是一部产品安全法。它使用四级风险分类来监管AI系统本身——其设计、部署和监控方式。大多数工作场所AI工具属于"最低风险"或"有限风险"类别。但AI法案下的"最低风险"并不意味着"GDPR下没有义务"。每次涉及个人数据时,两部法律同时适用于同一个提示词。

AI法案第2(7)条对此明确表示:它的运作"不妨碍GDPR"。使用AI分析客户数据会触发GDPR透明度要求以及AI法案透明度义务。在人力资源中使用AI会触发GDPR第22条关于自动化决策的限制以及AI法案附件III下的高风险分类。就连事件报告时间线也有所不同:GDPR下72小时,AI法案下最多15个工作日。

AI法案下的AI素养义务自2025年2月起已经生效。高风险AI的全面合规要求在2026年8月2日前实现——距今五个月。大多数公司尚未开始。


B2B陷阱

这是最常让B2B公司措手不及的误解。

大多数B2B公司认为GDPR主要是面向消费者的问题。你不是在从个人公民那里收集数据;你在处理关于其他企业的数据。GDPR不可能以同样的方式适用,对吧?

错了。

GDPR不监管关系。它监管关于自然人的数据。关键问题不是你的关系是否是B2B——而是数据是否与可识别的个人相关。

  • info@companyname.com — 通用公司联系方式,非个人数据
  • hans.schmidt@installer.de — 识别了Hans Schmidt,完全属于个人数据
  • "Schmidt Solar GmbH" — 个人数据,因为包含所有者的姓名
  • 个体经营安装人员的联系方式 — 个人数据,因为个体户是自然人

B2B公司的CRM系统几乎完全充满了个人数据。销售联系人列表、直接电子邮件地址、手机号码、与姓名结合的职位名称——所有这些都是个人数据,都受GDPR约束,而且都恰恰是员工在起草沟通或总结账户历史时惯常粘贴到AI工具中的内容。如果AI工具拥有所有正确的认证并经过公司合规部门批准,这在一定限度内是允许的。


"合规"实际上需要什么

如果你的员工在工作中使用AI工具,以下是GDPR实际要求的内容——而不是大多数公司认为的那样。

与每个AI提供商签订数据处理协议(DPA)。 ChatGPT、Claude及类似工具的免费和消费者版本不具备GDPR要求的法律合同。将ChatGPT的免费版本用于任何涉及个人数据的商业目的都是违规行为。就这么简单。OpenAI在2024年12月被意大利Garante罚款1500万欧元,原因正是透明度和法律依据方面的失误。罚款针对的是OpenAI。但触发它的是用户层面的行为——就是今天在你公司发生的那种行为。

个人数据只能使用经过验证DPA的企业版本。 DPA(数据处理协议)也不是全部。对于OpenAI和Anthropic等美国提供商,你还需要一个国际数据传输机制——标准合同条款或欧盟-美国数据隐私框架认证——以及客户数据不会用于模型训练的合同承诺。

每个AI使用场景都需要进行数据保护影响评估(DPIA)。 第35条要求在处理"可能导致高风险"时进行评估。使用带有个人数据的AI工具几乎总是达到这一门槛——创新技术是一个风险因素,大多数部署都满足EDPB八项标准中的至少两项。这不是可选的。

72小时时钟。 将个人数据粘贴到未经授权的AI工具中——即任何免费或消费者级别的工具——根据GDPR第4(12)条可能构成数据泄露。公司一旦意识到问题,有72小时向监管机构报告。三星事件中,工程师将机密源代码粘贴到ChatGPT而导致泄露,成为一个警示性案例,原因恰恰是泄露是即时且不可逆的。个人数据同样如此。


部门现实检验

风险在整个组织内并不均匀分布。你所在的岗位决定了适用哪些义务。

人力资源面临最严格的规定。用于就业决策的AI——筛选简历、评分申请人、评估绩效——在欧盟AI法案附件III下被明确归类为高风险。由于劳动关系中的权力不平衡,员工同意在德国通常无效;你需要有据可查的合同必要性或职工委员会协议(Betriebsvereinbarung)。

销售和CRM是最常见的违规来源,因为CRM数据几乎完全是个人数据。最安全的习惯是在提示词中使用占位符并手动填入真实姓名,或提供匿名化工具——但这需要员工理解为什么,而不仅仅是遵守一个没有背景说明的规则。

物流不那么明显,但并不豁免。与具名收件人关联的配送数据、用于调度的联系信息——在相同规则下都属于个人数据。

IT负有影子AI监控责任。维护已批准工具清单、验证企业DPA到位,以及识别未经授权的AI使用——这些都是IT的义务,并非理论上的。


我真正学到的

我作为AI工程师进入这个领域。我理解技术。我不理解的是每一个部署决策同时也是一个法律决策,而法律框架比技术框架更为复杂。

我发现的不是法规不合理。它们不是。它们的存在是因为AI系统大规模处理个人数据——没有监督、没有法律依据、当事人甚至不知道——对真实的人产生了真实的后果。这些法规试图解决一个我完全支持解决的真实问题。

我发现的是,法规要求与大多数公司实际了解的内容之间的差距是巨大的。这不是意图上的失败。这是翻译上的失败——在法律文本与实际行为之间,在合规框架与员工在快速变化的环境中实际使用的工具之间。

部分有所帮助的做法:从一刀切的指导转向建立部门特定的示例——人力资源可以做什么,销售可以做什么,物流可以做什么,以及他们都不应该用哪些工具做什么。

然而。即便有更清晰的指导方针、各部门的具体示例和经批准的替代方案,让每个人都将其内化的沟通工作仍然是一项挑战。行为改变比政策改变慢。那个差距——政策说的与员工在周二下午的忙乱中实际做的之间——才是真正法律责任所在之处。

讽刺的是,AI工具可以帮助弥合这个差距。创造合规风险的同一款Copilot可以帮助记录DPIA。员工用于会议总结的同一款Claude可以帮助起草隐私通知,告知他们的数据是如何被处理的。但前提是组织中有人对两个方面都有足够深入的了解,能够以合规的方式使用这些工具。

影子AI从根本上说不是一个技术问题。这些工具并不危险。危险的是无知。

而随着2026年8月只剩五个月,弥合这一差距的窗口正在收窄。


本文基于为一家在欧盟四个国家运营的中型德国公司构建AI治理框架的实际工作。原始材料包括详细的GDPR和欧盟AI法案分析、针对实际部署场景开发的部门特定指南和实用合规路线图。

Powered by Buttondown.