跨境GenAI滥用,将引发40%的AI数据泄露
2025-02-19 28
根据Gartner公司的数据,到2027年,超过40%的人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)造成。
终端用户对GenAI技术的迅速采用已经超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力,引起了对数据本地化的担忧。
Gartner副总裁分析师Joerg Fritsch表示:“由于监管不足,经常会发生意外的跨境数据传输,特别是当GenAI集成到现有产品中而没有明确的描述或公告时。”“企业正在注意到员工使用GenAI工具生成的内容的变化。虽然这些工具可以用于经批准的业务应用程序,但如果将敏感提示发送到托管在未知位置的AI工具和API,则会带来安全风险。”
全球AI标准化差距导致运营效率低下
人工智能和数据治理缺乏一致的全球最佳实践和标准,导致市场分化,迫使企业制定针对特定地区的战略,从而加剧了挑战。这可能会限制他们在全球范围内扩展业务并从人工智能产品和服务中受益的能力。
Fritsch表示:“由于本地化的人工智能策略,管理数据流和保持质量的复杂性可能导致运营效率低下。”“组织必须投资于先进的人工智能治理和安全,以保护敏感数据并确保合规性。这种需求可能会推动人工智能安全、治理和合规服务市场的增长,以及提高人工智能流程透明度和控制的技术解决方案。”
在AI治理成为全球使命之前,企业必须采取行动
Gartner预测,到2027年,人工智能治理将成为全球所有主权人工智能法律法规的要求。
Fritsch说:“无法整合所需治理模型和控制的组织可能会发现自己处于竞争劣势,尤其是那些缺乏资源来快速扩展现有数据治理框架的组织。”
为了减轻AI数据泄露的风险(尤其是跨境GenAI滥用),并确保合规性,建议企业采取以下几项战略行动:
- 加强数据治理:企业必须确保遵守国际法规,并通过扩展数据治理框架来监控意外的跨境数据传输,以包括人工智能处理数据的指导方针。这包括在常规隐私影响评估中合并数据沿袭和数据传输影响评估。
- 建立治理委员会:成立委员会加强对人工智能的监督,确保人工智能部署和数据处理的透明沟通。这些委员会需要负责技术监督、风险和合规管理以及沟通和决策报告。
- 加强数据安全:使用先进技术、加密和匿名化来保护敏感数据。例如,在特定地理区域验证可信执行环境,并在数据必须离开这些区域时应用差异隐私等先进匿名化技术。
- 投资TRiSM产品:规划和分配针对AI技术的信任、风险和安全管理(TRiSM)产品和功能的预算。这包括人工智能治理、数据安全治理、及时过滤和修订,以及非结构化数据的合成生成。Gartner预测,到2026年,应用AI TRiSM控制的企业将至少减少50%的不准确或非法信息,从而减少错误决策。