![]()
GenAI 淘金热:网络基础设施安全为何至关重要
生成式人工智能(GenAI)和大型语言模型(LLM)正在迅速重塑企业 IT,为从开发人员辅助驾驶和客户支持自动化到高级分析和决策等一切工作提供动力。随着采用速度的加快,GenAI 正在迅速嵌入关键业务工作流中。
然而,这种快速创新带来了一把双刃剑。LLM 工作负载高度分布、数据密集、对延迟敏感,跨越云、数据中心、SaaS 平台和远程用户。在许多情况下,人工智能基础设施的部署速度比安全控制成熟的速度更快,从而增加了人工智能系统漏洞的风险。确保 GenAI 基础设施的安全已成为安全、可扩展的人工智能创新的基本要求。
解构 GenAI 攻击面
新型漏洞
保护 GenAI 的安全不仅限于保护网络边界。它要求确保整个人工智能生命周期的安全,包括训练数据安全、人工智能模型保护以及应用层和 API 层的运行时交互。与传统的工作负载不同,LLM 基础架构引入了新的攻击路径,需要对基础架构进行感知安全控制。
LLM 基础设施的关键漏洞
提示注入:新的 SQL 注入
提示注入攻击利用 LLM 的解释性质,通过精心制作的输入操纵系统指令。与 SQL 注入类似,这些攻击可绕过防护措施、暴露敏感数据或触发意外操作。
例如,API 请求中嵌入的恶意提示可能会覆盖系统指令,迫使模型泄露专有信息或敏感的训练数据。防止提示注入需要运行时检查、上下文感知以及与模型行为相一致的基于策略的执行。
数据中毒:破坏核心
训练数据是恶意攻击的主要目标。在微调过程中,可能会引入有毒或有偏见的数据来降低模型的准确性或影响输出结果。即使是少量被破坏的数据,也会破坏对人工智能决策的信任。
有效的培训数据安全依赖于源验证、验证、异常检测和整个摄取管道的可审计性。
模型盗窃和知识产权风险
经过微调的 LLM 代表着宝贵的知识产权。通过薄弱的应用程序接口、受损的端点或不充分的访问控制进行未经授权的访问或外泄,会对业务和竞争造成重大影响。强大的加密、最小权限访问和持续监控是强大的 LLM 安全性的重要组成部分。
运行时 GenAI 在企业内部的使用风险
除了数据中毒或模型盗窃等以模型为中心的风险外,企业还面临着一系列快速增长的运行时 GenAI 使用风险,这些风险是由员工、应用程序和代理与 GenAI 服务的日常交互方式所驱动的。
这些风险尤其具有挑战性,因为它们发生在看似正常的网络流量中,往往会绕过传统的应用程序或端点控制。
主要的运行挑战包括
影子人工智能的采用
员工越来越多地在未经企业批准的情况下使用未经批准的 GenAI 服务(公共聊天机器人、浏览器辅助机器人、人工智能驱动的 SaaS 功能和插件)。这些工具可以在没有治理、可见性或审计控制的情况下处理敏感的企业数据。
不受控的提示和响应数据流
GenAI 提示和响应经常包含专有信息、内部上下文、源代码、URL 和受监管数据。如果不进行运行时检查,这些数据可能会暴露给第三方人工智能服务,或以不安全的方式返回给用户。
及时注入和指令操作
提示注入攻击通过在合法提示或工具调用中嵌入恶意指令,利用 LLM 的解释性质。这些攻击发生在运行时,需要检查实际的提示、响应和工具信息,而不仅仅是 API 认证。
不安全的内容、语气和外部参考资料
LLM 生成的回复可能会违反与内容类别、安全性、品牌调性或合规性相关的企业政策。此外,提示和回复可能会引用不安全或恶意 URL,从而使用户面临下游风险。
通过代码和结构化输出泄漏知识产权
GenAI 工具广泛用于软件开发和自动化。提示和响应可能会无意中泄露专有代码、内部应用程序接口、凭据或架构细节,这些内容通常嵌入在自然语言或代码块中。
这些挑战凸显了对运行时内嵌安全控制的需求,这种控制可在 GenAI 流量实际流动的地方(即企业网络的另一端)运行。
针对 GenAI 的多层防御战略
安全人工智能开发生命周期(SAIDL)
安全人工智能开发生命周期(SAIDL)将安全性贯穿于人工智能开发和运营的每个阶段。在数据摄取过程中,必须对数据源进行验证和记录。模型训练和微调需要进行完整性验证并监控异常或漂移。通过零信任原则、强大的身份验证和持续的会话验证,部署将这些控制措施扩展到生产中。
这种以生命周期为导向的方法可实现安全的人工智能部署、有效的人工智能基础设施监控和更快的人工智能安全事件响应。
确保法律硕士基础设施安全的最佳实践
加固数据供应链首先需要可信的数据集、自动质量检查以及检测中毒或损坏的控制措施。
要实施稳健的访问控制,就必须对与 LLM 交互的用户、应用程序、应用程序接口和服务执行最低权限。
通过对输入、输出和应用程序接口进行持续监控和异常检测,可以及早发现滥用、恶意攻击或数据泄露企图。
利用统一的 SASE 平台实现 GenAI 安全
作为关键控制点的网络
GenAI 工作负载本质上是分布式的,因此网络是安全性和可视性的关键执行层。统一的安全接入服务边缘(SASE)平台可提供跨用户、云、分支机构和边缘位置的一致策略执行、集中可观察性和高性能连接。
将安全嵌入网络结构可消除盲点,实现零信任控制,而不会带来延迟或操作复杂性。
Aryaka 的安全 GenAI 解决方案
人工智能>Perform:LLM 工作负载的高性能连接性
AI>Perform优化了Aryaka全球私有骨干网上的LLM流量,为推理、训练和API交互提供低延迟、高吞吐量的连接。Aryaka的OnePASS™检测架构可在不降低性能的情况下实现在线策略执行和安全检测。
人工智能>Secure:为 GenAI 互动提供高级保护
AI>Secure 专注于保护GenAI 在企业中的实际使用,而不是模型训练或平台控制。AI>Secure 作为网络原生执行层运行,可检查跨用户、应用程序、代理和服务的实时 GenAI 流量。
因为它直接位于数据路径中,所以 AI>Secure 可以:
- 通过识别使用中的 GenAI 服务、模型和端点,检测影子 AI 的使用情况并对其进行分类
- 使管理员能够制裁或阻止 GenAI 服务,并根据服务分类应用访问控制
- 对不同用户、地点和设备进行一致的监控和执行策略
数据保护控制
AI>Secure 可对提示和响应实时执行企业政策,包括
- 内容类别执行
- 安全和节制检查
- 音调和使用政策控制
- 及时发现注射
- 根据信誉和类别提取和过滤 URL
- 代码检测,防止 IP 泄露
- 使用基于模式和基于 NER 的技术保护 PII、PHI 和企业特定敏感数据
所有执行都是在数据暴露给用户或外部服务之前在线进行的。
深入了解 GenAI API,实现准确执法
有效的 GenAI 安全需要了解人工智能交互的结构,而不仅仅是检查加密流量。
AI>Secure 可对 GenAI API 进行深度解析,包括有文档和无文档端点(用于人工智能聊天机器人、Copilots 和代理),以便进行提取和分析:
- 提示
- 模型响应
- 工具和功能调用
- 代理对代理(A2A)信息
即使 GenAI API 发展迅速,这种协议感知检查也能实现准确、上下文丰富的策略执行。
AI>Secure 在 Aryaka 的统一 SASE 平台内提供基础架构原生 GenAI 安全。AI>Secure 将于 2026 年第二季度上市,使企业能够放心地采用 GenAI,同时保持合规性并降低运营风险。
用于人工智能数据保护的新一代 DLP 和 CASB
Aryaka的新一代DLP与CASB功能相结合,将数据泄露防护扩展到了人工智能工作流中。利用基于 NLP 的上下文分析,DLP 可检查训练数据、提示、模型输出和 API 调用中的敏感数据、PII 和知识产权。内联编辑和屏蔽可在数据离开网络之前防止泄漏,并在用户、端点、云和分支机构之间应用统一的策略。
打造弹性、安全的人工智能未来
安全扩展 GenAI 需要对 GenAI 和 LLM 安全采取积极主动、多层次的方法。企业必须保护训练数据、模型和运行时交互,同时保持实际人工智能用例所需的性能。
Aryaka Unified SASE 2.0与AI>Secure、AI>Perform、ZTNA、CASB和Next-Gen DLP相结合,为大规模安全AI创新提供了基础架构优先的基础。要了解更多信息,请下载Aryaka的技术白皮书或申请AI>Secure演示,了解如何确保GenAI工作负载的安全。