协调 · 交流 · 资讯 · 服务

Coordination, Communication, Information and Service
文章
当前位置 :首页 > 会员报道 > 【会员单位动态】AI安全监管升级,“动态安全+AI”破解智能时代网络安全密码

【会员单位动态】AI安全监管升级,“动态安全+AI”破解智能时代网络安全密码

来源:瑞数信息 发布时间:2025-12-15浏览:19
AI安全监管

当HexStrike AI可在10分钟内完成零日漏洞的扫描、利用脚本生成、攻击路径规划全流程,大模型定制的钓鱼邮件能实现用户行为仿冒,甚至AI供应链中的第三方插件漏洞可被精准劫持作为攻击跳板,网络安全的攻防维度已从“静态特征对抗”跃升至“智能动态博弈”。

2026年1月1日即将施行的新《网络安全法》,正是这场博弈的关键拐点,其首次以法律框架锚定“AI安全治理”维度,既明确“AI赋能安全防御”的技术导向,要求企业运用智能技术提升主动防护能力;更划定“AI自身安全”的合规红线,强制要求AI应用全生命周期的风险监测与评估。这一修订绝非简单的监管升级,而是对智能时代网络安全痛点的精准回应。

作为国内动态安全领域的领军企业,瑞数信息以“动态安全+AI”构建的立体化防御体系,破解了网络攻击高频化、隐蔽化、自动化的安全困局——既以动态技术让攻击目标持续“不可预测”,从源头阻断自动化攻击;又以AI引擎实现“攻击行为预判、黑产画像精准建模”,契合新法对“主动风险防控”的刚性要求,真正为智能时代的网络安全筑起“可进化、能预判”的数字防线。

AI进入“强监管+重创新”双轨时代

自2017年《网络安全法》首次施行以来,人工智能技术从实验室走向产业化,实现了爆发式增长,但安全治理的滞后性问题也日益凸显。

国家计算机病毒应急处理中心的数据显示,2024年6月至2025年7月,全球共发生59起AI相关安全事件,其中网络攻击占比29%、数据安全事件占比26%,较上一年度显著上升。

这些安全事件呈现出三大新特征:

攻击智能化趋势明显

黑客借助大模型生成高度逼真的钓鱼邮件

利用AI武器化工具加速零日漏洞利用

AI应用依赖的第三方模板库、插件、训练数据等供应链组件,正成为攻击跳板。据Gartner预测,2025年将有60%的企业因AI供应链问题遭受业务损失。

与此同时,AI欺诈、智能体恶意攻击等新型风险持续蔓延,传统“事后追责”的监管模式已无法应对当前的安全形势。此次《网络安全法》修改,首次在基础性法律层面确立AI安全与发展的框架性规定,既填补了顶层设计的空白,也为企业划定了清晰的合规红线。

从企业视角来看,新网安法的修订不仅强化了AI安全监管,更通过加大处罚力度与明确责任主体形成刚性约束,企业需重点应对三重合规压力。

在技术研发合规方面,新法鼓励企业开展AI安全关键技术研发,要求网络运营者“运用人工智能等新技术提升网络安全保护水平”,这意味着单纯依赖传统安全设备的企业将面临合规短板;在风险防控合规方面,新法明确要求企业建立AI风险监测评估机制,覆盖训练数据安全、算法透明性、伦理规范等全环节;在责任追究合规方面,关键信息基础设施运营者若未履行安全义务造成严重后果,最高可被处以1000万元罚款,直接负责人的罚款上限也提升至100万元,远超旧法的处罚标准。

新法的核心逻辑是发展与安全并重,既为AI技术创新松绑,也通过严格监管遏制技术滥用,企业需要的是既能支撑业务创新,又能满足合规要求的一体化安全方案。而瑞数信息的“动态安全+AI”技术路径,正是对这一需求的精准回应。

“动态安全+AI”的破局之道

面对新网安法的要求与新型攻击的挑战,瑞数信息摒弃了行业内单纯依赖通用大模型做安全防护的主流思路,构建了以“动态技术为根基、AI为引擎、独特数据源为壁垒”的三维防护体系,实现了从“被动堵漏洞”到“主动防攻击”的范式升级。

随着大模型技术加速渗透企业数字化场景,Bot攻击、内容违规、算力滥用等安全风险逐渐成为落地阻碍。瑞数信息依托十余年安全技术积累,构建大模型安全纵深防护体系,实现从访问入口到服务输出的全链路安全覆盖,为企业大模型应用筑牢合规与风险防御屏障。

企业大模型的访问场景通常覆盖内部系统、网页、APP、小程序等多终端,防护体系首先在访问层搭建“前置过滤网”。

该体系兼容内部系统、公开网页、移动端 APP、轻量化小程序等主流访问载体,适配企业不同的大模型部署场景;同时,通过JS探针、SDK探针实时监测终端运行状态,包括APP运行环境、网页环境、小程序运行环境的合法性与安全性,识别被篡改、植入恶意代码的异常终端;在风险防控方面,对用户提问进行初步判定 —— 合规提问可进入后续防护流程,风险提问(如恶意诱导、违规内容请求)则直接拦截,从源头减少恶意请求进入大模型系统的概率。

大模型安全纵深防护平台是体系的核心中枢,以“安全中台”为技术支撑,拆分出模型安全防护、内容安全防护、业务安全防护三大模块,结合专属引擎实现精准防御。

1、模型安全防护模块

聚焦大模型的生存安全与资源合理分配,主要提供三项核心能力:

Bot攻击防护:抵御自动化Bot工具的批量恶意访问,避免大模型服务被挤占、响应效率下降;

算力滥用防护:识别无意义批量请求、恶意循环调用等行为,防止攻击者消耗大模型算力资源,保障企业资源成本可控;

漏洞攻击防护:针对大模型自身的代码漏洞、逻辑缺陷,构建动态防御机制,拦截利用漏洞的未授权访问、数据窃取等攻击。

2、内容安全防护模块

针对大模型内容交互的核心风险,实现输入与输出的全流程合规管控:

提问数据混淆:对用户提问中的敏感数据(如个人信息、企业机密)进行脱敏或混淆处理,兼顾交互体验与数据隐私保护;

提示词注入防护:识别攻击者构造的恶意提示词(如诱导大模型输出有害信息的指令),从输入层阻断风险传导;

内容合规检测:对大模型的输入提问、输出回答进行双向检测,过滤违反社会主义核心价值观、歧视性内容、违法违规信息等,满足企业合规要求。

3、业务安全防护模块

大模型通常通过API与企业业务系统对接,API安全是业务安全的核心载体,因此,业务安全防护模块主要聚焦API链路的业务安全。

API资产识别:梳理大模型关联的API资产清单,明确资产范围、权限与调用规则,避免资产遗漏带来的隐性风险;

API风险监测:实时监控API调用行为,识别高频调用、越权访问、异常IP请求等风险行为;

API安全防护:针对API的漏洞、注入攻击等风险,构建防护机制,保障API链路的稳定与安全。

与此同时,瑞数信息构建业务防护、内容合规、意图识别三大引擎,进一步提升体系防御安全风险的智能化水平。

业务防护引擎融合多维行为特征分析与动态防护技术,可精准识别Bot攻击、漏洞利用等恶意行为,实现对模型与算力资源的主动防御。

内容合规引擎适配大模型自然语言交互的特性,在保障检测精度的同时,避免过度审核影响用户体验。

意图识别引擎通过自然语言处理技术理解提问的上下文意图,精准识别有害提示词、敏感信息及提示词注入风险,从业务交互层面实现风险预判。

该防护体系延伸至大模型服务环节,实现“防护-服务-治理”的安全闭环。

在服务管控环节,合规提问经防护平台检测后,传递至大模型服务(如审计平台、DeepSeek+、安全垂域大模型、短信助手);若输出风险回答,系统将自动过滤违规内容,确保最终交付给用户的内容安全合规。

同时,防护体系针对API进行主动扫描,通过常态化扫描与风险验证,实现API敏感信息识别、API资产梳理、API缺陷检测,主动发现并修复API层面的潜在风险,弥补被动防护的覆盖盲区。

瑞数信息的大模型安全纵深防护体系,以“访问侧前置过滤-平台侧多维防护-服务侧闭环保障”的全链路架构,覆盖大模型应用的核心风险场景。无论是金融、政务等合规要求较高的领域,还是企业内部的大模型协同场景,该体系都能同时满足安全合规与服务效率的双重需求,助力企业在享受大模型技术红利的同时,规避安全与合规风险。

共筑AI安全新防线

新网安法的施行,标志着AI治理进入法治化、体系化、标准化的新阶段。瑞数信息的“动态安全+AI”技术路径,已在多个关键行业完成落地验证,成为“发展与安全并重”的生动实践。

01、在电力行业

为关键基础设施构建主动防护体系,抵御针对能源系统的智能化攻击,保障电力供应安全。

02、在运营商领域

通过全渠道安全防护,解决业务场景中的欺诈、爬虫等问题,提升用户体验与业务安全性。

03、在金融行业

聚焦风控与大模型安全,防范交易欺诈、数据泄露等风险,助力金融机构在数字化转型中稳步前行。

这些行业案例证明,网络安全不再是业务发展的“绊脚石”,而是能够为创新保驾护航的“助推器”。通过动态技术构建主动防护屏障,通过AI技术精准识别新型风险,企业完全可以实现安全与发展的共赢。

总结

随着数字化转型的深入,网络安全威胁将愈发复杂,破坏力也将持续增强。2026年1月1日起正式实施的新网安法,不是AI安全的终点,而是高质量发展的起点。

从电力行业的关键基础设施防护,到运营商的业务安全治理,再到金融行业的风控与大模型安全,网络安全已从“可选项”变为“必答题”,瑞数信息将持续深耕技术创新,以更精准的防护、更完善的安全方案,助力更多企业突破安全瓶颈,在智能时代的浪潮中实现安全与发展的双向奔赴,共筑AI安全的坚固防线。

会员报道

编辑精选