新闻资讯

完善大语言模型治理体系 守护数智时代网络安全

发布日期:2025-10-08 浏览次数:

原标题:守护数智时代网络安全

当前,以ChatGPT、DeepSeek为代表的大语言模型(LLM)技术正加速重构全球产业格局。截至2025年,我国生成式人工智能大模型备案数量已突破300个,LLM技术已深度嵌入企业核心业务场景。然而,技术红利背后潜藏着网络安全范式变革——传统基于规则和特征的防护体系,正面临人工智能赋能的复合型风险挑战。大语言模型应用使企业网络安全威胁呈现三大跃迁:其一,攻击维度升级,深度伪造语音、人工智能驱动的钓鱼邮件等新型社会工程攻击,突破传统网络边界防御逻辑;其二,数据风险泛化,LLM训练数据中潜藏的敏感信息可能通过逆向工程泄露;其三,供应链威胁加剧,LLM技术栈深度依赖开源框架和预训练模型库,第三方API接口和模型权重中的隐蔽后门正成为关键基础设施的安全盲区。

随着大语言模型在各行业深度应用,其网络安全风险治理已成为数字化转型过程中的关键议题。相较于传统网络安全风险,LLM特有的算法黑箱性、数据关联性和技术依赖性特征,使得其风险治理呈现高度复杂性与动态演化特点。面对大语言模型带来的新兴风险,企业亟须构建系统化应对策略。特别是作为关键信息基础设施运营主体的国有企业,建立健全大语言模型网络安全风险识别与治理机制,既是保障业务安全的现实需求,也是保障国有资产安全的必然选择。

中核武汉核电运行技术股份有限公司“华龙一号”全范围模拟机。

中核武汉核电运行技术股份有限公司“华龙一号”全范围模拟机。

大语言模型应用带来的新兴网络安全风险

技术内生性风险在于数据泄露与模型失控。大语言模型的技术架构特性具有多重安全隐患。首先,模型训练依赖海量数据导致敏感信息泄露风险增加。这种“训练数据提取攻击”在企业私有化部署场景中尤为危险,因为训练数据往往包含商业机密和用户隐私信息。其次,模型接口安全构成另一重威胁。攻击者或利用API令牌漏洞获取部分用户模型访问权限,暴露LLM服务架构中的安全断层。更为严峻的是模型本身的“黑箱”特性导致其行为不可预测。在自动化运维中,模型不确定性可能导致生成未授权的数据访问命令,若企业将此类输出用于调整防火墙策略或调用内部API,就可能触发权限提升或数据泄露风险。

业务场景化风险在于智能化转型中的安全塌陷。在企业数字化转型实践中,大模型技术与业务场景的深度融合催生了多重新型攻击面。首先,在客服系统中,“越狱”攻击正在威胁企业数据安全。在客服等交互场景中,用户可通过特定提示词序列诱导模型泄露系统指令或执行未授权操作,这种威胁正在持续进化,有学者提出的“双意图逃逸”攻击在多款模型上实现高隐蔽性越狱。其次,在决策支持系统中,大语言模型的生成不可控性与对抗性样本并存。有研究表明L-AutoDA方法能在不知模型内部概率分布的条件下快速构造有效扰动,提升在图像与文本决策任务中的攻击成功率。最后,攻击者可通过“链式提示注入”植入恶意指令,诱导模型执行多步未授权操作。

治理结构性风险在于制度滞后与生态失衡。现有网络安全治理体系与LLM技术的快速演进之间存在断层。我国《生成式人工智能服务管理暂行办法》与网络安全法、数据安全法等法律框架的衔接仍存在挑战,使企业在部署LLM应用时面临合规不确定性。国际治理格局的碎片化进一步加剧了合规困境。2023年12月欧盟出台的《人工智能法案》将基础模型列为“高风险应用”并设置了严格的合规要求,而我国的监管框架更强调内容安全和数据主权。这种标准差异导致跨国企业的人工智能战略部署面临多重合规挑战。更深层次的挑战在于技术生态的失衡。目前,LLM底层框架和硬件平台仍严重依赖海外技术栈,国产化替代进程相对缓慢,导致关键领域受制于人。

中核武汉核电运行技术股份有限公司福建分公司CCTV检验班组开展漳州核电2号机组稳压器及堆内构件役前检查工作。

中核武汉核电运行技术股份有限公司福建分公司CCTV检验班组开展漳州核电2号机组稳压器及堆内构件役前检查工作。

大语言模型网络安全风险应对关键举措

  • 我要学车