协调 · 交流 · 资讯 · 服务

Coordination, Communication, Information and Service
文章
当前位置 :首页 > 会员报道 > 【副理事长单位动态】切勿向AI投喂敏感数据!天融信接受央视采访,谈开源大模型安全风险

【副理事长单位动态】切勿向AI投喂敏感数据!天融信接受央视采访,谈开源大模型安全风险

来源:天融信 发布时间:2026-01-09浏览:37
天融信

当前,AI大模型赋能千行百业,这位能干又贴心的“数字伙伴”正加速融入我们的日常生活。当AI的触角延伸越广、嵌入越深,一些风险也随之而来。

国家安全部近日披露案例,个别单位因直接使用开源框架建立联网大模型,导致攻击者未经授权即可自由访问内部网络,从而引发数据泄露和安全风险。

案例显示,某单位工作人员在处理内部文件时,违规使用开源AI工具,由于电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载。

那么,开源框架大模型指的是什么?存在哪些安全隐患?日常使用中又该如何避免数据泄露?一起来听专家解读。

何为“开源大模型”?有哪些安全隐患?

天融信科技集团助理总裁、中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:开源大模型是指将模型的架构、参数、训练数据公开给客户免费使用的人工智能模型,目前互联网上开放的开源大模型非常多,有的擅长推理,有的擅长编写代码,有的擅长处理文本,还有的擅长处理影像等等。比如,给它一个体检报告,可以帮助我分析身体有什么异常,应该如何进行调整,会给出一些非常专业的建议。

专家表示,网民在使用AI工具时,往往忽略了一个问题,就是AI工具有储存数据的功能。网民投喂给AI的任何文件、图片等数据,AI都会进行存储。

王媛媛:数据安全其实是开源大模型最大的隐患,这很可能会被大家忽略。上传到开源大模型的任何数据,大模型自身都会进行存储,这是它的工作原理,因为只有这样才能对数据做分析。如果把公司内部比较机密的数据上传到开源大模型,实际上这些数据就会面临泄露风险。

网民将敏感数据投喂给AI工具后,这些被AI存储的数据是如何泄露的呢?

首先,这些数据对AI工具的开发者是完全开放的,开发者可以利用权限看到这些数据。另外,目前AI工具很多都是开源的,黑客也会利用大模型本身的漏洞,攻击入侵大模型后台,进而获得数据。

保护数据安全,切勿给AI工具投喂敏感数据

AI工具具有数据存储功能,因此专家提醒,在日常使用中,切勿给AI工具投喂敏感数据。

王媛媛:一方面,在日常生活中,普通网民在正常使用互联网开源大模型时,要注意不要将个人的敏感信息、隐私信息上传到开源大模型中。

另一方面,企业使用开源大模型过程中,在训练数据时,一定要采用私有化部署方式,也就是将所有数据都保存在本地,避免将一些内部数据上传到互联网上。而采用这种私有化部署方式,相应地也要投入一些基础设施和专业团队来进行维护。

文章来源:央视新闻客户端

会员报道

编辑精选