关于加强人工智能大模型本地化部署安全风险管控的通知
2025-03-10  

校属各单位、各位师生:

根据上级通报,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患,带来数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。

鉴于目前我校DeepSeek等大模型的研究部署和应用越来越广泛,为防范本地化部署时因配置和使用不当带来的网络安全风险,请各单位做好本单位人工智能大模型部署及应用的安全监管。

1.尽快排查Ollama工具使用情况,及时进行安全加固(详见附件1),消除安全风险隐患;

2.严禁使用学校敏感数据和师生个人隐私数据投喂大模型并发布相关应用。

同时,请部署使用大模型的单位和师生加强日常安全管理,防范人工智能应用因网络越权访问、数据窃取、隐私泄露、数据投毒等风险造成网络安全事件。一旦发现异常情况,请第一时间向信息技术中心报告,并配合后续处置工作。

附件1:Ollma风险隐患详情及安全加固建议

信息技术中心

2025年3月10日


附件1:

一、风险隐患详情

使用Ollama在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放11434端口且无任何鉴权机制。该服务直接暴露在公网环境,存在以下风险:

1.未授权访问:未授权用户能够随意访问模型,并利用特定工具直接对模型及其数据进行操作,攻击者无需认证即可调用模型服务、获取模型信息,甚至通过恶意指令删除模型文件或窃取数据。

2.数据泄露:通过特定接口可访问并提取模型数据,引发数据泄露风险。如:通过/api/show接口,攻击者能够获取模型的license等敏感信息,以及其他接口获取已部署模型的相关敏感数据信息。

3.攻击者可利用Ollama框架历史漏洞(CVE-2024-39720/39722/39719/39721),直接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作,造成模型服务的核心数据,算法完整性和运行稳定性面临安全风险。

二、安全加固建议

1.限制Ollama访问权限:只提供本地服务,设置环境变量Environment="OLLAMA_HOST=127.0.0.1",仅允许11434端口本地访问,并验证端口状态。对外提供服务的,可修改config.yaml、settings.json配置文件限定可调用Ollama服务的IP地址;或配置防火墙规则,对公网接口实施双向端口过滤,阻断11434端口的出入站流量;或通过反向代理实现身份验证和授权(如使用OAuth2.0协议),防止未经授权用户访问。

2.禁用危险操作接口:如push/delete/pull等,并限制chat接口的调用频率以防DDoS攻击。

3.历史漏洞修复:及时更新Ollama至安全版本,修复已知安全漏洞。


关闭窗口