AI大模型安全漏洞预警!Langflow高危远程代码执行漏洞(CVE-2025-3248)

AI大模型安全漏洞预警!Langflow高危远程代码执行漏洞(CVE-2025-3248)

Gobybot GobySec 2025-04-10 18:49

4月6日,Goby安全团队检测发现,AI大模型开源项目 Langflow-ai github issue 提交了一个关于代码注入漏洞反馈(当前该issue已关闭), 攻击者可以通过向特定端点发送精心构造的HTTP请求,执行任意代码,官方迅速响应随即发布1.3.0版本修复此漏洞。4月7日,该漏洞披露并分配编号为CVE-2025-30208,CVSS评分为9.8。Goby安全团队收到该情报后立即响应测试。

先分析一下公网暴露资产影响面

LangFlow作为的AI低代码工具,专注于多智能体AI、RAG(检索增强生成)和提示工程应用的开发,广泛用于AI工作流的编排与部署,是当前AI大模型领域的热门基础设施
(githubstar>55k)。

需要注意的是,CVE-2025-3248影响所有1.3.0之前版本,根据官网的补丁发布的时间及当前版本分布情况分析。

Goby安全团队预估暴露在公网的langFlow资产对该漏洞的复现率或超80%。

通过FOFA测绘,可以看到,LangFlow全球暴露资产数量达
2,457
个。

再分析漏洞危害影响版本:LangFlow < 1.3.0CVSS:9.8风险等级:严重漏洞描述:攻击者无需认证,仅需通过向/api/v1/validate/code精心构造的HTTP请求,可绕过安全限制直接执行Python代码。攻击者可利用此漏洞获取最高权限执行任意命令,对依赖该AI工具的企业和开发者造成严重安全威胁。尽管LangFlow多用于企业内网环境,但FOFA测绘数据显示,全球仍有2k+相关服务直接暴露于公网,攻击者可利用此类暴露入口,结合漏洞实现从外网直穿内网的定向打击。Goby已成功复现并支持检测(标准版及企业版):(视频演示为靶场环境)
【安全修复建议】1. 将Langlow版本升级到1.3.0或更高版本2. 临时防护措施(若无法立即升级)网络隔离:限制LangFlow服务仅允许内网访问【安全建设建议】在AI大模型的浪潮下,依赖该AI工具企业需下线非必要公网服务,严格限制AI开发工具的访问边界,即便在内网部署,也需启用API鉴权、网络隔离等基础防护,建立AI资产专项清单,定期扫描组件漏洞。
G
o
b
y





/











































稿

G
o
b
y

G
o
b
y



/


/




/




/




/

P
o
C



/

I
P


使



/

W
e
b
s
h
e
l
l

/

















G
o
b
y

标准版






~
~
~

图片