deepseek官方API太卡?DeepSeek本地部署+代码审计,漏洞都是捡的

deepseek官方API太卡?DeepSeek本地部署+代码审计,漏洞都是捡的

安全透视镜 网络安全透视镜 2025-02-06 03:19

废话不说,先上效果图,有图有真相。

deepseek火了之后,诞生了很多相关的行业应用场景。这两天也有人尝试使用deepseek进行代码审计。但是官方的API实在太卡。

今天就给大家分享一个可离线的代码审计工具。工具包,见文末

deepseek部署

本地deepseek部署还是使用Ollama方案,部署方式很简单,可以参考我昨天发的文章

DeepSeek 本地部署

这里需要说一下,要根据自己本地电脑的配置选择不同参数的模型,对于有独显的电脑,部署8b模型应该是没问题的。性能好一点的可以尝试14B,甚至32B模型。

这里我的电脑i9-14900HX,32G内存,4060 8G显存。 运行8B参数毫无压力,不到十分钟出结果

但是运行14B就卡了。

使用Ollama方案部署deepSeek,大家也可以尝试无道德限制的deepseek模型。

8B模型下载

ollama run huihui_ai/deepseek-r1-abliterated:8b

14B模型下载

ollama run huihui_ai/deepseek-r1-abliterated:14b

AI代码审计工具的使用

解压后双击运行 秋风AI代码审计.exe

打开后默认使用在线模式,点击设置–>可选择在线或者离线模式

在线模式需要填写deepseek API地址以及key。

离线模式需要填写模型名称,然后保存,即可。

注意:这里填的模型名称,需要和Ollama里面运行的模型保持一致。

可使用命令ollama list查看本地模型,ollama run [xxx模型], 然后填写当前运行的模型即可。

上传源码审计****

保存配置后,左上方 文件–>打开文件,上传代码文件

这里还需要注意一下,因为很多人电脑性能有限,如果配置低,可以将项目中文件夹分开上传,不要全部上传。

****Ollama对CPU的资源占用还是挺多的。可以发现使用16B的模型,会卡死,跑一天可能也没有结果。还是建议大家选择适合自己本地电脑配置的模型,不要选大了。

使用8B模型就很轻松了

分分钟出漏洞

关注微信公众号:网络安全透视镜 回复  deepseek代码审计
即可获得相关工具