LLLMScanner:本地AI部署服务未授权风险自查工具

发布于 2025-5-15 09:38
浏览
0收藏

项目简介

LLM本地部署服务未授权访问扫描工具是一款专为检测大语言模型服务安全风险而设计的工具,可以帮助您发现网络中未授权的LLM服务访问点。通过使用该工具,您可以快速识别潜在的安全风险,确保您的LLM服务部署环境的安全性。

本工具支持多种常见LLM服务的风险检测,包括但不限于以下几种:

  • Ollama
  • vLLM
  • LM Studio
  • llama.cpp
  • Mozilla-Llamafile
  • Jan AI
  • Cortex API
  • Local-LLM
  • LiteLLM AP

联系我们

如果您在使用过程中遇到任何问题,或者有任何建议和反馈,请随时通过以下方式联系我们:

我们非常期待您的反馈,以便我们不断改进和优化工具。

关于LLLM Scanner

主要功能

 

LLLMScanner:本地AI部署服务未授权风险自查工具-AI.x社区

LLLMScanner:本地AI部署服务未授权风险自查工具-AI.x社区

  • 端口扫描:自动发现本地运行的LLM服务,快速定位可能存在的服务端口。
  • 风险自查:针对已知的LLM服务风险进行自查,涵盖多种常见的安全问题。
  • 详细报告:生成详细的扫描报告,包括发现的风险、风险等级、修复建议等,帮助用户全面了解安全状况。

支持自查的风险列表

以下是当前系统支持检测的LLM服务未授权访问风险:

服务名称

默认端口

风险名称

Ollama

自动探测

Ollama 未授权访问风险

vLLM

自动探测

vLLM 未授权访问风险

LM Studio

自动探测

LM Studio 未授权访问风险

llama.cpp

自动探测

llama.cpp 未授权访问风险

Mozilla-Llamafile

自动探测

Mozilla-Llamafile 未授权访问风险

Jan AI

自动探测

Jan AI 未授权访问风险

Cortex API

自动探测

Cortex API 未授权访问风险

Local-LLM

自动探测

Local-LLM 未授权访问风险

LiteLLM API

自动探测

LiteLLM API 未授权访问风险


已于2025-5-15 09:43:10修改
收藏
回复
举报
回复
相关推荐