这是一个 NSFW 内容检测器,它基于 Falconsai/nsfw_image_detection 。
模型: google/vit-base-patch16-224-in21k
相比其它常见的 NSFW 检测器,这个检测器的优势在于:
运行这个模型最多需要 2GB 的内存。不需要显卡的支持。
在同时处理大量请求时,可能需要更多的内存。
这个检测器支持检查的文件类型:
docker run -d -p 3333:3333 --name nsfw-detector vxlink/nsfw_detector:latest
如果要直接检查服务器本地路径的文件,请将路径挂载到容器中。 通常推荐挂载路径与容器内路径一致,以避免混淆。
docker run -d -p 3333:3333 -v /path/to/files:/path/to/files --name nsfw-detector vxlink/nsfw_detector:latest
支持的系统架构:x86_64、ARM64。
# 检测
curl -X POST -F "file=@/path/to/image.jpg" http://localhost:3333/check
# 检查本地的文件
curl -X POST -F "path=/path/to/image.jpg" http://localhost:3333/check
现在,您可以通过挂载 /tmp 目录,并在该目录下创建一个名为 config 的文件,来配置检测器的行为。 您可以查看 config 文件作为参考。
nsfw_threshold 当目标文件的 NSFW 值超过多少时设定为匹配项目并作为结果返回。ffmpeg_max_frames 处理视频时最多处理多少帧。ffmpeg_max_timeout 处理视频时的超时限制。此外, /tmp 目录作为容器中的临时目录,配置到一个高性能的存储设备上会提高性能。
本项目基于 Apache 2.0 许可证开源。