NSFW Detector(Not Safe For Work)是一款开源工具,旨在检测图像、PDF、视频以及压缩包内文件中是否存在不适宜内容。该工具基于Google的`vit-base-patch16-224-in21k`模型开发,支持在CPU环境下运行,无需依赖GPU即可在大多数服务器上部署。通过API接口提供服务,便于与其他应用程序集成,并兼容Docker容器化部署,适合分布式架构。NSFW Detector采用多核CPU并行处理技术,提升推理效率,同时确保数据处理全程本地化,保障信息安全。此外,它能够对多种文件类型进行分类,主要区分为“nsfw”和“normal”两类。
发表评论 取消回复