NSFW Detector(Not Safe For Work)是一款开源工具,旨在检测图像、PDF、视频以及压缩包内文件中是否存在不适宜内容。该工具基于Google的`vit-base-patch16-224-in21k`模型开发,支持在CPU环境下运行,无需依赖GPU即可在大多数服务器上部署。通过API接口提供服务,便于与其他应用程序集成,并兼容Docker容器化部署,适合分布式架构。NSFW Detector采用多核CPU并行处理技术,提升推理效率,同时确保数据处理全程本地化,保障信息安全。此外,它能够对多种文件类型进行分类,主要区分为“nsfw”和“normal”两类。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部