V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
740moe
V2EX  ›  问与答

关于 NSFWJS 这个项目

  •  
  •   740moe · 80 天前 · 1560 次点击
    这是一个创建于 80 天前的主题,其中的信息可能已经有所发展或是发生改变。

    图床项目弄了图片审查,用的NSFWJS这个项目搭建了个 api

    模型处理后会返回一组数据

    {
      "Porn": 0.63987535238266,
      "Sexy": 0.351394861936569,
      "Hentai": 0.00593265052884817,
      "Neutral": 0.00271736341528595,
      "Drawing": 0.000079724035458639
    }
    

    怎么处理效果才比较好?目前是将 Porn 、Sexy 、Hentai 分数相加,超过 0.86 就判定违规。

    大佬们有啥推荐的吗?

    10 条回复    2024-09-02 22:30:54 +08:00
    hsuvee
        1
    hsuvee  
       80 天前
    我用 aws 的 detectModeration
    740moe
        2
    740moe  
    OP
       80 天前
    @hsuvee 这个收费的吧?
    supermama
        3
    supermama  
       80 天前
    我是用了一个 c#版本,执行效率应该比你这个快一些。
    vacuitym
        4
    vacuitym  
       80 天前
    不应该加起来吧,可以 Porn 、Sexy 、Hentai 三个任一超过一个阈值就违规
    lhwj1988
        5
    lhwj1988  
       80 天前 via iPhone   ❤️ 1
    @vacuitym 三种服务审查程度不完全相同,取权重是最优解
    vacuitym
        6
    vacuitym  
       80 天前
    @lhwj1988 这种是包含指定类型的概率,我觉得三个都是独立的
    740moe
        7
    740moe  
    OP
       80 天前
    @supermama 有链接吗
    740moe
        8
    740moe  
    OP
       80 天前
    @vacuitym 不加起来的话,就得设置比较低的值才能拦截到对应的图片了。就像帖子里的数据,已经是一张很暴露的图了,可是模型才识别到"Porn": 0.63987535238266 。单独设置一个值的话误封的概率更大。
    vacuitym
        9
    vacuitym  
       80 天前
    @740moe 说明模型的阈值很低,可能 0.6 已经是很高了,这种加起来没有任何意义。当然这只是我自己的私人看法,你选自己觉得对的就行
    740moe
        10
    740moe  
    OP
       80 天前
    @vacuitym 好吧,谢谢大佬
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2863 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 14:49 · PVG 22:49 · LAX 06:49 · JFK 09:49
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.