关于 NSFWJS 这个项目

115 天前
 740moe

图床项目弄了图片审查,用的NSFWJS这个项目搭建了个 api

模型处理后会返回一组数据

{
  "Porn": 0.63987535238266,
  "Sexy": 0.351394861936569,
  "Hentai": 0.00593265052884817,
  "Neutral": 0.00271736341528595,
  "Drawing": 0.000079724035458639
}

怎么处理效果才比较好?目前是将 Porn 、Sexy 、Hentai 分数相加,超过 0.86 就判定违规。

大佬们有啥推荐的吗?

1592 次点击
所在节点    问与答
10 条回复
hsuvee
115 天前
我用 aws 的 detectModeration
740moe
115 天前
@hsuvee 这个收费的吧?
supermama
115 天前
我是用了一个 c#版本,执行效率应该比你这个快一些。
vacuitym
115 天前
不应该加起来吧,可以 Porn 、Sexy 、Hentai 三个任一超过一个阈值就违规
lhwj1988
115 天前
@vacuitym 三种服务审查程度不完全相同,取权重是最优解
vacuitym
115 天前
@lhwj1988 这种是包含指定类型的概率,我觉得三个都是独立的
740moe
114 天前
@supermama 有链接吗
740moe
114 天前
@vacuitym 不加起来的话,就得设置比较低的值才能拦截到对应的图片了。就像帖子里的数据,已经是一张很暴露的图了,可是模型才识别到"Porn": 0.63987535238266 。单独设置一个值的话误封的概率更大。
vacuitym
114 天前
@740moe 说明模型的阈值很低,可能 0.6 已经是很高了,这种加起来没有任何意义。当然这只是我自己的私人看法,你选自己觉得对的就行
740moe
114 天前
@vacuitym 好吧,谢谢大佬

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1069594

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX