首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏R0A1NG 技术分享

    nsfw图片神器

    开源的训练好的模型 https://github.com/rockyzhengwu/nsfw 使用 需要python3环境 执行pip3 install -r requirements.txt安装所需要的库 单个图片

    5.2K10编辑于 2022-02-19
  • 来自专栏腾讯举报中心

    诈、违规!这份职业有人羡慕吗?

    忽如一夜秋风来 第三重奏马上开 #1 ● 大家都知道,游戏内的各类发言入口本来是给大伙儿提供更多的社交空间,但没想到竟然总有人想在这些地方钻空子,发布违规信息! ● 那么咱们腾讯游戏安全的内容审核系统是怎样在里头发挥作用的呢?“游戏信息安全鉴别师”日常都在看些什么呢?安全审核员遇到过哪些经典素材呢? ● 如果你想了解,那么可千万不要错过我们的定制短片《净网之路》!猛戳下方视频前往观看~ #2 ● 除了趣味短片,小助手也给大家准备了举报有奖福利活动,一起来听听规则叭~ 举报有奖 ● 活动时间: 9月10

    1.5K40发布于 2021-09-15
  • 来自专栏顶级程序员

    人工智能“师”

    最近,雅虎利用分类神经网络搭建了一套可以辨别Not Suitable for Work(上班不宜,以下简称NSFW)色情图片的Caffe模型,并将源码搬上了github。点击原文进入Yahoo的git

    2.5K90发布于 2018-04-26
  • 来自专栏相约机器人

    精炼师背后的故事

    精炼师背后的故事 ——大蛇智能师版正式发布 用AI来鉴别黄色图片,已经不是什么新鲜的事情。然而能够训练出一个可用的图像识别模型,其中所需要的细节知识还是值得学习的。 本文就来从师的训练细节说起,为大家介绍一下训练出高质量的可用模型所需要的具体步骤。可以帮助大家举一反三,在其它领域训练出高质量的商用模型。 一、数据集的选取 在GitHub上有一个20万张图片的原始数据集,直接使用该数据集可以使我们节约很多时间。这份资源的贡献者是一位名叫Alexander Kim的数据科学家。 四、师产品的迭代实战 师产品被部署到了lab.aianaconda.com网站上,同时也在公众号“相约机器人”下面的“AI实验室”菜单中,以小程序的形式对外开放。 这也是来自真实场景中的一个实际需求,在师的应用环境中,最终的结果还需要由人来审核。在流量特别大的网络场景下,误判率升高一个百分点,对于人工的额外工作都是巨大的。

    4.2K20发布于 2019-07-05
  • 来自专栏承世的博客

    如何在chevereto图床使用

    1.1首先我们moderatecontent注册,并获取免费的api 1.2我们点击moderatecontent,并输入电子邮箱,点击submit提交。(提示,提交的时候需要国际网络)

    2K20编辑于 2023-04-07
  • 来自专栏IT笔记

    周末,开放一个API

    前言 自从小黄图内测以来,不少小伙伴也想免费接入功能,独乐乐不如众乐乐,博主花了点时间,做了一个API分享出来,提供给大家免费使用,免费额!!! 代码案例 首先我们定义一个工具类: /** * 检工具类 * URL为小黄图专属地址 * 为了安全期间做了Token验证,望理解 */ public class YellowUtils { FileSystemResource(new File(imagePath)); param.add("file", resource); param.add("token", "公号内回复[ , "porn": 0.816358209, "sexy": 0.182437778 } } 异常信息: 500:系统异常 401:Token错误 402:接口异常

    4K30发布于 2019-12-09
  • 来自专栏大数据智能实战

    基于tensorflow实现AI图片(NSFW)

    本文介绍了一种基于深度学习的图像鉴黄方法,该方法使用OpenCV和Caffe库对图像进行鉴黄任务。首先,使用OpenCV库加载图像,并进行预处理操作,如灰度化、二值化等。然后,使用Caffe库中的卷积神经网络模型对图像进行特征提取和分类。最后,使用Python脚本来实现图像的鉴黄任务,并输出结果。该方法在测试数据集上取得了较好的效果,具有较高的准确率和实时性。

    8.3K90发布于 2018-01-09
  • 来自专栏机器学习算法与Python学习

    158万张图像的数据集

    在这个项目中,作者构建了一个大型高质量图像数据集,它有超过 158 万张图像,共分为 159 个大类别,且每一个类别还有若干子类别。 项目地址:https://github.com/EBazarov/nsfw_data_source_urls 在这篇文章中,我们将介绍一个新的图像开源项目,它的 158 万数据量足够训练一个大型分类模型或生成模型

    3.9K20发布于 2019-03-07
  • 来自专栏量子位

    原来师的KPI是这样的

    为了大家的身心健康,我们有必要来探讨一下,如何才能科学有效地。 ? 人类行不行? 评判一个人类师行不行,首先要考虑知识渊博程度。 毕竟对于人类来说,是个经验驱动型工作。 好,再来康康师们的身体够不够结实。 冷知识:我们常说的“”,在国内更多是“内容审核”或“内容安全”部门的工作。 很遗憾,AI在一开始,就遇到了重重困难。 AI难在哪? 简单来说,AI的过程是这样的: 最开始,由算法工程师给AI模型喂入大量已标注性感/色情的图片。 那么这时,AI师哪怕完全不会,也能达成“高正确率”的目标—— 只需要全判断成“正常图片”就行! ? 这可比错夹了艺术作品严重多了。 如何让AI科学? 为了进一步减轻人类师的工作量,AI师还会“回看”自己打分低的那些图片:我到底为什么对它们拿不准? 然后,再对这些图片进行学习,进一步提升水平。

    2.2K50发布于 2021-06-17
  • 来自专栏科技云报道

    AI让“0”误差,从此涉师们不再被掏空

    本月,北京首次关停涉直播平台“夜魅社区”。此前,映客、花椒等在直播、陌陌等平台的数十位主播因涉被永久封禁,商业需求激增“师”职业,“”势在必行。 人工智能市场也是愈发竞争激烈,目前阿里绿网、腾讯万象优图、图普科技等团队已占据大量市场份额,那么人工智能究竟发展到了什么程度,又能为市场贡献多少光和热呢? AI效果怎么样,真否能解放师? 识别色情、暴恐、时政敏感信息、小广告等违规图片和视频方面都要表现卓越,才能真正解放师。 智能的生成具体步骤如下图所示。 智能模型生成步骤 直播一般从哪些方面进行鉴定? 通常情况下,直播通过视频截图、图像识别、语音技审、弹幕监控、关键字抽取等能力智能识别色情内容。 事实上,无论是智能还是人工,其目的都是为了营造一个更健康的网络环境。相对于人工耗费大量的人力、财力,以及对员工身心的影响,依托大数据和云计算的智能显得更为“现代化”。

    5K20编辑于 2022-04-12
  • 来自专栏腾讯云安全的专栏

    界的“Master”,其实是“他”

    随手一搜 师年薪20万? 师一天看多少部小电影? 师身体变差惨遭分手? 那么,身体变差这是否对工作者的一个理解误区?今天安小妹拉你们一起与一位“师”交谈下,看看他如何说。 非常感谢大师配合安小妹的采访,与其说他是一位师,不如说他是工作者背后的强有力支撑。那考虑到一些好奇宝宝发现工作者的闲暇时间,我把聊天时间也打码,这是一个不能说的秘密。 后来这位“师”告诉我,腾讯云天御的技术是界的“Master”,这一听,我当然假装质疑这是在吹牛,于是软磨硬泡之下,剧情反转,“师”终于答应带安小妹见识下工作环境了。 传统工作内容 由于部分敏感信息,安小妹也不好拍照了,大师先给我边走边科普了传统的工作内容是:依靠大量的师每天审核视频截图。 “ 当你们谈论伤身的时候 可能是你们的姿势不正确 当我们谈论的时候 我们谈论的是人工智能在图片识别的应用 by 天御师 所以其实你不是师,我也不是师,我们今天说到的真正师是天御

    2.9K40发布于 2018-06-12
  • 来自专栏IT笔记

    UCloud 云服务内容 Java 版本实现

    无她,API还没有这么智能,毕竟是自己训练的,不是那么专业!为了更好的服务广大网友,撸主决定接入更加智能快速的服务。 能够精准识别图片、视频中的低俗内容,适用于各类用户的审核需求,帮助您在业务层面降低违规风险,同时应用算法服务,也大大减轻了人工审核的投入成本。 最主要的是,识别服务在2020年6月30日前,均免费试用。即使到期以后,小伙伴们也不用太担心,识别服务定价采取阶梯定价方式,每日2000张免费调用额度,剩余部分不累积。 application.properties 引入以下配置 # =================================== # UCloud # ==================== 接入新的服务,和自建一起使用双重保驾护航,同时小伙伴们可以自由的上传喜欢的动图了。

    2.2K10发布于 2019-12-05
  • 来自专栏Golang语言社区

    GO语言利用K近邻算法实现小说

    return } func check(fp string, dis float64) { switch { case dis >= limen: fmt.Println(fp, dis, "涉"

    1.5K50发布于 2018-03-26
  • 来自专栏大龄程序员的人工智能之路

    从人工智能模型,尝试TensorRT优化

    还记得前几年出现的职业师这一职业么?传说百万年薪,每天看黄片看得想吐,但最近又很少有人提及这一职业,这个应监管而生的职业,因人工智能的出现又快速消亡。

    2.4K40发布于 2019-07-02
  • 来自专栏Python中文社区

    Python人工智能师的自我修养

    ❈ 前阵子在设计一个智能反识别的方案,查阅了已有Paper,结合自己的一点想法,现对不良图像的识别进行以下梳理: 方案1:皮肤区域检测法 与正常图片相比,不良图片的最大特征就是一张图像里包含了大量暴露的皮肤区域

    2.2K80发布于 2018-02-01
  • 来自专栏智能相对论

    AI,一把量出人性的尺子

    互联网主要分为三个阶段,第一阶段叫人肉阶段,主要通过人工识别的方式来发现黄色内容;第二阶段叫算法过滤阶段,以肤色识别算法过滤黄色图片开始成为主流;第三阶段叫深度学习阶段,因为纯肤色式地图片过滤已经难以担当的重任 在领域,AI的三管齐下显示了其要肃清黄色内容的决心,而且它也确确实实地减轻了人工的压力。 但是在现实当中上有政策,下有对策的戏码总是会不断上演,因此的力度越大,色情的边界也就拓展地越快,自然AI的难度也会越大。而这好像成为一个绕不开的死循环。 这就为人工智能制造了一个难题。通常人工智能进行首先需要建立一个“分类器”来将图片归类,但不幸的是,软色情的问题却没有那么简单。什么是软色情这个事并不好弄清楚。 常用的拆字法、首字母缩写法、取别称法、拼音代替法、形近字代替法等等也会让工作变得更为复杂。 三 AI堵住了人性的出口吗? 弗洛伊德的泛性论认为,性是一种本能力量。

    2.4K40发布于 2019-08-20
  • 来自专栏BestSDK

    你觉得人工智能这事,靠谱不?

    目前多家人工智能公司已开始布局业务,阿里巴巴和腾讯分别拥有阿里绿网、万象优图两大系统。而在创业公司方面,较为知名的有图普科技、飞搜科技、深图智服等公司。 直播(如花椒、映客)、在线视频(如优酷、爱奇艺)、图片的区别在哪儿?直播的难度是否最大?要解决哪些技术问题? 至于技术问题,其实在算法层面难度并不高,利用深度学习算法训练后,就能达到不错的效果。 存在哪些难点? 这也正是上面提到部分 CV 公司不涉入业务的原因,因为一直需要大量样本去不断训练、纠正,工程量挺大。 的数据训练过程是什么样的?

    2.3K50发布于 2018-02-28
  • 来自专栏指尖数虫

    深夜,使用NSFW尝试一下图片

    前几天公司在讨论的问题,对接了一些厂家提供的服务。由于公司本身就是做音视频领域相关的,的需求量较大。同时秉着「好好学习,天天向上」的精神。想自己试一下相关的东西。 是由yahoo开源的一套的模型。 https://github.com/yahoo/open_nsfw 使用Caffe模型训练而来,主要是针对恐怖,血腥,色情等图片进行鉴别。

    9.7K20发布于 2020-04-15
  • 来自专栏DevOps

    Python:使用opennsfw2对图片视频进行识别

    text=f'{path.name} 耗时: {end - begin:.2f}s 概率: {probability * 100:.2f} %') win = tk.Tk() win.title('图检测 thread = threading.Thread(target=play, daemon=True) thread.start() win = tk.Tk() win.title('图检测

    2.8K10编辑于 2024-03-29
  • 来自专栏AI科技大本营的专栏

    阿里研发 AI 黑科技,有望替代人工

    更快更准识别违规风险内容 通过这两个功能,AI能快速识别、准确定位违规片段,无需人类师反复回看确认。 雍秦透露,在SGR技术研究基础上,阿里安全近期还将研发低门槛、高可用的“”AI工具,让AI对视频不同片段打出“危险指数”,依赖信息提取直接关联高亮风险片段,让AI更智能、高效。 图说:阿里安全近期将研发低门槛、高可用的“”AI工具,该图为示意模型。 阿里安全图灵实验室资深算法专家华棠指出,阿里安全一直希望从源头守护安全,这是阿里安全方法论“新一代安全架构”的核心理念。

    1.2K10编辑于 2023-05-08
领券