首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    将图片转成线稿_图片怎么转成线稿

    经过对比个人感觉2.7比较好 7、然后合并图层,线稿就这样制成了不过仍然会有一点麻麻的黑点在上边,我们可以用橡皮擦出。 完成………… 最新增加内容: 最后一步,不用高斯模糊,而是用滤镜—>其他—>最小值,效果有可能比高斯模糊要好,线条更清晰,当然有的可能你不想要的线条也会变的清晰,请各位自己比较,取舍。 下面是效果,最小值大小为1: 线稿抽丝 顺便链接一下另一个教程,上色的一部分,抽线,算是接着这个教程的继续吧,就是把线稿抽出个透明图层来,这样新手上色比较容易。 线稿线用的方法很多,比如通道法,滤镜法等等,不过CS5取消了这个抽线滤镜,当然这些方法都不是这次要说,以下正文。 1、PS打开线稿,此处用的线稿是上一个帖子《photoshop将任意图片处理成线稿》中处理出来的线稿。如图: 点击CTRL+A全选像素,然后CTRL+C复制。

    2.3K30编辑于 2022-09-20
  • 来自专栏猫窜游戏

    【AIGC 应用之线稿】约稿插画师的得利助手!

    本文采用腾讯混元大模型中大模型图像创作引擎的线稿进行实例演示,讲解AIGC技术如何对插画师的工作产生质与量的飞跃。 }, },};// 实例化要请求产品的client对象,clientProfile是可选的const client = new AiartClient(clientConfig);/** * 线稿请求 * @param {string} prompt - 用于线稿的文本描述。 建议格式:线稿中的主体对象+画面场景+配色/材质/元素/风格等 * @param {string} inputImage - 线稿 Base64 数据。 实践中,我们使用腾讯混元大模型(Tencent Hunyuan)的线稿功能,在短短2-3秒的时间,即可将一幅线稿转化为插画成品,并且在多次重复使用之中,会获得完全不同的各种风格类型的作品。

    1.3K22编辑于 2024-09-13
  • 来自专栏月落星河Tsukistar的专栏

    1,2,线稿

    “1,2,线稿!”APP的开发关键代码与演示。 最近在写OpenCV在Android上用于可见光定位的APP,在轮廓识别的时候偶然用手机里的二次元图片作为样本进行测试,发现线条十分明显,就像下面这张这样: 这不就是线稿吗,或许可以写一个一键将图片转成线稿的 于是将自己用来写可见光定位的项目复制一份,修改包名,换个Logo和背景,然后重新设置了UI,加了长按保存图片的功能,最后各种测试和debug,两天时间,成功做出了一个稳定的版本,然后将发行版和项目放到了我的码云仓库上

    70920编辑于 2022-02-21
  • 来自专栏机器之心

    妙笔维:线稿驱动的三维场景视频自由编辑

    1 基于线稿的三维场景视频编辑结果 2 视角可控的视频生成及编辑结果 Part 1 背景 近年来,视频生成基础模型(如 Sora、Kling、Hunyuan Video、CogVideoX 和 进一步地,研究者开始利用视频生成模型进行编辑,例如一些方法 [8] 从输入视频中提取注意力特征以编码运动信息,另一些方法 [9] 则采用 LoRA 对预训练视频模型进行微调以捕捉特定视频的运动模式。 基于线稿的视频编辑方法也已出现,例如 VIRES [10] 通过优化 ControlNet [11] 结构实现了基于线稿引导的视频重绘,而 SketchVideo [12] 则设计了一种关键帧线稿传播机制 ,允许用户仅提供少量帧(1-2 帧)的线稿即可编辑整个视频。 4 基于线稿的三维场景视频编辑结果 如图 5 所示,当视频中存在阴影和反射等较为复杂的情景时,由于该工作使用了真实视频作为数据集进行训练,也能在一定程度处理上述情况,并生成相对合理的视频编辑结果。

    51210编辑于 2025-08-24
  • 来自专栏CSDNToQQCode

    StableDiffusion线稿获取作画——AI线稿作画

    前言 线稿作画的优势我在前文中说过,我就不做累述了StableDiffusion线稿获取方法——AI取线稿可以根据这篇文章来搞定,当我们获取到了线稿之后如何作画呢,那么本文就来具体的说明一下实际操作步骤 操作步骤1、完成线稿获取 我们根据上一篇文章就可以直接获取到线稿,这里省略。 操作步骤2、同步像素 这里有一个按钮,但是没有具体的文字显示,需要我们自己来点击一下才能获取到线稿的高度与宽度来替换原来的512*512,这样我们出图片的像素就与原图是一致的了。 操作步骤3、给出提示词 这里的提示词是根据线稿的要求想生成什么样的图片,我这里就随意的写了几个词,但是要注意,一定要转换成英文的,因为对中文的支持比较一般。 你们是8,9点钟的太阳,未来是属于你们的。

    39310编辑于 2025-05-29
  • 来自专栏Sign

    人工智能 线稿上色工具

    我实际尝试后的效果…… 当然,和线稿也有很大的关系。 实际上,这个工具学习成本还是有的,而且目前上色AI的水平也有天花板。 ?

    1.8K50发布于 2018-07-23
  • 来自专栏量子位

    0.7秒,完成动漫线稿上色

    鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 给一张这样繁复的线稿: 一步步填上颜色、赋上光影: 你猜需要多长时间? 答案是最快0.7秒。 没错,这又是AI的手笔。 我们照例一起扒一扒背后的技术~ 理解线稿,精细上色 想要学会上色,AI首先要明白线稿为何物。 看懂了线稿,就可以进入到上色环节了。 另外,值得一提的是,在打磨上色算法的过程中,工程师们也积累下了一套线稿数据生产系统。 对于用户而言,基于爱奇艺智能上色引擎获取到的数据,可以构建线稿数据库和不同风格的动态漫画数据库。 事实上,熟悉动漫画制作过程的小伙伴都知道,线稿上色这一步处于脚本创作、分镜和线稿之后,随着剧情的推进,动漫内容需要不断去更新延续,在流程中存在重复劳动环节,工作量巨大。

    91410编辑于 2023-03-10
  • 来自专栏运维随笔

    PS如何把图片或者头像提取成线稿

    对于漫画爱好者或者喜欢线稿的小伙伴,很多小伙伴都不具备绘制线稿的能力和时间,下面站长教大家如何通过PS软件制作线稿 教学内容 PS快捷键 按键盘的CTRL按键加鼠标滚轮可以左右滚动画布 按键盘的ALT按键加鼠标滚轮可以放大缩小画布 改为颜色减淡后图片就变成一张白色的,接着我们选择顶部菜单栏滤镜 >> 其他 >> 最小值打开设置 PS:此处也可以使用滤镜 >> 模糊 >>高斯模糊滤镜调整 6、在弹出的最小值选项框里面设置半径(根据线稿实际显示的效果调整半径 ,一般1px-3px左右),然后点击确定 7、调整最小值半径后的图片显示如下 8、选择顶部导航栏 文件 >> 导出为 >> 选择JPG,然后保存到本地 9、最后一张线稿就做好啦,效果如下是不是很简单

    2.8K20编辑于 2022-02-14
  • 来自专栏R语言数据分析指南

    跟着nature communications学绘图(9) ggplot2绘制误差线

    ❝本节来进行论文图表的复现;通过ggplot2绘制误差线 加载R包 library(tidyverse) library(ggprism) library(ggsci) 数据清洗 df <- pivot_longer(-c(type,time)) %>% select(type) %>% distinct() %>% pull()) 数据可视化 ❝此虽然只是基础图形但是所包含的细节还是挺多的

    71920编辑于 2022-09-21
  • 来自专栏前端数据可视化

    『SD』基础讲解

    点赞 + 关注 + 收藏 = 学会了 基础用法 文生比较好理解,就是输入文字生成图片。 那又是啥? SD 允许我们上传一张图片作为底图,这张底图又称为“引导”,然后再搭配提示词生成一张新的图片。 引导主要影响最终要生成图片的颜色和构图,而提示词和文生的提示词一样,这里就不过多讲述了。 的界面入口在 img2img 。 这个界面下方也有一个 img2img 标签页,这个标签页就是用来上传引导的。 我们上传一张引导,但什么提示词都不写,然后让 SD 根据引导重新生成一张图片。 此时,SD 会根据引导的颜色、构图重新生成一张新的,可以看到右边的的女孩样子不一样了,衣服也换了一件,背景也从晚上变成下午。但整体的构图和色调还是和原图比较接近的。

    82310编辑于 2024-05-22
  • 来自专栏vue的实战

    柱形平均线

    option = { color: ['#3398DB'], tooltip: { trigger: 'axis', axisPointer: { // 坐标轴指示器,坐标轴触发有效 type: 'shadow' // 默认为直线,可选为:'line' | 'shadow' } }, grid: { left: '3%', right:

    58430发布于 2020-03-20
  • 信入门DAY7-9

    本篇内容引自生信技能树 DAY7-9 课前提问: 1、为什么要做数据挖掘? 即用别人的数据用在自己的文章里面,多半是从别人的数据里筛选自己想要的基因。 ,b,c三类,平等没有大小关系; 中位数,四分位线,最大值,最小值,离群点; 箱线图:单个基因在两组之间的表达量差别。 #⭐第三个要检查的地方 boxplot(exp,las = 2) #看是否有异常样本 #看样本齐性,也就是中位线和上下四分位线基本在一条线上;看纵坐标范围是否在0-20之间。 step2output.Rdata") #比较复杂的探针注释参考资料 #资料1:拆分取列https://www.yuque.com/xiaojiewanglezenmofenshen/kzgwzl/sv262capcgg9o8s5 # 2.top 1000 sd 热,是表达量最离散的1000个基因,包括了组间的---- #因为整个表达矩阵画不了热,我们挑出一部分来画 g = names(tail(sort(apply(exp

    52210编辑于 2025-05-22
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】

    三、 内容概要: 1、原理 2、基本流程 3、随机种子作用解析 1、原理 可以帮你把一张图片画成另一种模样。 在文生图中我们看到,AI文生是有一定的随机性的,画出来的东西不一定完全满足我们的需求。在现实生活里,这种对需求的传递偏差与错误解读其实也普遍存在。比如天天干架的产品经理和程序员、甲方客户与设计师。 2、的三个关键步骤 第一步:导入图片 第二步:书写提示词 第三步:参数调整 3、参数技术性解析 直接参考文生的提示题。 unclear eyes:1.331), lowers, bad hands, missing fingers, (((extra arms and legs))), 参数设置: 重绘幅度 表示绘制的和原图相差的比重

    1.1K30编辑于 2023-09-27
  • 来自专栏疯狂学习GIS

    黑白、彩色线稿地图装饰画中线条轮廓底图获取方法

    在OSM中选定绘图区域后,有两种获取地图素材的方式:一是直接通过网页截图,二是下载OSM数据后在GSI软件中进行更进一步的处理后成

    2.4K30编辑于 2022-04-11
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 engine 5 cinematic, masterpiece 如果我们将上面生成的图片上传到界面,并且调整生成图片的提示词如上,接着点击“生成按钮”,或者稍微调整下参数,触发图片重新生成: 即时的体验 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.2K10编辑于 2024-01-15
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 0.1433868408203125 seconds Pipe took 0.13985347747802734 seconds Pipe took 0.13831496238708496 seconds 接下来,我们来尝试“ 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.5K10编辑于 2024-01-13
  • 来自专栏软件使用指南

    Vega Ai,免费的中文Ai绘画工具,效果超赞

    Vega Ai官网:https://rightbrain.art/Vega Ai有文生、条件、姿势等多种玩法。注册登录即可免费使用,不限次数。 二、1、上传图片后,可以用[画笔]涂抹想要编辑修改的地方,[橡皮]可以擦除画笔痕迹2、文本输入描述目标内容,同时调高编辑强度可以增大修改的强度,一般0.5即可。 三、条件条件控制有三种方式:分为线稿生成、动作捕捉以及区域构图条件输入有两种形式:条件图片(普通图片即可)、条件特征(线稿、姿态或者色块)使用“条件图片”,系统就根据选的“条件图片”生成“条件特征 ”去输入来生使用“条件特征”,系统直接使用用户上传的“条件特征”作为输入来生方便理解,举个例子,我们右侧配置“条件控制”选择“线稿生成”,如果选择“条件图片”,上传普通图像以后,系统会自动提取它的线稿 ,指引生成新的图像,你可以在条件特征里看到对应的线稿如果选择“条件特征”,那就需要自己上传线稿、姿态或者色块,系统直接根据条件特征生成新的图片Vega Ai的作图方法这里就不多介绍了,需要的可以去官网注册体验

    11.4K01编辑于 2023-06-22
  • 来自专栏生信宝典

    9分的信杂志发了一篇Venn工具大比拼

    文氏是被广泛用于图形化描绘多个数据集之间的并集,交集和区别的工具,目前已经开发了大量的程序来生成文氏,以用于各个研究领域。但是,当前尚未研究对这些工具进行全面的比较和综述。 在本文中,我们收集了文氏生成器(即,仅用文氏用于可视化几个数据集之间的关系)和维恩应用程序工具(即,分析生物数据之间的关系并在文氏图中进行可视化)并比较它们的功能如下:生成高质量图表的能力;每个程序能处理的最大数据集 我们还根据图形布局来评估文氏生成器的图片美化参数,并简要概述了最流行的文氏应用工具的功能特性。最后,我们讨论了文氏应用程序工具所面临的挑战,并对文氏在生物信息学中的应用提供了新视角。 王教授团队是OrthoVenn系列软件的开发团队,于2019年推出OrthoVenn2,对venn和软件开发有很多经验。 西南大学博士贾安强和加州大学伯克利分校博士后徐凌为论文共同第一作者,王翊教授为通讯作者,西南大学为第一完成单位。

    83220编辑于 2022-01-18
  • 来自专栏科研菌

    信代码:绘制热和火山

    引言:前面几期中,我们学习了如何下载TCGA数据、预处理和差异分析,那么今天我们继续来看看如何将利用差异分析的结果绘制热和火山。 六、绘制差异表达基因的热 TCGAvisualize_Heatmap()绘制热的主要用法:等号后面对应的为默认参数。 ,故小编在这里使用pheatmap()绘制热。 七、绘制差异差异表达分析结果的火山 TCGAVisualize_volcano()绘制火山的主要用法: TCGAVisualize_volcano(x, y, filename = "volcano.pdf 九、结语 今天的热和火山就暂告一段落。

    6K53发布于 2021-01-25
  • 元宝升级了!

    现在,一句话用元宝生成表情包组、四格漫画、人像写真、纪实摄影、设计配等,都更“懂你”了!元宝,从此细节更丰富、画质更细腻。打开元宝App,顶部切换至 「Hunyuan」 模型,即可开始创作。 不多说了,直接上图——❶表情包组还在四处收藏别人的表情包?不够用?现在,给元宝一句话指令,即可无限量生成专属表情包。风格统一,图文并茂。 提示词:画一张四宫格科普漫画描述阿基米德浮力定律,比例是1:1提示词:帮我画一张图片:用插画解释相对论,采用信息的形式,以爱因斯坦的形象进行详解,从上到下的布局四个插画,并配上简短的文字式说明,比例是 3:4提示词:生成一张四格治愈漫画:小狗忙着爱你提示词:帮我生成一组四宫格漫画:日本黑白热血漫风格,主题是一个正在学网球的少女❸图文设计文案有了,配没灵感? 白色背景,比例:16:9❺写实摄影想要一张配,还在全网找素材?一句话告诉元宝,就能生成一张细节满满的写实照片。美食、产品、人像都能精准还原。

    3.5K10编辑于 2025-10-10
领券