首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    将图片转成线稿_图片怎么转成线稿

    经过对比个人感觉2.7比较好 7、然后合并图层,线稿就这样制成了不过仍然会有一点麻麻的黑点在上边,我们可以用橡皮擦出。 完成………… 最新增加内容: 最后一步,不用高斯模糊,而是用滤镜—>其他—>最小值,效果有可能比高斯模糊要好,线条更清晰,当然有的可能你不想要的线条也会变的清晰,请各位自己比较,取舍。 下面是效果,最小值大小为1: 线稿抽丝 顺便链接一下另一个教程,上色的一部分,抽线,算是接着这个教程的继续吧,就是把线稿抽出个透明图层来,这样新手上色比较容易。 线稿线用的方法很多,比如通道法,滤镜法等等,不过CS5取消了这个抽线滤镜,当然这些方法都不是这次要说,以下正文。 1、PS打开线稿,此处用的线稿是上一个帖子《photoshop将任意图片处理成线稿》中处理出来的线稿。如图: 点击CTRL+A全选像素,然后CTRL+C复制。

    2.3K30编辑于 2022-09-20
  • 来自专栏猫窜游戏

    【AIGC 应用之线稿】约稿插画师的得利助手!

    本文采用腾讯混元大模型中大模型图像创作引擎的线稿进行实例演示,讲解AIGC技术如何对插画师的工作产生质与量的飞跃。 }, },};// 实例化要请求产品的client对象,clientProfile是可选的const client = new AiartClient(clientConfig);/** * 线稿请求 * @param {string} prompt - 用于线稿的文本描述。 建议格式:线稿中的主体对象+画面场景+配色/材质/元素/风格等 * @param {string} inputImage - 线稿 Base64 数据。 实践中,我们使用腾讯混元大模型(Tencent Hunyuan)的线稿功能,在短短2-3秒的时间,即可将一幅线稿转化为插画成品,并且在多次重复使用之中,会获得完全不同的各种风格类型的作品。

    1.2K22编辑于 2024-09-13
  • 来自专栏月落星河Tsukistar的专栏

    1,2,线稿

    “1,2,线稿!”APP的开发关键代码与演示。 最近在写OpenCV在Android上用于可见光定位的APP,在轮廓识别的时候偶然用手机里的二次元图片作为样本进行测试,发现线条十分明显,就像下面这张这样: 这不就是线稿吗,或许可以写一个一键将图片转成线稿的 于是将自己用来写可见光定位的项目复制一份,修改包名,换个Logo和背景,然后重新设置了UI,加了长按保存图片的功能,最后各种测试和debug,两天时间,成功做出了一个稳定的版本,然后将发行版和项目放到了我的码云仓库上

    70420编辑于 2022-02-21
  • 来自专栏机器之心

    妙笔维:线稿驱动的三维场景视频自由编辑

    它赋予用户基于简单线稿即可重塑三维场景视频的能力。无论是为视频场景个性化地添加全新物体,还是精细地移除或替换已有对象,用户都能通过绘制关键线稿轻松实现。 1 基于线稿的三维场景视频编辑结果 2 视角可控的视频生成及编辑结果 Part 1 背景 近年来,视频生成基础模型(如 Sora、Kling、Hunyuan Video、CogVideoX 和 基于线稿的视频编辑方法也已出现,例如 VIRES [10] 通过优化 ControlNet [11] 结构实现了基于线稿引导的视频重绘,而 SketchVideo [12] 则设计了一种关键帧线稿传播机制 ,允许用户仅提供少量帧(1-2 帧)的线稿即可编辑整个视频。 4 基于线稿的三维场景视频编辑结果 如图 5 所示,当视频中存在阴影和反射等较为复杂的情景时,由于该工作使用了真实视频作为数据集进行训练,也能在一定程度处理上述情况,并生成相对合理的视频编辑结果。

    48910编辑于 2025-08-24
  • 来自专栏CSDNToQQCode

    StableDiffusion线稿获取作画——AI线稿作画

    前言 线稿作画的优势我在前文中说过,我就不做累述了StableDiffusion线稿获取方法——AI取线稿可以根据这篇文章来搞定,当我们获取到了线稿之后如何作画呢,那么本文就来具体的说明一下实际操作步骤 操作步骤1、完成线稿获取 我们根据上一篇文章就可以直接获取到线稿,这里省略。 操作步骤2、同步像素 这里有一个按钮,但是没有具体的文字显示,需要我们自己来点击一下才能获取到线稿的高度与宽度来替换原来的512*512,这样我们出图片的像素就与原图是一致的了。 操作步骤3、给出提示词 这里的提示词是根据线稿的要求想生成什么样的图片,我这里就随意的写了几个词,但是要注意,一定要转换成英文的,因为对中文的支持比较一般。

    37510编辑于 2025-05-29
  • 来自专栏Sign

    人工智能 线稿上色工具

    我实际尝试后的效果…… 当然,和线稿也有很大的关系。 实际上,这个工具学习成本还是有的,而且目前上色AI的水平也有天花板。 ?

    1.8K50发布于 2018-07-23
  • 来自专栏量子位

    0.7秒,完成动漫线稿上色

    鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 给一张这样繁复的线稿: 一步步填上颜色、赋上光影: 你猜需要多长时间? 答案是最快0.7秒。 没错,这又是AI的手笔。 我们照例一起扒一扒背后的技术~ 理解线稿,精细上色 想要学会上色,AI首先要明白线稿为何物。 看懂了线稿,就可以进入到上色环节了。 另外,值得一提的是,在打磨上色算法的过程中,工程师们也积累下了一套线稿数据生产系统。 对于用户而言,基于爱奇艺智能上色引擎获取到的数据,可以构建线稿数据库和不同风格的动态漫画数据库。 事实上,熟悉动漫画制作过程的小伙伴都知道,线稿上色这一步处于脚本创作、分镜和线稿之后,随着剧情的推进,动漫内容需要不断去更新延续,在流程中存在重复劳动环节,工作量巨大。

    89510编辑于 2023-03-10
  • 来自专栏运维随笔

    PS如何把图片或者头像提取成线稿

    对于漫画爱好者或者喜欢线稿的小伙伴,很多小伙伴都不具备绘制线稿的能力和时间,下面站长教大家如何通过PS软件制作线稿 教学内容 PS快捷键 按键盘的CTRL按键加鼠标滚轮可以左右滚动画布 按键盘的ALT按键加鼠标滚轮可以放大缩小画布 改为颜色减淡后图片就变成一张白色的,接着我们选择顶部菜单栏滤镜 >> 其他 >> 最小值打开设置 PS:此处也可以使用滤镜 >> 模糊 >>高斯模糊滤镜调整 6、在弹出的最小值选项框里面设置半径(根据线稿实际显示的效果调整半径 ,一般1px-3px左右),然后点击确定 7、调整最小值半径后的图片显示如下 8、选择顶部导航栏 文件 >> 导出为 >> 选择JPG,然后保存到本地 9、最后一张线稿就做好啦,效果如下是不是很简单

    2.8K20编辑于 2022-02-14
  • 来自专栏前端数据可视化

    『SD』基础讲解

    点赞 + 关注 + 收藏 = 学会了 基础用法 文生比较好理解,就是输入文字生成图片。 那又是啥? SD 允许我们上传一张图片作为底图,这张底图又称为“引导”,然后再搭配提示词生成一张新的图片。 引导主要影响最终要生成图片的颜色和构图,而提示词和文生的提示词一样,这里就不过多讲述了。 的界面入口在 img2img 。 这个界面下方也有一个 img2img 标签页,这个标签页就是用来上传引导的。 我们上传一张引导,但什么提示词都不写,然后让 SD 根据引导重新生成一张图片。 此时,SD 会根据引导的颜色、构图重新生成一张新的,可以看到右边的的女孩样子不一样了,衣服也换了一件,背景也从晚上变成下午。但整体的构图和色调还是和原图比较接近的。

    80010编辑于 2024-05-22
  • 来自专栏vue的实战

    柱形平均线

    option = { color: ['#3398DB'], tooltip: { trigger: 'axis', axisPointer: { // 坐标轴指示器,坐标轴触发有效 type: 'shadow' // 默认为直线,可选为:'line' | 'shadow' } }, grid: { left: '3%', right:

    58130发布于 2020-03-20
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】

    三、 内容概要: 1、原理 2、基本流程 3、随机种子作用解析 1、原理 可以帮你把一张图片画成另一种模样。 在文生图中我们看到,AI文生是有一定的随机性的,画出来的东西不一定完全满足我们的需求。在现实生活里,这种对需求的传递偏差与错误解读其实也普遍存在。比如天天干架的产品经理和程序员、甲方客户与设计师。 2、的三个关键步骤 第一步:导入图片 第二步:书写提示词 第三步:参数调整 3、参数技术性解析 直接参考文生的提示题。 unclear eyes:1.331), lowers, bad hands, missing fingers, (((extra arms and legs))), 参数设置: 重绘幅度 表示绘制的和原图相差的比重

    1.1K30编辑于 2023-09-27
  • 来自专栏疯狂学习GIS

    黑白、彩色线稿地图装饰画中线条轮廓底图获取方法

    在OSM中选定绘图区域后,有两种获取地图素材的方式:一是直接通过网页截图,二是下载OSM数据后在GSI软件中进行更进一步的处理后成

    2.4K30编辑于 2022-04-11
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 engine 5 cinematic, masterpiece 如果我们将上面生成的图片上传到界面,并且调整生成图片的提示词如上,接着点击“生成按钮”,或者稍微调整下参数,触发图片重新生成: 即时的体验 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.1K10编辑于 2024-01-15
  • 来自专栏软件使用指南

    Vega Ai,免费的中文Ai绘画工具,效果超赞

    Vega Ai官网:https://rightbrain.art/Vega Ai有文生、条件、姿势等多种玩法。注册登录即可免费使用,不限次数。 二、1、上传图片后,可以用[画笔]涂抹想要编辑修改的地方,[橡皮]可以擦除画笔痕迹2、文本输入描述目标内容,同时调高编辑强度可以增大修改的强度,一般0.5即可。 三、条件条件控制有三种方式:分为线稿生成、动作捕捉以及区域构图条件输入有两种形式:条件图片(普通图片即可)、条件特征(线稿、姿态或者色块)使用“条件图片”,系统就根据选的“条件图片”生成“条件特征 ”去输入来生使用“条件特征”,系统直接使用用户上传的“条件特征”作为输入来生方便理解,举个例子,我们右侧配置“条件控制”选择“线稿生成”,如果选择“条件图片”,上传普通图像以后,系统会自动提取它的线稿 ,指引生成新的图像,你可以在条件特征里看到对应的线稿如果选择“条件特征”,那就需要自己上传线稿、姿态或者色块,系统直接根据条件特征生成新的图片Vega Ai的作图方法这里就不多介绍了,需要的可以去官网注册体验

    10.9K01编辑于 2023-06-22
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 0.1433868408203125 seconds Pipe took 0.13985347747802734 seconds Pipe took 0.13831496238708496 seconds 接下来,我们来尝试“ 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.5K10编辑于 2024-01-13
  • 来自专栏科研菌

    信代码:绘制热和火山

    引言:前面几期中,我们学习了如何下载TCGA数据、预处理和差异分析,那么今天我们继续来看看如何将利用差异分析的结果绘制热和火山。 六、绘制差异表达基因的热 TCGAvisualize_Heatmap()绘制热的主要用法:等号后面对应的为默认参数。 ,故小编在这里使用pheatmap()绘制热。 七、绘制差异差异表达分析结果的火山 TCGAVisualize_volcano()绘制火山的主要用法: TCGAVisualize_volcano(x, y, filename = "volcano.pdf 九、结语 今天的热和火山就暂告一段落。

    6K53发布于 2021-01-25
  • 元宝升级了!

    现在,一句话用元宝生成表情包组、四格漫画、人像写真、纪实摄影、设计配等,都更“懂你”了!元宝,从此细节更丰富、画质更细腻。打开元宝App,顶部切换至 「Hunyuan」 模型,即可开始创作。 不多说了,直接上图——❶表情包组还在四处收藏别人的表情包?不够用?现在,给元宝一句话指令,即可无限量生成专属表情包。风格统一,图文并茂。 提示词:画一张四宫格科普漫画描述阿基米德浮力定律,比例是1:1提示词:帮我画一张图片:用插画解释相对论,采用信息的形式,以爱因斯坦的形象进行详解,从上到下的布局四个插画,并配上简短的文字式说明,比例是 3:4提示词:生成一张四格治愈漫画:小狗忙着爱你提示词:帮我生成一组四宫格漫画:日本黑白热血漫风格,主题是一个正在学网球的少女❸图文设计文案有了,配没灵感? 白色背景,比例:16:9❺写实摄影想要一张配,还在全网找素材?一句话告诉元宝,就能生成一张细节满满的写实照片。美食、产品、人像都能精准还原。

    2.7K10编辑于 2025-10-10
  • 来自专栏关键帧Keyframe

    《Stable Diffusion 倚天剑术》第 6 卷:控制小姐姐身体姿势

    接着,在基于线稿和提示词来生成具有同样线稿结构的新,这样就实现了对新的控制。当我们把这样的能力用在画 AI 模特上时,就可以实现对小姐姐姿势的控制了。 的 Canny 模型生成线稿 先在 WebUI 中找到 『ControlNet 栏』,点击右边的三角按钮展开面板。 如下图: 根据 canny 线稿生成新 可以看到我这里的原图、Canny 线稿、生成的新对照如下,新姿势和原图保持了一致: <<< 左右滑动见更多 >>> 1.2、HED 边缘检测控制姿势 通过 HED 模型也可以对原始图片进行边缘检测,从而基于原始图片生成对应的线稿,但是边缘更柔和。 这样我们生成 HED 线稿来控制后续出的姿势,如图: 使用 ControlNet 的 HED 模型生成线稿 这里的原图、HED 线稿、新对照如下: <<< 左右滑动见更多 >>> 1.3

    1K30编辑于 2023-09-01
  • 来自专栏C/C++指南

    AIGC实战技巧分享

    引言 本文展示了 AIGC 相关的代码示例,包括安装与配置、数据处理以及请求等不同阶段的代码,清晰呈现了整个技术实现过程中代码层面的操作要点和逻辑 安装与配置代码 在使用 AIGC 进行时 以下是简单示意(实际情况中可能要根据具体的操作系统、显卡型号等做更多调整): import torch # 检查是否可以使用GPU,如果有可用GPU则将后续运算放在GPU上执行(以cuda为例),这样可以加速过程 请求代码 以下是实际发起请求的代码示例以及相关参数意义和返回结果处理方式的说明。 StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5") # 将模型移动到GPU上运行(如果有可用GPU且配置正确),加速过程 pipe(prompt).images[0] 这部分是发起请求并获取生成的图像,pipe 就是之前加载好并配置好的模型对象,调用它并传入 prompt 就会触发模型根据提示词进行图像生成,返回的结果中

    36910编辑于 2025-01-08
  • 来自专栏wayn的程序开发

    FastAPI开发AI应用教程七:新增文生功能

    本文将深入讲解如何在 FastAPI AI 聊天应用中实现文生功能,重点介绍豆包 Seedream 4.0 图像生成模型的强大能力。 通过本教程,你将学会如何构建完整的 AI 图像生成系统,包括文生等图像输出核心技术。 项目概述 想象一下,当你向 AI 描述一个场景时,AI 能够立即为你生成对应的高质量图像;当你上传一张图片时,AI 能够基于你的描述对图片进行创意改造——这就是我们要实现的文生功能! 能力特性 业界首款 4K 多模态:Seedream 4.0 是业界首款支持 4K 分辨率的多模态图像生成模型,能够灵活处理文本、图像的组合输入,实现多融合创作、参考生、组合、图像编辑等核心功能 '文生' : ''}

    <

57310编辑于 2025-11-13
领券