首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Nano Banana Pro AI批量视频实战,附APi平台0.15张

    以前找个美工折腾半天的产品、文案配,现在输入几句话就能生成,质量和速度都远超预期。 不过实际用起来就会发现,AI最大的问题就是不确定性。 后来我发现了两个互相配合的神器:一个Ai批量/视频网站,加上一个提供便宜低价sora-image(Gpt4o),Nano banana,Veo3.1,Gemini,flux...Ai大模型的API的聚合平台 这个组合彻底解决了我的痛点——现在可以同时提交几十个/视频任务,生成的图片/视频平铺展示任我挑选,成本还特别可控。 一、Image.GRSAI.com:Ai批量工具 Github开源资源:github.com/31702160136/grsai-gpt-image 这是在GitHub上发现的Ai大模型刷工具,一开始只支持 ——0.022/张(图像) NanoBanana pro——0.15/张(图像) Veo3.1-Fast—— 0.4/条(视频) Veo3.1-Pro——2/条(视频) 结语 以上就是我个人目前在用的批量方案

    90200编辑于 2025-11-22
  • 来自专栏前端数据可视化

    『SD』基础讲解

    点赞 + 关注 + 收藏 = 学会了 基础用法 文生比较好理解,就是输入文字生成图片。 那又是啥? SD 允许我们上传一张图片作为底图,这张底图又称为“引导”,然后再搭配提示词生成一张新的图片。 引导主要影响最终要生成图片的颜色和构图,而提示词和文生的提示词一样,这里就不过多讲述了。 的界面入口在 img2img 。 这个界面下方也有一个 img2img 标签页,这个标签页就是用来上传引导的。 我们上传一张引导,但什么提示词都不写,然后让 SD 根据引导重新生成一张图片。 此时,SD 会根据引导的颜色、构图重新生成一张新的,可以看到右边的的女孩样子不一样了,衣服也换了一件,背景也从晚上变成下午。但整体的构图和色调还是和原图比较接近的。

    80010编辑于 2024-05-22
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】

    三、 内容概要: 1、原理 2、基本流程 3、随机种子作用解析 1、原理 可以帮你把一张图片画成另一种模样。 在文生图中我们看到,AI文生是有一定的随机性的,画出来的东西不一定完全满足我们的需求。在现实生活里,这种对需求的传递偏差与错误解读其实也普遍存在。比如天天干架的产品经理和程序员、甲方客户与设计师。 2、的三个关键步骤 第一步:导入图片 第二步:书写提示词 第三步:参数调整 3、参数技术性解析 直接参考文生的提示题。 unclear eyes:1.331), lowers, bad hands, missing fingers, (((extra arms and legs))), 参数设置: 重绘幅度 表示绘制的和原图相差的比重

    1.1K30编辑于 2023-09-27
  • 来自专栏数据挖掘

    python批量制作雷达

    老板要画雷达,但是数据好多组怎么办?不能一个一个点excel去画吧,那么可以利用python进行批量制作,得到样式如下: ? , font) 制作雷达: 1 #设置雷达各个顶点的名称 2 labels = np.array(info_first) 3 #数据个数 4 data_len "商品货号:" + str(info_id[i]), va='bottom', fontproperties="SimHei") 18 ax.set_rlim(3.8,5)# 设置雷达的范围 , k + 1, info_first[k], font) 71 # 写入最后一列标签 72 worksheet.write(0, len(info_first) + 1, '雷达' 商品货号:" + str(info_id[i]), va='bottom', fontproperties="SimHei") 94 ax.set_rlim(3.8, 5) # 设置雷达的范围

    2K30发布于 2019-07-02
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 engine 5 cinematic, masterpiece 如果我们将上面生成的图片上传到界面,并且调整生成图片的提示词如上,接着点击“生成按钮”,或者稍微调整下参数,触发图片重新生成: 即时的体验 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.1K10编辑于 2024-01-15
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 0.1433868408203125 seconds Pipe took 0.13985347747802734 seconds Pipe took 0.13831496238708496 seconds 接下来,我们来尝试“ 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.5K10编辑于 2024-01-13
  • 来自专栏科研菌

    信代码:绘制热和火山

    引言:前面几期中,我们学习了如何下载TCGA数据、预处理和差异分析,那么今天我们继续来看看如何将利用差异分析的结果绘制热和火山。 六、绘制差异表达基因的热 TCGAvisualize_Heatmap()绘制热的主要用法:等号后面对应的为默认参数。 ,故小编在这里使用pheatmap()绘制热。 七、绘制差异差异表达分析结果的火山 TCGAVisualize_volcano()绘制火山的主要用法: TCGAVisualize_volcano(x, y, filename = "volcano.pdf 九、结语 今天的热和火山就暂告一段落。

    6K53发布于 2021-01-25
  • 元宝升级了!

    现在,一句话用元宝生成表情包组、四格漫画、人像写真、纪实摄影、设计配等,都更“懂你”了!元宝,从此细节更丰富、画质更细腻。打开元宝App,顶部切换至 「Hunyuan」 模型,即可开始创作。 不多说了,直接上图——❶表情包组还在四处收藏别人的表情包?不够用?现在,给元宝一句话指令,即可无限量生成专属表情包。风格统一,图文并茂。 提示词:画一张四宫格科普漫画描述阿基米德浮力定律,比例是1:1提示词:帮我画一张图片:用插画解释相对论,采用信息的形式,以爱因斯坦的形象进行详解,从上到下的布局四个插画,并配上简短的文字式说明,比例是 3:4提示词:生成一张四格治愈漫画:小狗忙着爱你提示词:帮我生成一组四宫格漫画:日本黑白热血漫风格,主题是一个正在学网球的少女❸图文设计文案有了,配没灵感? 白色背景,比例:16:9❺写实摄影想要一张配,还在全网找素材?一句话告诉元宝,就能生成一张细节满满的写实照片。美食、产品、人像都能精准还原。

    2.6K10编辑于 2025-10-10
  • 来自专栏C/C++指南

    AIGC实战技巧分享

    引言 本文展示了 AIGC 相关的代码示例,包括安装与配置、数据处理以及请求等不同阶段的代码,清晰呈现了整个技术实现过程中代码层面的操作要点和逻辑 安装与配置代码 在使用 AIGC 进行时 以下是简单示意(实际情况中可能要根据具体的操作系统、显卡型号等做更多调整): import torch # 检查是否可以使用GPU,如果有可用GPU则将后续运算放在GPU上执行(以cuda为例),这样可以加速过程 请求代码 以下是实际发起请求的代码示例以及相关参数意义和返回结果处理方式的说明。 StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5") # 将模型移动到GPU上运行(如果有可用GPU且配置正确),加速过程 pipe(prompt).images[0] 这部分是发起请求并获取生成的图像,pipe 就是之前加载好并配置好的模型对象,调用它并传入 prompt 就会触发模型根据提示词进行图像生成,返回的结果中

    36910编辑于 2025-01-08
  • 来自专栏wayn的程序开发

    FastAPI开发AI应用教程七:新增文生功能

    本文将深入讲解如何在 FastAPI AI 聊天应用中实现文生功能,重点介绍豆包 Seedream 4.0 图像生成模型的强大能力。 通过本教程,你将学会如何构建完整的 AI 图像生成系统,包括文生等图像输出核心技术。 项目概述 想象一下,当你向 AI 描述一个场景时,AI 能够立即为你生成对应的高质量图像;当你上传一张图片时,AI 能够基于你的描述对图片进行创意改造——这就是我们要实现的文生功能! 能力特性 业界首款 4K 多模态:Seedream 4.0 是业界首款支持 4K 分辨率的多模态图像生成模型,能够灵活处理文本、图像的组合输入,实现多融合创作、参考生、组合、图像编辑等核心功能 '文生' : ''}

    <

57310编辑于 2025-11-13
  • 来自专栏生信识图

    信识图 之 点基础

    -----以下是日常碎碎念,日理万机的您,可以直接跳到分割线享用----- 大Y老师做信分析十多年了,在此期间结识很多实验大牛,发现大牛们做实验很大牛,但是对很多信的图表竟然一知(Wu)半( 为什么这么说呢,依据大Y老师的经验,做信其实是分为三个层次的: 层次一:看懂(能看懂文献的分析结果) 层次二:会做(会写代码,能完成别人的画图需求) 层次三:知道做什么(知道自己的数据需要用什么来展示 其实,如果不打算专门做信专业,完全可以跳过第二层次,直接跃迁到第三层!毕竟做实验很厉害就已经很厉害了呀。 那么问题来了,怎样实现从看懂到知道做什么的跃迁呢? 请大家先一起喝一口水,因为下面的内容可是全网独家干货,真的超干~ -----我是的分割线----- 信分析有很多基础的图形,在此基础上又发展出很多复杂花哨的变形或组合,酷炫得让人眼花缭乱。 补充元素不是成所必须的,但是可以提供额外的信息量,在每张图里可以有不同的存在方式。所以一张小小的点可以承载的信息量可是大大的。那么,点可以变身出哪些花哨绚丽的信图形呢?

    69650编辑于 2022-07-24
  • 来自专栏Chris生命科学小站五年归档

    信干货~SRA下载后批量处理Counts文件

    新起点 国自然终于都交完了~开始更新生信干货教程~~~ 在这之前先看下面的教程 总结 从零到壹:10元转录组分析小结~干货~ 然后,重点看批量处理数据的技巧~从零到壹:10元转录组分析 从零到壹:10

    98810编辑于 2023-02-12
  • 来自专栏科研菌

    信代码:“热”来袭(pheatmap)

    可以聚合大量的数据,并可以用一种渐进色来优雅地表现,可以很直观地展现数据的疏密程度或频率高低。 本文利用R语言 pheatmap 包从头开始绘制各种漂亮的热。 参数像积木,拼凑出你最喜欢的热即可,如下图: 基因和样本都可以单独聚类,排序,聚类再分组,行列注释,配色调整,调整聚类线以及单元格的宽度和高度均可实现。 ? 绘制热 绘制默认热 pheatmap(test) ? 设定 text 热图中展示数值 # display_numbers = TRUE参数设定在每个热格子中显示相应的数值,#number_color参数设置数值字体的颜色 pheatmap(test, order_row = A$tree_row$order #记录热的列排序 order_col = A$tree_col$order # 按照热的顺序,重新排原始数据 result =

    8.5K32发布于 2020-12-28
  • 来自专栏AI科技评论

    乱哗:AI 横扫初级设计狮

    几乎支持所有语言的理解,只要使用清晰详尽的描述就能生成比较符合预期的: 在“说人话”之后,看的就是 DALL·E 3 的绘图技术了,虽然输出的图片成品本身并不是目前“AI领域最高质量的作品”。 目前Midjourney是全球范围内最具实用价值的AI工具,但操作门槛和直接付费成本也相对较高。 通过Dreamina生成的作品可以进行二次创作,包括局部的重绘和AI扩。 官方网址:https://www.tiangong.cn/chat/text_gen_image/004 可以理解多种语义,比如九宫格 完全免费 模型被养好图片大多数符合常规审美上的好看 天工的AI基于自然语义的理解 https://www.stablediffusion.com (没有必要去访问) 团队在刚刚也就是2024年4月底有解散危机 可部署在本地电脑、需要一定的软件技术能力 成本取决于你在硬件设备上的投入 AI开源技术的代表

    53210编辑于 2024-04-26
  • 来自专栏小游戏开发

    AI智能技术的未来趋势

    这些技术的不断发展,使得AI智能技术在各个领域得到了广泛的应用和推广。 目前,越来越多的用户开始使用AI智能技术。尤其是在设计和创意领域,AI智能已经成为设计师和创意人员的重要工具之一。 AI智能可以生成高度逼真的游戏场景和角色模型,提高游戏的画面效果和用户体验。在影视制作中,AI智能可以帮助制片人快速生成特效场景和虚拟角色,提高影片的视觉效果。 这将使得AI智能技术在各个领域得到更加广泛的应用。 2、多样化和个性化 AI智能技术将会变得更加多样化和个性化。 3、实时性和交互性 AI智能技术将会变得更加实时和交互。随着互联网技术和计算机技术的不断发展,人们可以通过网络和移动设备访问和使用AI智能技术。 例如,AI智能可以结合虚拟现实技术,生成高度逼真的虚拟场景和角色;AI智能可以结合语音技术,根据用户的语音指令生成相应的图像;AI智能可以结合区块链技术,保证图像的版权和数据安全。

    1.3K20编辑于 2023-03-22
  • 解锁0.09张香蕉2批量全流程

    设计师们,你们用的画图工具是不是生成一张要几分钟,想批量生成还有数量限制? 工作效率实在低。企业开发们,你们调用的APi聚合平台是不是动不动就崩溃、超时还有并发限制? 本文将深入浅出地讲解并发调用的核心原理,并为你提供一个开箱即用的批量工具,助你全面掌握Sora2、Nano banana pro、GPT-Image 1.5等主流模型的批量创作秘籍。 二、批量生成站:image.grsai.ai(需要魔法,没有则com改成ai)普通用户可以直接使用平台提供的现成批量工具,另外开发也可以通过github的开源项目查看代码结构学习怎么实现并发调用 Api 3.批量提交任务:在界面中选择模型(支持Sora2、Nano Banana Pro、gpt image 1.5、Veo等视频画图模型),上传图片,选择图片尺寸,在文本框内输入提示词(例如:根据参考生成一张上衣正面整体展示 # ==================== 实战用例:亚马逊电商套生成 ====================async def main():    """实战案例:为智能咖啡杯生成亚马逊产品套

    33700编辑于 2026-03-05
  • 来自专栏AI

    探索 Kroki:代码的宝藏网站

    无论是简单的流程还是复杂的 UML ,Kroki 都能在短时间内给出令人满意的结果。三、使用方法Kroki 支持两种请求方式:GET 和 POST。 https://kroki.io/plantuml/svg四、应用场景(一)软件开发在软件开发过程中,Kroki 可以帮助开发者快速生成各种类型的图表,如 UML 、流程、时序等,用于软件设计、架构文档编写和代码注释 例如,在计算机科学、软件工程、数学等课程中,教师可以使用 Kroki 生成各种图表,如算法流程、数据结构示意图等,让学生更容易掌握知识点。 五、总结Kroki 是一个功能强大、简单易用的代码工具,它为我们提供了一种全新的图表生成方式。 相信在未来,Kroki 会在更多的领域发挥重要作用,成为代码领域的佼佼者。

    75200编辑于 2025-06-07
  • 来自专栏OneCode 低代码

    OneCode 3.0 代码与码双向转换技术深度分析

    OneCode 平台的代码技术通过 OneCode IDE 实现了设计与开发的无缝衔接,彻底改变了这一局面。 4.3 智能制造领域应用 在智能制造领域,OneCode 代码技术也展现出了独特的价值。 六、未来发展趋势预测 6.1 AI 增强的代码技术 未来 OneCode 代码技术将引入更强大的 AI 能力,实现: 智能组件推荐:基于业务需求和上下文,AI 可以自动推荐合适的组件和布局方式, 7.3 未来展望 OneCode 代码及码双向转换技术代表了软件开发的未来趋势,有望成为主流的开发方式之一。 #代码 #低代码开发 #OneCode 框架 #双向转换技术 #软件开发趋势

    29410编辑于 2025-07-19
  • 来自专栏人工智能极简应用

    【人工智能】Transformers之Pipeline(八):文生(text-to-imageimage-to-image)

    共计覆盖32万个模型 今天介绍CV计算机视觉的第四篇,文生/(text-to-image/image-to-image)。 transformers的pipeline只有(image-to-image),没有(text-to-image),在实际应用中,文生更加主流,通常先进行文生,再进行。 所以本篇文章重点介绍文生,附带进行的讲解。本篇也未使用transformers的pipeline,而是使用DiffusionPipeline,目前主流的文生方法。 二、文生/(text-to-image/image-to-image) 2.1 文生 输入提示词,模型理解提示词,生成图片。 2.2 图像处理与增强,通过给定的提示词,对源图像进行加工与处理,使其满足清晰度、定制等需求。 2.3 技术原理 我们以Stable Diffusion为例,讲讲文生/的原理。

    1.4K11编辑于 2024-08-13
  • 来自专栏C/C++指南

    探索 AIGC :原理、案例与代码示例

    其中,AIGC 技术作为一颗璀璨的明星,正逐渐改变着我们对于图像创作与生成的传统认知。从艺术设计到商业广告,从影视特效到游戏开发,AIGC 技术都展现出了其独特的魅力与巨大的潜力。 本文将深入剖析 AIGC 的技术原理,通过详细的代码示例揭示其背后的技术奥秘,并展示一系列丰富多样的应用案例,带领读者全面领略 AIGC 技术所构建的奇妙视觉世界,探寻其如何在各个领域中掀起创新变革的浪潮 一、AIGC 技术原理 AIGC 主要基于深度学习和生成式模型,特别是生成对抗网络(GAN)和扩散模型(Diffusion Model)等先进技术。 将初稿中的钻石放进 Stable Diffusion 功能,输入关键词,重复幅度调到 5 以下,反复多批量产出后筛选出想要的结果,通过 Stable Diffusion 生成更有质感和高级感的设计主体元素 接着把衣服素材抠后叠到选好的模特图上,上传初步融合的模特,通过垫 + 关键词的方法批量生成模特。最后挑选合适的模特进行后期微调排版,完成海报。

    1.5K10编辑于 2025-01-02
  • 领券