首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Nano Banana Pro AI批量视频实战,附APi平台0.15张

    以前找个美工折腾半天的产品、文案配,现在输入几句话就能生成,质量和速度都远超预期。 不过实际用起来就会发现,AI最大的问题就是不确定性。 后来我发现了两个互相配合的神器:一个Ai批量/视频网站,加上一个提供便宜低价sora-image(Gpt4o),Nano banana,Veo3.1,Gemini,flux...Ai大模型的API的聚合平台 一、Image.GRSAI.com:Ai批量工具 Github开源资源:github.com/31702160136/grsai-gpt-image 这是在GitHub上发现的Ai大模型刷工具,一开始只支持 Gpt4o现在开放了多款模型,支持图片/视频生成,对于需要频繁生成营销图片、产品预览、 产品营销视频和内容配的用户或商家来说,一个简洁、无干扰、支持批量操作的生成工具至关重要。 ——0.022/张(图像) NanoBanana pro——0.15/张(图像) Veo3.1-Fast—— 0.4/条(视频) Veo3.1-Pro——2/条(视频) 结语 以上就是我个人目前在用的批量方案

    1.1K00编辑于 2025-11-22
  • 来自专栏前端数据可视化

    『SD』基础讲解

    点赞 + 关注 + 收藏 = 学会了 基础用法 文生比较好理解,就是输入文字生成图片。 那又是啥? SD 允许我们上传一张图片作为底图,这张底图又称为“引导”,然后再搭配提示词生成一张新的图片。 引导主要影响最终要生成图片的颜色和构图,而提示词和文生的提示词一样,这里就不过多讲述了。 的界面入口在 img2img 。 这个界面下方也有一个 img2img 标签页,这个标签页就是用来上传引导的。 我们上传一张引导,但什么提示词都不写,然后让 SD 根据引导重新生成一张图片。 此时,SD 会根据引导的颜色、构图重新生成一张新的,可以看到右边的的女孩样子不一样了,衣服也换了一件,背景也从晚上变成下午。但整体的构图和色调还是和原图比较接近的。

    82310编辑于 2024-05-22
  • 来自专栏新智元

    GPT-4未解禁?CMU华人博士新作,大模型GILL能能检索,人人可玩

    GPT-4多模态能力恐怕是要再等等了。 近日,来自CMU的研究人员全新提出了一种多模态模型GILL。 值得一提的是,通过嵌入空间之间的映射,CMU团队将冻结的大模型,与预训练的文生模型相结合。 目前,研究只使用4个视觉向量来表示每个输入图像(由于计算限制),这可能无法捕获下游任务所需的所有相关视觉信息。 作者介绍 Jing Yu Koh Jing Yu Koh是CMU机器学习系的二年级博士,导师是Daniel Fried和Ruslan Salakhutdinov。

    47720编辑于 2023-09-09
  • 来自专栏深度学习与数据挖掘实战

    【社交挖掘】wikipedia数据批量导入neo4j

    代码是java编写,包括:wikipedia数据库的数据抽取解析、关系的提取、节点数据&关系数据导入neo4j的流程。 文章链接: https://maxdemarzi.com/2012/02/16/importing-wikipedia-into-neo4j-with-graphipedia/ Github代码 https://github.com/mirkonasato/graphipedia 补充: 1、neo4j 很好的入门案例 http://www.cnblogs.com/starcrm/p/5033117 .html 2、Wikipedia in Python, Gephi&Neo4j http://www.yseam.com/blog/WP.html

    1.5K20发布于 2018-11-21
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】

    三、 内容概要: 1、原理 2、基本流程 3、随机种子作用解析 1、原理 可以帮你把一张图片画成另一种模样。 在文生图中我们看到,AI文生是有一定的随机性的,画出来的东西不一定完全满足我们的需求。在现实生活里,这种对需求的传递偏差与错误解读其实也普遍存在。比如天天干架的产品经理和程序员、甲方客户与设计师。 2、的三个关键步骤 第一步:导入图片 第二步:书写提示词 第三步:参数调整 3、参数技术性解析 直接参考文生的提示题。 unclear eyes:1.331), lowers, bad hands, missing fingers, (((extra arms and legs))), 参数设置: 重绘幅度 表示绘制的和原图相差的比重 4、随机种子的含义研究 AI生成画面是随机的,但它的每一次生成都有自己的一套描绘方式,而这个描绘方式,就会被记录成一组随机数,这个东西,我们就把它叫做一个随机种子。

    1.1K30编辑于 2023-09-27
  • 来自专栏数据挖掘

    python批量制作雷达

    老板要画雷达,但是数据好多组怎么办?不能一个一个点excel去画吧,那么可以利用python进行批量制作,得到样式如下: ? 首先制作一个演示的excel,评分为excel随机数生成: 1 =INT((RAND()+4)*10)/10  加入标签等得到的excel样式如下(部分,共计32行): ?   , font) 制作雷达: 1 #设置雷达各个顶点的名称 2 labels = np.array(info_first) 3 #数据个数 4 data_len "商品货号:" + str(info_id[i]), va='bottom', fontproperties="SimHei") 18 ax.set_rlim(3.8,5)# 设置雷达的范围 , k + 1, info_first[k], font) 71 # 写入最后一列标签 72 worksheet.write(0, len(info_first) + 1, '雷达'

    2K30发布于 2019-07-02
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 engine 5 cinematic, masterpiece 如果我们将上面生成的图片上传到界面,并且调整生成图片的提示词如上,接着点击“生成按钮”,或者稍微调整下参数,触发图片重新生成: 即时的体验 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.2K10编辑于 2024-01-15
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 省略其他准备工作 # 初始化和文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained float = 0.7, guidance: float = 0.0, steps: int = 2, seed: int = 42, ): # 如果输入包含图片,那么使用 0.1433868408203125 seconds Pipe took 0.13985347747802734 seconds Pipe took 0.13831496238708496 seconds 接下来,我们来尝试“ 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.5K10编辑于 2024-01-13
  • 来自专栏Java项目实战

    AI绘画专栏之statble diffusion SDXL 1.0 4种方式stable diffusion无需提示词文生 | (31)

    在日常出过程中,根据提示词出是我们AI出的日常,我们为了出现一张想象的图片需要不断的修改提示词,但总有灵感枯竭的时候,出了大部分一样风格的就要求越来越高,但现在,无需提示词,随机出现一张,一共4 提示词工具随机提示词One Button prompt安装插件One Button prompthttps://pan.quark.cn/s/3d5a5fd9aafa填写主题类型3.出选择主题类型描述 octane render (OC渲染)digital art (数字艺术)concept art (概念艺术)painting (画作)portrait (肖像)anime key visual (动漫主视觉/

    1.4K30编辑于 2023-11-15
  • 来自专栏科研菌

    信代码:绘制热和火山

    引言:前面几期中,我们学习了如何下载TCGA数据、预处理和差异分析,那么今天我们继续来看看如何将利用差异分析的结果绘制热和火山。 六、绘制差异表达基因的热 TCGAvisualize_Heatmap()绘制热的主要用法:等号后面对应的为默认参数。 ,故小编在这里使用pheatmap()绘制热。 0, y.cut = 0.01, height = 5, width = 10, highlight = NULL, highlight.color = "orange", names.size = 4, 九、结语 今天的热和火山就暂告一段落。

    6K53发布于 2021-01-25
  • 全球视频AI模型排名出炉!Seedance 1.0夺冠,Gen4垫底

    这些场景因多模态视频技术的发展,正在一步步变成现实。视频 AI 模型正以前所未有的速度突破静态图像的边界,赋予其动态的生命力与叙事能力。 AGI-Eval 评测社区对 Vidu Q1、Kling 2.0、PixVerse V4、Gen-4、Video-01等十大视频模型进行了测评。评测主要考察模型依据输入图片生成动态视频的能力。 ,为你拆解视频技术的“现在进行时”。 ,而 Pika 2.2、Gen4 这类海外模型则遗憾垫底,国产视频技术已实现从“跟跑”到“领跑”的跨越。 从这场多模态视频的评测结果可见,国产视频模型展现出了显著的技术优势,整体表现已超越海外模型,引领着该领域的发展。

    2.8K10编辑于 2025-07-22
  • 来自专栏云探索

    探索ChatGPT-4o的能力:开启图像生成的新时代

    一、ChatGPT - 4o能力的基本原理ChatGPT - 4o的能力主要基于先进的深度学习模型,尤其是生成对抗网络(GAN)和扩散模型(Diffusion Model)的相关技术。 二、高度的创意灵活性ChatGPT - 4o的能力令人惊叹的一点在于其高度的创意灵活性。无论是超现实的科幻场景、奇幻的神话故事画面,还是日常生活中独特的瞬间捕捉,它都能应对自如。 例如,室内设计师可以通过输入房间布局和风格要求,快速获取多种装修风格的室内外效果,以便更好地与客户沟通设计方案。教育领域在教育场景中,ChatGPT - 4o的能力可以用于辅助教学。 六、面临的挑战与未来展望尽管ChatGPT - 4o的能力已经相当强大,但仍然面临一些挑战。 未来,我们可以预见ChatGPT - 4o的能力会得到进一步提升,图像的质量会更高,生成的准确性和灵活性也会更强。

    70000编辑于 2025-04-02
  • 元宝升级了!

    现在,一句话用元宝生成表情包组、四格漫画、人像写真、纪实摄影、设计配等,都更“懂你”了!元宝,从此细节更丰富、画质更细腻。打开元宝App,顶部切换至 「Hunyuan」 模型,即可开始创作。 不多说了,直接上图——❶表情包组还在四处收藏别人的表情包?不够用?现在,给元宝一句话指令,即可无限量生成专属表情包。风格统一,图文并茂。 3:4提示词:生成一张四格治愈漫画:小狗忙着爱你提示词:帮我生成一组四宫格漫画:日本黑白热血漫风格,主题是一个正在学网球的少女❸图文设计文案有了,配没灵感? 提示词:帮我画一张图片:在纸上写出详细解题过程:解方程组2x+3y=7,x+2y=3,比例是3:4❹模型三视图建模成本太高、太费时间? 细腻刻画孩子的肌肤质感与小猫的根根分明毛发,室内柔光,氛围温馨,风格是人像写真,比例是3:4提示词:帮我画一张图片:亲密而略带忧郁的电影感氛围,温暖柔光,突出面部光影。

    3.5K10编辑于 2025-10-10
  • 来自专栏用户10800790的专栏

    信星球 Day 4 —— 橙子🍊

    color='blue', size=2, shape=16, alpha=0.8)图片映射:按data.frame的某一列值来定义对应的某属性

    32630编辑于 2023-10-24
  • 信星球——信入门DAY4:R语言

    rnorm(n,mean,sd)函数用于从具有特定均值和标准差的正态分布生成n个随机值。

    39910编辑于 2024-01-21
  • 来自专栏C/C++指南

    AIGC实战技巧分享

    引言 本文展示了 AIGC 相关的代码示例,包括安装与配置、数据处理以及请求等不同阶段的代码,清晰呈现了整个技术实现过程中代码层面的操作要点和逻辑 安装与配置代码 在使用 AIGC 进行时 以下是简单示意(实际情况中可能要根据具体的操作系统、显卡型号等做更多调整): import torch # 检查是否可以使用GPU,如果有可用GPU则将后续运算放在GPU上执行(以cuda为例),这样可以加速过程 请求代码 以下是实际发起请求的代码示例以及相关参数意义和返回结果处理方式的说明。 StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5") # 将模型移动到GPU上运行(如果有可用GPU且配置正确),加速过程 pipe(prompt).images[0] 这部分是发起请求并获取生成的图像,pipe 就是之前加载好并配置好的模型对象,调用它并传入 prompt 就会触发模型根据提示词进行图像生成,返回的结果中

    37910编辑于 2025-01-08
  • 来自专栏wayn的程序开发

    FastAPI开发AI应用教程七:新增文生功能

    本文将深入讲解如何在 FastAPI AI 聊天应用中实现文生功能,重点介绍豆包 Seedream 4.0 图像生成模型的强大能力。 通过本教程,你将学会如何构建完整的 AI 图像生成系统,包括文生等图像输出核心技术。 项目概述 想象一下,当你向 AI 描述一个场景时,AI 能够立即为你生成对应的高质量图像;当你上传一张图片时,AI 能够基于你的描述对图片进行创意改造——这就是我们要实现的文生功能! (支持 4K 多模态) 图片处理:Pillow(Python 图像处理库) 数据编码:Base64(图片数据传输编码) 前端交互:HTML5 File API + JavaScript(图片上传和预览 能力特性 业界首款 4K 多模态:Seedream 4.0 是业界首款支持 4K 分辨率的多模态图像生成模型,能够灵活处理文本、图像的组合输入,实现多融合创作、参考生、组合、图像编辑等核心功能

    63410编辑于 2025-11-13
  • 来自专栏Chris生命科学小站五年归档

    信干货~SRA下载后批量处理Counts文件

    新起点 国自然终于都交完了~开始更新生信干货教程~~~ 在这之前先看下面的教程 总结 从零到壹:10元转录组分析小结~干货~ 然后,重点看批量处理数据的技巧~从零到壹:10元转录组分析 从零到壹:10 得到每个基因的Counts数之后,你需要将这些不同文件中的提取出来,以制备DEseq2所需要的原始文件,组数少的情况下很好吧,看好第几列、第几行,用R语言按照下面的命令就可以x<-Counts[-(1:4) ,2] #去掉的1到4行,选取第2列然后用cbind把所有x并在一起就OK了。 Reverse)测序 “啥是链特异性,需要解释的留言” 用下面这组命令 library(stringr) library(dplyr) fall <- dir() data.out<-df.use[1:4, (fnow) df.use <- data.frame(v1 = df.read$V1,v4=df.read$V4) str_c<-str_c('SRR',str) colnames(df.use)<-

    1K10编辑于 2023-02-12
  • 来自专栏生信识图

    信识图 之 点基础

    -----以下是日常碎碎念,日理万机的您,可以直接跳到分割线享用----- 大Y老师做信分析十多年了,在此期间结识很多实验大牛,发现大牛们做实验很大牛,但是对很多信的图表竟然一知(Wu)半( 为什么这么说呢,依据大Y老师的经验,做信其实是分为三个层次的: 层次一:看懂(能看懂文献的分析结果) 层次二:会做(会写代码,能完成别人的画图需求) 层次三:知道做什么(知道自己的数据需要用什么来展示 请大家先一起喝一口水,因为下面的内容可是全网独家干货,真的超干~ -----我是的分割线----- 信分析有很多基础的图形,在此基础上又发展出很多复杂花哨的变形或组合,酷炫得让人眼花缭乱。 这张的目的在于展示RNA的实际富集比值,让我们一眼就看到,啊,前几个snRNA的富集比值好高呀,都在256左右,后面的Ribo RNA的富集比值就低了许多,只有4左右。 2. 补充元素不是成所必须的,但是可以提供额外的信息量,在每张图里可以有不同的存在方式。所以一张小小的点可以承载的信息量可是大大的。那么,点可以变身出哪些花哨绚丽的信图形呢?

    70850编辑于 2022-07-24
  • 来自专栏科研菌

    信代码:“热”来袭(pheatmap)

    可以聚合大量的数据,并可以用一种渐进色来优雅地表现,可以很直观地展现数据的疏密程度或频率高低。 本文利用R语言 pheatmap 包从头开始绘制各种漂亮的热。 10, 2)] = test[11:20, seq(2, 10, 2)] + 2 test[15:20, seq(2, 10, 2)] = test[15:20, seq(2, 10, 2)] + 4 绘制热 绘制默认热 pheatmap(test) ? legend_labels = c("0", "1e-4", "1e-3", "1e-2", "1e-1", "1")) ? , sep = "") annotation_row = data.frame( GeneClass = factor(rep(c("Path1", "Path2", "Path3"), c(10, 4,

    8.5K32发布于 2020-12-28
领券