首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏muller的测试分享

    文生大模型

    Dall-E 3 的增强相比较 Dall-E 2 的图像生成,Dall-E 3 对图像的增强有以下几个方面:提示优化:详细的提示会带来更为准确的图片结果。 os.path.join("img_" + datetime.datetime.now().strftime("%Y%m%d%H%M%S") + ".png")def test_image_normal(): # 文生 generate_image_path(), 'wb') as f: f.write(image_response.content)增加图像生成的条件def test_image_style(): # 文生 print(f"生成的第{i}张图片地址是:{image.url}")修改图像下载 img1.png 下载 img2.pngdef test_change_image(): # 将1 根据提示在2的标记上进行修改 response = client.images.edit( model="dall-e-2", image=open("img1.png

    62310编辑于 2024-11-07
  • 来自专栏Java项目实战

    New Stability AI 最新的3文生模型

    ,当时确实SD3是非常能打的,参数量也是当时最大的,但是奈何生不逢时,FLUX把风头都抢光了,一直说要对标MJ,最终还是被黑森林拉下神坛。 Generate with Style”、“Fast Upscaler”、“Reinvent”和“Batch”工具,以简化创意工作流程 Stability AI 最新的文本到图像模型 首先这次一共推出了三种文生模型 正因如此,SD3 Ultra 才能够准确生成特定的文本、物体和光照条件。 的模型可用于生成高品质的概念艺术和产品渲染,也可用于创建视觉效果惊艳的广告牌和印刷广告。 此图像是使用 SD3 Large 生成的,提示词为:白色和青绿色运动鞋的专业 3D 渲染、居中漂浮、悬停、浮动、高品质、逼真 模型版本对比 如何使用?

    35810编辑于 2024-10-08
  • 来自专栏刘旷专栏

    文生文生视频,AI行业卷疯了

    只需要在该软件的视频输入框内输入“马斯克穿着太空服,3D动画”的关键词,一个身穿太空服的卡通马斯克便能跃然于屏上。 近几年,随着AIGC赋能多业态应用的加速落地,整个行业的热潮,已经逐渐从文生文、文生,转向了文生视频领域。 作为文生文、文生的升级,文生视频对算力以及模型的工程化能力要求更高。据了解,文生视频的人工智能模型参数为10亿级别至100亿级别。 文生文生视频的人工智能模型在底层技术框架上有着较高的相似性,一定程度上来说,文生视频可以看作是文生的进阶版技术,这也就意味着,文生的技术和经验可供文生视频加以运用和参考。 而众所周知,字节跳动、阿里、百度等玩家早已在文生领域有所深耕,甚至有的产品也已投入商用,凭借在文生技术上的积淀,其在文生视频领域也有望实现大幅进步。

    70710编辑于 2023-12-26
  • 来自专栏前端数据可视化

    『SD』文生基础讲解

    本文将以初学者的角度,逐步讲解 SD 的文生功能,让你轻松上手 SD 的文生。 在此之前,你需要先安装好 SD WebUI。 什么是文生文生就是文生,字面意思。就是将文本提示词的内容转换成图片。 小学写的作文经常出现“看图写作”,现在使用 SD 就是先写作,然后让 AI 去画图。 反过来了~ 在 SD WebUI 中,txt2img 就是文生的功能面板。 提示词(正向和反向) 在 txt2img 下方有2个输入框: Prompt 是输入正向提示词的地方。第一个输入框。 具体的使用方法我在 《『SD』文生-如何生成高分辨率图片?》 里有讲解。 Refiner 精炼器 Refiner 精炼器的作用是可以允许你用2个模型生成一张图片。 此时再生成一张图片就会以8:2的比例结合A和B去生成新。 关于 SD WebUI 文生的基础功能讲解就到这了。

    1K10编辑于 2024-06-11
  • 来自专栏前端必修课

    DeepSeek 文生实战指南

    DeepSeek 作为新晋的 AI 助手,虽然在对话能力上表现出色,但并不直接支持图像生成功能。不过,通过本文介绍的方法,我们可以轻松突破这一限制,让 DeepSeek 秒变"画家"。

    95711编辑于 2025-03-07
  • 来自专栏创作是最好的自我投资

    3分钟快速搭建文生智能体

    自己在写文章的时候,觉得一篇文章都是文字的话,会有点枯燥,那么有一个文生的智能体就好了。这不,就看看官方的插件,还真有文生的插件,那么下面我们就开始搭建文生智能体吧。 创建文生智能体这里创建文生智能体是需要用到文生的插件的,因为官方已经提供了文生插件,所以这里我们就可以来借助官方的文生插件来进行智能体的创建。 点击【插件】右侧的【添加】按钮来添加文生插件在弹出的添加插件弹框中找到【腾讯混元生】插件,点击插件右侧的【添加】按钮完成插件的添加插件添加完成之后,其他的暂时不用设置,我们直接点击右侧预览与调试 等待审核成功之后,就可以点击【使用方式】通过web体验在线体验我们的AI 文生智能体了总结最近有点迷上了腾讯元宝的智能体相关内容,目前的话,创建文本类智能体或者文生智能体算是圆满完成了,还差的就是工作流智能体以及创建插件 对于文生的话,目前DeepSeek 不支持文生,这里对于智能体模型配置,选择官方提供的腾讯混元大模型就可以。大家如果还有其他问题或者技术讨论的话,欢迎留言讨论。

    1.1K20编辑于 2025-04-05
  • 来自专栏腾讯技术工程官方号的专栏

    Sora的前世今生:从文生文生视频

    无论是文生还是文生视频,很多这方面的工作其实都可以看成是自编码器的进阶版本,让我们从自编码器开始入手。 LDM文生(选读) 下面关于LDM的一些细节介绍,不感兴趣的同学可以直接跳过。 理解了latent的含义后,接下来再考虑下如何根据文本来生成图片呢? 用的就是 CoCa 的方法,也就是同时考虑对比损失和LM损失 模型推理策略 官方展示Sora的应用有很多,比如文生视频、生视频、视频反推、视频编辑、视频融合等。 ),然后拿去逐步去噪 3.生视频、视频反推、视频融合:喂入DiT的就是文本embedding(可选)+特定帧用给定图片的embedding+其他帧用全噪声patch 未来会是什么? 不知道大家有没有注意到,Sora还提到了它除了文生视频,也支持文生,这里其实透露出了一种统一的味道。

    1.8K31编辑于 2024-02-23
  • 来自专栏个人总结系列

    ComfyUI搭建与文生运行

    comfyanonymous/ComfyUI.git2、python环境准备gpt:~/llms_dir$ sudo apt updategpt:~/llms_dir$ sudo apt install python3 python3-pip git3、启动ComfyUIgpt:~/llms_dir/ComfyUI$ python3 -m venv venvgpt:~/llms_dir/ComfyUI$ source 二、文生模型运行1、模型下载如https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0 模型目录下载到指定目录gpt:~/llms_dir 00, 5.09it/s]Requested to load AutoencoderKLLoading 1 new modelPrompt executed in 102.37 seconds界面显示文生结果

    1.6K11编辑于 2024-08-06
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 “文生”战场上,自去年下半年开始,“Stable Diffusion 模型” 开始狂飙,不断产生效率的质变:生成图片的等待时间变的越来越少,生成图片的尺寸和质量越来越好,并且开始往移动端设备上扩展。 省略其他准备工作 # 初始化文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained width=512, height=512, output_type="pil", ) else: # 使用文生 即时的文生体验 不论我们是使用调整 Prompt 提示词文本,还是拖拽界面下面的参数,图片都会被快速的重新生成。如果你对参数还不是很了解,可以阅读文末的“AI Pipeline 参数概述”。

    1.2K10编辑于 2024-01-15
  • 来自专栏AI算法能力提高班

    ControlNet-图像控制文生模型

    ControlNet: Adding Conditional Control to Text-to-Image Diffusion Models

    1.3K20编辑于 2023-09-13
  • 来自专栏IT杂谈学习

    丹摩智算:SD3+ComfyUI文生部署步骤详解

    前言 在人工智能的浪潮中,文生技术正逐渐成为推动技术进步的关键力量。丹摩智算(DAMODEL)作为这一领域的先行者,最近发布了其最新的文生技术——SD3+ComfyUI。 一、相关简介 1.1 SD3模型简介 SD3,即Stable Diffusion 3,是由Stability AI开发的一款先进的文生模型。 1.2 ComfyUI简介 ComfyUI是一个用户友好的界面,可以让用户更直观地与文生模型交互。它提供了一个简洁明了的操作界面,使得用户无需深入了解复杂的技术细节,也能轻松地生成所需的图像。 二、部署流程 2.1 创建实例 2.2 文生WebUI ComfyUI提供了一个基于Web的用户界面,用户可以通过浏览器访问并使用文生模型。这大大简化了用户的使用流程,提高了用户体验。 2.3 从HF-mirror下载SD3模型 首先,我们需要从Hugging Face的镜像站点下载SD3模型。

    1K10编辑于 2024-09-26
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 “文生”战场上,自去年下半年开始,“Stable Diffusion 模型” 开始狂飙,不断产生效率的质变:生成图片的等待时间变的越来越少,生成图片的尺寸和质量越来越好,并且开始往移动端设备上扩展。 safetensors # shasum stabilityai/sdxl-turbo/sd_xl_turbo_1.0_fp16.safetensors 285e9cfa0c674009912559242027b3bc2dceb3f2 省略其他准备工作 # 初始化文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained width=512, height=512, output_type="pil", ) else: # 使用文生

    1.5K10编辑于 2024-01-13
  • 来自专栏媒矿工厂

    草图指导的文生扩散模型

    sketch-guided-preprint.pdf 项目链接:https://sketch-guided-diffusion.github.io/ 作者:Andrey Voynov, Kfir Aberman等 内容整理:王寒 强大的文生预训练模型缺乏可以指导合成图像的空间属性的控制方法 草图指导的文生(Sketch-Guided Text-to-Image Synthesis) 在给定边缘e和提示词c的基础上,我们希望根据边缘获得具有较多细节的高分辨率图片。 下面是这个mlp能起作用的原理: 2 在去噪过程中的每一步,聚合中间特征并传递到前面提到的P中,预测边缘 \hat{}_(,)=(_{,}) ,然后计算该边缘与输入边缘之间的相似度梯度 ∇_{ 然后就可以计算二者的相似度: L(\hat{E},E(e))=||\hat{E}-E(e)||^2\quad(3) 实验与对比 实验细节 使用ImageNet数据,只用类别做caption。 效果与对比 3 上图展示了本文方法生成的一些图片,可以看到在忠实度和真实度上都很不错。 4 文章对比了 SDEdit,其结果如上图所示。

    1K20编辑于 2023-09-19
  • 来自专栏muller的测试分享

    人工智能文生技术介绍

    所谓文生,就是指直接通过一些描述性文字生成对应的图片的技术。以前,完成各种设计,是离不开设计师的参与的。但是通过文生技术,可以直接将对于图片的需求发送给程序,让程序生成。 文生实现方式文成有两种实现方式:类型 示例 “代码式”文生PlantUML/Mermaid/Reveal.jsAI文生 MidJourney AI 文生MIDJOURNEYMidjourney是一个由同名研究实验室开发的人工智能程序,可根据文本生成图像1,于2022年7月12日进入公开测试阶段3,用户可透过Discord的机器人指令进行操作 目前已开放用户申请加入体验,但现仅支持百度帐号绑定中国大陆电话号码的企业级用户和个人用户3。 总结文生现在的工具以及使用体验逐渐越来越强大,不论是代码式文生还是AI 文生,都可以选择适合自己工作场景的工具进行使用。

    1.1K10编辑于 2024-06-03
  • 来自专栏四楼没电梯

    最新爆火文生模型FLUX

    在AI图片生成领域,Flux模型的推出引起了广泛关注。随着AI技术的不断进步,新的模型层出不穷,而Flux正是其中的一颗新星。

    45410编辑于 2024-10-12
  • 来自专栏个人总结系列

    API调用ComfyUI模板高效文生

    一、基础环境 环境搭建参考ComfyUI搭建文生,并开启ComfyUI的Dev Mode。

    3.2K10编辑于 2024-08-10
  • 来自专栏周末程序猿

    ChatGPT|字节开源的毫秒文生模型

    介绍 SDXL-Lightning是开源文本到图像生成模型,生成秒出,图片质量也还不错,其huggingface地址:https://huggingface.co/ByteDance/SDXL-Lightning fastsdxl.ai/ 体验地址2:https://huggingface.co/spaces/radames/Real-Time-Text-to-Image-SDXL-Lightning 体验地址3: (2)SDXL-Lightning: Progressive Adversarial Diffusion Distillation,https://arxiv.org/abs/2402.13929 (3

    29310编辑于 2025-02-27
  • 13.4 大语言模型文生能力评测

    13.4 大语言模型文生能力评测 大模型的文生能力,不仅推动了创意产业的创新,还在教育、医疗、娱乐等多个领域展现出广泛的应用前景。 本节将深入探讨大模型在文生能力方面的评测方法与标准。本节会介绍几种常见的大模型评估方法,并介绍其评估原理以及评估步骤,同时也会介绍一些不同评估方法的优缺点,让大家能够更加全面的了解这些评估方法。 综上所述,这些评估方法提供了多元化的视角,帮助研究人员更全面地理解和优化文生大模型的性能。通过综合运用这些方法,可以推动该领域的进一步发展。 github.com/lllyasviel/ControlNet [2] Text2Video:https://github.com/Picsart-AI-Research/Text2Video-Zero [3] Sora: https://openai.com/index/sora/ [4] Magic3D:https://research.nvidia.com/labs/dir/magic3d/ [5] Text2Room

    95110编辑于 2025-04-07
  • 来自专栏菩提树下的杨过

    spring-ai 学习系列(6)-文生

    继续来学习spring-ai如何实现“文生” 一、pom依赖 1 <dependency> 2 <groupId>org.springframework.ai</groupId> 3 spring-ai-starter-model-zhipuai</artifactId> 4 <version>1.0.0</version> 5 </dependency> spring-ai支持多种文生的模型 proj-mgmt/apikeys 二、yaml配置 spring: ai: zhipuai: api-key: ${zhipuai_api_key} 这里api-key换成真实的key 三、文生代码 /spring-ai/reference/api/imageclient.html spring-ai/models/spring-ai-zhipuai at aa590e839de2a8edc01f3c7cbdcf6a2a8ba57401

    33610编辑于 2025-08-22
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】文生入门

    二、文生入门与提示词基础 AI绘画和魔法、念咒有什么关系?记得吗,作图过程中,有一个必不可少的环节,就是向AI输入用于描述画面的Prompt,在AI聊天里我们也用。 1、提示词基本概念 内容概要: 提示词的概念和基本逻辑 提示词的语法(输入、间隔) 内容型提示词与标准化提示词 这节课,我们来接触StableDiffusion中的文生功能,也就是经由文本生成图像 上节课里,我们也提过了,SD里进行绘制的两种基本方式,文生文生就是主要以文字来实现这个沟通过程的,而还可以依赖图片来传达信息,但生图里也有提示词,而且同样重要。 long hair, smiling, stretching arms, hands up, beautiful, happy, trees, bush, white flower, outdoor, (3) (3) 抄作业 在AI绘画领域,抄作业并不是什么不光彩的事,有很多创作者还会主动分享自己作图使用的咒语和模型。

    2.8K41编辑于 2023-09-26
领券