首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏登神长阶

    丹摩征文活动|CogVideoX-2b部署与AI视频生成的新篇章

    CogVideoX-2b展示效果:https://live.csdn.net/v/embed/433472 前言:丹摩平台,作为一个集创新、高效与便捷于一体的综合性平台,为CogVideoX-2b的部署与应用提供了得天独厚的环境 实践实现功能 通过丹摩平台提供的便捷环境,我得以轻松部署CogVideoX-2b模型,并开始了我的视频生成之旅。 从简单的风景描绘到复杂的角色动画,CogVideoX-2b都展现出了惊人的生成能力和创造力。 这次实践不仅让我深刻体验到了CogVideoX-2b的强大功能,也让我对丹摩平台的便捷性和高效性有了更深入的认识。 在部署CogVideoX-2b的过程中,我首先被其简洁明了的部署流程所吸引。 同时,平台的稳定性也为我提供了可靠的保障,确保了CogVideoX-2b能够持续、高效地运行。

    40410编辑于 2024-11-12
  • 来自专栏CSDN

    DAMODEL平台实战:CogVideoX-2b模型部署与使用指南

    pipe = CogVideoXPipeline.from_pretrained( "/root/workspace/CogVideoX-2b", # 这里填CogVideo模型存放的位置,此处是放在了数据盘中

    50510编辑于 2024-11-07
  • 来自专栏心源易码

    智谱AI开源国产版Sora——CogVideoX-2b本地部署实践教程

    代码仓库:https://github.com/THUDM/CogVideo模型下载:https://huggingface.co/THUDM/CogVideoX-2b技术报告:https://github.com 打开huggingface,进入https://huggingface.co/THUDM/CogVideoX-2b/tree/main仓库,找到Files and versions目录,将其中的所有模型和配置文件全部下载到本地

    2.7K10编辑于 2024-08-13
  • 来自专栏Dance with GenAI

    免费AI视频生成工具:硅基流动SiliconCloud上的CogVideoX-2B模型

    CogVideoX-2B 是由智谱AI开发的一款开源视频生成模型,其核心在于3D变分自编码器(3D VAE)技术,这项技术能够将视频数据压缩至原来的2%,极大地降低了模型处理视频时所需的计算资源。 此外,为了进一步提升内容的连贯性,CogVideoX-2B采用了3D旋转位置编码(3D RoPE)技术,使得模型在处理视频时能够更好地捕捉时间维度上的帧间关系,建立起视频中的长期依赖关系,从而生成更加流畅和连贯的视频序列 CogVideoX-2B的提示词上限为226个token,视频长度为6秒,帧率为8帧/秒,视频分辨率为720*480。 好在硅基流动SiliconCloud上已经部署好现成的CogVideoX-2B模型,我们直接开箱即用,能联网就行,非常简单易用。 看来,这个CogVideoX-2B视频生成模型还比较粗糙,只能作为个人体验用,还没法生成高质量的视频,无法商用。 在视频上点击右键,选择视频另存为,就可以将生成的视频保存下来了。

    80810编辑于 2024-08-29
  • 来自专栏AIGC新知

    智谱「清影」同源模型 CogVideoX开源

    目前已经上线github、huggingface 模型名字 CogVideoX-2B 提示词语言 English 推理显存消耗 (FP-16) 36GB using diffusers (will be web_demo: streamlit网页应用,展示如何使用 CogVideoX-2B 模型生成视频。 sat sat_demo: 包含了 SAT 权重的推理代码和微调代码。 CogVideoX-2B 视频作品 A detailed wooden toy ship with intricately carved masts and sails is seen gliding

    45510编辑于 2024-10-08
  • 来自专栏技术分享

    智谱AI:CogVideoX-2b——视频生成模型的得力工具

    访问,地址为:https://github.com/THUDM/CogVideo 模型下载:可以在Hugging Face平台上找到,地址为:https://huggingface.co/THUDM/CogVideoX 以下是上传步骤: 访问官方模型仓库:https://huggingface.co/THUDM/CogVideoX-2b/tree/main,下载所有必要的模型和配置文件。 wooden stool in a serene bamboo forest..." pipe = CogVideoXPipeline.from_pretrained("/root/workspace/CogVideoX

    54010编辑于 2024-09-24
  • 来自专栏服务器运维日常

    从零开始:基于 ModelScope 本地部署 CogVideoX-2B 文生视频完全指南

    本文档记录了使用魔搭社区 ModelScope 平台,从零开始在本地部署 CogVideoX-2B 文生视频模型的完整过程,包括环境配置、依赖安装、模型下载、提示词编写技巧以及实战示例。 参数说明:--model ZhipuAI/CogVideoX-2b → 指定要下载的模型--local_dir models/cogvideox-2b → 指定下载目录4.2 模型信息 项目说明模型名称CogVideoX-2B开发者智谱 AI (ZhipuAI)模型大小约 5-6GB支持精度FP16(推荐)显存要求8GB 起(启用优化后)视频规格6 秒,720×480 分辨率,8fps 确认模型路径正确: models/cogvideox-2b\n") else: print(" 建议:") print(" 1. 到这里你已经掌握了基于 ModelScope 本地部署 CogVideoX-2B 文生视频模型的完整流程。

    51421编辑于 2026-01-15
  • 实操手册 | 手把手教你搭建 CogVideoX-2b,解锁 6 秒创意短片魔力

    CogVideoX-2b简介 在视频生成领域,CogVideoX 的出现无疑是一次突破。 tar -xf CogVideoX-2b.tar 解压后的效果图: 5.运行CogVideoX-2b 进入CogVideo-main文件夹,运行test.py文件。 pipe = CogVideoXPipeline.from_pretrained( "/root/workspace/CogVideoX-2b", # 这里填CogVideo模型存放的位置,此处是放在了数据盘中

    64810编辑于 2024-12-07
  • 来自专栏学习

    DAMODEL丹摩|CogVideoX-2b:从安装到上线,轻松搞定全过程!

    CogVideoX-2b:从安装到上线,轻松搞定全过程! CogVideoX简介 CogVideoX的推出标志着视频生成技术的一次重大突破。 模型下载:前往 Hugging Face 平台下载CogVideoX-2b模型,以便直接使用我们的技术成果。 技术详情:想了解更多技术背景和实现细节? pipe = CogVideoXPipeline.from_pretrained( "/root/workspace/CogVideoX-2b", # 这里填CogVideo模型存放的位置,此处是放在了数据盘中

    53110编辑于 2024-11-21
  • 来自专栏服务器运维日常

    ModelScope 模型选择完全指南:根据显卡配置选择合适的 AI 模型

    约 16-20GB 文生视频模型(CogVideoX) 固定显存需求: 模型 显存需求 CogVideoX SD 1.5 无法运行 12GB 4-6B 12B SDXL(优化) CogVideoX Hunyuan Video) 显卡型号 显存大小 推荐模型 生成时长 说明 RTX 3060 12GB CogVideoX 专业视频生成,质量更高 A100 40GB 40GB Hunyuan-Video, OpenSora 30-60 秒 企业级长视频生成 生成速度参考(CogVideoX 部署图像生成模型:参考《从零开始:基于 ModelScope 本地部署 Stable Diffusion XL AI 绘画完全指南》 部署视频生成模型:参考《从零开始:基于 ModelScope 本地部署 CogVideoX

    1.1K21编辑于 2026-01-15
  • 来自专栏AI进修生

    CogVideoX-5B:最新开源!!你可以在本地使用AI文本生成视频了!(12G显存 & 本地部署)

    智谱CogVideoX系列新开源CogVideoX-5b,视频生成质量更高,视觉效果更好,此前开源的版本为CogVideoX-2B。 GIF有点卡 ... 推理的硬件需求如下: CogVideoX-2B 模型: • FP16 精度: • 使用 diffusers:需要 12.5GB 显存 • INT8 精度: • 使用 diffusers with torchaudio

    1.3K10编辑于 2024-12-02
  • 来自专栏可涵的从小白到大牛的征程

    丹摩平台 | 智谱清影 -CogVideoX-2b-部署与使用,带你揭秘生成6s视频的极致体验!

    下载模型:获取 [CogVideoX-2b](https://huggingface.co/THUDM/CogVideoX-2b) 模型。 pipe = CogVideoXPipeline.from_pretrained(     "/root/workspace/CogVideoX-2b", # 这里填CogVideo模型存放的位置,此处是放在了数据盘中

    47710编辑于 2024-11-21
  • 来自专栏机器之心

    VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

    相比于 CogVideoX-2B(左图),IPOC-2B 生成的视频(右图)中,狮子的行走动作更加自然连贯,整体动态流畅度有了明显改善。 相比于 CogVideoX-2B(左图),IPOC-2B 生成的视频(右图)中,人物和猛犸象具有更好结构合理性。 视频生成模型在动态程度和美学度都有明显提升,相比于 CogVideoX-2B(左图),IPOC-2B 生成的视频(右图)中,人物动作更加流畅,人物和背景更好美观。

    48510编辑于 2025-05-08
  • 🔥 智谱清影 🔥-CogVideoX-2b-部署与使用,带你揭秘生成6s视频的极致体验!

    CogVideoX代码仓库:https://github.com/THUDM/CogVideo模型下载:https://huggingface.co/THUDM/CogVideoX-2b技术报告:https pipe = CogVideoXPipeline.from_pretrained( "/root/workspace/CogVideoX-2b", # 这里填CogVideo模型存放的位置,此处是放在了数据盘中

    53710编辑于 2024-10-23
  • 智谱AI刚刚把他们的Sora「清影」,正式开源了,我爱他们。

    CogVideoX模型下载地址: https://huggingface.co/THUDM/CogVideoX-2b 现在主流的AI视频,全都是闭源的,有一个开源的Open-Sora,但是说实话,效果也差强人意 这一次开源的,我大概翻了下,开源的是一个CogVideoX-2B的小模型。 CogVideoX-2B的微调,需要的显存是40G,普通的显卡不行了,得上A6000这种渲染卡了。 不过毕竟是视频模型,不说普惠到普通大众,但是对于一些初创公司和小企业,这门槛几乎就是约等于0。

    43310编辑于 2025-04-14
  • 来自专栏AIGC 先锋科技

    新颖故事化视频生成方法DreamRunner,性能超基线,多目标交互生成能力超绝!

    在组合文本到视频生成中,基于CogVideoX-2B [62]的DreamRunner在T2V-CompBench [48]上的所有指标上都超过了 Baseline 方法,包括属性绑定和运动,突显了其在组合生成方面的优势 基础生成模型 作者利用CogVideoX-2B [62]作为文本到视频的基础 Backbone 网络。 如表3所示,DreamRunner在所有类别上明显优于 Baseline 方法CogVideoX-2B [62]。 除了与 Baseline 比较之外,DreamRunner基于CogVideoX-2B实现了优越或可比的性能与其他开源模型(例如,Open-Sora 1.2 [20],VideoTetris [49]) 如表4所示,将作者的方法应用于CogVideoX-2B导致CLIP和ViCLIP得分均有所提高,CLIP得分提高了1.28,ViCLIP得分提高了2.20。

    62910编辑于 2025-03-10
  • 来自专栏IT杂谈学习

    丹摩智算:探索CogVideoX-6B模型的部署与使用

    pipe = CogVideoXPipeline.from_pretrained( "/root/workspace/CogVideoX-2b", # 这里填CogVideo模型存放的位置,此处是放在了数据盘中

    38710编辑于 2024-09-26
  • 让SDXL实现50倍加速!中山&字节最新对抗训练+双空间判别,单步生成新标杆!性能狂飙

    对于多步蒸馏,我们仅在文生图模型SD3-Medium、SD3.5-Large和文生视频模型CogVideoX-2b、CogVideoX-5b上使用ADM训练。

    41810编辑于 2025-08-27
  • 每周AI论文速递(241209-241213)

    作为一个案例研究,我们将我们的流程应用于 CogVideoX-2B,结果显示,微调后的模型在所有 16 个指标上均优于 CogVideoX-5B,突显了人类反馈在提高合成视频对齐度和质量方面的潜力。

    29400编辑于 2025-04-08
领券