首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏开源心路

    AI生成视频-Pika

    背景介绍 Pika 是一个使用 AI 生成和编辑视频的平台。它致力于通过 AI 技术使视频制作变得简单和无障碍。 Pika 1.0 是 Pika 的一个重大产品升级,包含了一个新的 AI 模型,可以在各种风格下生成和编辑视频,如 3D 动画,动漫,卡通和电影风格。 在这个命令中,你通常看到的 “+1 more” 变成了 “+2 more”,因为这个命令有两个额外的选项。 首先,你需要填写 “message” 栏。这是 PIKA 将用作你生成内容中的元素的文本。 现在我们需要告诉 AI 实际上我们想要生成什么样的片段。 我们很高兴推出 Pika 1.0,这是一次重大的产品升级,包括一个新的 AI 模型,它能够以 3D 动画、动漫、卡通和电影等各种样式生成和编辑视频,以及一个新的 Web 体验,使其更容易使用。

    1.9K10编辑于 2023-12-06
  • 来自专栏程序那些事儿

    Runway Gen2AI视频生成的未来

    Runway Gen2 是一种由 Runway Research 开发的新的文本到视频生成器。它是第一款公开可用的文本到视频模型,能够“真实和一致”地合成新视频。 突破 Gen2 的突破在于它能够生成逼真和一致的视频。这要归功于其使用了一种新的深度学习模型,该模型能够学习从文本和视频中捕捉信息。该模型由一个巨大的数据集训练,该数据集包括图像、视频和文本。 使用方式 Gen2 提供了多种生成视频的方式,你可以直接通过文本描述来生成一段视频,当然,你也可以根据图片和文字的描述来生成视频,此外,你还可以通过对视频进行神奇描绘来生成视频。 配合着类似 midjourney 等图片生成工具,你完全可以制作自己的动画视频。 应用 Gen2 具有广泛的应用前景。它可用于: 创意表达,创建新的艺术作品、视频游戏、电影等。 随着模型的改进,Gen2 将能够生成更加逼真和逼真的视频。 然而,Gen2 也面临一些挑战。例如,Gen2 生成视频可能存在偏见或错误。此外,Gen2 可能被用于生成虚假或误导性的视频

    1.1K10编辑于 2023-11-30
  • 来自专栏全栈技术

    AI视频制作一本通:文本生成视频、图片生成视频视频生成视频

    第一部分:文本生成视频1. 文本生成视频概述随着人工智能(AI)技术的飞速发展,视频制作领域也迎来了创新的浪潮。文本生成视频是其中的一项令人激动的进展,它利用自然语言处理技术将文本内容转化为视频。 这项技术在广告、教育、娱乐等领域有着广泛的应用,可以快速生成吸引人的视频内容。2. 工作流程文本生成视频的工作流程通常包括以下步骤:步骤1:文本处理首先,您需要准备要转化为视频的文本内容。 步骤2:图像生成文本生成视频通常伴随着图像的生成,这些图像可以是背景图片、文本框、图标等。您可以使用图像处理工具或库来生成这些图像,根据文本内容选择合适的图像元素。 生成对抗网络 (GANs) : GANs包括生成器和判别器两个神经网络,它们相互竞争,生成器试图生成逼真的图像或视频,而判别器试图分辨真实的图像或视频。这种竞争促使生成器不断提高生成质量。2. 步骤2:训练生成模型使用生成对抗网络或其他深度学习模型,对视频数据进行训练。模型将学会从输入数据生成逼真的视频。步骤3:生成视频一旦训练完成,您可以使用生成模型来合成新的视频内容。

    3.3K62编辑于 2023-11-07
  • 来自专栏算法一只狗

    AI解决生成视频“闪烁”问题

    在上一期中,我曾经介绍了用ControlNet结合Mov2Mov插件生成新的视频。虽然它能够快速的对视频中的人物进行转换,但是还存在难以解决的闪烁问题。 造成闪烁的原因很简单,是因为AI是一帧一帧生成图片然后再合成的,所有每张图片本质上不太连贯,最后就会造成视频闪烁的出现。但是这个难题近期被南洋理工大学的团队很好的解决。 首先来看看他们生成视频效果:可以看到,生成视频很丝滑,而且人物的动作衔接的很连贯。 利用上面的方法进行生成后,在连续的十几秒中,每一幅图片的细节都生成相似,就能够有效缓解视频闪烁的情况出现。 下图是作者对比Stable-Diffusion的结果:当然,在不同的模型比较上,该作者提出的方法在生成视频的稳定性上效果明显提高:同时,在输入文本中仅需更改几个词语,在视频背景保持不变的情况下,可以不断的调节视频中的细节

    83120编辑于 2024-10-10
  • 来自专栏编码如写诗

    微软深夜炸场:Sora 2全员免费+无限生成AI视频创作

    微软将Sora 2的强大能力封装在最简单的交互中,让专业级视频创作的门槛降至零。 2. 自带音效的视频生成 Sora 2最大的突破在于原生视听整合。 以往AI视频模型很难完成这种多镜头、多场景的连贯指令,而Sora 2可以做到无缝切换,如同专业电影导演的镜头语言。 通过免费AI视频生成,微软可以: 增加必应应用的日活和留存 收集海量用户生成内容,用于模型训练 扩大Microsoft Rewards生态的影响力 对抗谷歌在AI搜索领域的竞争 2. 成本控制的技术逻辑 AI视频生成是算力密集型任务。Sora 2生成一段5秒视频,需要消耗大量GPU算力。微软如何承担"无限慢速生成"的成本? 行业监管的跟进 随着AI视频生成技术的普及,行业监管需要同步推进: 技术标准 制定AI生成内容的技术标准和标识规范 推广C2PA等行业标准的应用 建立内容溯源和验证机制 法律法规 明确AI生成内容的版权归属

    36810编辑于 2026-03-27
  • 来自专栏音视频技术

    AI自动剪辑生成视频探索实践

    文/赵剑 整理/LiveVideoStack 大家好,我是赵剑,来自网易云音乐,本次分享的主题是AI自动剪辑生成视频的探索实践,内容主要分为以下几个部分:  What — 什么是AI自动生成音乐视频? Why — 为什么需要基于AI自动生成音乐视频?  How — 如何实现AI自动生成音乐视频? 首先为大家播放由三段不同类型的音乐视频,全程无人工参与,完全通过AI自动生成。 以上三个视频都由我们的音视频实验室“AI一键自动生成”音乐视频系统生成,它整合了音乐、视频、文本等相关的原子算法,从音乐内容及视频内容两部分进行分析,多模态、多角度地全自动生成音乐视频,助力音乐视频的创作 1、Why音乐视频自动化剪辑生成 接下来正式为大家介绍AI自动剪辑生成视频的探索实践。 首先,为什么做音乐视频自动生成2AI自动剪辑生成音乐视频系统 其次,如何搭建高效自动生成音乐视频的系统?

    3.3K21编辑于 2023-04-04
  • 来自专栏翩翩白衣少年

    MuseV:不限视频时长的AI视频生成工具

    今天小编为大家分享一款新开源的文生视频项目MuseV,据说可以生成不限时长的AI视频。 项目背景 MuseV 项目在2023年7月就已经实现了,但是受到近期 Sora 进展的启发,才决定开源出来。 项目介绍 MuseV 是一个基于扩散模型的虚拟人视频生成框架。它采用了新颖的视觉条件并行去噪方案,支持无限长度视频生成。 提供了预训练的虚拟人视频生成模型,具备 Image2Video、Text2Image2Video 和 Video2Video 等强大功能。 特色功能 • 无限长度视频生成:打破传统视频长度限制,让你的创意无限延伸。 • 多种功能模式:Image2Video、Text2Image2Video、Video2Video,满足不同创作需求。 总结 MuseV 以其无限长度视频生成以及对 Stable Diffusion 生态的支持以及多参考图像技术,成为视频生成领域的新兴力量。

    1.9K10编辑于 2024-04-13
  • 来自专栏技术分享

    智谱AI:CogVideoX-2b——视频生成模型的得力工具

    智谱AI公布了一项激动人心的技术创新:他们决定将他们开发的视频生成模型CogVideoX的源代码对外公开。 生成视频长度可以达到6秒钟,以每秒8帧的速度播放,分辨率则为720像素乘以480像素。虽然这只是一个初步的版本,但智谱AI已经透露,他们正在开发性能更优越、参数量更大的后续版本。 这种技术能够将视频数据的体积压缩到原来的2%,极大地减少了处理视频所需的计算资源,同时保持了视频帧与帧之间的连贯性。这种技术的应用有效避免了在视频生成过程中可能出现的闪烁现象,保证了视频的流畅播放。 在提高视频生成的可控性方面,智谱AI开发了一个端到端的视频理解模型。这个模型能够为视频数据生成精确且与视频内容紧密相关的描述。 通过以上步骤,你可以成功部署并运行CogVideoX,生成高质量的视频内容。

    65110编辑于 2024-09-24
  • 来自专栏程序大视界

    2026国产AI视频生成工具推荐

    Sora关停、国产崛起:2026年AI视频生成工具格局大洗牌! OpenAI于2026年3月24日正式关停Sora,AI视频生成市场迎来了历史性的转折点。国产工具如何抓住机遇?创作者该何去何从? 01 — OpenAI挥刀斩Sora 2026年3月24日,OpenAI正式宣布关停Sora独立App、API接口及ChatGPT内置视频功能,全面退出消费级AI视频生成市场。 知识分享、生活记录 单次12秒 海螺AI 创意元素生成、动画风格出色 创意短视频、动画制作 约6秒 Vidu 生成稳定、速度适中 通用场景 约4秒 实测数据对比 根据CSDN博主测评数据,在生成速度方面 、Runway: 4秒 > Pika: 3秒 ✨ 可灵AI:国产之光 作为快手团队的产品,可灵AI在技术上表现亮眼: 高质量输出:支持生成长达2分钟、30fps的高质量视频 多宽高比支持:满足抖音、B站 分段生成视频:单次生成时间有限,可以分段生成再拼接 关注高峰期:国产工具在下午3-6点可能出现排队,错峰使用效率更高 06 — 未来展望 AI视频生成市场正在经历剧烈变革: 技术层面:可控性、一致性

    72020编辑于 2026-04-10
  • 来自专栏AI算法能力提高班

    Sora | 最强AI视频生成大模型

    [AI Milestone] Sora | 2024年最强AI视频生成大模型 本文主要从Sora的诞生背景、技术原理、能力演示、应用前景和变现思路等多个角度进行介绍这一划时代的最新视频生成技术。 在美国当地时间2024年2月15日,OpenAI发布首个视频大模型Sora,一句话生成一分钟高清连贯视频。 Sora,源自日语的そら,空。色即是空。色、受、想、行、识,五蕴亦皆空。 然而,早期的AI视频通常存在一些限制,如视频长度有限(通常只有几秒钟),场景逼真度不足,元素突然出现或消失,以及运动不连贯等问题,这些问题使得视频内容容易被识别为AI生成。 OpenAI发布的Sora模型在演示视频中展示了显著的进步,其生成视频内容在质量上几乎无法被察觉为AI制作。Sora能够生成长达一分钟的视频,这在当时的AI视频中是一个重要的突破。 然而,将这一技术扩展到视频生成领域面临挑战,因为视频需要处理时间维度的复杂性。尽管有显著努力,但大多数现有工具如Pika和Gen-2只能生成几秒钟的视频

    2.5K10编辑于 2024-03-13
  • 来自专栏科技云报道

    AI写小说、绘画、剪视频生成AI更火了!

    今年4月份,OpenAI发布的第二代DALL-E 2模型,再次为图像生成领域树立了全新标杆。 DALL-E 2模型生成图片示例 不仅如此,随着文字描述的颗粒度不断细化,生成的图像也会越来越精准,效果在非专业人士看来已经相当震撼。 但DALL-E 2这样的模型仍然停留在二维创作即图片生成领域,无法生成360度无死角的3D模型。 Imagen Video生成视频示例 而Phenaki则能根据200个词左右的提示语生成2分钟以上的较低分辨率长镜头,讲述一个相对完整的故事。 Phenaki生成视频示例 目前,国内也有不少生成AI的应用。 例如,字节跳动旗下的剪映APP提供AI生成视频功能,并可以免费使用。

    2K20编辑于 2022-12-08
  • 来自专栏猫头虎AI技术分享

    快速上手 AIAI 视频与音频生成教程

    快速上手 AIAI 视频与音频生成教程 摘要:随着生成AI的爆发式发展,音视频创作已经从“专业技能”转变为“人人可用”的智能工具。 过去制作视频需要复杂的剪辑与配音软件,如今仅需几行指令或几段文字,AI就能自动生成AI视频:根据脚本、图片或语音自动生成带人物、配音、字幕的视频2. ffmpeg -i voice.mp3 -i bgm.mp3 -filter_complex amix=inputs=2 output.mp3四、AI 视频生成入门 AI视频的核心有两类:文本转视频(Text-to-Video + 实时编辑高质量影片感商业广告 Pika Labs 自动口型、人物演绎 免费额度丰富解说视频 Stability AI可接入API 可控性高 开发者整合2.

    4.4K351编辑于 2025-10-06
  • 来自专栏量子位

    视频领域的Midjourney”!AI视频生成新秀Gen-2内测作品流出,网友直呼太逼真

    丰色 发自 凹非寺 量子位 | 公众号 QbitAI 号称可以一句话拍大片的AI视频生成工具Gen-2,开始露出庐山真面目。 有推特博主已经率先拿到了内测资格。 AI视频生成也狂飙 专攻视频生成AI工具Gen-2于3月20日发布(论文3月11号)。 作为AIGC领域的新秀,它的迭代速度和质量也是相当快了: Gen-1版本2月才刚诞生,那会还只能对已有视频进行编辑; 现在Gen-2就已经可以用文字和图像作为提示词直接生成视频了。 提示:Gen-1已经可以开始玩了(125次机会用完之后就只能按月付费了),Gen-2还没有正式对公开放。 除了Gen系列,微软亚研院还最新发布了一个可以根据文字生成超长视频AI:NUWA-XL。 只用16句简单描述,它就能get一段长达11分钟的动画: 在往前一点儿,就在Gen-2发布同一天,阿里达摩院也开源了17亿参数的文本转视频AI: 效果是酱婶的: …… 可以预见,不止图像生成视频领域也要变得热闹起来了

    69530编辑于 2023-04-13
  • 来自专栏机器之心

    Meta生成AI连放大招:视频生成超越Gen-2,动图表情包随心定制

    机器之心报道 编辑:张倩、陈萍 生成AI 进入视频时代了。 提到视频生成,很多人首先想到的可能是 Gen-2、Pika Labs。 虽然这些模型可以通过使用视频 - 文本对进一步适用于文本 - 视频(T2V)生成,但视频生成在质量和多样性方面仍然落后于图像生成。 :(1) 根据输入的文本提示生成图像;(2) 根据图像和文本的强化条件生成视频。 除 T2V 外,EMU VIDEO 还可用于图像 - 视频生成,即模型根据用户提供的图像和文本提示生成视频。在这种情况下,EMU VIDEO 的生成结果有 96% 优于 VideoComposer。 短短几个月的时间,Meta 在图像、视频领域又推出 Emu Video 和 Emu Edit ,我们只能说,生成AI 领域真的太卷了。 了解更多内容,请查看原论文。

    52110编辑于 2023-11-18
  • 来自专栏新智元

    AI视频年大爆发!Gen-2Pika成时代爆款,2023年AI视频生成领域的现状全盘点

    过去一年,AI视频领域我们见证了,Gen-2、Pika等爆款产品的诞生。 来自a16z的Justine Moore,详细盘点了人工智能视频生成领域的现状、不同模型比较,以及还未解决的技术挑战。 AI视频生成大爆发 2023年是AI视频取得突破的一年。不过,今年过去了一个月,暂未有公开的文本到视频的模型。 短短12个月,数十种视频生成产品受到了全球数以万计的用户的青睐。 今天,你可以在哪里生成AI视频? 21个视频生成产品 今年到目前为止,a16z已经跟踪了21种公开产品。 AI视频的下一步是什么? 如果你曾使用过这些产品,便知道在AI视频进入主流产品之前,仍然有很大的改进空间。 有时会发现,AI视频工具可以将提示内容生成视频的「神奇时刻」,但这种情况相对较少见。 2 优质训练数据从何而来? 与其他模态模型相比,训练视频模型更难,这主要是因为视频模型没有那么多高质量的训练数据可供学习。

    83310编辑于 2024-02-26
  • 来自专栏一个程序猿的异常

    Sora AI:如何生成逼真视频,推动创意界限

    文章速览 OpenAI Sora是一个能够生成高质量、连贯流畅视频AI模型, 它能够根据文本描述生成长达1分钟的视频。 总的来说,OpenAI Sora是一个强大的视频生成模型,它能够生成高品质、连贯流畅的视频,支持多镜头切换和复杂场景的生成,同时具备良好的安全性和可靠性。 OpenAI Sora的扩散模型工作原理主要是通过逐步移除视频中的噪声来生成清晰的视频。Sora的起点是类似于静态噪声的视频画面,通过多个步骤逐步去除噪声,最终生成一个清晰的视频画面。 一次性生成视频:Sora的另一个特点是可以生成整个视频,而不是逐帧生成。这种方式避免了其他方法中的挑战,如确保即使对象暂时从视野中消失,也能保持不变。 最后,Sora的这种能力展示了AI技术在电影行业重塑方面的潜力,它可能会改变整个电影产业的生产方式。

    64110编辑于 2024-02-27
  • 混合AI模型秒生成高清流畅视频

    混合AI模型实现秒级高清视频生成研究人员开发出一种名为CausVid的混合人工智能方法,能够在数秒内创建高质量视频。该方法结合了扩散模型和自回归架构,类似于知识渊博的教师指导聪慧学生的学习过程。 技术原理与传统逐帧生成(自回归)或全序列处理(扩散模型)不同,CausVid采用混合方法:使用预训练的扩散模型作为"教师模型"训练自回归的"学生模型"快速预测下一帧确保视频质量和帧间一致性核心功能该工具能够 :根据简单文本提示生成视频片段将静态照片转换为动态场景扩展现有视频长度在生成过程中通过新输入实时修改内容性能表现在测试中,CausVid展现出卓越性能:生成高分辨率10秒视频的速度比竞争对手快100倍在 30秒长视频测试中质量和一致性领先在900多个文本提示测试中获得84.27的最高综合评分在图像质量和真实人类动作等类别中表现最佳应用前景该技术可用于:视频编辑任务辅助实时直播多语言同步视频生成视频游戏内容渲染机器人训练模拟快速生成技术优势相比传统方法 这项技术有望实现小时级甚至无限时长的高稳定性视频生成

    36110编辑于 2025-08-31
  • 来自专栏Dance with GenAI

    免费AI视频生成工具:硅基流动SiliconCloud上的CogVideoX-2B模型

    CogVideoX-2B 是由智谱AI开发的一款开源视频生成模型,其核心在于3D变分自编码器(3D VAE)技术,这项技术能够将视频数据压缩至原来的2%,极大地降低了模型处理视频时所需的计算资源。 此外,为了进一步提升内容的连贯性,CogVideoX-2B采用了3D旋转位置编码(3D RoPE)技术,使得模型在处理视频时能够更好地捕捉时间维度上的帧间关系,建立起视频中的长期依赖关系,从而生成更加流畅和连贯的视频序列 AI视频生成模型。 点击左侧的文本对话,输入提示词: 写一个AI生成视频的提示词(用英文输出),主题是“可爱的小女孩在吹蒲公英”,提示词可以借鉴参考下面的范例: 提示词1:A street artist, clad in 看来,这个CogVideoX-2B视频生成模型还比较粗糙,只能作为个人体验用,还没法生成高质量的视频,无法商用。 在视频上点击右键,选择视频另存为,就可以将生成视频保存下来了。

    89910编辑于 2024-08-29
  • 来自专栏wayn的程序开发

    用笔记本轻松玩转 AI 生成视频

    最近,在 github 看到了一个名为 FramePack 的图生视频项目,基于预测神经网络结构,可以在资源有限的设备上生成高质量的视频。 它通过将上下文压缩成固定长度,使得生成任务的工作量与视频长度无关,从而实现高效且资源友好的视频生成。 什么是 FramePack? 它通过逐步生成下一帧内容,实现高质量视频的连续输出。与传统的视频扩散模型不同,FramePack 并不受视频长度限制,能够在资源有限的设备上处理成千上万帧的视频生成任务。 渐进式生成 + 可视化反馈 模型采用逐帧或逐段生成的方式,用户可以在生成过程中实时查看当前结果,获得视觉反馈。 即使是生成一分钟以上的长视频,也可以边生成边预览,无需等待全部完成。 Preview) 由于 FramePack 是逐帧或逐段生成的模型,视频会随着每一步推理越来越长。

    1.3K21编辑于 2025-05-01
  • 来自专栏AI科技评论

    视频 | AI实时生成材质,效果直逼好莱坞大片

    我们的卷积神经网络可以提供这些图像的实时预测结果,这些预测与真正的渲染图像难以分辨,并且实时生成AI科技评论按:这里是,雷锋字幕组编译的Two minutes paper专栏,每周带大家用碎片时间阅览前沿技术,了解AI领域的最新研究成果。 (2)下一步,我们提出了一个卷积神经网络,它可以预测出这些材质的图像,使之与全局照明方法产生的图片相近,而且每幅图像只需要 3 毫秒,有时推荐的材质接近使用者的期望,但仍需要进行微调。 而且,我们的卷积神经网络可以提供这些图像的实时预测结果,这些预测与真正的渲染图像难以分辨,并且实时生成视频原址:https://www.youtube.com/watch?v=6FzVhIV_t3s 论文原址:https://arxiv.org/pdf/1804.08369.pdf

    1K30发布于 2018-07-27
领券