首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小白的成长之路

    laravel 模型Eloquent ORM 添加编辑删除

    既然玩了查询接着来玩玩添加编辑删除 CURD要完整嘛 添加 一般是前端传过来数据存到数据库,模型有一个 create 方法就是用来新增数据的,up 建个 store 方法 function store 因为在模型默认不允许进行批量赋值需要先定义允许 create 方法插入到数据库的字段,就是给 $fillable 属性定义允许赋值的字段 up 先在模型中定义 $fillable 属性 /** 编辑 刚刚添加了数据这边在编辑下数据咯,这里就要用到 update 方法了,这个就简单了 function update(Test $TestMdl) { $postId 自动都变成了插入或者修改的时间了,这就是使用模型的好处一大好处 删除 但是最后的这个 deleted_at 是空的,这个字段应该怎么用呢? softDeletes 即可,模型默认是没有开启软删除功能的开启也很简单就是使用SoftDeletes <?

    2.1K21发布于 2019-12-18
  • 来自专栏在线制图

    在线ER模型制作:Oracle 脚本转ER模型在线编辑

    概述 ER模型使用可视化了实体存储的信息,以及直观的呈现了实体与实体的关系,在我们实际的应用系统开发过程中新建ER模型可以更好的理解业务模型,为以后的开发维护工作起到归纳总结的作用。 PostgreSQL,等等数据库模型建模,支持SQL导入生成ER模型,通过DDL语句生成ER模型,ER模型SQL导出,根据ER模型生成SQL。 Oracle表建立ER模型,请选择实体类型为实体关系/Oracle,选择对应的表、视图、存储过程、触发器、Sequence 等组件后拖动到编辑区域。 _ORACLE_ER模型] 或拖动SQL文件到对应的输入框 [在线制图_ORACLE_ER模型] 最后生成对应的模型图 [在线制图_ORACLE_ER模型] 2、在线ER模型表操作 新增修改表结构 、备注 、是否为空等等 [在线制图_ORACLE_ER模型] [在线制图_ORACLE_ER模型] 3、View操作 新增或修改视图:通过拖动Oracle视图模型编辑区,对视图的编辑通过点击右键->

    4.1K20发布于 2019-07-02
  • 来自专栏个人编程笔记

    Qt-自定义可编辑模型

    role) const; QVariant headerData(int section, Qt::Orientation orientation, int role) const; //可编辑模型实现 currencyAt(int offset) const { return (currencyMap.begin()+offset).key(); } //设置底层的实际数据,由于不可能将数据硬编码,所以必须为模型提供一个用于设置的函数 //两个函数为重置内部数据做准备 beginResetModel(); currencyMap=map; endResetModel(); } //返回单元格数据(只读模型 rowCurrency); // return QString("%1").arg(amount,0,'f',4); // } // return QVariant(); //} //(可编辑模型 currencyMap.value(rowCurrency); return QString("%1").arg(amount,0,'f',4); } return QVariant(); } //可编辑模型函数实现

    52710编辑于 2023-03-03
  • 来自专栏个人编程笔记

    Qt-自定义可编辑模型

    role) const; QVariant headerData(int section, Qt::Orientation orientation, int role) const; //可编辑模型实现 currencyAt(int offset) const { return (currencyMap.begin()+offset).key(); } //设置底层的实际数据,由于不可能将数据硬编码,所以必须为模型提供一个用于设置的函数 //两个函数为重置内部数据做准备 beginResetModel(); currencyMap=map; endResetModel(); } //返回单元格数据(只读模型 rowCurrency); // return QString("%1").arg(amount,0,'f',4); // } // return QVariant(); //} //(可编辑模型 currencyMap.value(rowCurrency); return QString("%1").arg(amount,0,'f',4); } return QVariant(); } //可编辑模型函数实现

    60210编辑于 2023-03-03
  • 来自专栏web三维

    基于GIS数据的即时建筑模型编辑软件

    实时更新模型 现在,在Geobuilding软件中,你可以通过设置GIS属性,实时更新模型,所见即所得。非常简单的操作交互。 3D模型导出 最后把软件内编辑模型导出成开放模型数据,可以导出GLTF OBJ STL模型 在blender中的效果 如果导出的格式是gltf,软件会导出基于cesium的演示文件和地址,可直接在浏览器中打开浏览效果

    37010编辑于 2025-03-19
  • 通过直接编辑网络层更新大型语言模型

    更新大型语言模型:通过直接编辑网络层大型语言模型的吸引力之一在于它们编码了关于现实世界的信息。但世界在不断发展,而大型语言模型的信息仅限于其训练时所使用的数据。 使用MEND时,需要训练第二个机器学习模型(即编辑模型),其本质上是将梯度作为输入,并输出参数编辑。但模型的输入不是原始梯度,而是梯度的低秩近似,这通过识别数据方差发生最多的轴来降低数据维度。 在原始的MEND论文中,研究人员使用这种方法来编辑一个微调后的大型语言模型的顶部三层,这是在编辑效率、输出修正和防止回归之间进行权衡的合理启发式方法。 在其他两个任务上,SaLEM在这两项指标上均名列第二,仅次于一种名为可编辑神经网络的方法。但可编辑神经网络需要同时运行一个大型语言模型的两个副本,这非常耗费资源。 一种更好的权重更新机制,以告知编辑器对于边界实例需要更新的程度。一种无需像目前这样将完整模型加载到内存中即可执行编辑的方法。

    9410编辑于 2026-01-09
  • 来自专栏人工智能前沿讲习

    CVPR 2019 | STGAN: 人脸高精度属性编辑模型

    STGAN是一个建立在AttGAN基础上的人脸属性编辑模型,通过差分属性标签下选择性传输单元的跳跃连接实现了人脸高精度属性的编辑。 前言--ATTGAN ? 判别器D: 属性分类限制 ? AttdiffAttdiff可以为指导图像属性编辑提供更有价值的信息,包括是否需要编辑属性,以及属性应该改变的方向。 有了上述的分析,我们再看模型的结构则是比较容易理解了: ? 最后放一张STGAN在图像季节转换的实验效果: 总结 文章研究了选择性传输视角下任意图像属性编辑的问题,并通过在编码器 - 解码器网络中结合差分属性向量和选择性传输单元(STU)来提出STGAN模型 通过将差异属性向量而不是目标属性向量作为模型输入,STGAN可以专注于编辑要改变的属性,这极大地提高了图像重建质量,增强了属性的灵活转换。

    1.9K30发布于 2020-05-18
  • 来自专栏机器之心

    NeurIPS 2022 | 文本图片编辑新范式,单个模型实现多文本引导图像编辑

    机器之心专栏 机器之心编辑部 最近用文本来引导图像编辑取得了非常大的进展以及关注度,特别是基于去噪扩散模型如 StableDiffusion 或者 DALLE 等。 但是基于 GAN 的文本 - 图像编辑依旧有一些问题等待解决,例如经典的 StyleCILP 中针对每一个文本必须要训练一个模型,这种单文本对单模型的方式在实际应用中是不方便的。 不同于经典的 StyleCLIP 模型,我们的模型无需对每个文本单独训练一个模型,一个模型就可以响应多个文本从而对图像做有效的编辑,所以我们的模型成为 FFCLIP-Free Form Text-Driven 这种经验识别限制了给定一个文本提示,他们必须训练相应的编辑模型。  不同的文本提示需要不同的模型来调制 StyleGAN 的潜在视觉子空间中的潜在代码。 本文动机是现有方法是根据已有的经验来匹配当前文本和 GAN 的语义子空间,因此一个编辑模型只能处理一个文本提示。我们通过对齐和注入的语义调制来改进潜在映射。它有利于一个编辑模型来处理多个文本提示。

    71010编辑于 2023-03-29
  • 来自专栏我爱计算机视觉

    基于扩散模型的图像编辑:首篇综述

    AIGC 大模型最火热的任务之一——基于 Diffusion Model 的图像编辑(editing)领域的首篇综述。长达 26 页,涵盖 297 篇文献! 强烈推荐 AIGC 大模型研究者或爱好者阅读,紧跟热点。 2402.17525 Github 网址:https://github.com/SiatMMLab/Awesome-Diffusion-Model-Based-Image-Editing-Methods 摘要 去噪扩散模型已成为各种图像生成和编辑任务的有力工具 这些模型背后的核心理念是学习如何逆转逐渐向图像中添加噪声的过程,从而从复杂的分布中生成高质量的样本。 在这份调查报告中,我们详尽概述了使用扩散模型进行图像编辑的现有方法,涵盖了该领域的理论和实践方面。 统计图 基于扩散模型的图像编辑中研究出版物的统计概述。上图:学习策略。中:输入条件。下图:编辑任务。 从多角度对基于扩散模型的图像编辑方法进行了全面地分类。

    71410编辑于 2024-03-05
  • FLUX.1 Kontext:文本驱动图像编辑模型

    FLUX.1 Kontext:用文字指令编辑图像FLUX.1 Kontext 是 Black Forest Labs 推出的新型图像编辑模型。 作为 FLUX.1 系列的最新成员,该模型在通过文本提示编辑图像方面表现出色。测试结果显示,Kontext 能够提供准确且效果出色的编辑结果。 该模型在性能和成本效益上均优于某机构的 4o/gpt-image-1 模型。 该系列包含三个版本,其中两个现已可用,另一个开源权重版本即将发布:FLUX.1 Kontext pro:面向图像编辑的最先进模型,提供高质量输出、优秀的指令遵循能力和一致的结果。 replicate-prediction-f2d25rg6gnrma0cq257vdw2n4c.png",};const output = await replicate.run(model, { input });console.log(output.url())Kontext 的应用能力图像编辑模型允许通过指令引导图像的变更

    18710编辑于 2026-02-21
  • 来自专栏人工智能

    大规模语言模型知识编辑:定位-编辑-再训练的一致性误差分析

    大规模语言模型知识编辑:定位-编辑-再训练的一致性误差分析引言:LLM知识编辑的挑战与机遇随着大规模语言模型(LLMs)如GPT-4、LLaMA等在实际应用中的广泛部署,一个关键挑战日益凸显:如何高效、 精准地更新这些模型内部存储的知识? 然而,现有的编辑方法在定位-编辑-再训练的过程中,往往引入难以检测的一致性误差,这些误差不仅影响编辑效果,还可能破坏模型的整体推理能力。 知识编辑的技术框架与一致性理论定位-编辑-再训练的三阶段范式现代LLM知识编辑通常遵循三阶段流程:知识定位:识别目标知识在模型参数中的具体位置参数编辑:对特定参数进行精确修改局部再训练:通过优化保持模型整体一致性 关键发现包括:误差的系统性:一致性误差不是随机噪声,而是具有明确模式和传播路径的系统性偏差权衡的本质:编辑精度、保持性和一致性之间存在根本性权衡自适应的重要性:需要根据具体知识和模型特性动态调整编辑策略

    23110编辑于 2025-12-05
  • 详解Veo 3.1视频AI模型与Flow编辑新特性

    将全新的Veo 3.1更新引入Flow,以编辑AI视频五个月前,推出了由Veo驱动的AI电影制作工具Flow,其激发出的创造力令人鼓舞,已在Flow中生成了超过2.75亿个视频。 今天,我们推出了全新和增强的创意功能来编辑你的视频片段,让你对最终场景拥有更精细的控制。同时,这也是首次为“素材转视频”、“帧到视频”和“扩展”等现有功能带来音频支持。 Veo 3.1是最先进的模型,它基于Veo 3构建,在将图像转换为视频时具有更强的提示遵循能力和改进的视听质量。 以更高精度编辑你的素材和视频好的创意可能出现在创作过程的任何时刻。当第一版效果不是最终版时,我们在Flow内引入了新的编辑功能,帮助你重新构想和完善你的场景。 Veo 3.1模型也通过某中心的Gemini API提供给开发者、某机构的Vertex AI提供给企业客户,以及Gemini应用使用。新的功能在Gemini API和Vertex AI中均可使用。

    33910编辑于 2026-01-30
  • 来自专栏媒矿工厂

    ICCV 2023 | Pix2Video: 基于扩散模型的视频编辑

    Huang等 内容整理:王寒 本文研究如何使用预训练的图像扩散模型进行文本引导的视频编辑。提出了一种免训练的方法,并且可以推广到广泛的编辑中。 本文证明了现实的文本引导的视频编辑是可能的,不需要任何计算密集型的预处理或视频个性化的微调。 简介 在大量图像集合上训练的图像扩散模型,在质量和多样性方面已经成为最通用的图像生成器模型。 它们支持反演真实图像和条件(例如,文本)生成,使其在高质量图像编辑应用中非常受欢迎。本文研究如何使用这些预训练的图像模型进行文本引导的视频编辑。关键的挑战是在实现目标编辑的同时仍然保留源视频的内容。 本文的方法通过两个简单的步骤来工作:首先,使用预训练的结构引导的(例如,深度)图像扩散模型在锚框上进行文本引导的编辑;然后,在关键步骤中,通过自注意力特征注入将变化逐步传播到未来帧,以适应扩散模型的核心去噪步骤 相反,我们依赖于预训练的图像生成模型隐式地执行这种融合。对于每一帧i,我们注入从帧i-1中获得的特征。由于编辑是以逐帧的方式进行的,i-1帧的特征需要通过i-2来计算。

    1.1K30编辑于 2023-11-08
  • 来自专栏AgenticAI

    蚂蚁金服新模型,一个模型搞定图像理解生成与编辑

    之前的视觉模型:理解与生成用一个模型编辑图像得换另外一个,是不是很散装?在Qwen上就是如此。今天,蚂蚁金服开源的Ming-UniVision带来了完整解决方案,一个模型全部搞定。 案例 首先我们看看图像生成 这个是可视化推理过程,比如使人变成笑脸,就是先推理找到要编辑的嘴部,然后编辑对应部位。 图像编辑功能,保持一致性的同时进行部位编辑,简直复刻google nanobanana! 技术亮点 亮点1: 统一的空间能解锁超快的训练。 传统模型在每次编辑时都会陷入缓慢的“潜在→像素→特征”循环中。Ming-UniVision 实现了直接的 Feature →循环。 这意味着无缝且有状态的视觉对话,生成->编辑->重新生成,全部在相同的高保真环境中进行。 开源地址 探索代码,尝试模型,并与我们一起构建!

    15110编辑于 2025-11-26
  • 来自专栏智药邦

    Profluent推出AI模型,用于设计CRISPR-Cas基因编辑系统

    2025年1月7日,位于伯克利的生物技术公司Profluent Bio(成立于2022年,迄今已获得4400万美元的投资)发布了一个人工智能模型,旨在推进CRISPR-Cas基因编辑系统的设计。 该公司的最新研究成果发表在2025年1月6日的预印本上,展示了如何利用深度学习,通过定制CRISPR复合物的DNA识别能力来扩大其基因组编辑潜力。 该模型旨在预测和定制CRISPR酶的原位相邻基序(PAM)识别,这是决定这些系统可以编辑哪些基因组位点的关键因素。这项研究强调了Protein2PAM计算进化Cas酶的能力。 来自Profiluent的技术概述 2024年8月,Profluent还推出了ProseLM(蛋白质结构编码语言模型),这是一种将结构和功能上下文纳入蛋白质语言模型的工具,用于有针对性的蛋白质设计。 该模型建立在Profluent早先在OpenCRISPR-1上取得的成功基础之上,OpenCRISPR-1是一种可编程基因编辑器,于 2024年4月公开发布,用于研究和商业应用。

    52810编辑于 2025-02-05
  • 来自专栏人工智能前沿讲习

    【综述专栏】基于扩散模型的图像编辑:首篇综述

    AIGC 大模型最火热的任务之一——基于 Diffusion Model 的图像编辑(editing)领域的首篇综述。长达 26 页,涵盖 297 篇文献! 强烈推荐 AIGC 大模型研究者或爱好者阅读,紧跟热点。 /2402.17525 https://github.com/SiatMMLab/Awesome-Diffusion-Model-Based-Image-Editing-Methods 摘要 去噪扩散模型已成为各种图像生成和编辑任务的有力工具 这些模型背后的核心理念是学习如何逆转逐渐向图像中添加噪声的过程,从而从复杂的分布中生成高质量的样本。 在这份调查报告中,我们详尽概述了使用扩散模型进行图像编辑的现有方法,涵盖了该领域的理论和实践方面。 统计图 基于扩散模型的图像编辑中研究出版物的统计概述。上图:学习策略。中:输入条件。下图:编辑任务。 从多角度对基于扩散模型的图像编辑方法进行了全面地分类。

    58210编辑于 2024-03-11
  • 来自专栏人工智能前沿讲习

    【源头活水】扩散模型——拥有世界知识(World Knowledge)的扩散模型编辑方法 - EditWorld!

    本文提出一项全新的图像编辑任务EditWorld,它基于真实世界和虚拟世界中的场景来定义图像编辑指令。 该方法通过分类和定义各种世界指令,利用大型预训练模型(如 GPT-3.5、Video-LLava 和 SDXL)生成具有丰富场景的输入-指令-输出三元组数据集。 EditWorld训练了一个基于扩散模型的图像编辑模型,并设计了一种后编辑策略来提高模型遵循指令的能力,并增强非编辑区域的外观一致性。 最后,我们使用精心制作的数据集训练了一个文本引导的扩散模型,并提出了一种零样本图像操作策略,以实现world-instructed image editing。 图4 图5 我们利用数据集对InstructPix2Pix模型进行finetune,同时为了保护非编辑区域实现更为精确的编辑,我们提出了post-edit策略。

    29510编辑于 2024-06-05
  • 来自专栏计算机视觉理论及其实现

    Latex公式编辑和子公式编辑

    这里,“\label{XX}”为可选项,表示在文档中该公式标记为“XX”,在正文中通过“\eqref{XX}”来引用该公式编号(带括号)。

    5.6K30编辑于 2022-09-02
  • 来自专栏新智元

    比seq2seq模型快90倍!Google推出全新文本编辑模型FELIX

    近日,谷歌AI团队新作带来了全新模型FELIX,这是一个快速灵活的文本编辑系统,与seq2seq方法相比,速度提高了90倍。 相反,文本编辑模型最近引起了极大的关注,因为它们提出预测编辑操作——如单词删除、插入或替换——这些操作应用于输入以重构输出。 当需要进行大型结构转换时,这些文本编辑模型要么不能生成该转换,要么会插入大量新的文本,但是这样会很慢。 插入模型的示例,其中标记器预测将插入两个单词,插入模型预测MASK标记的内容 结果 本文对FELIX在句子融合,文本简化,抽象摘要和机器翻译的译后编辑方面进行了评估。 在一定的数据集大小范围内,将FELIX与大型预训练的seq2seq模型(BERT2BERT)和文本编辑模型(LaserTager)进行比较,从而得到关于句子融合任务(即将两个句子合并为一个)的结果。

    71040发布于 2021-05-28
  • 来自专栏MixLab科技+设计实验室

    让Cursor免费使用谷歌最新图像编辑模型#Nano Banana MCP

    最近谷歌的新模型nano-banana非常火,速度快,一致性也不错,我把这个模型制作成了MCP,主要提供两个工具:生图和编辑图像。

    17810编辑于 2026-03-24
领券