首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏腾讯云存储

    MetaInsight 带你解锁 OpenClaw 模态记忆新玩法

    3月12日,OpenClaw 3.11 版本重磅发布:模态记忆来了! 现在腾讯云智能检索 MetaInsight 推出一键部署插件 metainsight-context-engine,带你快速解锁模态记忆!一、模态记忆,到底强在哪? 记忆传入后,MetaInsight 会自动根据记忆文件构建模态数据集,创建向量索引,以供后续记忆检索使用。 强大的模态检索能力针对龙虾用户复杂的记忆数据,MetaInsight 作为底层模态记忆处理引擎,可实现非结构化数据的索引构建与毫秒级语义检索。 获取模态检索记忆:MetaInsight 会自动对数据集中的数据进行向量索引,并在用户发起新一轮提问时,对数据集中的内容进行模态检索,返回相关记忆片段。

    72610编辑于 2026-03-19
  • 来自专栏刷题笔记

    7-2 到底有

    本文链接:https://blog.csdn.net/shiliang97/article/details/96301355 7-2 到底有二 一个整数“犯二的程度”定义为该数字中包含2的个数与其位数的比值 本题就请你计算一个给定整数到底有二。 输入格式: 输入第一行给出一个不超过50位的整数N。 输出格式: 在一行中输出N犯二的程度,保留小数点后两位。

    75030发布于 2019-11-08
  • 来自专栏我爱计算机视觉

    EMNLP 2021-模态Transformer真的模态了吗?论模态Transformer对跨模态的影响

    Motivation 视觉语言BERT模型扩展了BERT架构,以生成模态输入的跨模态上下文表示。当对一系列下游任务进行微调时,这些模型已被证明是非常有效的。 如果测试过程中,去除某个模态的信息,对最终结果影响很大,那这个模态在最终预测的时候就是有用的;否则这个模态就是没用的。 模态模型在预测时使用由模态输入触发的跨模态激活。 这是原始的模态设置,因此,有效使用模态信息的模型应该表现最好。 Object: 在这里,作者只删除与对齐的文本短语相对应的图像区域,该模型仍然可以使用周围的视觉上下文特征 。 测试的模型显示了vision-for-language,而不是language-for-vision的结果,这一事实可能是模态任务的积累,因为一些下游模态任务需要强烈的 vision-for-language ▊ 作者简介 研究领域:FightingCV公众号运营者,研究方向为模态内容理解,专注于解决视觉模态和语言模态相结合的任务,促进Vision-Language模型的实地应用。

    2.5K20发布于 2021-09-28
  • 来自专栏AgenticAI

    Agentic AI 每日精选 · 2026-01-09|mem-u 模态记忆框架

    今日速览 今日AI领域呈现三大核心趋势:开源生态聚焦记忆增强与智能交互,GitHub项目通过分层检索与工具调用突破LLM上下文限制;模态融合与高效推理并进,HuggingFace模型在视频生成、MoE NevaMind-AI/memU:构建高效记忆管理框架 MemU是一款面向LLM和AI代理后端的记忆框架,旨在处理模态输入,提取结构化记忆,并组织成支持嵌入和非嵌入检索的分层文件系统。 Lightricks/LTX-2 Lightricks/LTX-2是一款基于DiT架构的模态音频-视频基础模型,专注于生成同步的视频和音频。 #04大型视觉语言模型文档策略保留基准 这篇论文提出了Doc-PP,一个针对大型视觉语言模型(LVLMs)的文档政策保留基准,旨在解决模型在处理模态文档时泄露敏感信息的问题。 04 / COMMUNITY BLOG NVIDIA Hugging Face联手推Llama Nemotron,模态检索精度再升级 NVIDIA 和 Hugging Face 合作推出了两款小型 Llama

    37110编辑于 2026-01-12
  • 来自专栏存内计算加速大模型

    腾讯发表模态综述,什么是模态大模型

    ,并且提供了现有主流的 26 个模态大模型的简介,总结了提升模态大模型性能的关键方法,模态大模型脱胎于大模型的发展,传统的模态模型面临着巨大的计算开销,而 LLMs 在大量训练后掌握了关于世界的 模态大模型的整体架构可以被归类为如下图的五个部分,整个模态大模型的训练可以被分为模态理解与模态生成两个步骤。 模态理解包含模态编码器,输入投影与大模型主干三个部分,而模态生成则包含输出投影与模态生成器两个部分,通常而言,在训练过程中,模态的编码器、生成器与大模型的参数一般都固定不变,不用于训练,主要优化的重点将落在输入投影与输出投影之中 记忆融合网络(MFN)是一种用于视图顺序学习的循环模型,它包括三个主要组成部分: LSTM系统:多个LSTM网络,每个网络编码特定于视图的动态。 视图门控内存:存储跨视图交互随时间的记忆单元。图1概述了MFN管道和组件。MFN的输入是一个包含N个视图的视图序列,每个视图的长度为t。

    5.8K13编辑于 2024-05-14
  • agent模态学习

    记忆 (Memory):存储对话历史、长期知识和任务状态。 编排层 (Orchestration):管理 Agent 的“思考-行动-观察”循环。 二、模态 Agent 的整体架构 一个完整的模态 Agent 系统通常包含以下层次,其数据流如下: 用户模态输入 → 模态感知层 → 意图理解与规划层 → Agent 协作层 → 工具/环境交互层 四、模态意图理解与任务规划 4.1 模态意图识别 模态意图识别旨在从用户的文本、图像、语音等多种输入中,准确判断其核心需求。 模态分类模型:训练一个分类器,输入为模态特征,输出为意图标签。 LLM 直接判断:利用 GPT-4V 等具备视觉能力的模型,直接分析模态输入并输出意图。 对话管理:利用记忆模块存储对话历史,确保上下文连贯。 九、行业应用与落地实践 9.1 电商与零售 智能客服:处理图文混合的售后问题,自动识别商品缺陷、发起退换货。

    55210编辑于 2026-01-15
  • 来自专栏CSDN社区搬运

    模态COGMEN详解

    在本文中,我们提出了基于 COntex- tualized Graph Neural Network的模态情感识别COGMEN)系统,该系统利用了本地信息(即说话人之间的内/外依赖性)和全局信息(上下文 “iemocap_4” --modalities=“atv” 部署方式 下载我训练好模型,以及数据集,附件里有data,modelcheckpoint文件夹,分别替换代码中的文件夹即可,我对每个单独的模态都有训练

    33210编辑于 2024-12-05
  • 模态大模型】

    模态大模型的核心能力 模态大模型通过融合视觉、听觉、文本等多维度数据实现综合理解与生成。典型应用包括: 图像到文本:识别图片内容并生成描述、广告文案或诗歌。 跨模态检索:根据文本搜索相关图像/视频,或反之。 代表模型如GPT-4V(视觉增强版)、通义千问模态版、文心一言(ERNIE-ViLG)均支持此类任务。 模态对齐:模型将图像特征与文本语义空间对齐,生成候选描述。 输出优化:通过强化学习调整生成文本的流畅性与吸引力。 模型训练与优化要点 数据准备:需对齐的模态数据集(如COCO-Captions、AudioSet)。 模态大模型的应用需结合具体场景调整输入预处理与后处理逻辑,以达到最佳效果。

    35310编辑于 2026-01-20
  • 来自专栏多模态视频理解

    模态算法综述

    在UCF101数据集上达到了87%的准确率图片(2)Beyond Short Snippets: Deep Networks for Video Classification,尝试了多种帧帧见融合策略如 自注意力至此视频理解算法演进到了Transformer的自监督网络架构,Transformer有两个优势,(1)更强的网络表征能力,(2)更容易设计自监督的训练任务,从而可以更有效的利用无标注数据,同时也更加注重模态的内容理解 Vision-language Understanding with Contrastive Learning图片ALBEF包含一个图像编码器(ViT-B/16),一个文本编码器(BERT的前6层),以及一个模态编码器 、模态预训练方面提供大量的帮助,也给后来的文章提供了崭新的思路BLIP(Bootstrapping Language-Image Pre-training for Unified Vision-Language BLIP采用了判断-生成任务的MED,可以作为单模态编码器,基于图像的文本编码器解码器采用了CapFilt的训练方法,降低噪声图文pair对训练造成的影响图片Mult-streamMult-stream

    3.2K30编辑于 2022-07-12
  • 来自专栏一点人工一点智能

    模态认知计算

    进而,根据机器对模态信息的认知模式,从模态关联,跨模态生成和模态协同这 三个方面对现有方法进行了梳理与总结,系统地分析了其中的关键问题与解决方案。 作为模态认知计算的三条主 线,模态关联,跨模态生成和模态协同是提升机器认知能力的有效途径,已成为国内外科研人员密切关注的研究热点。 本文的组织框架如下:第二节,介绍了模态关联任务的发展现状,分为模态对齐,模态感知和模态检索三个部分,并进行分析与讨论;第三节,介绍了跨模态生成任务中的跨模态合成和跨模态转换方法,并进行分析与讨论 本节从模态对齐,模态关联和模态检索三方面阐述模态关联相关工作。其中,模态对齐是一类基础性需求,如图像区域内容和文字词汇的语义对齐,视觉唇部运动与语音声素之间的时间对齐等。 人类可以轻松自如地对视,听,嗅,味,触等模态感知进行归纳融合,并进行联合演绎,以做不同的决策和动作。在模态认知计算中,模态协同是指协调两个或者两个以上的模态数据,互相配合完成模态任务。

    96230编辑于 2022-12-27
  • 来自专栏素质云笔记

    模态+Recorder︱模态循环网络的图像文本互匹配

    为了验证提出的选择式模态循环神经网络的有效性,我们测试了该模型衍生出的多种网络结构,并在两个公开模态数据库(Flickr30k和Microsoft COCO)上与当前最好方法进行了对比。 所提出的选择式模态循环网络是一个动态模型,在每一时间步,它利用基于上下文的模态注意机制选择图像文本中语义上相同的目标和词语,并计算其相似性作为图像文本的局部相似性,然后进行序列化融合得到全局相似性。 考虑到草图与自然图像可能存在视角的特征表达,且不同的视角作用差异较大,我们提出了一种基于视角选择的视角跨模态匹配算法。 我们在两个经典的细粒度草图-图像数据集上进行了大量的实验,结果表明所提出的方法可以有效利用模态视角特性并提升检索性能。 模态搜索 网络上充斥着来自不同数据源的模态多媒体数据;因此,亟需能够适应各种模态的信息检索系统,例如,在搜索“Dunkirk”电影时,应返回影评的相关文本数据、包含相关视频片段的视频数据、以及相关音频数据

    2.8K20发布于 2019-05-26
  • 来自专栏音乐与健康

    模态很简单,搞懂模态,站在 AI 发展的最前沿

    现实世界的信息是模态的(Multi-Modal),比如:视频 = 图像+声音+文本字幕自动驾驶 = 摄像头+激光雷达+毫米波雷达+GPS医疗AI = X光片+病历文本+基因数据 模态融合(Multi-Modal 今天,我们就来深入拆解模态融合的奥秘!模态到底是什么? “模态” 就是信息的不同形式,比如:举个例子️:你在看一部电影,如果只看画面没声音,体验是不是很割裂? 所以,模态融合就是让AI像人一样,把各种信息整合在一起,提高理解能力!模态融合有哪些方式? 模态融合一般分三大类:1️⃣ 早期融合(Early Fusion)—— 数据级融合 特点:在模型输入阶段,先把所有模态的数据合并成一个大“拼盘”,然后喂给模型。 模态音乐治疗(感官刺激睡眠疗法),包括声刺激抑制听觉警觉,动态光照重置生物钟,电磁刺激修复脑波节律,芳香分子安抚情绪,它们像精密齿轮般咬合,相辅相成,从不同感官通路“包抄”失眠的症结,让每一个失眠患者重拾安稳睡眠

    1.3K10编辑于 2025-07-29
  • 来自专栏全栈程序员必看

    模态情感识别_模态融合的情感识别研究「建议收藏」

    情感表达的模态包括面部表情、语音、姿势、生理信号、文字等,情感识别本质上是一个模态融合的问题。 提出一种模态融合的情感识别算法,从面部图像序列和语音信号中提取表情和语音特征,基于隐马尔可夫模型和多层感知器设计融合表情和语音模态的情感分类器。 提出的模态识别算法较好地利用了视频和音频中的情感信息,相比于仅利用语音模态的识别结果有较大的提升,相比于表情模态的识别结果也有一定改进,是一种可以采用的情感识别算法。

    1.7K10编辑于 2022-06-24
  • 来自专栏学习

    机器学习——模态学习

    模态学习:机器学习领域的新视野 引言 模态学习(Multimodal Learning)是机器学习中的一个前沿领域,它涉及处理和整合来自多个数据模式(如图像、文本、音频等)的信息。 随着深度学习的蓬勃发展,模态学习在许多应用领域中获得了广泛关注,例如自动驾驶、医疗诊断、智能助理等。本篇博客将深入探讨模态学习的概念、方法以及一些代码示例,帮助读者更好地理解这一重要课题。 什么是模态学习? 模态学习旨在同时处理来自不同模态的数据,从而提高模型的表现能力。 模态学习的挑战 模态学习面临一些独特的挑战,例如: 模态间的异质性:不同模态数据的性质差异较大,例如图像是二维数据,文本是序列数据。 对齐问题:不同模态之间可能需要对齐,如图像和文本的时间同步。 模态模型能够同时处理这些信息,从而理解视频的内容并进行分类、检索或生成描述。 结论 模态学习是一个快速发展的领域,其潜力非常巨大。

    63410编辑于 2024-10-10
  • 来自专栏强化学习专栏

    模态智能的发展

    文章分类在学习摘录和笔记专栏: 学习摘录和笔记(18)---《模态智能的发展》 模态智能的发展 1 模态智能定义 模态智能旨在融合多种模态的信息进行处理实现智能应用 将模态信号统一到同一个向量空间中,从而实现了模态信号的交叉处理。 模态表示:由于其复杂的跨模态交互作用和各模态训练数据与测试数据之间可能存在的失配问题,仍然是一个具有挑战性的问题。 2 模态智能融合的发展 融合是模态研究中的一个关键问题,它将从不同单模态数据中提取的信息整合到一个紧凑的模态表示中。 早期融合:即特征级融合,直接将从各类单模态数据中提取的特征组合在一起,以强调模态间的相互作用,从而抑制模态间的相互作用。

    32210编辑于 2024-12-03
  • 来自专栏喔家ArchiSelf

    浅析模态机器学习

    模态大模型就是指模型可以处理多种结构/类型的数据,例如GPT-4,它既可以处理你输入的文本,也可以处理你上传的图片。 那么,模态到底意味着什么呢? 1. 什么是模态? 3.1 模态的数据表达 模态数据的最大挑战是以一种方式总结来自多个模态(或视图)的信息,以便综合使用互补信息,同时过滤掉冗余的模态部分。 3.2 模态机器翻译 模态机器翻译涉及从多个模态中提取信息,基于这样的假设,附加的模态将包含有用的输入数据的替代视图。 3.3 模态的对齐 模态对齐是找到两种或更多模态之间的关系和对应。 为了对齐不同的模态,模型必须测量它们之间的相似度并处理长距离依赖关系。 模态对齐是找到两种或更多模态之间的关系和对应,模态融合可能是更重要的问题和挑战之一,协同学习是将学习或知识从一种模态转移到另一种模态的挑战。

    81621编辑于 2023-09-02
  • 来自专栏算法之名

    模态大模型篇

    SwiGLU是以门线性单元GLU为基础的,它是一个双线性函数,表达式为 这里的 ⊗ 表示矩阵的逐元素相乘,关于门控机制可以参考Tensorflow深度学习算法整理(二) 中的长短期记忆网络以及GRU。

    1.6K51编辑于 2023-10-16
  • 模态Agent开发实战

    模态Agent开发实战入门一、什么是模态Agent?模态Agent是指能够同时处理和理解多种类型数据(文本、图像、音频、视频等)的智能体,并能基于这些理解执行任务、做出决策。 核心能力:模态感知(看、听、读)跨模态推理(图文关联、音画同步)工具调用(API、数据库、物理设备)自主规划与执行二、技术栈选型主流框架框架特点适用场景LangChain生态丰富,支持模态模型快速原型 、RAG应用AutoGenAgent协作,对话驱动复杂任务分解CrewAI角色化Agent,结构化流程业务自动化LangGraph图控制流,状态管理需要精确控制的流程模态模型选择闭源API:GPT- 4V、GPT-4o、Claude 3、Gemini Pro Vision开源模型:LLaVA、Qwen-VL、CogVLM2、MiniGPT-4三、关键技术难点与解决思路难点解决方案模态对齐使用CLIP -3周:集成LangChain → 构建可调用工具(搜索、计算、数据库)的Agent第4-5周:添加记忆模块 → 实现轮对话上下文保持第6-8周:模态RAG → 图片库检索 + 文档问答进阶方向:视频流理解

    16710编辑于 2026-04-27
  • 来自专栏自然语言处理(NLP)论文速递

    剑桥 | 发布模态检索器,赋能模态大模型RAG应用

    PreFLMR模型是一个通用的预训练模态知识检索器,可用于搭建模态RAG应用。 模态知识提取器的知识 “召回能力” 直接决定了大模型在回答推理时能否获得准确的专业知识。 图 2:PreFLMR 模型同时在多项任务上取得极佳的模态检索表现,是一个极强的预训练基底模型。 2. 尤其是在模态任务中,用户的问询(Query)包含复杂场景信息,压缩至一维向量极大抑制了特征的表达能力。PreFLMR 继承并改进了 FLMR 的结构,使其在模态知识检索中有得天独厚的优势。 实验结果表明对于后期交互模态检索系统,增加视觉编码器的参数带来的回报更大。

    56710编辑于 2024-03-26
  • 来自专栏音乐与健康

    基于深度学习的模态音乐可视化-模态音乐治疗

    目前,大多数的研究都集中在听觉和视觉模态相结合的模式情绪识别上,然而,来自中枢神经系统,例如 EEG 信号和外部行为,例如眼球运动的模态结合已被证明是对情绪识别更加有效的方法。 为了结合用户的内部大脑活动和外部潜意识行为,本文提出了使用 6 个 EEG 电极和眼动追踪眼镜来识别人类情绪的模态框架 EmotionMeter。本文提出的情绪识别系统的框架如图 1 所示。 风格分类器采用ResNet-50架构达到89.3%准确率;情感识别模块整合LSTM(长短期记忆网络)与自注意力机制,可捕捉音乐中的情绪转折点。 模态生成系统LLM将音频特征转化为"暗红色漩涡伴随铜管乐器闪烁"等具象描述,Text-to-Image模型据此生成风格化图像,最后通过DAIN(深度感知视频插帧)算法实现24fps流畅输出,确保鼓点与视觉变化误差 对于模态融合,本文比较两种方法:1)特征级融合和2)模态深度学习。对于特征级融合,EEG 和眼动数据的特征向量直接连接成一个较大的特征向量作为 SVM 的输入。

    33510编辑于 2025-07-26
领券