首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • LLM数学速成:向量与语义空间

    【答】基于分布式语义理论,我将构建一个简化的例子来说明如何通过向量运算获得"苹果是可以解渴的水果"这一语义。为便于理解,使用3维向量表示。 定义基础向量(3维简化)苹果 = [0.8, 0.6, 0.3]第1维:水果属性(0.8表示强水果特征)第2维:解渴属性(0.6表示中等解渴)第3维:味道属性(0.3表示中等味道)水果 = [1.0, 【问】上例中水果 = [1.0, 0.2, 0.4] 对应 LLM 的 K向量吗?苹果 = [0.8, 0.6, 0.3] 对应 LLM 的 V向量吗?【答】你搞混了。 查询、推理,是两个不同场景当你采用 VectorDB 进行相似度查询(搜索)时:苹果 永远是 [0.8, 0.6, 0.3]当你使用 LLM 做推理(生成)时:LLM(Transformer)里的 K、 降维的数学本质这个过程在数学上可以理解为奇异值分解(SVD)或主成分分析(PCA)。通过矩阵分解,将高维的共现矩阵(如词-文档矩阵或词-词共现矩阵)压缩到低维空间,保留最重要的语义信息。

    26520编辑于 2025-12-31
  • 来自专栏全栈程序员必看

    什么是语义分割_词法分析语法分析语义分析

    文章目录 引言 1 混淆矩阵 2 语义分割 PA:像素准确率 CPA:类别像素准确率 MPA:类别平均像素准确率 IoU:交并比 MIoU:平均交并比 3 综合实例 步骤一:输入真实、预测图片 步骤二: 且慢,下面举个例子: 假如:宠物店有10只动物,其中6只狗,4只猫(真实值),现有一个模型将这10只动物进行分类,分类结果为(预测结果为):5只狗,5只猫(预测值),对分类结果画出对应混淆矩阵进行分析 (那就对了…) 分析混淆矩阵的3个要点:(参考链接) ①矩阵对角线上的数字,为当前类别预测正确的类别数目;非对角线数字,预测都是错误的! 上面分析了一大堆,最终还是不够精炼,于是大佬们定义了几个公式: 准确率(Accuracy),对应:语义分割的像素准确率 PA 公式:Accuracy = (TP + TN) / (TP + TN + 对于IoU的理解,可延伸阅读一下: 语义分割的评价指标——IoU 语义分割代码阅读—评价指标mIoU的计算 ---- 3 综合实例 上述对语义分割中常用5个评价指标进行了简介,下面列举一个例子,按照评价指标计算的三个步骤进行讲解

    1.8K20编辑于 2022-09-25
  • 词法分析、语法分析语义分析

    语义分析(Syntax analysis)   语义分析是编译过程的一个逻辑阶段. 语义分析将审查类型并报告错误:不能在表达式中使用一个数组变量,赋值语句的右端和左端的类型不匹配. Lex    一个词法分析程序的自动生成工具。 它接受语言的文法,构造一个LALR(1)分析程序.因为它采用语法制导翻译的思想,还可以接受用C语言描述的语义动作,从而构造一个编译程序. 中间语言(中间表示)(Intermediate language(representation))    在进行了语法分析语义分析阶段的工作之后,有的编译程序将源程序变成一种内部表示形式,这种内部表示形式叫做中间语言或中间表示或中间代码 3型文法产生的语言称为3型语言,也称作正规语言。

    59310编辑于 2025-04-05
  • 来自专栏秋枫学习笔记

    ControlRec:对齐LLM和推荐系统之间的语义差异

    应用于推荐领域已经有很多例子了,但是从经典推荐方法向LLM过渡很重要的一个问题是LLM很难有效利用用户和item的ID,主要是因为它们在语义空间中的表征和常规的自然语言不同,因此无法直接使用LLM。 HFM当ID和NL特征具有相似的语义时,使它们在语义空间中更紧密地结合在一起,而当它们不相似时,将它们进一步分开(类似度量学习)。 问题是如何来考虑两类表征的相似性呢? ICL以对比的方式对各种提示模式的LLM进行预训练,这需要大量的提示,作者通过chatgpt来生成任务指令,从而进行数据扩充,如图3所示。 因此, \lambda_3 在训练过程中逐渐增大 \lambda_3=\lambda_3^{\prime}+\frac{1-\lambda_3^{\prime}}T\cdot t , T是总轮次, t为当前轮次 , \lambda'_3=0 是初始值。

    1.9K10编辑于 2023-12-04
  • 来自专栏python3

    3没有语义的标签

    3、没有语义的标签(div、span) HTML中大部分标签都是具有语句的(有固定格式),有语义的标签在使用时一定要注意不能乱用。还有一部分标签是没有语义的,没有语义的标签只用来进行页面布局。 注意: 1、一个属性名(键)对应一个属性值(值),一般我们把这种对应关系代码称之为键值对; 2、最后一个属性值可以不加分号,但是不建议这么写; 3、在对应标签内部是可以直接设置样式的,但是实际开发不会这么写

    87310发布于 2020-01-07
  • LLM架构管窥:3模式、3原理

    研究3天,6篇笔记 【点我头像 查看文章列表】因为咱是懂架构的,所以借助架构模式理解LLM架构并不困难。倒是向量语义叠加、多头注意力原理,颇是费脑细胞。

    23620编辑于 2025-12-31
  • 来自专栏机器学习、深度学习

    语义分割 DeepLabv3

    Rethinking Atrous Convolution for Semantic Image Segmentation https://arxiv.org/abs/1706.05587v1

    1.2K20发布于 2019-05-26
  • 来自专栏啄木鸟软件测试

    使用 LLM 为 QA 测试数据实现语义验证

    基于规则的评估使用预定义标准来判断数据是否满足特定的业务逻辑要求,超越了结构正确性,检查语义有效性。模式验证会问“这是有效的 JSON 吗?” 但如果订单日期是“2024-12-01”,客户年龄是 3 岁,它也会通过验证。而基于规则的评估会应用业务逻辑:客户必须年满 13 岁才能下单,配送日期必须晚于订单日期。 这些规则可以捕捉模式验证遗漏的语义问题。   description="修复建议")   初始化验证器: class TestDataValidator:    def __init__(self, model: str = "claude-3- haiku-20240307"):    self.llm = ChatAnthropic(model=model, temperature=0, max_tokens=1000)   定义验证规则

    13010编辑于 2026-03-04
  • 来自专栏秋枫学习笔记

    CTRL:对齐协作信号和LLM语义信息进行CTR估计

    现有的LLM推荐方法图P5,M6 Rec考虑了语义信息但是效率低,并且没有考虑有用的协作关系。 首先将原始表格数据转换为文本数据。 表格数据和转换后的文本数据被视为两种不同的模式,并分别输入到协作CTR模型和LLM中。 主要包含用户和item的特征来构造文本信息,以下是一个例子 2.2 跨模态知识对齐 2.2.1 跨模态对比学习 跨模态对比学习过程如图3所示。 首先,利用协作模型和语义模型(LLM)对表格数据和文本数据进行编码,以分别获得相应的表征。 然后是由交叉熵来构建损失函数 \mathcal{L}_{ctr}=-\frac1N\sum_{k=1}^N(y_klog(\hat{y}_k)+(1-y_k)log(1-\hat{y}_k)), 3.

    63410编辑于 2023-12-19
  • 来自专栏小白技术社

    关于语义分析的方法(上)

    语义分析,本文指运用各种机器学习方法,挖掘与学习文本、图片等的深层次概念。 本文主要由以下四部分组成:文本基本处理,文本语义分析,图片语义分析语义分析小结。 先讲述文本处理的基本方法,这构成了语义分析的基础。接着分文本和图片两节讲述各自语义分析的一些方法,值得注意的是,虽说分为两节,但文本和图片在语义分析方法上有很多共通与关联。 最后我们简单介绍下语义分析在广点通“用户广告匹配”上的应用,并展望一下未来的语义分析方法 1 文本基本处理 在讲文本语义分析之前,我们先说下文本基本处理,因为它构成了语义分析的基础。 根据贝叶斯公式:P(w_1,w_2,w_3 … w_m) = P(w_1)P(w_2|w_1)P(w_3|w_1,w_2) … P(w_m|w_1,w_2 … w_{m-1})。 文献[3]不仅提出神经网络语言模型,还顺带引出了词向量,关于词向量,后文将再细述。 ?

    1.3K10发布于 2020-07-08
  • 来自专栏深度学习和计算机视觉

    PSPNet | 语义分割及场景分析

    语义分割的目标仅仅是获知已知对象的每个像素的类别标签。 场景解析是基于语义分割的,它的目标是获知图像内所有像素的类别标签。 对全局信息的需要 2.金字塔池化模块 3. 一些细节 4. 模型简化研究 5. 与时下最佳方法的比较 1. 蓝色:这是第三层,将特征 map划分为3×3个子区域,然后对每个子区域进行平均池化。 绿色:这是将特征map划分为6×6个子区域的最细层次,然后对每个子区域执行池化。 有20K/2K/3K图像用于训练/验证/测试。 验证集用于模型简化测试。 4.1. ‘B1’和‘B1236’: bin大小分别为{1×1}和{1×1,2×2,3×3,6×6}的池化特征map。 ‘MAX’和‘AVE’: 最大池操作和平均池操作 ‘DR’: 降维.

    87510编辑于 2022-09-28
  • 来自专栏AIGC 先锋科技

    LLM-包装 黑盒语义感知视图语言基础模型的适应 !

    VLMs在生成的检测中表现良好,其中LLM-wrapper可以使用LLM语义和空间推理能力选择最相关的框。 为了获得最佳性能,作者使用高效的LoRA [15]策略微调LLM。 作者在第3.1节中介绍实验设置,主要结果在第3.2节中呈现,分析在第3.3节中进行。 这表明在作者微调期间,LLM-wrapper学习了适用于其他模型的空间和语义概念。 在图3中,作者对比了Flo2和LLM-wrapper在Fl2上操作的输出(Llama 3微调)的结果。 图3(a&b)显示LLM-wrapper在空间和关系推理上的优势,图3(c)显示LLM-wrapper可以更好地识别 Query 的主题。 局限性。

    41010编辑于 2024-10-22
  • 来自专栏架构师成长之路

    大模型llm:Ollama部署llama3学习入门llm

    二、Ollama安装 1、Ollama简介 Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。 "prompt": "请分别翻译成中文、韩文、日文 -> Meta Llama 3: The most capable openly available LLM to date", "stream ": "Here are the translations:\n\n**Chinese:** 《Meta Llama 3》:迄今最强大的公开可用的LLM\n\n**Korean:** 《Meta Llama 3》:현재 가장 강력한 공개 사용 가능한 LLM\n\n**Japanese:**\n\n《Meta Llama 3》:現在最強の公開使用可能なLLM\n\n\n\nNote: (Meta Llama } ] }' 五、配置Open-WebUI 可以直接使用dify开源的llm ops集成:https://guisu.blog.csdn.net/article/details/138978737

    7K00编辑于 2024-05-24
  • 来自专栏数据饕餮

    NLP专题:LSA浅层语义分析

    原文地址:http://en.wikipedia.org/wiki/Latent_semantic_analysis 前言 浅层语义分析(LSA)是一种自然语言处理中用到的方法,其通过“矢量语义空间”来提取文档与词中的 “概念”,进而分析文档与词之间的关系。 词-文档矩阵和传统的语义模型相比并没有实质上的区别,只是因为传统的语义模型并不是使用“矩阵”这种数学语言来进行描述。 将其映射到语义空间,再与文档进行比较。 应用 低维的语义空间可以用于以下几个方面: 在低维语义空间可对文档进行比较,进而可用于文档聚类和文档分类。 通过查询映射到语义空间,可进行信息检索。 从语义的角度发现词语的相关性,可用于“选择题回答模型”(multi choice qustions answering model)。

    2K20发布于 2019-06-14
  • 来自专栏AI科技评论

    PSPNet ——语义分割及场景分析

    语义分割的目标仅仅是获知已知对象的每个像素的类别标签。 场景解析是基于语义分割的,它的目标是获知图像内所有像素的类别标签。 对全局信息的需要 2.金字塔池化模块 3. 一些细节 4. 模型简化研究 5. 与时下最佳方法的比较 1. 蓝色:这是第三层,将特征 map划分为3×3个子区域,然后对每个子区域进行平均池化。 绿色:这是将特征map划分为6×6个子区域的最细层次,然后对每个子区域执行池化。 有20K/2K/3K图像用于训练/验证/测试。 验证集用于模型简化测试。 4.1. ‘B1’和‘B1236’: bin大小分别为{1×1}和{1×1,2×2,3×3,6×6}的池化特征map。 ‘MAX’和‘AVE’: 最大池操作和平均池操作 ‘DR’: 降维.

    4.1K20发布于 2019-08-21
  • 来自专栏CSDN社区搬运

    基于BERT的语义分析实现

    BERT作为一种预训练语言模型,它具有很好的兼容性,能够运用在各种下游任务中,本文的主要目的是利用数据集来对BERT进行训练,从而实现一个语义分类的模型。 语义分类 语义分类是自然语言处理任务中的一种,包含文本分类、情感分析 文本分类 文本分类是指给定文本a,将文本分类为n个类别中的一个或多个。 举例而言,对于一个对话数据集,我们可以用1、2、3表示他们的话题,如家庭、学校、工作等,而文本分类的目的,则是把这些文本的话题划分到给定的三种类别中。 情感分类 情感分析是自然语言处理中常见的场景,比如商品评价等。通过情感分析,可以挖掘产品在各个维度的优劣。情感分类其实也是一种特殊的文本分类,只是他更聚焦于情感匹配词典。 本文将以情感二分类为例,实现如何利用BERT进行语义分析。 实现原理 首先,基于BERT预训练模型,能将一个文本转换成向量,作为模型的输入。

    41410编辑于 2024-11-30
  • 来自专栏AI科技评论

    总结 | 邹炎炎:语义分析介绍及跨语言信息在语义分析中的应用

    近年来,随着人工智能的发展,语义分析也越发重要。 word embedding 是很常见的 input feature,能够很大程度地提升语义分析模型的性能。 然而,对于 output 对语义分析模型性能的影响,大家的关注度却并不是很高。 分享主题:语义分析介绍及跨语言信息在语义分析中的应用 分享提纲: 1.semantic parsing 背景介绍 2.semantic parsing 模型介绍 3. 为了让大家更好地区分语法分析语义分析的不同点,我先介绍一下两种分析的任务: Dependency parsing :比如输入一句话「I saw a girl with a telescope」,Dependency 最后做一下总结,本次我们分享了语义分析的基本背景知识,我们实验室工作中用到的一些语义分析模型、ACL 2018 会议中的短文《跨语言信息在语义分析中的应用》以及语义分析的一些表现。

    1.6K30发布于 2018-10-25
  • 应用潜在语义分析技术将文档进行3D可视化

    潜在语义分析(LSA,Latent Semantic Analysis)使用文档词频矩阵(Document-term Matrix)的奇异值分解(SVD,Singular Value Decomposition )将文档集合投影到三维潜在空间(3D Latent Space)中。 这个空间就被可视化在一个可以通过拖动鼠标进行操控的 3D 场景中。 我们可以通过按住鼠标左键或右键并拖动它以定位 3D 场景。这个轨迹球代码的有趣的之处,就是鼠标事件是被触发在一个叠加在 3D 场景上的透明的边界上的。 这是因为WPF的Viewport3D类只有在光标位于 3D 模型上时才会触发鼠标事件。轨迹球代码基本上是一个“黑盒”,它可以附加到任何 3D 场景来实现场景的视觉操纵。

    1.2K91发布于 2018-01-29
  • 来自专栏云云众生s

    如何使用语义路由器和LLM工具构建AI代理

    在本 AI 代理教程中,我们使用语义路由器来选择从 OpenAI LLM 和其他 AI 工具检索信息的最佳方式。 在上一篇文章中,我介绍了语义路由器: 一种使 AI 代理 能够为正确的任务选择正确的 LLM 的模式,同时还减少了它们对 LLM 的依赖。 在本教程的后续内容中,我们将使用 语义路由器 项目通过选择最佳信息检索方式(例如是否使用向量数据库 和/或基于工具的实时数据检索器)来智能地处理用户查询。 语义路由器采用 OpenAI 的 LLM 和结构化检索方法,并将它们结合起来,创建了一个自适应的、高响应的助手,可以快速处理对话查询和特定于数据的请求。 small" ) COLLECTION_NAME = "baggage_policy" 步骤 3:从 AeroAPI 获取航班数据 FlightAware 的 AeroAPI 提供实时航班数据。

    50710编辑于 2024-10-13
  • 来自专栏Michael阿明学习之路

    潜在语义分析(Latent Semantic Analysis,LSA)

    一种无监督学习方法,主要用于文本的话题分析 其特点是通过矩阵分解发现文本与单词之间的基于话题的语义关系 最初应用于文本信息检索,也被称为潜在语义索引(latent semantic indexing, LSI),在推荐系统、图像处理、生物信息学等领域也有广泛应用 文本信息处理中: 传统的方法以单词向量表示文本的语义内容,以单词向量空间的度量表示文本之间的语义相似度 潜在语义分析 旨在 解决这种方法不能准确表示语义的问题 ,试图从大量的文本数据中发现潜在的话题 以话题向量表示文本的语义内容,以话题向量空间的度量更准确地表示文本之间的语义相似度 潜在语义分析使用的是非概率的话题分析模型 将文本集合表示为单词-文本矩阵 对单词 潜在语义分析算法 潜在语义分析 利用 矩阵奇异值分解(SVD),对单词-文本矩阵进行奇异值分解 左矩阵 作为话题向量空间 对角矩阵 与 右矩阵的乘积 作为 文本在话题向量空间的表示 潜在语义分析 根据 3. 非负矩阵分解算法 图片.png 非负矩阵分解的算法是迭代算法 图片.png

    3.7K30发布于 2020-07-13
领券