而向量空间则为这些向量提供了运算和结构的舞台,是玩转LLM的基石。正如,DB record不仅仅是元组,它更是业务事实的数字化镜像、系统状态的精确快照。 【问】上例中水果 = [1.0, 0.2, 0.4] 对应 LLM 的 K向量吗?苹果 = [0.8, 0.6, 0.3] 对应 LLM 的 V向量吗?【答】你搞混了。 查询、推理,是两个不同场景当你采用 VectorDB 进行相似度查询(搜索)时:苹果 永远是 [0.8, 0.6, 0.3]当你使用 LLM 做推理(生成)时:LLM(Transformer)里的 K、 语义相似度由夹角决定词向量的语义相似度是通过余弦相似度(即向量夹角的余弦值)来衡量的。当两个词向量夹角越小,余弦值越接近1,表示语义越相似。 降维的数学本质这个过程在数学上可以理解为奇异值分解(SVD)或主成分分析(PCA)。通过矩阵分解,将高维的共现矩阵(如词-文档矩阵或词-词共现矩阵)压缩到低维空间,保留最重要的语义信息。
,5只猫(预测值),对分类结果画出对应混淆矩阵进行分析(狗:正例,类别1,猫:反例,类别2):(参考链接) 等等…见此表是不是依旧懵逼? (那就对了…) 分析混淆矩阵的3个要点:(参考链接) ①矩阵对角线上的数字,为当前类别预测正确的类别数目;非对角线数字,预测都是错误的! 比如:第2列,模型对猫(类别2)预测了1+4=5只(此时,不看预测对与错),再分析,第2列第1行非对角线元素,预测错误(预测值是猫,实际是狗),第2列第2行为对角元素,预测正确(预测值是猫,实际是猫), 上面分析了一大堆,最终还是不够精炼,于是大佬们定义了几个公式: 准确率(Accuracy),对应:语义分割的像素准确率 PA 公式:Accuracy = (TP + TN) / (TP + TN + 对于IoU的理解,可延伸阅读一下: 语义分割的评价指标——IoU 语义分割代码阅读—评价指标mIoU的计算 ---- 3 综合实例 上述对语义分割中常用5个评价指标进行了简介,下面列举一个例子,按照评价指标计算的三个步骤进行讲解
HTML5 添加了很多语义元素如下所示:
标签 描述
语义= 意义 语义元素 = 有意义的元素 什么是语义元素? 一个语义元素能够清楚的描述其意义给浏览器和开发者。 无语义 元素实例: