首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    模型矩阵、视图矩阵、投影矩阵

    总而言之,模型视图投影矩阵=投影矩阵×视图矩阵×模型矩阵模型矩阵将顶点从局部坐标系转化到世界坐标系中,视图矩阵将顶点从世界坐标系转化到视图坐标系下,而投影矩阵将顶点从视图坐标系转化到规范立方体中。 观察者的位置和方向会变化,看上去就好像整个世界的位置和方向发生变化了一样,所以我们将世界里的所有模型看作一个模型,在所有模型矩阵的左侧再乘以一个表示整个世界变换的模型矩阵,就可以了。 这个表示整个世界变换的矩阵又称为「视图矩阵」,因为他们经常一起工作,所以将视图矩阵乘以模型矩阵得到的矩阵称为「模型视图矩阵」。 观察者缩小的情形曾经使我困惑: 一方面,即使人和猫咪的眼睛在同一个位置,人看到的世界和猫咪看到的世界应当是一样尺寸的(虽然人比猫);但是直觉告诉我,如果你喝了变猫药水,你应该会觉得整个世界在膨胀,就像视图矩阵所表现的那样 视图矩阵实际上就是整个世界的模型矩阵,这给我一点启发:一个模型可能由多个较小的子模型组成,模型自身有其模型矩阵,而子模型也有自己的局部模型矩阵

    3.2K20编辑于 2022-08-27
  • 来自专栏一位计算机小白的学习日记

    C:9-9题目:蛇形矩阵

    比如一个3*3的蛇形方阵 3 2 1 4 9 8 5 6 7 二、解题思路: 分析题目: 1.该矩阵是一个方阵,填入矩阵内的值是从1开始的; 2.该矩阵的填充顺序是逆时针向内填充的。 具体可以参考上面所给的蛇形矩阵。 具体思路: 1. 初始化矩阵  创建一个  n  行  m  列的全零矩阵,用于存储最终的蛇形方阵。 2.  ,再通过两个for循环将矩阵元素全部填充为0。 循环条件num <= n * m,当填充的数字大于矩阵内元素总数时结束循环,比如说3*3的矩阵,当我们填充的数字num = 10 的时候,大于3*3 = 9;10不在填入矩阵内。 col < m - 1这个条件用于判断当前列是否小于矩阵总列数减 1。 这是因为在矩阵中,列索引从 0 开始,当col等于m - 1时,已经到达了矩阵最右侧的列,再向右就超出矩阵范围了。

    62310编辑于 2024-10-21
  • 来自专栏ceshiren0001

    AI|模型入门(六):GPT→盘古,国内外模型矩阵速览

    模型产品层出不穷,面对各种声称“最强”的模型,我们该如何快速理清技术路线和核心差异?本文从基础架构出发,带你一站式浏览国内外主流模型厂商及其代表产品,最后给出个人使用建议,帮你少走弯路。 一、三技术路线概览大部分模型都基于 Transformer 架构,按照编码与解码模块的不同可分为三类:自回归模型(Decoder‑only)仅用解码器生成文本,典型代表 GPT 系列优势:对话、生成 )同时具备编码和解码模块,代表 T5、GLM 系列优势:翻译、摘要、生成式问答等需要双向理解与生成的场景二、国际阵营·标杆模型1. GoogleBERT / LaMDA:Transformer 和对话模型的开山鼻祖PaLM-E:多模态场景下的融合式模型Bard 系列:面向消费级对话应用3. /3、SEER、data2vec开源自回归模型,社区活跃,跨模态方向布局三、国货之光·模型1.

    67000编辑于 2025-07-15
  • 来自专栏掘金安东尼

    👾打开 RAG 对接模型的黑盒 —— 9 隐藏问题

    Prompt 给他介绍一下相关背景,然后模型就有更专业的应答能力了。 言而总之,大数据时代,很多公司都拥有大量的专有数据,如果能基于它们创建 RAG,将显著提升模型的特异性。 对于很多人来说,RAG 的引入、与模型的对接是一个黑盒,任何微小参数的变动都将引起结果发生很大的变化。 /模型没有回答问题/模型编造有害的或带有偏见的答案 接下来,一起揭秘:RAG 对接模型的黑盒 —— 9 大问题 来源:Seven Failure Points When Engineering a Retrieval 总结 本篇提供了开发 RAG 通道 9 个痛点,并针对每个痛点都给了相应的解决思路。 RAG 是非常重要的专用检索+通用模型的技术手段,在赋能模型、满足特定化场景中非常重要!

    79010编辑于 2024-04-04
  • 来自专栏腾讯云智能·AI公有云

    一图看懂 | 腾讯模型最新AIGC产品矩阵

    腾讯云助力友邦保险“春日绽放歌会”增添AI新亮点|100位总裁征集,免费定制鹅厂数智人 | 一图看懂「腾讯云生成式AI产业应用峰会」|腾讯云发布三AI模型引擎,5分钟开发一款企业级知识应用|腾讯云吴运声 :打造模型时代原生工具链,助力客户一站式构建AI原生应用|治愈大模型“健忘症” | 腾讯混元发布256k长文模型 | 来,1亿Tokens免费赠,模型任选!

    63310编辑于 2024-07-10
  • 来自专栏OpenTK

    OpenTK投影矩阵模型矩阵

    二维平面只包含缩放和平移的模型矩阵 [ sx 0 0 tx ] ← X轴缩放(sx)与X轴平移(tx) [ 0 sy 0 ty ] ← Y轴缩放(sy)与Y轴平移 ty) [ 0 0 1 0 ] ← Z轴不缩放、不平移(保持1) [ 0 0 0 1 ] ← 齐次坐标标识(固定为1) 二维平面包含缩放、旋转和平移的模型矩阵 0 ty ] [ 0 0 1 0 ] [ 0 0 0 1 ] 二维平面视口大小与窗口大小一致,生成投影矩阵 // 创建二维正交投影矩阵 Matrix4 projectionMatrix = Matrix4.CreateOrthographicOffCenter( left: 0, 窗口大小适配:当窗口大小改变时,需重新计算投影矩阵(通常在 OnResize 事件中更新)。

    23410编辑于 2025-09-03
  • 来自专栏代码编写世界

    模型矩阵分解

    正文 通常来说,模型矩阵(R)的一种比较好的级联方式为:先缩放(S),再旋转(R),最后平移(T): \textbf{R} = \textbf{T} * \textbf{R} * \textbf{S} 如果不考虑缩放变换,那么模型变换实际上是一种刚体变换。 此时四维模型矩阵的左上角3X3矩阵就是旋转矩阵,第四列就是平移量。但是加上缩放变换,就变成一个复杂的问题了。 const glm::mat4& m) { for (int i = 0; i < 4; i++) { for (int j = 0; j < 4; j++) { printf("%.9lf 除了缩放、旋转和平移,GLM提供的模型矩阵分解的函数接口glm::decompose()还提供一个skew参数和perspective参数,暂时没弄明白其具体含义,留待以后研究。 2.

    98420编辑于 2022-05-07
  • 来自专栏全栈程序员必看

    矩阵分解模型

    矩阵分解模型做如下假设: 1.每个用户可描述为n个属性或特征。比如,第一个特征可以对应某个用户对动作片的喜好程度。 2.每个物品可描述为n个属性或特征。 假设我们的用户和物品数目分别是U和I,那对应的“用户-物品”矩阵的维度为U*I。那对应的两个低阶矩阵分别是用户的U*k矩阵,和物品的I*k矩阵。这两个矩阵也被称为因子矩阵。因子矩阵通常是稠密的。 由于对“用户-物品”矩阵直接建模,用这些模型进行预测也相对直接:要计算给定用户对某个物品的预计评级,就从用户因子矩阵和物品因子矩阵分别选取相应的行(用户因子向量)与列(物品因子向量),然后计算两者的点积即可 因子分解类模型的的利弊: 利:求解容易,表现出色 弊:不好解释,吃资源(因子向量多,训练阶段计算量大) 2.隐式矩阵分解 隐式矩阵就是针对隐式反馈数据。 它将输入的评级数据视为两个矩阵:一个二元偏好矩阵P和一个信心权重矩阵C。 隐式模型仍然会创建一个用户因子矩阵和一个物品因子矩阵。但是,模型所求解的是偏好矩阵而非评级矩阵的近似。

    61030编辑于 2022-08-28
  • 来自专栏全栈程序员必看

    模型视图矩阵和投影矩阵_马尔可夫模型

    ,本文即讨论这种模型的机理。 2 小孔成像 机器视觉成像采用小孔成像模型,如下图所示 再次简化为下图 图中 X X X是一个空间点, x x x为该空间点在图像中的成像点, C C C为镜头光心(camera centre 后面的各个坐标系及其相互关系都是基于这个小孔成像模型推出。 3 坐标系 说到机器视觉测量模型,就少不了先要了解整个模型中涉及的几个坐标系。 f f f、像元尺寸 d x d y dxdy dxdy、中心像素 u 0 v 0 u_0v_0 u0​v0​有关,这都是相机和镜头的内部参数,相机及镜头确定后这个矩阵就被确定,所以被称为内参矩阵。 M 2 M_2 M2​与相机的位姿有关,称为外参矩阵

    89110编辑于 2022-11-09
  • 来自专栏全栈程序员必看

    投影矩阵 视图模型矩阵「建议收藏」

    OpenGL在设置场景时,要用到两个矩阵:投影矩阵模型视图矩阵通过glMatrixMode来指定下面的矩阵操作是针对哪一个矩阵进行的。 ,但之后可能出错,若设置glMatrixMode(GL_MODELVIEW);glLoadIdentity(); 本应该将视图模型矩阵单位化,即消除之前视点矩阵所产生的视点变换,但是之前的视点矩阵保存到了投影矩阵中 />gluLookAtUp(); // E 视点矩阵
    glTranslate(); // T 模型矩阵
    glScale(); // S 模型矩阵
    glRotate(); // R 模型矩阵
    因为实际的变换顺序与代码的顺序是相反的,设顶点v 模型视图矩阵的顺序依次为 I, E, ET, ETS, ETSR, 经过变换的顶点是 (OpenGL为列主序矩阵,转置) 但可以在绘图之前的任何时候执行投影变换和视口变换。 视锥体的设置: 投影变换创建了一个六面体,位于视锥体内的模型才能被看到,而外面的模型则被裁剪掉。

    74520编辑于 2022-08-27
  • 来自专栏DeepHub IMBA

    9型语言模型研究论文总结

    大型语言模型(llm)在今年发展迅速,随着新一代模型不断地被开发,研究人员和工程师了解最新进展变得非常重要。本文总结9-10月期间发布了一些重要的LLM论文。 这些论文涵盖了一系列语言模型的主题,从模型优化和缩放到推理、基准测试和增强性能。最后部分讨论了有关安全训练并确保其行为保持有益的论文。 这种方法产生了MathCoder模型,这是一组能够生成基于代码的解决方案的模型,用于解决具有挑战性的数学问题。 现有的问答基准(如ToMi)会向模型提问,以推断故事中人物的信念,但不会测试模型是否可以使用这些推断来指导它们的行动。 SmartPlay中的每个游戏都独特地挑战了智能LLM代理的9个重要功能的子集,包括对象依赖性推理,提前计划,空间推理,从历史中学习和理解随机性。

    77321编辑于 2023-10-23
  • 来自专栏大模型应用

    模型应用:矩阵乘加(GEMM)全解析:模型算力消耗的逻辑与优化.68

    模型场景中,β通常取0,即仅保留矩阵乘法结果,无需累加初始矩阵C,核心简化为D = A×B,而累加操作会间接体现在后续激活函数的输入计算中。2. 重要作用 GEMM是模型的核心,体现在Transformer架构的核心模块(自注意力机制、前馈神经网络)均以GEMM为核心运算,主要源于三优势:并行度极高:矩阵运算可通过GPU张量核心 这一公式是模型算力测算公式的底层核心,模型中的GEMM运算本质是高维矩阵乘法,其运算量直接决定了整体算力需求,后续算力测算的简化与校准均基于此公式展开。 模型中的高维GEMM运算 模型中,输入数据、模型参数均以高维张量(矩阵的扩展形式)存在,GEMM运算需适配高维场景。 通过模拟模型中典型的矩阵维度(1024×4096 与 4096×1024),分别执行100次矩阵乘法并记录耗时。

    37732编辑于 2026-04-06
  • 来自专栏AI前沿技术

    GPU矩阵分块|让矩阵运算速度起飞

    GPU的片上共享内存有限,完整的矩阵的运算会导致内存溢出,对矩阵分块应用并行计算是必备的优化方法,那如何对矩阵分块,分块后如何并行计算?了解以上问题可以加深对涉及大量矩阵运算算法的理解。 若矩阵 A 为 1000×1000,Tile Size 选 16(1000÷16=62.5,需补零至 1008)需要注意矩阵和小Tile 的平衡,当矩阵时,使用较大 Tile Size(如 32)减少分块数 更多精彩: 历史文章: 显卡知识-算力开挂的GPU 模型量化-roofline性能分析工具 模型推理-Flash attention 访问内存优化 模型推理-page attention 内存分页术 模型推理-极致化的批处理策略介绍 模型推理- PD分离部署,势在必行! 模型推理-高效推理必备KV cache 模型训练-混合专家系统MoE 模型训练-Nvidia GPU 互联技术全景图 模型训练-流水线并行PP 模型训练-张量并行TP

    49110编辑于 2026-01-13
  • 来自专栏猫头虎博客专区

    开源模型DeepSeek.ai火遍全球:9条让DeepSeek颠覆通用模型的事实

    DeepSeek.ai火遍全球的几个事实: DeepSeek 不是套壳不是蒸馏美国的模型。 虽然中国有些模型是套壳和蒸馏的, 但 DeepSeek 不是。 在训练阶段, Deepseek 用标注的 Long CoT 数据微调模型, 让模型生成更清晰的推理步骤, 在强化学习中用 CoT 设计奖励优化, 增强长链推理能力, 并且在此过程中观察到了模型的反思 ( 数据, 训练了 R1-Zero 模型, 探索了模型不依赖人类标注数据微调、自主推演的能力, 打开了新的思路。 比如轻量化设计把钢板换成钢条 (类似通过稀疏的办法减少模型的参数量); 涡轮增压利用废气能量增加空气供给, 提高燃烧效率; 精密制造, 使得发动机零部件的配合更加紧密, 从而减少能量损失; 等等。 基础模型终将 commoditize (商品化), toB 领域看谁能将 LLM 更好和复杂的生产环节衔接好帮客户落地提高生产效率, toC 领域看谁有流量入口, 最终才会获取 AI 产业价值创造中最多的利润

    1.1K10编辑于 2025-02-02
  • 来自专栏阿黎逸阳的代码

    模型效果评价—混淆矩阵

    对于分类模型,在建立好模型后,我们想对模型进行评价,常见的指标有混淆矩阵、KS曲线、ROC曲线、AUC面积等。也可以自己定义函数,把模型结果分割成n(100)份,计算top1的准确率、覆盖率。 混淆矩阵是用于评价分类模型效果的NxN矩阵,其中N是目标类别的数目。矩阵将实际类别和模型预测类别进行比较,评价模型的预测效果。 对全部样本数据进行统计,可以判断模型预测对了的样本数量和预测错了的样本数量,从而可以衡量模型的预测效果。 二、混淆矩阵有关的三级指标 ? 1 一级指标 以分类模型中最简单的二分类为例。 2 二级指标 对于预测性分类模型,我们希望模型的预测结果越准越好,即混淆矩阵中TP、TN的值越大越好,相应FP、FN的值越小越好。 F1-Score的取值范围(0~1),越接近1说明模型预测效果越好。 三、计算混淆矩阵的实例 ?

    2.6K10发布于 2020-09-07
  • 来自专栏全栈程序员必看

    模型评估之混淆矩阵

    在前面的文章中我们讲到了回归模型和分类模型的评估指标,区分了准确率和精确率的区别,并且比较了精确率和召回率内在的联系。 混淆矩阵是机器学习中总结分类模型预测结果的情形分析表,以矩阵形式将数据集中的记录按照真实的类别与分类模型预测的类别判断两个标准进行汇总。 其中矩阵的行表示真实值,矩阵的列表示预测值,下面我们先以二分类为例,看下矩阵表现形式,如下: 二分类混淆矩阵 现在我们举个列子,并画出混淆矩阵表,假如宠物店有10只动物,其中6只狗,4只猫,现在有一个分类器将这 10只动物进行分类,分类结果为5只狗,5只猫,那么我们画出分类结果混淆矩阵,并进行分析,如下(我们把狗作为正类): 猫狗分类混淆矩阵 通过混淆矩阵我们可以轻松算的真实值狗的数量(行数量相加)为6=5+ 至此,关于模型评估个各指标已全部介绍完毕,后面的文章我们将开始讲解一些经典算法的推导及使用,喜欢的小伙伴请点击关注!

    2.2K10编辑于 2022-08-27
  • 来自专栏机器学习养成记

    推荐算法|矩阵分解模型

    导读:在《推荐算法概述》一文中,我们介绍了推荐算法分为基于用户、基于物品、基于模型的协同过滤方法,矩阵分解模型是典型的基于模型的方法之一,本文将从基本概念、原理、实践几个角度进行介绍。 2 原理简述 矩阵分解指将一个矩阵转化为两个小矩阵相乘: ? 对应在推荐场景中,矩阵表示用户对物品的评分,将矩阵转化为用户矩阵和物品矩阵相乘,小矩阵的维度k解释为隐含的兴趣点,原本缺失的地方通过两个矩阵相乘也得到了取值,该取值就是预测的分数。 ? 模型训练的目标是使输入输出矩阵误差最小,并且为了避免过拟合加入了正则项。应用显示信息和隐式信息的目标函数分别如下: ? ? als.getItemCol()).distinct().limit(3) movieSubSetRecs = model.recommendForItemSubset(movies, 10) 4 优缺点 矩阵分解将矩阵转化为两个低维矩阵的乘积

    1.2K10发布于 2021-06-21
  • 来自专栏LET

    坐标系与矩阵(6)模型视图投影矩阵

    模型视图投影矩阵,也就是常说的MVP,有很多的书和资料,参考资料中会列出我推荐的相关资料,会详细介绍推导过程。之所以还要写这一篇,是因为它比较重要,也为了保证‘坐标系与矩阵’系列文章的完整性。 ,我们称为模型矩阵,记为 ? : ? 不难理解, ? 和 ? 在不同场景下都有意义和不同的优势。装饰后我们拍一张家居图,就要选一个合适的角度来拍摄了,所谓的横看成岭侧成峰。 至此,我们介绍了模型视图矩阵,这里,多插一句,就是法线的转换。已知: ? 此时,已知一点 ? ,对应的法线 ? 。该点经过矩阵 ? 转换到新的坐标系下,对应的法线 ? : ? 可见,正交投影符合欧几里得的平行线不相交特性,更符合几何体在空间中的客观存在方式,比如乐高积木;而在透视投影下平行线则会相交,更符合人眼‘近大远小’的特点,比如‘鸽子为什么这么’。 ? ? 这样,最终的透视投影矩阵以及投影矩阵有两种情况: ? 这样,我们可以得到最终的模型视图投影矩阵,实现将3D空间下的 ? 映射到2D平面: ?

    1.4K30发布于 2021-07-20
  • 来自专栏大模型应用

    模型应用:本地大模型部署中的Token效率优化与性能分析.9

    引言 在模型应用日益普及的今天,对模型交互过程中Token消耗的深入理解和有效管理变得至关重要。 Token作为模型处理文本的基本单位,不仅直接关系到模型的响应速度和质量,更影响着计算资源的消耗和使用成本。 随着模型规模的不断扩大和应用场景的多样化,如何在不牺牲对话质量的前提下优化Token使用效率,已成为提升模型应用经济性和实用性的关键问题。 助理回复:"我是通义千问,一个由开发的语言模型。我致力于帮助用户解答问题、提供信息和执行各种任务。" ,确保系统在不同硬件环境下的可用性通过持续的技术迭代和优化,我们相信Token效率优化将在推动语言模型普惠应用方面发挥越来越重要的作用。

    57643编辑于 2026-02-06
  • 来自专栏DeepHub IMBA

    SingLoRA:单矩阵架构减半参数量,让模型微调更稳定高效

    随着深度学习模型规模的不断扩大,模型微调在保持性能的同时面临着计算成本和内存消耗的双重挑战。 SingLoRA作为一种创新的低秩适应方法,通过摒弃传统的双矩阵架构,采用单矩阵对称更新策略,在简化模型结构的同时显著提升了训练稳定性和参数效率。 这种双矩阵设计虽然减少了参数量,但矩阵间的尺度不匹配问题往往导致训练过程不稳定,需要精细的超参数调整。 语言模型微调实验 在LLaMA-7B模型的MNLI任务评估中,SingLoRA展现出了更为突出的优势: 方法 | 准确率 (%) | 参数量 (百万) -----------|-- 该方法具有以下核心优势:参数效率显著提升,单一矩阵设计减少了参数量和实现复杂度;训练稳定性从设计层面得到保障,无需额外的数值稳定化处理;广泛的模型适用性,在文本和图像模型上均表现出色;良好的扩展性,可与

    24310编辑于 2025-08-20
领券