首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏mathor

    矩阵分析(十一)酉矩阵、正交矩阵

    矩阵 若n阶复矩阵A满足 A^HA=AA^H=E 则称A是酉矩阵,记为A\in U^{n\times n} 设A\in C^{n\times n},则A是酉矩阵的充要条件是A的n个列(或行)向量是标准正交向量组 酉矩阵的性质 A^{-1}=A^H\in U^{n \times n} \mid \det A\mid=1 A^T\in U^{n\times n} AB, BA\in U^{n\times n} 酉矩阵的特征值的模为 1 标准正交基到标准正交基的过渡矩阵是酉矩阵 酉变换 设V是n维酉空间,\mathscr{A}是V的线性变换,若\forall \alpha, \beta \in V都有 (\mathscr{A}(\alpha ), \mathscr{A}(\beta))=(\alpha,\beta) ---- 正交矩阵 若n阶实矩阵A满足 A^TA=A^A=E 则称A是正交矩阵,记为A\in E^{n\times n} 设A (或正交矩阵) ---- 满秩矩阵的QR分解 若n阶实矩阵A\in \mathbb{C}^{n\times n}满秩,且 A = [\alpha_1,...

    7.2K30发布于 2020-11-24
  • 来自专栏mathor

    矩阵分析(九)Gram矩阵

    ··+k_s\beta_s\right>=k_1\left<\alpha,\beta_1\right>+···k_s\left<\alpha,\beta_s\right>$ ---- 线性组合的内积的矩阵表示 beta_t\right>\end{bmatrix}\begin{bmatrix}l_1\\ \vdots \\ l_t\end{bmatrix} \end{aligned} $$ ---- Gram矩阵 ,\beta_t$的协Gram矩阵,记为$G(\alpha_1,...,\alpha_s;\beta_1,...,\beta_t)$ $\alpha_1,... ,\alpha_s$的Gram矩阵,记为$G(\alpha_1,...,\alpha_s)$ $\alpha_1,... ,\beta_t)A $$ Gram矩阵的性质 $Rank(G)=rank(\alpha_1,...

    1.2K20发布于 2021-04-01
  • 来自专栏mathor

    矩阵分析(十三)矩阵分解

    \2&0&0&0&-14\\-1&2&-4&0&1\\2&6&-5&5&-7\end{bmatrix} 解:对矩阵A只作初等行变换 A=\begin{bmatrix}1&4&-1&5&6\\2&0&0& 0&-14\\-1&2&-4&0&1\\2&6&-5&5&-7\end{bmatrix}\to ···\to\begin{bmatrix}1&0&0&0&-7\\0&1&0&\frac{10}{7}&\ frac{29}{7}\\0&0&1&\frac{5}{7}&\frac{25}{7}\\0&0&0&0&0\end{bmatrix} A的秩为3,且前三个列向量线性无关,故 B = \begin{bmatrix }{7}\\0&0&1&\frac{5}{7}&\frac{25}{7}\end{bmatrix} ---- 例2 求矩阵A=\begin{bmatrix}2&1&-2&3&1\\2&5&-1&4&1\ }\\0&1&0&\frac{1}{5}&\frac{1}{5}\\0&0&1&\frac{1}{5}&-\frac{4}{5}\end{bmatrix} ---- QR分解的应用 QR分解的内容请看矩阵分析

    2.2K10发布于 2021-04-02
  • 来自专栏mathor

    矩阵分析(十二)正规矩阵、Hermite矩阵

    定理:$\exists U\in U^{n\times n}$,使得$U^{-1}AU$为对角矩阵的充分必要条件为$A^HA=AA^H$ 定义:如果矩阵$A$满足$A^HA=AA^H$,则称其为正规矩阵 ---- Hermite矩阵 定义:$A\in \mathbb{C}^{n\times n}$,若$A^H=A$,则称$A$为Hermite矩阵 定理:Hermite矩阵是正规矩阵,Hermite矩阵的特征值是实数 &\frac{\sqrt{3}}{3}&\frac{\sqrt{2}}{2}\end{bmatrix} $$ 经计算得 $$ U_1^HAU_1=\begin{bmatrix}-1 & -\frac{7 \sqrt{2}}{2} & -\frac{7 \sqrt{3}}{3} \\ 0 & 4 & \frac{5 \sqrt{6}}{3} \\ 0 & -\frac{5 \sqrt{6}}{2} & - 30} & \frac{2 \sqrt{5}}{5}\end{bmatrix} $$ 则$U^HAU=\begin{bmatrix}-1 & \frac{\sqrt{30}}{15} & -\frac{7

    2.2K50发布于 2021-04-02
  • 来自专栏mathor

    矩阵分析笔记(九)Gram矩阵

    ,\beta_t的协Gram矩阵,记为G(\alpha_1,...,\alpha_s;\beta_1,...,\beta_t) \alpha_1,... ,\alpha_s的Gram矩阵,记为G(\alpha_1,...,\alpha_s) \alpha_1,... ,\beta_t)A Gram矩阵的性质 Rank(G)=rank(\alpha_1,... ,\alpha_s线性无关 ---- 度量矩阵 \alpha_1,...,\alpha_n是\mathbb{C}上的n维内积空间V中的一个基,则Gram矩阵G(\alpha_1,... ,\alpha_n的度量矩阵。向量的内积由度量矩阵唯一决定 若\alpha,\beta \in V,\alpha,\beta在基\alpha_1,...

    2.1K20发布于 2020-11-11
  • 来自专栏mathor

    矩阵分析(十四)矩阵的广义逆

    矩阵的广义逆 若A\in \mathbb{C}^{n\times n},且A为可逆矩阵,则有 AA^{-1}A=A A^{-1}AA^{-1}=A^{-1} (AA^{-1})^H=AA^{-1} (A 最广泛的广义逆矩阵有以下两个 仅满足条件1的广义逆矩阵称为减号逆,记为A^{-} 满足条件1,2,3,4的广义逆矩阵称为加号逆,记为A^+ ---- 矩阵的减号逆 (减号逆存在性定理)A\in \mathbb {C}^{m\times n},矩阵方程AXA=A恒有解,并且称X是A的一个减号逆 证明:设rank(A)=r≤min(m,n),存在可逆矩阵P,Q使得 A = P\begin{bmatrix}E_r& ---- 例1 求矩阵A= \begin{bmatrix}0&-1&3&0\\2&-4&1&5\\-4&5&7&-10\end{bmatrix} 解: $$ \begin{aligned} \left \left[\begin{array}{rrrr|rrr} 0 & -1 & 3 & 0 & 1 & 0 & 0 \\ 2 & -4 & 1 & 5 & 0 & 1 & 0 \\ -4 & 5 & 7

    2.5K20发布于 2021-04-02
  • 来自专栏数说戏聊

    10.RFM分析&矩阵分析1.RFM分析2.矩阵分析

    1.RFM分析 根据客户活跃程度和交易金额贡献,进行客户价值细分的方法。 高价值客户 低 高 高 重点保持客户 高 低 高 重点发展客户 低 低 高 重点挽留客户 高 高 低 一般价值客户 低 高 低 一般保持客户 高 低 低 一般发展客户 低 低 低 潜在客户 1.1 RFM分析过程 2.汇总RFM分值 RFM=100*R_S+10*F_S+1*M_S 3.根据RFM分值对客户划分8种类型 1.2 RFM分析前提 1.最近有过交易行为的客户,再次发生交易的可能性要高于最近没有交易行为的客户 .. .. .. .. ... 44867 1107 10 4187 1 1 1 111 [1200 rows x 7 151 8 148 2.矩阵分析 根据事物(如产品、服务等)等两个重要指标作为分析依据,进行关联分析,找出解决问题等一种分析方法。

    1.1K20发布于 2018-08-02
  • 来自专栏mathor

    矩阵分析笔记(八)λ矩阵和jordan分块

    以多项式为元素的矩阵称为多项式矩阵,简称为\lambda矩阵。 记号\mathbb{F}^{m\times n}[\lambda]表示所有m行n列的\lambda矩阵的集合,矩阵的元素是系数在\mathbb{F}中的\lambda的多项式。 \lambda I-A也是\lambda矩阵,例如 image.png 多项式矩阵和通常矩阵的主要区别在于:其元素所在的运算系统——多项式环\mathbb{F}[x]——不是一个域,所以通常矩阵的性质中 ,涉及到除法的,对于多项式矩阵不再成立 $\lambda$矩阵的秩 \lambda矩阵的秩,也用rank表示,是指其值为非零多项式的子行列式的最大阶数。 零矩阵的秩为0 可逆的$\lambda$矩阵 一个n阶\lambda矩阵是可逆的,若存在多项式矩阵V(\lambda)\in \mathbb{F}^{n\times n}[\lambda]使得 U(\lambda

    1.8K61发布于 2020-10-29
  • 来自专栏ReganYue's Blog

    【PTA】7-1 矩阵运算

    个人认为这段代码还是太过冗长,希望有大佬指出哪里可以改进~ 给定一个n×n的方阵,本题要求计算该矩阵除副对角线、最后一列和最后一行以外的所有元素之和。副对角线为从矩阵的右上角至左下角的连线。 输入格式: 输入第一行给出正整数n(1 输出格式: 在一行中给出该矩阵除副对角线、最后一列和最后一行以外的所有元素之和。 输入样例: 4 2 3 4 1 5 6 1 1 7 1 8 1 1 1 1 1 输出样例: 35 #include int main() { int n; scanf("%d",&n)

    68820发布于 2021-09-16
  • 来自专栏mathor

    矩阵分析复习题

    - 和空间与交空间 已知\alpha_1=(1, 2, 1,0), \alpha_2=(-1, 1, 1, 1), \beta_1=(2, -1, 0, 1), \beta_2=(1, -1, 3, 7) aligned} (\alpha_1^T,\alpha_2^T,\beta_1^T,\beta_2^T)&=\begin{bmatrix}1&-1&2&1\\2&1&-1&-1\\1&1&0&3\\0&1&1&7\ -l_2\beta_2=0,即 $$ \begin{cases} k_1-k_2-2l_1-l_2=0\\ 2k_1+k_2+l_1+l_2=0\\ k_1+k_2-3l_2=0\\ k_2-l_1-7l 解: 对于基为矩阵的形式,可以将所有的矩阵转为列向量进行处理 根据定义有 $$ \begin{aligned} &(\mathscr{A}(E_{11}), \mathscr{A}(E_{12}), ,\lambda_r 根据特征值列出所有可能的Jordan标准形矩阵J 由于矩阵A与Jordan标准形J相似,所以可通过rank(A-\lambda_iE)=rank(J-\lambda_iE)进行排除

    1.9K20发布于 2021-04-02
  • 来自专栏云深之无迹

    矩阵分析与应用.0

    只实现了这些算法

    38440发布于 2021-07-23
  • limma包做差异分析之分组矩阵和比较矩阵

    title: "limma包做差异分析之分组矩阵和比较矩阵"output: html_documenteditor_options: chunk_output_type: console##注:pairinfo 为配对信息,解决GEO芯片中配对样本如何做差异分析的问题##方法一####分组矩阵model.matrix#分组矩阵model.matrixrm(list = ls())library(limma)group 'before',18),rep('after',18))group#> [1] "before" "before" "before" "before" "before" "before"#> [7] 8 9 10 11 12 13 14 15 16 17 18 1 2 #> [21] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18#> Levels : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18design <- model.matrix(~0 +group + pairinfo)design2 <-

    51010编辑于 2025-06-13
  • 来自专栏LET

    坐标系与矩阵(7): 相机校正

    模型视图矩阵,在视觉中称为extrinsic parameters: ? 后者对应上一篇的 ? ,在视觉中称为intrinsic parameters。 ? ? ,假设存在一个image plane来成像,存在矩阵 ? 满足该投影转换。假设 ? 是图片的中心点,f为焦距,同样基于相似三角形,可得: ? ? 矩阵,也就是相机的intrinsic parameters ? : ? 我笔记本摄像头对应的参数 这样,在online阶段,我们可以基于原点 ? 至此,完成了坐标系与矩阵系列。 关于坐标系,不妨看看相对论(我也只是科普水平),当我们把时间也作为坐标系中的一个维度,可能会有新的体会;关于矩阵,分享一下黑客帝国1中,Morpheus说的一句话:’unfortunately, no

    1.5K40发布于 2021-07-20
  • 来自专栏FREE SOLO

    产品功能留存分析矩阵

    功能留存分析矩阵是什么意思?通过这个矩阵,帮你分析出产品中的哪个功能对留存的价值最高。 功能对留存的价值分为2个维度,使用用户的人数和连续使用功能的用户占比(功能留存率),功能留存分析矩阵帮我们解决的是,如果你想要提高留存,要去优先优化哪项功能。 如果说惊喜时刻帮我们定义了激活用户的指标,那么功能留存分析矩阵就帮我们从具体的功能角度,定义了用户留存的指标。 功能留存分析矩阵2个维度的计算方法,我们用一个例子来说明: 假如微信这个产品,我要分析朋友圈、看一看、搜一搜、附近的人这几个功能对留存率的影响,怎么做呢? 通过计算我们可以建立一个功能留存分析矩阵,有2个关键点要注意: 首先,功能留存率的计算,当前周期的使用用户数是不含这一周期的新用户的,而当前周期的活跃用户占比是包含这一周期的新用户的; 其次,功能留存率和活跃用户占比两个数据维度的计算周期要相同

    1.1K20编辑于 2022-01-06
  • 来自专栏mathor

    矩阵分析笔记(一)线性空间

    frac{1}{3} \\ \frac{2}{5} \\ \frac{1}{2} \end{array} \right)·2 $$ 数字2,可以看作是1×1的矩阵 将数放向量的右边,就满足了矩阵乘法的要求(第一个矩阵的列数必须等于第二个矩阵的行数)

    4.5K10发布于 2020-09-10
  • 来自专栏mathor

    矩阵分析笔记(四)子空间

    beta \in W 若\alpha \in W, k \in \mathbb{F},则k\alpha \in W 也就是说,只需要验证对加法和数乘封闭即可 例题1 设A为实数(或复数)m\times n矩阵

    2.8K30发布于 2020-09-22
  • 来自专栏mathor

    矩阵分析笔记(五)线性映射

    ., \mathscr{A}(\alpha_s)不一定线性无关 ---- 线性映射的矩阵表示 给定\mathbb{F}上的线性空间V_1, V_2,及线性映射\mathscr{A}:V_1\to V_2 ,a_n拼成的矩阵 A = \begin{bmatrix}a_1 & a_2 & \cdots & a_n\end{bmatrix} = [a_{ij}]_{m\times n} 称为\mathscr{ ,定义为向量组中每个向量的像按原顺序所成的向量组(简称为向量组的像)拼成的矩阵。 ]=[出口基矩阵][表示矩阵] 事实上,只要确定了线性映射两个空间的基(例如(\varepsilon_1,\cdots,\varepsilon_n)和(\beta_1,\cdots,\beta_m)), 就有唯一确定的一个矩阵A与之对应,而且矩阵A的每一个列向量就是对应的原基向量映射后的坐标;反之,如果基确定,任何一个矩阵都唯一确定了一个线性映射 我个人理解,线性映射其实就是将一个m维的矩阵,转换为n维的矩阵

    2.4K30发布于 2020-09-30
  • 来自专栏深入理解Android

    leetcode刷题(7)——搜索二维矩阵

    编写一个高效的算法来判断 m x n 矩阵中,是否存在一个目标值。该矩阵具有如下特性: 每行中的整数从左到右按升序排列。 每行的第一个整数大于前一行的最后一个整数。 示例 1: 输入: matrix = [ [1, 3, 5, 7], [10, 11, 16, 20], [23, 30, 34, 50] ] target = 3 输出: true 示例 2: 输入: matrix = [ [1, 3, 5, 7], [10, 11, 16, 20], [23, 30, 34, 50] ] target = 13 输出: false 思路

    29720编辑于 2022-06-22
  • 来自专栏mathor

    矩阵分析(十)正交、投影、标准正交

    left<\beta,\alpha\right>}\\ &=\overline{k}\left<\alpha,\beta\right> \end{aligned} $$ ---- 内积的简易表示——度量矩阵 ,\epsilon_n$下的度量矩阵 度量矩阵的特点 若$\mathbb{F}=\mathbb{R}$,则$A=A^T$,即$\left<\epsilon_i,\epsilon_j\right>=\left ,s} $$ ---- 例1 设$V$在基$\epsilon_1,\epsilon_2$下的度量矩阵是$A=\begin{bmatrix}1&2\\2&5\end{bmatrix}$,求$V$的一组标准正交基 alpha_3,\beta_2)}{(\beta_2,\beta_2)}\beta_2\\ &=\alpha_3-\frac{-5}{2}\beta_1+\frac{13}{5}\beta_2=[\frac{7} sqrt{10}}{5},\frac{\sqrt{10}}{10},-\frac{\sqrt{10}}{10},\frac{\sqrt{10}}{5},0]^T\\ \gamma_3 &= [\frac{7}

    1.4K30发布于 2021-04-01
  • 来自专栏云时之间

    反向传播算法的矩阵维度分析

    在我们学习神经网络的时候,我们为了不断地迭代更新目标函数,我们总是不断地往复更新迭代神经网络中的各个参数和权值,而在实际过程中我们一般都是使用的矩阵向量化的方式去计算量化,但是如果我们能够了解这个矩阵求导的过程的话 ,如果有不熟悉的小伙伴请去: http://61.139.105.132/gdsx/dzja/7/4.htm 回忆下知识再来看这篇文章,效果更好. 那这时候&y/&x的导数就需要计算下了,这个时候我们就需要矩阵的乘法运算来去计算分析: 1:由上文得,dx的维度是N*D,&L/&y的维度是N*M,那个根据矩阵运算公式,我们可以计算出 ? 那么这时候我们可以得到&y/&x的矩阵维度是M*D,那么这时候我们回头看一看前边的条件,W的矩阵维度是D*M,那么&y/&x的矩阵维度岂不是W矩阵的转置?其实就是这样. 再来个矩阵乘法: ? 得到: ?

    1.5K90发布于 2018-04-11
领券