首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数说戏聊

    10.RFM分析&矩阵分析1.RFM分析2.矩阵分析

    1.RFM分析 根据客户活跃程度和交易金额贡献,进行客户价值细分的方法。 高价值客户 低 高 高 重点保持客户 高 低 高 重点发展客户 低 低 高 重点挽留客户 高 高 低 一般价值客户 低 高 低 一般保持客户 高 低 低 一般发展客户 低 低 低 潜在客户 1.1 RFM分析过程 2.汇总RFM分值 RFM=100*R_S+10*F_S+1*M_S 3.根据RFM分值对客户划分8种类型 1.2 RFM分析前提 1.最近有过交易行为的客户,再次发生交易的可能性要高于最近没有交易行为的客户 1 153 2 164 3 135 4 153 5 154 6 142 7 151 8 148 2.矩阵分析 根据事物(如产品、服务等)等两个重要指标作为分析依据,进行关联分析,找出解决问题等一种分析方法。

    1.1K20发布于 2018-08-02
  • 来自专栏mathor

    矩阵分析(十一)酉矩阵、正交矩阵

    矩阵 若n阶复矩阵A满足 A^HA=AA^H=E 则称A是酉矩阵,记为A\in U^{n\times n} 设A\in C^{n\times n},则A是酉矩阵的充要条件是A的n个列(或行)向量是标准正交向量组 酉矩阵的性质 A^{-1}=A^H\in U^{n \times n} \mid \det A\mid=1 A^T\in U^{n\times n} AB, BA\in U^{n\times n} 酉矩阵的特征值的模为 1 标准正交基到标准正交基的过渡矩阵是酉矩阵 酉变换 设V是n维酉空间,\mathscr{A}是V的线性变换,若\forall \alpha, \beta \in V都有 (\mathscr{A}(\alpha ), \mathscr{A}(\beta))=(\alpha,\beta) ---- 正交矩阵 若n阶实矩阵A满足 A^TA=A^A=E 则称A是正交矩阵,记为A\in E^{n\times n} 设A (或正交矩阵) ---- 满秩矩阵的QR分解 若n阶实矩阵A\in \mathbb{C}^{n\times n}满秩,且 A = [\alpha_1,...

    7.2K30发布于 2020-11-24
  • 来自专栏mathor

    矩阵分析(九)Gram矩阵

    ··+k_s\beta_s\right>=k_1\left<\alpha,\beta_1\right>+···k_s\left<\alpha,\beta_s\right>$ ---- 线性组合的内积的矩阵表示 beta_t\right>\end{bmatrix}\begin{bmatrix}l_1\\ \vdots \\ l_t\end{bmatrix} \end{aligned} $$ ---- Gram矩阵 ,\beta_t$的协Gram矩阵,记为$G(\alpha_1,...,\alpha_s;\beta_1,...,\beta_t)$ $\alpha_1,... ,\alpha_s$的Gram矩阵,记为$G(\alpha_1,...,\alpha_s)$ $\alpha_1,... ,\beta_t)A $$ Gram矩阵的性质 $Rank(G)=rank(\alpha_1,...

    1.2K20发布于 2021-04-01
  • 来自专栏mathor

    矩阵分析(十三)矩阵分解

    },满足 A = BC \mathbb{C}_r表示矩阵的秩为r 实际上上述定理用文字描述就是,一个亏秩的矩阵可以分解成一个列满秩与行满秩矩阵的乘积 证明:因为rank(A)=r,所以一定可以找到与A相似的一个矩阵 0&-14\\-1&2&-4&0&1\\2&6&-5&5&-7\end{bmatrix}\to ···\to\begin{bmatrix}1&0&0&0&-7\\0&1&0&\frac{10}{7}&\ \begin{bmatrix}1&4&-1\\2&0&0\\-1&2&-4\\2&6&-5\end{bmatrix},C=\begin{bmatrix}1&0&0&0&-7\\0&1&0&\frac{10 }\\0&1&0&\frac{1}{5}&\frac{1}{5}\\0&0&1&\frac{1}{5}&-\frac{4}{5}\end{bmatrix} ---- QR分解的应用 QR分解的内容请看矩阵分析 LU分解 LU分解(LU Decomposition)是矩阵分解的一种,可以将一个矩阵分解为一个单位下三角矩阵和一个上三角矩阵的乘积,以四阶矩阵为例 L = \begin{bmatrix}1&0&0&0

    2.2K10发布于 2021-04-02
  • 来自专栏数据结构与算法

    10:矩阵转置

    10:矩阵转置 总时间限制: 1000ms 内存限制: 65536kB描述 输入一个n行m列的矩阵A,输出它的转置AT。 输入第一行包含两个整数n和m,表示矩阵A的行数和列数。 接下来n行,每行m个整数,表示矩阵A的元素。相邻两个整数之间用单个空格隔开,每个元素均在1~1000之间。输出m行,每行n个整数,为矩阵A的转置。相邻两个整数之间用单个空格隔开。 4 using namespace std; 5 int a[10001][10001]; 6 int main() 7 { 8 int n,m; 9 cin>>n>>m; 10

    2.6K90发布于 2018-04-03
  • 来自专栏mathor

    矩阵分析(十二)正规矩阵、Hermite矩阵

    $A$酉相似于一个上(下)三角矩阵 ---- 例1 已知$A = \begin{bmatrix}0&3&3\\-1&8&6\\2&-14&-10\end{bmatrix}$,求酉矩阵$U$,使得$U^HAU ---- Hermite矩阵 定义:$A\in \mathbb{C}^{n\times n}$,若$A^H=A$,则称$A$为Hermite矩阵 定理:Hermite矩阵是正规矩阵,Hermite矩阵的特征值是实数 bmatrix} $$ 可得$|\lambda E - A_1|=(\lambda +1)^2$,对于$\lambda =-1$时,求得一个单位特征向量$\gamma_1=[-\frac{\sqrt{10 }}{5}, \frac{\sqrt{15}}{5}]^T$ 再求得一个与$\gamma_1$正交的向量$\gamma_2=[\frac{\sqrt{15}}{5}, \frac{\sqrt{10}}{ {\sqrt{10}}{5}\end{bmatrix} $$ 经计算可得 $$ V_1^HA_1V_1=\begin{bmatrix}-1&-\frac{25\sqrt{6}}{6}\\0&-1\end

    2.2K50发布于 2021-04-02
  • 来自专栏mathor

    矩阵分析笔记(九)Gram矩阵

    ,\beta_t的协Gram矩阵,记为G(\alpha_1,...,\alpha_s;\beta_1,...,\beta_t) \alpha_1,... ,\alpha_s的Gram矩阵,记为G(\alpha_1,...,\alpha_s) \alpha_1,... ,\beta_t)A Gram矩阵的性质 Rank(G)=rank(\alpha_1,... ,\alpha_s线性无关 ---- 度量矩阵 \alpha_1,...,\alpha_n是\mathbb{C}上的n维内积空间V中的一个基,则Gram矩阵G(\alpha_1,... ,\alpha_n的度量矩阵。向量的内积由度量矩阵唯一决定 若\alpha,\beta \in V,\alpha,\beta在基\alpha_1,...

    2.1K20发布于 2020-11-11
  • 来自专栏mathor

    矩阵分析(十四)矩阵的广义逆

    矩阵的广义逆 若A\in \mathbb{C}^{n\times n},且A为可逆矩阵,则有 AA^{-1}A=A A^{-1}AA^{-1}=A^{-1} (AA^{-1})^H=AA^{-1} (A 最广泛的广义逆矩阵有以下两个 仅满足条件1的广义逆矩阵称为减号逆,记为A^{-} 满足条件1,2,3,4的广义逆矩阵称为加号逆,记为A^+ ---- 矩阵的减号逆 (减号逆存在性定理)A\in \mathbb {C}^{m\times n},矩阵方程AXA=A恒有解,并且称X是A的一个减号逆 证明:设rank(A)=r≤min(m,n),存在可逆矩阵P,Q使得 A = P\begin{bmatrix}E_r& ---- 例1 求矩阵A= \begin{bmatrix}0&-1&3&0\\2&-4&1&5\\-4&5&7&-10\end{bmatrix} 解: $$ \begin{aligned} \left [\begin{array}{rrrr|rrr} 0 & -1 & 3 & 0 & 1 & 0 & 0 \\ 2 & -4 & 1 & 5 & 0 & 1 & 0 \\ -4 & 5 & 7 & -10

    2.5K20发布于 2021-04-02
  • 来自专栏mathor

    矩阵分析笔记(八)λ矩阵和jordan分块

    以多项式为元素的矩阵称为多项式矩阵,简称为\lambda矩阵。 记号\mathbb{F}^{m\times n}[\lambda]表示所有m行n列的\lambda矩阵的集合,矩阵的元素是系数在\mathbb{F}中的\lambda的多项式。 \lambda I-A也是\lambda矩阵,例如 image.png 多项式矩阵和通常矩阵的主要区别在于:其元素所在的运算系统——多项式环\mathbb{F}[x]——不是一个域,所以通常矩阵的性质中 ,涉及到除法的,对于多项式矩阵不再成立 $\lambda$矩阵的秩 \lambda矩阵的秩,也用rank表示,是指其值为非零多项式的子行列式的最大阶数。 零矩阵的秩为0 可逆的$\lambda$矩阵 一个n阶\lambda矩阵是可逆的,若存在多项式矩阵V(\lambda)\in \mathbb{F}^{n\times n}[\lambda]使得 U(\lambda

    1.8K61发布于 2020-10-29
  • 来自专栏mathor

    矩阵分析复习题

    } &=\left(T J T^{-1}\right)^{10} \\ &=T J^{10} T^{-1} \\ &=\begin{bmatrix} 0 & 5 & 2 \\ 1 & 0 & 0 \\ } & 10 \cdot 2^{9} \\ 0 & 0 & 2^{10} \end{bmatrix} \begin{bmatrix} 0 & 1 & 0 \\ -1 & 0 & 2 \\ 3 & 0 & -5 \end{bmatrix} \\ &=\begin{bmatrix} 76·2^{10} & 0 & -125·2^{10} \\ 0 & 1 & 0 \\ 45 · 2^{10}& 0 & -74·2^{10} \end{bmatrix} \end{aligned} $$ ---- 矩阵广义逆 设A\in \mathbb{C}^{s\times n}, r(A)=1,试证:A^+=(tr }&\frac{1}{5}\\0&0\\-\frac{1}{10}&-\frac{1}{5}\end{bmatrix} ---- 附 Jordan标准形的两种求法 排除法(适用于低阶矩阵) 通过矩阵A的特征多项式

    1.9K20发布于 2021-04-02
  • 来自专栏云深之无迹

    矩阵分析与应用.0

    只实现了这些算法

    38440发布于 2021-07-23
  • limma包做差异分析之分组矩阵和比较矩阵

    title: "limma包做差异分析之分组矩阵和比较矩阵"output: html_documenteditor_options: chunk_output_type: console##注:pairinfo 为配对信息,解决GEO芯片中配对样本如何做差异分析的问题##方法一####分组矩阵model.matrix#分组矩阵model.matrixrm(list = ls())library(limma)group after #> Levels: after beforepairinfo = factor(rep(1:18,2));pairinfo#> [1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 1 2 #> [21] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18#> Levels: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18design <- model.matrix(~0 +group + pairinfo)design2 <- model.matrix

    51010编辑于 2025-06-13
  • 来自专栏FREE SOLO

    产品功能留存分析矩阵

    功能留存分析矩阵是什么意思?通过这个矩阵,帮你分析出产品中的哪个功能对留存的价值最高。 功能对留存的价值分为2个维度,使用用户的人数和连续使用功能的用户占比(功能留存率),功能留存分析矩阵帮我们解决的是,如果你想要提高留存,要去优先优化哪项功能。 如果说惊喜时刻帮我们定义了激活用户的指标,那么功能留存分析矩阵就帮我们从具体的功能角度,定义了用户留存的指标。 功能留存分析矩阵2个维度的计算方法,我们用一个例子来说明: 假如微信这个产品,我要分析朋友圈、看一看、搜一搜、附近的人这几个功能对留存率的影响,怎么做呢? 通过计算我们可以建立一个功能留存分析矩阵,有2个关键点要注意: 首先,功能留存率的计算,当前周期的使用用户数是不含这一周期的新用户的,而当前周期的活跃用户占比是包含这一周期的新用户的; 其次,功能留存率和活跃用户占比两个数据维度的计算周期要相同

    1.1K20编辑于 2022-01-06
  • 来自专栏mathor

    矩阵分析笔记(一)线性空间

    frac{1}{3} \\ \frac{2}{5} \\ \frac{1}{2} \end{array} \right)·2 $$ 数字2,可以看作是1×1的矩阵 将数放向量的右边,就满足了矩阵乘法的要求(第一个矩阵的列数必须等于第二个矩阵的行数)

    4.5K10发布于 2020-09-10
  • 来自专栏mathor

    矩阵分析笔记(四)子空间

    beta \in W 若\alpha \in W, k \in \mathbb{F},则k\alpha \in W 也就是说,只需要验证对加法和数乘封闭即可 例题1 设A为实数(或复数)m\times n矩阵

    2.8K30发布于 2020-09-22
  • 来自专栏mathor

    矩阵分析笔记(五)线性映射

    ., \mathscr{A}(\alpha_s)不一定线性无关 ---- 线性映射的矩阵表示 给定\mathbb{F}上的线性空间V_1, V_2,及线性映射\mathscr{A}:V_1\to V_2 ,a_n拼成的矩阵 A = \begin{bmatrix}a_1 & a_2 & \cdots & a_n\end{bmatrix} = [a_{ij}]_{m\times n} 称为\mathscr{ ,定义为向量组中每个向量的像按原顺序所成的向量组(简称为向量组的像)拼成的矩阵。 ]=[出口基矩阵][表示矩阵] 事实上,只要确定了线性映射两个空间的基(例如(\varepsilon_1,\cdots,\varepsilon_n)和(\beta_1,\cdots,\beta_m)), 就有唯一确定的一个矩阵A与之对应,而且矩阵A的每一个列向量就是对应的原基向量映射后的坐标;反之,如果基确定,任何一个矩阵都唯一确定了一个线性映射 我个人理解,线性映射其实就是将一个m维的矩阵,转换为n维的矩阵

    2.4K30发布于 2020-09-30
  • 来自专栏mathor

    矩阵分析(十)正交、投影、标准正交

    left<\beta,\alpha\right>}\\ &=\overline{k}\left<\alpha,\beta\right> \end{aligned} $$ ---- 内积的简易表示——度量矩阵 ,\epsilon_n$下的度量矩阵 度量矩阵的特点 若$\mathbb{F}=\mathbb{R}$,则$A=A^T$,即$\left<\epsilon_i,\epsilon_j\right>=\left ,s} $$ ---- 例1 设$V$在基$\epsilon_1,\epsilon_2$下的度量矩阵是$A=\begin{bmatrix}1&2\\2&5\end{bmatrix}$,求$V$的一组标准正交基 frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}},0,0]^T\\ \gamma_2 &= \frac{\beta_2}{||\beta_2||}=[-\frac{\sqrt{10 }}{5},\frac{\sqrt{10}}{10},-\frac{\sqrt{10}}{10},\frac{\sqrt{10}}{5},0]^T\\ \gamma_3 &= [\frac{7}{\sqrt

    1.4K30发布于 2021-04-01
  • 来自专栏云时之间

    反向传播算法的矩阵维度分析

    在我们学习神经网络的时候,我们为了不断地迭代更新目标函数,我们总是不断地往复更新迭代神经网络中的各个参数和权值,而在实际过程中我们一般都是使用的矩阵向量化的方式去计算量化,但是如果我们能够了解这个矩阵求导的过程的话 现在我们不妨设损失函数loss()=L,并且这个损失函数是一个标量(因为标量对于矩阵的求偏导数的话,矩阵的维度不会发生变化).那这时候我们挨个来,求求dx,dw,db的梯度: 1:dx的梯度: 在这里我们要用到链式求导法则 那这时候&y/&x的导数就需要计算下了,这个时候我们就需要矩阵的乘法运算来去计算分析: 1:由上文得,dx的维度是N*D,&L/&y的维度是N*M,那个根据矩阵运算公式,我们可以计算出 ? 那么这时候我们可以得到&y/&x的矩阵维度是M*D,那么这时候我们回头看一看前边的条件,W的矩阵维度是D*M,那么&y/&x的矩阵维度岂不是W矩阵的转置?其实就是这样. 再来个矩阵乘法: ? 得到: ?

    1.5K90发布于 2018-04-11
  • 来自专栏DeepHub IMBA

    Numpy中常用的10矩阵操作示例

    as np # Matrices as ndarray objects a = np.array([[1, 2], [3, 4]]) b = np.array([[5, 6, 7], [8, 9, 10 print(b) # Matrices as matrix objects c = np.matrix([[1, 2], [3, 4]]) d = np.matrix([[5, 6, 7], [8, 9, 10 特征值的总和(1+5+1=7)等于同一个矩阵的迹(2+3+2=7)!特征值(1x5x1=5)的乘积等于同一个矩阵的行列式(5)! 特征值和特征向量在主成分分析(PCA)中非常有用。 在主成分分析中,相关矩阵或协方差矩阵的特征向量代表主成分(最大方差方向),对应的特征值代表每个主成分解释的变化量。 关键要点总结 由于有了numpy库,只需一两行代码就可以轻松地执行矩阵操作。 在本篇文章中我们介绍了numpy10个常用的矩阵运算。Numpy有一些通用函数,也有一些专门用于线性代数的特殊函数,例如,linalg包有一些专门用于线性代数的特殊函数。

    2.7K20发布于 2021-04-16
  • 来自专栏数据分析之旅

    数据分析方法之矩阵思维

    如果你对如上3个问题感兴趣,enjoy~       分析问题有没有套路呢? 但何为重要,何为紧急,还是具体问题具体分析! 波士顿矩阵:不同于以上两个例子的维度,波士顿矩阵以市场增长率和相对市场份额这两个量化的指标作为横纵线划分,将公司业务线划分为四大类。       、用户需求分析等场景,矩阵思维都派的上用场。 站在巨人的肩膀上,我们可以看得更远,但灵活运用这个思维,具体问题具体分析,才是王道。       3. 如何应用矩阵思维?       具体问题具体分析:即使是思考框架,采用什么维度或指标也是需要结合实际而定 2. 动态变化:通过矩阵思维划分出来的品类是可能相互转化的,要用发展的眼光来看到品类间可能存在的变化 3.

    1.3K51发布于 2020-08-11
领券