首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏笔记c

    数学建模——

    一、基础知识 值越小越好; 是一种可以用于多对象、多指标的综合评价方法,其评价结果主要是依据客观资料,几乎不受主观因素的影响。 信息值越小,权重越大 二、基本思路 权重大-->提供的信息量大-->指标的变异性大-->信息值小 1.数据归一化 2.计算指标变异性 3.计算信息 4.计算值 三、计算步骤 1. shangquanfa_main.m clc;clear; x=xlsread('.xlsx'); ind=ones(size(x,2),1);%正向写1,负向写2 [n,m]=size(x);% /sum(g);%求值w s=X*w';%求综合得分 guiyi.m function y=guiyi(x,type,ymin,ymax) %实现正向或负向指标归一化,返回归一化后的数据矩阵 %x为原始数据矩阵 for j=1:m            y(:,j)=(ymax-ymin)*(xmax(j)-x(:,j))/(xmax(j)-xmin(j))+ymin;         end end

    27.2K46编辑于 2022-11-15
  • 来自专栏CSDN小华

    数学建模--

    简介 (Entropy Weight Method,EWM)是一种基于信息原理的客观赋方法,广泛应用于多指标综合评价、决策分析和系统优化等领域。 总之,作为一种客观赋方法,在多指标综合评价和决策分析中具有重要应用价值。通过合理运用,可以有效地提高评价和决策的科学性和准确性。 延伸 在环境评价中的具体应用案例是什么? 结合主观赋方法:为了克服的客观性限制,可以将与层次分析(AHP)等主观赋方法相结合。 改进传统的缺点: 修正传统的不一致性问题:在所有值都趋近于1时,传统值传递的信息不一致的问题得到了修正。 改进传统的计算公式:针对传统在计算过程中微小变化引起成倍数变化的问题,提出了改进的计算公式。

    2.1K10编辑于 2024-10-16
  • 来自专栏机器学习养成记

    综合评价之

    好的综合评价方法可以帮我们进行目标的横向比较或自身变化趋势分析,已有的综合评价方法有很多,今天来介绍其中的。 1 信息 信息是不确定性的一个度量,反映信息量的多少。 信息计算公式如下: ? 其中,xi为随机变量X的取值,p为随机事件xi发生的概率。 2 根据信息特性,可以用来衡量一个指标的离散程度,指标离散程度越大,该指标对综合评价对影响越大,权重越大。 是一种依赖于数据本身离散性的客观赋值,用于结合多种指标对样本进行综合打分,实现样本间比较。 3 实现步骤 假定有n条样本,m个维度,用如下方式表示每个随机变量的取值: ? step 2 : 计算每个维度的 ? 其中, ? ? step 3 : 计算冗余度(差异) ? step 4 : 计算权重 ? step 5 : 计算综合评分 ?

    2.7K21发布于 2020-11-19
  • 来自专栏往期博文

    数学建模暑期集训8:

    在本专栏第三篇博文中列举了的公式数学建模学习笔记(三)Excel实现,但用Excel实现的讲解视频已经无法观看,这篇博文就来用matlab实现,比excel手动操作更加方便。 2.的计算步骤 3.matlab代码 计算权函数 Entropy_Method.m function [W] = Entropy_Method(Z) % 计算有n个样本,m个指标的样本所对应的的 是根据数据本身来获得值,主要依据的是指标的变异程度(即一个指标中的各个数据方差越大,所含的信息量就越大,那么该指标的权重会越大)。 比如,评价三好学生的指标中,违反校纪是其中一个指标,大多数学生违反校纪的次数都为0,那么通过,违反校纪这个指标权重就很小(也就是说,违不违反校纪对评价三好学生无关紧要),显然,这与现实相悖。 因此,在使用之时,需自行看看权重是否合理,若不合理,可以和层次分析结合使用。

    92920编辑于 2022-06-14
  • 来自专栏往期博文

    数学建模学习笔记(三)Excel实现

    步骤: 1、标准化处理 正向指标: Z_{ij}=\cfrac{x_{ij}-min(x_j)}{max(x_j)-min(x_j)} 负向指标: Z_{ij}=\cfrac{max )}{max(x_j)-min(x_j)} 2、计算第j项指标下第i项占该指标的比重 p_{ij}=\cfrac{z_{ij}}{\sum_{i=1}^n z_{ij}} 3、计算第j项指标的值 : e_j=-k\sum_{i=1}^n p_{ij}ln(p_{ij}) 4、计算信息效用值 d_j=1-e_j 5、计算各项指标的值 w_j=\cfrac{d_j}{\sum_

    2.5K20编辑于 2022-06-14
  • 从入门到精通:完整解析与案例计算

    完整案例计算流程让我们通过一个具体案例来完整演示的计算过程。 ,常与其他方法组合使用:(1) + AHP(组合赋)将客观权重与主观权重结合:得到客观权重 WjobjW_j^{obj}Wjobj​AHP得到主观权重 WjsubW_j^{sub}Wjsub​ + TOPSIS这是最常见的组合方式:先用客观确定各指标权重再用TOPSIS方法计算各方案到理想解的贴近度优势:结合了客观赋和距离评价,结果更加稳健(3) + RSR(秩和比)用确定权重用 ,考虑将与AHP等主观方法结合注意检查数据质量,处理异常值结合实际情况解释权重的合理性5. 是一种完全客观的赋方法,让数据本身决定权重分配。它常与TOPSIS、VIKOR等方法组合使用,在学术研究和实际应用中都有广泛的应用价值。

    48510编辑于 2026-02-23
  • 来自专栏凹凸玩数据

    数据运营36计(三):如何确定指标权重构建评价体系

    信息论基本原理解释信息是系统有序性的度量单位,而可以度量系统的无序程度;如果某个指标的信息越小,该指标提供的信息量越大,指标变异程度(方差)高,因此在综合评价中所起作用理当越大,权重就应该越高 的基本原理就是根据指标变异性的大小来确定客观权重。一般来说,这个方法相比于AHP专家打分更客观。确定指标权重的推导过程如下: image.png 2. 这里建立一个评价体系,评价体系中包括能很好衡量快递点经营效果的指标,每个快递点都有这些指标的数据,因为可以自己计算出各个指标的权重,那么避免了专家打分法等主观权重带来的偏见,因此从该数据基础上即可获得各个快递点的得分 计算过程: 求解过程放在了Excel,公众号后台回复“”即可获取。 第一步:数据标准化。 第二步:求各指标的信息 表2 求解各数据的Pij ? 表3 求解信息Ei ? 第三步:求各指标权重,见表3倒数第一行。 第四步:各快递点得分,见表3最后一列。可以看到快递点S6得分最高。

    3.5K20发布于 2020-06-04
  • 来自专栏落雨的专栏

    的原理+实现

    “啦啦啦啦啦”这几个字它的纯度高,带有的信息量少,所以他的值小。“我是卖报的小行家”这几个字,他的纯度低,信息量大,所以你的值大。我们可以通过香浓提供的公式来算出它所对应的值。 例如上表我们评价一级指标时采用了AHP层次分析,二级指标的权重确定使用了。因为我们在请专家根据自己的经验对指标进行评价时,我们能请到的专家数量有有限,所以只让专家对一级指标进行主观评定。 同时采用以上的方法AHP和商商权的组合,是一种主观加客观的方式,在一定程度上避免了层次分析主观性较强的缺点,使得评价结果更加准准确。 根据的原理来看。数据库原理,这一门课的离散程度为0,他在权重一定是零。体育和c语言程序设计比较来说c语言程序设计的离散程度较大从素质上来看有40的也有90的,差距比较大。 下面使用SPSSAU计算以上指标的图片图片得出以下计算结果:图片图片《C语言程序设计》以上的 以上的分析结果来看C语言程序设计权重系数为99.84,数据库原理的权重为0,体育的权重为0.52。

    4K00编辑于 2022-07-26
  • 来自专栏全栈程序员必看

    客观赋——变异系数

    一、变异系数的概念 变异系数是根据统计学方法计算得出系统各指标变化程度的方法,是一种客观赋。 变异系数是一种较为客观的方法,能够客观的反应指标数据的变化信息,该方法能够比较客观的求出各指标的权重。 根据各评价指标当前值与目标值的变异程度来对各指标进行赋,当各指标现有值与目标值差距较大时,说明该指标较难实现目标值,应该赋予较大的权重,反之则应该赋予较小的权重。 二、变异系数的步骤 (1)原始数据的收集与整理 假设有n个待评价样本,p项评价指标,形成原始指标数据矩阵: X = ( x 11 . . . x 1 p ⋮ ⋱ ⋮ x n 1 ⋯ x n p )

    2.5K30编辑于 2022-08-11
  • 来自专栏源懒由码

    python 基于进行综合评价

    对各指标赋的合理与否,直接关系到分析的结论。确定权重系数的方法很多,归纳起来分为两类:即主观赋和客观赋。 主观赋是由评价人员根据各项指标的重要性而认为赋的一种方法,充分反应专家的经验,目前,使用较多的是专家咨询、层次分析、循环打分法等。 客观赋是从实际数据出发,利用指标值所反应的客观信息确定权重的一种方法,如、银子分析、主成分分析、均方差、相关系数等。本文主要介绍进行综合评价,并使用Python进行实现。 1.赋方法介绍 最早是一个物理热力学概念,是指在一定条件下对无序或随机变量计算不能做功的一种热能单位。 使用进行赋评价。 ? 3.具体操作 1.数据标准化(归一化) 假设有m期数据,则设原始数据矩阵为X=(xi)m*n,其中m为样本容量n为指标个数,xij为第i个样本的第j个指标值。

    2.4K60发布于 2021-05-27
  • 来自专栏全栈程序员必看

    瑞利与香农_ 信息

    在信息论中,Rényi是Hartley,Shannon,碰撞和最小的推广。能量化了系统的多样性,不确定性或随机性。Rényi以AlfrédRényi命名。 在分形维数估计的背景下,Rényi构成了广义维数概念的基础。 Rényi在生态学和统计学中是重要的多样性指标。Rényi在量子信息中也很重要,它可以用来衡量纠缠。 在Heisenberg XY自旋链模型中,作为α的函数的Rényi可以由于它是关于模数群的特定子群的自守函数而被明确地计算。在理论计算机科学中,最小用于随机抽取器的情况下。 ,pn)被解释为一个向量Rn,同时pi≥0和Σpi=1 瑞丽中α≥0 特例 哈特利或最大: 香农: 碰撞,有时被称为“Rényi”,是指α = 2 的情况, 其中,X和Y ^是独立同分布的 最小: 在极限中 收敛到最小 : ---- 参考文献:https://en.wikipedia.org/wiki/R%C3%A9nyi_entropy 发布者:全栈程序员栈长,转载请注明出处

    1.7K20编辑于 2022-09-20
  • 来自专栏主观赋权法

    G1序关系:简单高效的主观赋

    G1序关系是一种基于序关系的主观赋方法,由东北大学郭亚军教授提出,该方法通过专家对指标重要性的排序和相邻指标的重要性比值来确定权重,相比于层次分析AHP,G1无需进行一致性检验,操作更加简便。 本文将从G1的基本原理出发,详细解析其实施步骤,并通过实际案例展示其在管理决策中的应用,帮助初学者快速掌握这一方。1.G1的基本原理与核心思想G1序关系的诞生源于对传统主观赋方法的改进需求。 4.G1的优势、局限与应用建议作为一种简便高效的主观赋方法,G1在管理研究和实践中得到了广泛应用。 4.2G1的应用局限尽管G1具有诸多优势,但我们在应用时也需清醒认识其潜在局限:主观性较强:与所有主观赋方法一样,G1的权重结果依赖于专家的主观判断。 4.3G1在学术论文中的应用建议基于G1的特点和局限,以下是在学术论文中应用G1的一些实用建议:1.与其他方法结合使用(1)与客观赋结合将G1(主观赋)与、CRITIC等客观赋方法结合

    14610编辑于 2026-02-23
  • 来自专栏小小挖掘机

    详解机器学习中的、条件、相对、交叉

    目录 信息 条件 相对 交叉 总结 一 信息 (information entropy) (entropy) 这一词最初来源于热力学。 1948年,克劳德·爱尔伍德·香农将热力学中的引入信息论,所以也被称为香农 (Shannon entropy),信息 (information entropy)。本文只讨论信息。 (http://www.ruanyifeng.com/blog/2014/09/information-entropy.html) 证明0≤H(X)≤logn 利用拉格朗日乘子证明: 因为 p(1)+ 我们再化简一下相对的公式。 ? 有没有发现什么? 的公式: ? 交叉的公式: ? 当随机分布为均匀分布时,最大;信息推广到多维领域,则可得到联合信息;条件表示的是在 X 给定条件下,Y 的条件概率分布的对 X的期望。 相对可以用来衡量两个概率分布之间的差异。

    5.8K20发布于 2019-10-24
  • 来自专栏机器学习与统计学

    信息、条件、联合、互信息、相对、交叉

    再总结一下: 2、信息 信息是信息量的数学期望。理解了信息量,信息的定义式便不难理解。 3、条件 条件的定义为:在 给定的条件下, 的条件概率分布的对 的数学期望。 条件一定要记住下面的这个定义式,其它的式子都可以由信息和条件的定义式得出。 4、联合 两个变量 和 的联合的表达式: 5、互信息 根据信息、条件的定义式,可以计算信息与条件之差: 同理 因此: 定义互信息: 即: 互信息也被称为信息增益。 信息、联合、条件、互信息的关系 信息:左边的椭圆代表 ,右边的椭圆代表 。 互信息(信息增益):是信息的交集,即中间重合的部分就是 。 联合:是信息的并集,两个椭圆的并就是 。 对数似然的值我们希望它越大越好,交叉的值我们希望它越小越好。 结论:KL 散度 = 交叉 - 。这一点从相对的定义式就可以导出。 这里 就是交叉的定义式。

    5K20发布于 2019-07-30
  • 来自专栏春天和爱情の樱花

    信息和条件

    这不是我大一第一节信息资源管理概论课讲到的第一个专业名词吗,信息我可熟了,章口就来,信息是负 .......淦,负又是啥。 为了赎罪,求生欲满满的我马上、很快啊,就把信息给复习了一遍,连带条件都给复习了,真不戳! 好吧,开个玩笑。 信息 说到信息,首先先了解一下什么是信息量? 但信息是可以在衰减的过程中被测定出来的。除此之外,信息是信息论中用于度量信息量的一个概念。一个系统越是有序,信息就越低;反之,一个系统越是混乱,信息就越高。 所以,信息也可以作为系统程度有序化的一个度量。 条件 什么是条件呢? 百度百科告诉我们:条件H(X|Y)表示在已知随机变量Y的条件下,随机变量 X 的不确定性。

    1.1K10编辑于 2022-09-22
  • 来自专栏磐创AI技术团队的专栏

    详解机器学习中的、条件、相对、交叉

    目录 信息 条件 相对 交叉 总结 一 信息 (information entropy) (entropy) 这一词最初来源于热力学。 1948年,克劳德·爱尔伍德·香农将热力学中的引入信息论,所以也被称为香农 (Shannon entropy),信息 (information entropy)。本文只讨论信息。 (http://www.ruanyifeng.com/blog/2014/09/information-entropy.html) 证明0≤H(X)≤logn 利用拉格朗日乘子证明: 因为 p(1)+ 我们再化简一下相对的公式。 ? 有没有发现什么? 的公式: ? 交叉的公式: ? 当随机分布为均匀分布时,最大;信息推广到多维领域,则可得到联合信息;条件表示的是在 X 给定条件下,Y 的条件概率分布的对 X的期望。 相对可以用来衡量两个概率分布之间的差异。

    2.1K80发布于 2018-04-24
  • 来自专栏图灵技术域

    信息(香农)概述

    简介 1948 年,香农提出了“信息”(Shannon entropy/Information entropy) 的概念,才解决了对信息的量化度量问题。 公式 的定义为信息的期望值,在明晰这个概念之前,我们必须知道信息的定义。如果待分类的事务可能划分在多个分类之中,则符号xi的信息定义为: ? 其中p(xi)是选择该分类的概率。 为了计算,我们需要计算所有类别所有可能值包含的信息期望值,通过下面的公式得到: ? 其中n是分类的数目。 足球实例 那么我们如何来量化度量信息量呢? 香农把它称为“信息” (Entropy),一般用符号 H 表示,单位是比特。有兴趣的读者可以推算一下当 32 个球队夺冠概率相同时,对应的信息等于五比特。

    3.8K30发布于 2021-05-21
  • 来自专栏全栈程序员必看

    critic计算_基于CRITIC和变异系数的导线网测量平差定 2

    基于 CRITIC 和变异系数的导线网测量平差定 杨腾飞,施昆,汪奇生 ( 昆明理工大学 国土资源工程学院 , 云南 昆明 650093) 【摘 要】 CRITIC 与变异系数定都是一种客观的定方法 ,能克服常规经验定的不 足。 本文将这两种客观定方法引入导线网平差中,并与常规定方法进行比较。由应用 实例可验证其优越性。 文献 3 阐述 了二次定与 Helmert 验后方差的定原理,这两种方法理论上较为合理且平差精度 有所提高,但其计算较为复杂。 文献 4 将这种客观定引入导线网的平差中并得 到了较好的效果。本文介绍另外两种客观定,将这两种方法运用到导线网平差中并与 常规方法进行比较。

    56920编辑于 2022-09-01
  • 来自专栏hotarugaliの技术分享

    相对和交叉

    相对 1.1 简介 相对也称为 KL 散度(Kullback-Leibler divergence),相对是两个概率分布 和 差别的度量。 具体来说, 和 的相对是用来度量使用基于 的分布来编码服从 的分布的样本所需的额外平均比特数。 1.2 定义 对于离散随机变量,其概率分布 和 的相对定义为: DKL(P∥Q)=−∑iP(i)ln⁡Q(i)P(i)=EP[−ln⁡QP]D_{\mathrm{KL}}(P \Vert 1.3 性质 相对非负: 相对非对称(故其不是一个真正的距离度量): DKL(P∥Q)≠DKL(Q∥P)D_{\mathrm{KL}}(P \Vert Q) \neq D_{\mathrm{ 交叉 2.1 简介 交叉是指基于 的分布来编码服从 的分布的样本所需要的平均比特数。

    1.1K30编辑于 2022-04-22
  • 来自专栏TechBlog

    联合和条件

    文章目录 联合 条件 联合 联合集 XY 上, 对联合自信息 I(x y) 的平均值称为联合: \begin{array}{l} H(X Y)=\underset{p(x y)}{E}[ X_{n}} p\left(x_{1}, x_{2}, \ldots, x_{n}\right) \log p\left(x_{1}, x_{2}, \ldots, x_{n}\right) 信息与热的关系 信息的概念是借助于热的概念而产生的。 信息与热含义相似 信息与热的区别: 信息的不增原理 热不减原理 热的减少等于信息的增加。 条件 联合集 X Y \mathbf{X Y}XY 上, 条件自信息I ( y / x ) I(y / x)I(y/x)的平均值定义为条件: \begin{array}{l} H(Y / X)=\

    1.5K20编辑于 2023-02-23
领券