首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏KI的算法杂记

    SVM系列(三):SVM

    3) ,根据 可知 ,又因为 ,于是 。对第三种情况,进一步讨论: ,则 ,样本在间隔边界与超平面之间。 ,则 ,样本在超平面上。 3.核技巧(kernel trick)   先不谈什么是核技巧,先谈谈什么为什么要用核技巧。 :核方法概述---正定核以及核技巧 References 机器学习之SVM(Hinge Loss+Kernel Trick)原理推导与解析 SVM系列(一):强对偶性、弱对偶性以及KKT条件的证明 序列最小优化

    1K10编辑于 2022-07-29
  • 来自专栏算法一只狗

    矩阵的特征分解(推导+算+python计算+对称矩阵的特征分解性质)

    前言要学会矩阵的特征分解,可以提前看矩阵的一些基础知识:https://blog.csdn.net/qq_30232405/article/details/1045882932.矩阵的进阶知识2.1 特征分解 (谱分解)=>只可以用在方阵上2.1.1 特征分解的原理如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:这种形式在数学上的含义:描述的是矩阵A对向量v的变换效果只有拉伸,没有旋转。 2, 3]])V = np.array([[-1], [5], [3]])dot_nums = [1, 3, 5, 10]for i in range(len(dot_nums)): A_ = (1)算求矩阵A的特征值和特征向量:可以得到结果:当\lambda=6时,(6I-A)v=0:result: v_1 = 5, v_2=3, v_3=7当\lambda=2时,(2I-A)v=0:result (A)if np.equal(np.dot(A, V), np.dot(V, np.diag(D))): print(True)结果为:发现python计算的和算的特征向量值不同,但比例是一样的

    69820编辑于 2024-12-08
  • 来自专栏后端技术

    3NF分解过程 3NF如何分解 (伪代码)

    3NF 分解过程 (伪代码) let Fc be the canonical cover(最小函数依赖集) for F, i = 0 for each FD α → β Fc do if (none

    1.2K50发布于 2019-05-25
  • 来自专栏全栈程序员必看

    3nf和bcnf分解_如何分解3nf

    ER图转为关系模式 无损分解和保持依赖 3NF分解与BCNF分解 正则覆盖与候选码 如何设计ER图(弱实体集) 如何设计ER图(映射基数) ---- 1. 3NF分解 先求出正则覆盖Fc CAD CE是候选码,R2包含CE R1,R2,R3没有包含关系 3NF分解为{BDG},{CEB},{CAD} ---- 例子关系模式r(A,B,C,D,E,F),函数依赖集F: A->BCD,BC- >DE,B->D,D->A 1.函数依赖是:A->BC.B->DE,D->A 2.R1=ABC,R2=BDE,R3=DA,不包含候选码(AF,BF,DF)中任意一个,所以任意添加一个R4=AF 3 . 3NF分解为{ABC,BDE,DA,AF} 2.BCNF分解 给出R和函数依赖集F: 求出候选码 观察函数依赖集,如果左边不是超码(候选码),则不满足条件 用不满足条件的函数依赖(A->B)进行分解 ,所以继续分解

    1.5K50编辑于 2022-11-17
  • 来自专栏人工智能LeadAI

    机器学习面试之有必要SVM吗?

    最近和许多朋友交流,发现当前机器学习应聘时,SVM这道题已经越来越像快速排序一样,成为必点菜了。 那么,SVM是不是必要的呢? 正反双方各执一词,正方说,SVM才能看出应聘者的理论基础,反方说,现实中,SVM限于性能,应用面很小,尤其是现在xgboost, lightGBM等高性能的boosting框架的盛行,更让SVM成为了好看不好用的东西 能说清楚基础原理就可以了,没必要。 我的观点是:如果你是应聘者,不要思考这个问题,赶紧多推几遍SVM,争取达到闭眼也能推出来的地步,因为你没有选择,假如你跟面试官说,这个没必要,实际中用的不多,估计你的面试也玄了,因为面试官不知道你是说真的还是在为自己不会找理由 我们的目标是找到图中的H3。那么,很自然地,我们就会产生两个问题: 1 如果这样的超平面确实存在,那么如何找到它? 2 如果这样的超平面不存在,那么如何找一个尽可能将正负样本分开的超平面?

    1.7K50发布于 2018-03-09
  • 来自专栏光城(guangcity)

    Assignment2中BN反向传播

    Assignment2中BN反向传播 0.说在前面 或许有些人对于上一节说的BN推导没有深入理解,那么本节则从一篇非常好的论文中来实践带大家一遍,与此同时,完成Week6的作业! 或者直接搜:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 2. 这里直接放出论文中的相关公式,以及自己的BN反向传播! 3.任务及BN实现 【任务】 本节作业是 完成 assignment2 中 BatchNormalization.ipynb 完成 assignment2 中 Dropout.ipynb 第二个dropout 【BN实现】 有关BN的推上面给出了图片解释,这里只需要完成相应代码即可! 实现在layers.py找到下面方法完善即可!

    1.2K20发布于 2019-09-20
  • 来自专栏算法码上来

    公式之“层归一化”梯度

    昨天推导了一下交叉熵的反向传播梯度,今天再来推导一下层归一化(LayerNorm),这是一种常见的归一化方法。

    68920编辑于 2022-06-13
  • 来自专栏CSDN旧文

    P1465 序言页码 Preface Numbering (

    传统罗马数字用单个字母表示特定的数值,以下是标准数字表: I 1 V 5 X 10 L 50 C 100 D 500 M 1000 最多3个同样的可以表示为10n的数字(I,X,C,M)可以连续放在一起 ,表示它们的和: III=3 CCC=300 可表示为5x10n的字符(V,L,D)从不连续出现。 给定N(1 <= N < 3,500), 序言的页码数,请统计在第1页到第N页中,有几个I出现,几个V出现,等等 (从小到大的顺序)。不要输出没有出现过的字符。 输入输出样例 输入样例#1: 5 输出样例#1: I 7 V 2 说明 翻译来自NOCOW USACO 2.2 这个题他们使用DP做的,我看了看一开始也想DP后来发现,他们有规律,就手前一部分 =5;v[3]=1; A[4]=9;i[4]=1;x[4]=1; A[5]=10;x[5]=1; A[6]=40;x[6]=1;l[6]=1; A[7]=50;l[7]=

    56410发布于 2020-10-28
  • 来自专栏用户1692782的专栏

    撕Rtmp协议细节(8)——publish

    publish 对于流端,经过releaseStream,createStream消息之后,得到了_result消息之后,接下来客户端就可以发起publish消息。 流端使用publish消息向rtmp服务器端发布一个命名的流,发布之后,任意客户端都可以以该名称请求视频、音频和数据。我们首先来看一下publish消息的组织结构: ? rtmp://192.168.1.101:1935/rtmp_live/test,则test为流名称,也可以省略,此时该字段为空字符; publishType:发布的流的类型,使用string类型表示,有3种类型 ,现在可以流了。 onMetaData消息,这一条消息的主要作用是告诉服务端,流段关于音视频的处理采用的一些参数,比如音频的采样率,通道数,帧率,视频的宽,高等信息。

    4.2K30发布于 2020-05-26
  • 来自专栏KI的算法杂记

    SVM系列(四):序列最小优化算法

    写在前面 在SVM系列(三):SVM中,无论是求解硬间隔问题: 还是求解软间隔问题: 我们都有意无意跳过了拉格朗日乘子 的求解,今天我们就来求一求。 如此,SMO算法将原问题不断分解为子问题并对子问题求解,进而达到求解原问题的目的。   整个SMO算法包含两个部分:求解两个变量二次规划的解析方法和选择变量的启发式算法。下面将依次介绍。 在SVM系列(三):SVM中,求解软间隔问题的2.2.6中,我们说过: 前面求导时我们已经得到了: ,求解 的思路跟前面一样,任取一个支持向量 ,我们知道支持向量满足: 但是这里面有一个不确定量 3.总结SMO算法  SMO算法的输入为训练数据集T,样本个数为N,每个样本的标签为1或者-1,精度为 。输出为所有 的近似解。 1.取初值,令所有 都为0,即 ,令 。 往期文章推荐 ☞SVM系列(一):强对偶性、弱对偶性以及KKT条件的证明 ☞SVM系列(二):核方法概述---正定核以及核技巧 ☞SVM系列(三):SVM KI的算法杂记 CSDN博客 @Cyril_KI

    1.1K20编辑于 2022-07-29
  • 来自专栏趣Python

    机器学习(5)线性回归模型(多变量)

    在单变量的情况下,我们要求的参数只有2个,在多变量的情况下,我们要求的参数会有多个,单变量可以看成是多变量的特例。

    75630发布于 2020-06-02
  • 来自专栏人工智能LeadAI

    二、机器学习面试之有必要SVM吗?

    3、将第2步求得的结果代回拉格朗日函数,得到对偶问题 ? ? 4、求解对偶问题,解出alpha,进而求出w,b ?

    1.1K60发布于 2018-03-09
  • 来自专栏具身小站

    从零学习随机森林算法并示例

    3. 个栗子(判断是否适合跑步) 5.1 问题定义与数据集 使用一个非常经典的微型数据集,根据天气状况决定是否进行户外跑步。 Tree3 的 训练集: 假设抽到的序列:[D1, D2, D3, D3, D5, D6, D7, D8, D9, D10, D11, D12, D13, D14],D3被抽两次,D4 是OOB数据。 5.7 总结与关键点 通过这个示例,我们可以清晰地看到随机森林的工作原理: 有放回抽样:为每棵树创建略有差异的训练集,保证树的多样性。 这个算过程虽然繁琐,但彻底揭示了其内部机制。在实际应用中,计算机构建拥有几百棵树的森林也只是瞬间之事。

    40810编辑于 2025-10-31
  • 来自专栏软件开发 -- 分享 互助 成长

    分解3NF的保持函数依赖的分解算法:

    转换成3NF的保持函数依赖的分解算法: ρ={R1<U1,F1>,R2<U2,F2>,...,Rk<Uk,Fk>}是关系模式R<U,F>的一个分解,U={A1,A2,... ,于是构成的一个保持函数依赖的分解。并且,每个Ri(Ui,Fi)均属于3NF且保持函数依赖。 postid=4445027&actiontip 例1:关系模式R<U,F>,其中U={C,T,H,I,S,G},F={CS→G,C→T,TH→I,HI→C,HS→I},将其分解3NF并保持函数依赖。 (一)计算F的最小函数依赖集 ① 利用分解规则,将所有的函数依赖变成右边都是单个属性的函数依赖。由于F的所有函数依赖的右边都是单个属性,故不用分解。 C.设TH→I为冗余的函数依赖,则去掉TH→I,得: F3={CS→G,C→T,HI→C,HS→I} 计算(TH)F3+: 设X(0)=TH 计算X(1):扫描F3中的各个函数依赖,没有找到左部为TH或

    2.2K50发布于 2018-02-05
  • 来自专栏趣Python

    机器学习(6)线性回归模型(梯度下降法)

    在如上的示例中,我们已知y = 2*x + 3的4个样本,GD的学习率取0.1,示例中给出了前两步的计算推导,供参考。 ? 程序计算的迭代数据如下所示,跟手的一样: ?

    1.3K20发布于 2020-06-02
  • 来自专栏DeepHub IMBA

    公式:LSTM单元梯度的详细的数学推导

    C_t的值如图9公式5所示(下图第3行最后一个C_t缺少波浪号(~)符号->书写错误)。所以我们只需要对C_t w.r求导。t c ~ _t。 a_c:如下图所示为a_c到J的路径。

    1.7K20发布于 2020-07-02
  • 来自专栏深度学习自然语言处理

    Tokenizer的系统梳理,并每个方法的具体实现

    本文将对分词器进行系统梳理,包括分词模型的演化路径,可用的工具,并每个tokenizer的具体实现。 HuggingFace tokenizer的实现: https://huggingface.co/docs/tokenizers/api/post-processors 3.BPE Byte-Pair _ in split_text: word2count[word] += 1 获得word2count如下 defaultdict(<class 'int'>, {'This': 3, [pair] += word_count return pair2count 获得pair2count如下: defaultdict(<class 'int'>, {('T', 'h'): 3, ('h', 'i'): 3, ('i', 's'): 5, ('Ġ', 'i'): 2, ('Ġ', 't'): 7, ('t', 'h'): 3, ..., ('n', 's'): 1}) 统计当前频率最高的相邻

    4.6K34编辑于 2023-09-11
  • 来自专栏趣Python

    机器学习(4)线性回归模型(单变量 求导法)

    机器学习系列: 机器学习(1) - 人工智能起源 机器学习(2)细说监督学习 机器学习(3)再说监督学习的套路 ---- 前面说到了机器学习的套路,今天我们来推下线性回归模型(单变量)的参数推导 今天我们给出的是通过数学求导的方式来计算参数,这种方式解释性好,但是需要求导数,计算量比较大,后面我们还会给出梯度下降法的推过程。

    1.2K10发布于 2020-06-02
  • 来自专栏NaiTMao_机器学习

    机器学习笔记(一)——两种方式KNN算法

    这份数据中,就Age这一列而言,数据分布在0-80之间,而其他特征中,数据都分布在0-3之间,相比而言,Age这个特征的权重比较大,所以在计算距离时,需要进行归一化处理,不然会出现大数吃小数的情况 归一化公式 end = time.time() print (str(end-start)) 代码部分结束,代码运行截图如下 [在这里插入图片描述] 不同K取值对应模型准确率如下 1 2 3

    1.6K10发布于 2020-06-26
  • 来自专栏bit哲学院

    一文入门:XGBoost与二阶导

    一文搞懂:Adaboost及推算法案例 一文读懂:GBDT梯度提升  树模型概述  XGB就是Extreme Gradient Boosting极限梯度提升模型。 cart_t)}       Objt≈∑in​[gi​ft​(xi​)+21​hi​(ft​(xi​))2]+Ω(cartt​)   【所以XGB用到了二阶导数的信息,而GBDT只用了一阶的梯度】  区别3

    68140发布于 2021-01-29
领券