首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏KI的算法杂记

    SVM系列(三):SVM

    :核方法概述---正定核以及核技巧 References 机器学习之SVM(Hinge Loss+Kernel Trick)原理推导与解析 SVM系列(一):强对偶性、弱对偶性以及KKT条件的证明 序列最小优化

    1K10编辑于 2022-07-29
  • 来自专栏算法一只狗

    矩阵的特征分解(推导+算+python计算+对称矩阵的特征分解性质)

    前言要学会矩阵的特征分解,可以提前看矩阵的一些基础知识:https://blog.csdn.net/qq_30232405/article/details/1045882932.矩阵的进阶知识2.1 特征分解 (谱分解)=>只可以用在方阵上2.1.1 特征分解的原理如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:这种形式在数学上的含义:描述的是矩阵A对向量v的变换效果只有拉伸,没有旋转。 总结:特征分解,可以得到m个特征向量和特征值,利用这m个特征(代表这个矩阵最重要的特征),就可以近似这个矩阵。 (1)算求矩阵A的特征值和特征向量:可以得到结果:当\lambda=6时,(6I-A)v=0:result: v_1 = 5, v_2=3, v_3=7当\lambda=2时,(2I-A)v=0:result V = np.linalg.eig(A)if np.equal(np.dot(A, V), np.dot(V, np.diag(D))): print(True)结果为:发现python计算的和算的特征向量值不同

    69820编辑于 2024-12-08
  • 来自专栏人工智能LeadAI

    机器学习面试之有必要SVM吗?

    最近和许多朋友交流,发现当前机器学习应聘时,SVM这道题已经越来越像快速排序一样,成为必点菜了。 那么,SVM是不是必要的呢? 正反双方各执一词,正方说,SVM才能看出应聘者的理论基础,反方说,现实中,SVM限于性能,应用面很小,尤其是现在xgboost, lightGBM等高性能的boosting框架的盛行,更让SVM成为了好看不好用的东西 能说清楚基础原理就可以了,没必要。 我的观点是:如果你是应聘者,不要思考这个问题,赶紧多推几遍SVM,争取达到闭眼也能推出来的地步,因为你没有选择,假如你跟面试官说,这个没必要,实际中用的不多,估计你的面试也玄了,因为面试官不知道你是说真的还是在为自己不会找理由

    1.7K50发布于 2018-03-09
  • 来自专栏光城(guangcity)

    Assignment2中BN反向传播

    Assignment2中BN反向传播 0.说在前面 或许有些人对于上一节说的BN推导没有深入理解,那么本节则从一篇非常好的论文中来实践带大家一遍,与此同时,完成Week6的作业! 下面第二篇是我总结的numpy在cs231n中使用及一些常见用法,建议敲! 对于本节内容,请各位拿出纸与笔,下面一起来实战吧! 1.Paper 这里推荐一篇论文,非常值得看! 或者直接搜:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 2. 这里直接放出论文中的相关公式,以及自己的BN反向传播! 【BN实现】 有关BN的推上面给出了图片解释,这里只需要完成相应代码即可! 实现在layers.py找到下面方法完善即可!

    1.2K20发布于 2019-09-20
  • 来自专栏CSDN旧文

    P1465 序言页码 Preface Numbering (

    输入输出样例 输入样例#1: 5 输出样例#1: I 7 V 2 说明 翻译来自NOCOW USACO 2.2 这个题他们使用DP做的,我看了看一开始也想DP后来发现,他们有规律,就手前一部分

    56410发布于 2020-10-28
  • 来自专栏算法码上来

    公式之“层归一化”梯度

    昨天推导了一下交叉熵的反向传播梯度,今天再来推导一下层归一化(LayerNorm),这是一种常见的归一化方法。

    68920编辑于 2022-06-13
  • 来自专栏KI的算法杂记

    SVM系列(四):序列最小优化算法

    写在前面 在SVM系列(三):SVM中,无论是求解硬间隔问题: 还是求解软间隔问题: 我们都有意无意跳过了拉格朗日乘子 的求解,今天我们就来求一求。 如此,SMO算法将原问题不断分解为子问题并对子问题求解,进而达到求解原问题的目的。   整个SMO算法包含两个部分:求解两个变量二次规划的解析方法和选择变量的启发式算法。下面将依次介绍。 在SVM系列(三):SVM中,求解软间隔问题的2.2.6中,我们说过: 前面求导时我们已经得到了: ,求解 的思路跟前面一样,任取一个支持向量 ,我们知道支持向量满足: 但是这里面有一个不确定量 往期文章推荐 ☞SVM系列(一):强对偶性、弱对偶性以及KKT条件的证明 ☞SVM系列(二):核方法概述---正定核以及核技巧 ☞SVM系列(三):SVM KI的算法杂记 CSDN博客 @Cyril_KI

    1.1K20编辑于 2022-07-29
  • 来自专栏用户1692782的专栏

    撕Rtmp协议细节(8)——publish

    publish 对于流端,经过releaseStream,createStream消息之后,得到了_result消息之后,接下来客户端就可以发起publish消息。 流端使用publish消息向rtmp服务器端发布一个命名的流,发布之后,任意客户端都可以以该名称请求视频、音频和数据。我们首先来看一下publish消息的组织结构: ? ,现在可以流了。 SetDataFrame/OnMetaData 一般在客户端收到服务端返回的针对publish的onStatus消息之后,如果没有异常,流端还会向服务器发送一条SetDataFrame的消息,其中包含 onMetaData消息,这一条消息的主要作用是告诉服务端,流段关于音视频的处理采用的一些参数,比如音频的采样率,通道数,帧率,视频的宽,高等信息。

    4.2K30发布于 2020-05-26
  • 来自专栏趣Python

    机器学习(5)线性回归模型(多变量)

    在单变量的情况下,我们要求的参数只有2个,在多变量的情况下,我们要求的参数会有多个,单变量可以看成是多变量的特例。

    75630发布于 2020-06-02
  • 来自专栏人工智能LeadAI

    二、机器学习面试之有必要SVM吗?

    上篇文章中,我们介绍了SVM的基本思想,并将其推导成了一个数学问题,今天的任务,就是解决如何求解这个数学问题,同时,回答上篇文章中提出的第二个问题: 如果将正负样本分开的超平面不存在,那么如何找一个尽

    1.1K60发布于 2018-03-09
  • 来自专栏具身小站

    从零学习随机森林算法并示例

    个栗子(判断是否适合跑步) 5.1 问题定义与数据集 使用一个非常经典的微型数据集,根据天气状况决定是否进行户外跑步。 5.7 总结与关键点 通过这个示例,我们可以清晰地看到随机森林的工作原理: 有放回抽样:为每棵树创建略有差异的训练集,保证树的多样性。 这个算过程虽然繁琐,但彻底揭示了其内部机制。在实际应用中,计算机构建拥有几百棵树的森林也只是瞬间之事。

    40810编辑于 2025-10-31
  • 来自专栏趣Python

    机器学习(6)线性回归模型(梯度下降法)

    程序计算的迭代数据如下所示,跟手的一样: ? GD对学习率比较敏感,取值过小,迭代极慢;取值过大,可能跑过了,震荡较大,甚至无法收敛。 业界的说法,一般学习率取0.01比较合适。

    1.3K20发布于 2020-06-02
  • 来自专栏DeepHub IMBA

    公式:LSTM单元梯度的详细的数学推导

    介绍 上面是单个LSTM单元的图表。我知道它看起来可怕?,但我们会通过一个接一个的文章,希望它会很清楚。 解释 基本上一个LSTM单元有4个不同的组件。忘记门、输入门、输出门和单元状态。我们将首先简

    1.7K20发布于 2020-07-02
  • 来自专栏深度学习自然语言处理

    Tokenizer的系统梳理,并每个方法的具体实现

    本文将对分词器进行系统梳理,包括分词模型的演化路径,可用的工具,并每个tokenizer的具体实现。

    4.6K34编辑于 2023-09-11
  • 来自专栏趣Python

    机器学习(4)线性回归模型(单变量 求导法)

    机器学习系列: 机器学习(1) - 人工智能起源 机器学习(2)细说监督学习 机器学习(3)再说监督学习的套路 ---- 前面说到了机器学习的套路,今天我们来推下线性回归模型(单变量)的参数推导 今天我们给出的是通过数学求导的方式来计算参数,这种方式解释性好,但是需要求导数,计算量比较大,后面我们还会给出梯度下降法的推过程。

    1.2K10发布于 2020-06-02
  • 来自专栏NaiTMao_机器学习

    机器学习笔记(一)——两种方式KNN算法

    k-近邻算法(kNN)的工作原理是:存在一个样本数据集合,称训练样本集,并且样本集中每个数据都存在标签,即样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似的数据(距离最近)的分类标签。

    1.6K10发布于 2020-06-26
  • 来自专栏bit哲学院

    一文入门:XGBoost与二阶导

    一文搞懂:Adaboost及推算法案例 一文读懂:GBDT梯度提升  树模型概述  XGB就是Extreme Gradient Boosting极限梯度提升模型。

    68140发布于 2021-01-29
  • 来自专栏量子位

    拯救灵魂画!Google新AutoDraw,用机器学习帮你画画

    以致于很多有着天马行空想法的文艺青少年/中老年,都变成了灵魂画

    1.2K70发布于 2018-03-28
  • 来自专栏机器学习炼丹术

    AI面试题之XGBoost与二阶导

    在2020年还在整理XGB的算法,其实已经有点过时了。不过,主要是为了扩大知识面和应付面试嘛。现在的大数据竞赛,XGB基本上已经全面被LGB模型取代了,这里主要是学习一下Boost算法。之前已经在其他博文中介绍了Adaboost算法和Gradient-boost算法,这篇文章讲解一下XGBoost。

    1.8K51发布于 2020-07-14
  • 来自专栏BestSDK

    Testin免费游内测分发工具Pre.im

    目前为止,Testin已经测试移动应用及游达1亿次之多,平台服务开发者(移动应用开发者及游开发商)近50万,是全球最大的移动应用及手机游戏测试服务专业机构。 正当众多国内游开发者以为可以更好地享受测试服务时,却发现其缓慢的访问速度、复杂的使用流程以及不确定的审核等,让人对它再也喜欢不起来。 目前Pre支持的是Android及iOS开发的手机游戏,游开发者只需简单的2步,就可以轻松的启动一个用于内测的分发工作。预计年内,Pre也将支持Windows Phone游的内测分发托管。 Pre的主要特性有:   简单:上传游应用,用户扫描二维码下载,分发就两步,iOS游也不例外,UDID傻瓜式获取。   高效:告别应用商店漫长无比的审核等待,让游闪电到达内测用户手中。   快速:无需购买服务器、带宽快速托管游,上下传速度较TestFlight快许多。  

    2K90发布于 2018-02-26
领券