首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏生物信息学、python、R、linux

    regularized negative binomial regression对单细胞数据进行标准化

    由于技术因素,scRNA-seq数据可能由于每个细胞中检测到的分子数量不同导致细胞与细胞间的差异。为了解决区分生物学异质性与技术造成的差异,本文提出正则化负二项分布中的皮尔逊残差(其中细胞测序深度用作广义线性模型中的协变量)在保留生物异质性的同时成功地消除了测序深度的影响。 文章原文:https://link.springer.com/article/10.1186/s13059-019-1874-1

    87720发布于 2020-04-01
  • 来自专栏全栈程序员必看

    无人机数车–Drone-based Object Counting by Spatially Regularized Regional Proposal Network

    Drone-based Object Counting by Spatially Regularized Regional Proposal Network ICCV2017 数据库:https 目前主要有以下几个数据库: 4 Method Our object counting system employs a region proposal module which takes regularized 我们的计数系统使用了一个含有 regularized layout structure 候选区域提取模块, 它是 全卷积网络,输入图像可以使任意尺寸 4.1. 和 RPN 不同的地方在于损失函数的定义, The difference is that our loss function introduces the spatially regularized weights

    38420编辑于 2022-09-21
  • 来自专栏机器学习、深度学习

    无人机数车--Drone-based Object Counting by Spatially Regularized Regional Proposal Network

    Drone-based Object Counting by Spatially Regularized Regional Proposal Network ICCV2017 数据库:https 4 Method Our object counting system employs a region proposal module which takes regularized layout 我们的计数系统使用了一个含有 regularized layout structure 候选区域提取模块, 它是 全卷积网络,输入图像可以使任意尺寸 4.1. 和 RPN 不同的地方在于损失函数的定义, The difference is that our loss function introduces the spatially regularized weights

    1.1K100发布于 2018-01-03
  • 来自专栏音视频技术学习笔记

    机器学习作业5-偏差和方差

    def regularized_gradient(theta, X, y, l=1): m = X.shape[0] regularized_term = theta.copy() # same shape as theta regularized_term[0] = 0 # don't regularize intercept theta regularized_term = (l / m) * regularized_term return gradient(theta, X, y) + regularized_term regularized_gradient , options={'disp': True}) return res def regularized_cost(theta, X, y, l= cost(theta, X, y) + regularized_term theta = np.ones(X.shape[0]) final_theta = linear_regression_np

    57020发布于 2021-03-12
  • 来自专栏音视频技术学习笔记

    机器学习作业2-逻辑回归

    regularized cost(正则化代价函数) ? #正则化代价函数 regularized_cost(theta, X, y, l=1) 0.6931471805599454 # this is the same as the not regularized theta_0 # theta_0填充为0,即正则化不影响theta_0 regularized_term = np.concatenate([np.array([0]), regularized_theta ]) return gradient(theta, X, y) + regularized_term regularized_gradient(theta, X, y) 拟合参数 import (fun=regularized_cost, x0=theta, args=(X, y), method='Newton-CG', jac=regularized_gradient) res init

    84220发布于 2021-03-04
  • 来自专栏音视频技术学习笔记

    图片文字识别原理

    = (l / (2 * len(X))) * np.power(theta_j1_to_n, 2).sum() return cost(theta, X, y) + regularized_term def regularized_gradient(theta, X, y, l=1): '''still, leave theta_0 alone''' theta_j1_to_n = theta[1:] regularized_theta = (l / len(X)) * theta_j1_to_n # by doing this, no offset is on theta_0 regularized_term = np.concatenate([np.array([0]), regularized_theta]) return gradient (theta, X, y) + regularized_term def sigmoid(z): return 1 / (1 + np.exp(-z)) def gradient(theta

    45.8K10发布于 2021-03-05
  • 来自专栏红色石头的机器学习之路

    中国台湾大学林轩田机器学习技法课程学习笔记5 -- Kernel Logistic Regression

    正因为二者的这种相似性,我们可以把SVM看成是L2-regularized logistic regression。 至此,可以看出,求解regularized logistic regression的问题等同于求解soft-margin SVM的问题。 来预测结果是正类的几率是多少,就像regularized logistic regression做的一样。我们下一小节将来解答这个问题。 经过证明和分析,我们得到了结论是任何L2-regularized linear model都可以使用kernel来解决。 现在,我们来看看如何把kernel应用在L2-regularized logistic regression上。

    84300发布于 2017-12-28
  • 来自专栏图像处理与模式识别研究所

    正则化线性回归,来研究具有不同偏差方差特性的模型。

    ex5.m %% Machine Learning Online Class % Exercise 5 | Regularized Linear Regression and Bias-Variance \n'); pause; %% =========== Part 2: Regularized Linear Regression Cost ============= % You should now implement the cost function for regularized linear % regression \n'); pause; %% =========== Part 3: Regularized Linear Regression Gradient ============= % You should cost and gradient correctly, the % trainLinearReg function will use your cost function to train % regularized

    1K10编辑于 2022-05-28
  • 来自专栏红色石头的机器学习之路

    逻辑回归还能这样解?关于Kernel Logistic Regression的详细解释

    1 Soft-Margin SVM as Regularized Model 先复习一下我们已经介绍过的内容,我们最早开始讲了Hard-Margin Primal的数学表达式,然后推导了Hard-Margin 建立了Regularization和Soft-Margin SVM的关系,接下来我们将尝试看看是否能把SVM作为一个regularized的模型进行扩展,来解决其它一些问题。 反过来,如果我们求解了一个soft-margin SVM的问题,那这个解能否直接为regularized logistic regression所用? 来预测结果是正类的几率是多少,就像regularized logistic regression做的一样。我们下一小节将来解答这个问题。 经过证明和分析,我们得到了结论是任何L2-regularized linear model都可以使用kernel来解决。 上式中,所有的w项都换成βn来表示了,变成了没有条件限制的最优化问题。

    54910编辑于 2022-01-12
  • 来自专栏CreateAMind

    GAN论文解读推荐

    《Mode Regularized Generative Adversarial Networks》. Junbo Zhao, Michael Mathieu, Yann LeCun ................为此,这篇论文[1] 提出一种 mode-regularized 的思想,来增加对 GAN 所以,这篇论文[1] 给出的是一种 rugularizer for GAN,而用这样的 regularizer 的 GAN 就被作者叫做 Regularized-GAN(在实验中)。..........

    60830发布于 2018-07-25
  • 来自专栏腾讯技术工程官方号的专栏

    重磅独家 | 腾讯AI Lab AAAI18现场陈述论文:用随机象限性消极下降算法训练L1范数约束模型

    腾讯技术工程官方号独家编译了论文《用随机象限性消极下降算法训练L1范数约束模型》(Training L1-Regularized Models with Orthant-Wise Passive Descent The intersection point between the balls and the contours are the solution to such regularized models We study a regularized function P(x) which equals to F(x) + R(x), where F(x) is the average of N loss Inspired by SVRG and OWL-QN, we develop a stochastic optimization method for in L1-regularized models Experiments on Deep Learning: We also conducted experiments with L-1 regularized convolutional neural

    1.3K70发布于 2018-03-01
  • 来自专栏科研菌

    通过Cox回归寻找治疗靶点的5+分思路

    journal of cellular physiology(IF=5.546)上的一篇文章:“Prognostic scoring system for osteosarcoma using network-regularized 使用网络正则化高维Cox回归(network‐regularized high‐dimensional Cox regression,NET)分析mRNA的表达数据,根据回归系数和mRNA表达值确定预后风险评分 Prognostic scoring system for osteosarcoma using network‐regularized high‐dimensional Cox‐regression 为了识别基因组数据中预后相关的变量,统计学家开发了许多新的分组变量的选择方法,如网络正则化高维Cox回归(network‐regularized high‐dimensional Cox regression 表1.骨肉瘤患者具体信息和风险分组 作者使用Coxnet包对骨髓瘤患者基因表达数据进行网络正则化高维cox回归分析( network‐regularized high‐dimensional

    88710发布于 2020-12-18
  • 来自专栏红色石头的机器学习之路

    【SVM最后一课】详解烧脑的Support Vector Regression

    1 Kernel Ridge Regression 首先回顾一下上节课介绍的Representer Theorem,对于任何包含正则项的L2-regularized linear model,它的最佳化解 所以,我们接下来要做的事情就是将L2-regularized tube regression做类似于soft-margin SVM的推导,从而得到sparse β。 现在,我们把L2-Regularized Tube Regression写下来: 这个最优化问题,由于其中包含max项,并不是处处可微分的,所以不适合用GD/SGD来求解。 我们总共介绍过三种线性模型,分别是PLA/pocket,regularized logistic regression和linear ridge regression。 所以,我们定义新的tube regression,使用SVM的推导方法,来最小化regularized tube errors,转化为对偶形式,得到了sparse的解。

    79110编辑于 2022-01-12
  • 来自专栏机器学习与自然语言处理

    Stanford机器学习笔记-3.Bayesian statistics and Regularization

    Bayesian statistics and regularization.      3.3 Optimize Cost function by regularization.        3.3.1 Regularized linear regression.        3.3.2 Regularized logistic regression.      3.4 Advanced optimization. key 图3-3 正则化的直观感受 3.3.1 Regularized linear regression 一般的,对于线性模型正则化后的cost function如下: ? 3.3.2 Regularized logistic regression ? ? J = COSTFUNCTIONREG(theta, X, y, lambda) computes the cost of using % theta as the parameter for regularized

    1.1K170发布于 2018-03-13
  • 来自专栏机器学习算法与Python学习

    机器学习(3) -- 贝叶斯及正则化

    Bayesian statistics and regularization.     3.3 Optimize Cost function by regularization.       3.3.1 Regularized linear regression.       3.3.2 Regularized logistic regression.     3.4 Advanced optimization. key 图3-3 正则化的直观感受 3.3.1 Regularized linear regression 一般的,对于线性模型正则化后的cost function如下: ? 3.3.2 Regularized logistic regression ? ? J = COSTFUNCTIONREG(theta, X, y, lambda) computes the cost of using % theta as the parameter for regularized

    3.8K90发布于 2018-04-04
  • 来自专栏技术圈

    基于矩阵分解的推荐系统

    Regularized MF ? Regularized MF + 偏置项 我们用 ? 这时我们的theta 除了包含U,V矩阵还包含bu、bi向量,U、V的更新式和Regularized MF 保持一致,而bu,bi的更新式为: ? ?

    88910发布于 2019-08-21
  • 来自专栏红色石头的机器学习之路

    中国台湾大学林轩田机器学习技法课程学习笔记6 -- Support Vector Regression

    Kernel Ridge Regression 首先回顾一下上节课介绍的Representer Theorem,对于任何包含正则项的L2-regularized linear model,它的最佳化解 所以,我们接下来要做的事情就是将L2-regularized tube regression做类似于soft-margin SVM的推导,从而得到sparse β。 现在,我们把L2-Regularized Tube Regression写下来: 这个最优化问题,由于其中包含max项,并不是处处可微分的,所以不适合用GD/SGD来求解。 我们总共介绍过三种线性模型,分别是PLA/pocket,regularized logistic regression和linear ridge regression。 所以,我们定义新的tube regression,使用SVM的推导方法,来最小化regularized tube errors,转化为对偶形式,得到了sparse的解。

    1.2K00发布于 2017-12-28
  • 来自专栏量子位

    MIT长篇论文:我们热捧的AI翻译和自动驾驶,需要用技术性价比来重估

    Regularized model:跟「Flexible model」一样,它拥有模型中所有参数,但是是在正则化模型中。 可以看到,随着样本量的增加,Oracle model跟Expert model一开始表现出更好的性能,而Flexible model和Regularized model这两个模型后进之势十分猛烈。 而与之相应的「计算要求」,Flexible model和Regularized model跟前两个压根就不是一个量级的。

    50130发布于 2020-07-24
  • 来自专栏张善友的专栏

    Accord.NET重启4.0 开发

    regression(逻辑回归)、multinomial logistic regression(多项式逻辑回归)(softmax) and generalized linear models(广义线性模型)、L2-regularized L2-loss logistic regression , L2-regularized logistic regression , L1-regularized logistic regression , L2-regularized logistic regression in the dual form and regression support vector machines。

    1.1K30发布于 2020-06-19
  • 来自专栏null的专栏

    优化算法——截断梯度法(TG)

    1、简单截断(Simple coefficient Rounding) image.png 2、L1-Regularized Subgradient(次梯度) 有关次梯度的概念将会在另一篇文章中涉及 ,L1-Regularized Subgradient形式也比较直观,具体的形式如下: ?

    1.8K60发布于 2018-03-19
领券