首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏创及数字产业人才培养基地

    逻辑回归算法

    逻辑回归(Logistic Regression)是一种广义的线性回归分析模型,常用于数据挖掘、疾病自动诊断、经济预测等领域。它根据给定的自变量数据集来估计事件的发生概率。 它是基于自我引用和递归定义的思想,将逻辑和计算理论相结合,形成了一种强有力的推理工具。例如,下图为逻辑回归曲线图,显示了考试通过概率与学习时间的关系。 通过逻辑回归分析,可以得到自变量的权重,从而可以大致了解到底哪些因素是胃癌的危险因素。同时根据该权值可以根据危险因素预测一个人患癌症的可能性。 需要注意的是,逻辑递归的推理过程可能面临一些挑战,如悖论和无限循环等。因此,在使用逻辑递归进行推理时,需要注意对递归定义和推理规则的合理限制,以避免逻辑矛盾和无穷循环的问题。 逻辑递归在逻辑学和计算理论中有广泛的应用。它被用于形式系统的研究,证明理论中的定理和推理规则,以及计算机科学中的递归算法和程序设计等领域。

    37310编辑于 2023-12-28
  • 来自专栏mythsman的个人博客

    逻辑回归算法

    说到逻辑回归(Logistic Regression),其实他解决的并不是回归问题(Regression),而是分类问题(Classification)。 这时候我们就需要一个特殊的函数来近似的处理离散的分类问题,这就引入了我们著名的逻辑函数(Logistic Function),又称Sigmoid函数: S(t)=\frac{1}{1+e^{-\theta 决策边界(Decision Boundary) 使用了逻辑函数作为拟合函数后,我们就可以写出我们的预测函数了: h_\theta(x)=S(\theta^Tx) S函数里面的其实就是一个线性方程,很明显 而且更重要的是,他并不是一个下凸函数,所以甚至不能用GD算法求极值。 优化算法 对于逻辑回归算法,有一些高级的优化算法比如Conjugate gradient、BFGS、L-BFGS等,这些跑起来快,但是难学。。。这里就不提了。

    1.1K20编辑于 2022-11-14
  • 来自专栏智能算法

    逻辑回归(LR)算法

    一、算法介绍 Logistic regression (逻辑回归)是一种非线性回归模型,特征数据可以是连续的,也可以是分类变量和哑变量,是当前业界比较常用的机器学习方法,用于估计某种事物的可能性,主要的用途 LR可以用来回归,也可以用来分类,主要是二分类。logistic回归模型在多分类问题上的推广是softmax regression。 可以用于多分类),且必须线性可分; 参考内容: Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)” 李航博士《统计学习方法》 回复数字或算法名称即可查看相关文章 没有公式如何看懂EM算法7. Python实现KNN算法 8. 基础聚类算法:K-means算法 9. 集成学习算法----Adaboost 10. 分类回归算法---CART 11. EAG多目标进化算法 12. 蚁群算法(独辟蹊径的进化算法) 13. 逻辑回归(LR)算法 免责声明:本文系网络转载。版权归原作者所有。如涉及版权,请联系删除!

    8.3K60发布于 2018-04-02
  • 来自专栏智能算法

    逻辑回归(LR)算法

    一、算法介绍 Logistic regression (逻辑回归)是一种非线性回归模型,特征数据可以是连续的,也可以是分类变量和哑变量,是当前业界比较常用的机器学习方法,用于估计某种事物的可能性,主要的用途 LR可以用来回归,也可以用来分类,主要是二分类。logistic回归模型在多分类问题上的推广是softmax regression。 但是线性回归无法做到,可以引用LR的h函数是一个Sigmoid函数: ? 改进算法,随机梯度上升算法: ? 1)第一种改进算法,随机梯度算法,加大计算每组数据的梯度。 可以用于多分类),且必须线性可分; 参考内容: Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)” 李航博士《统计学习方法》 免责声明:本文系网络转载

    1.5K130发布于 2018-04-03
  • 来自专栏blog(为什么会重名,真的醉了)

    分类-对数几率回归逻辑回归算法

    文章目录 简介 激活函数 损失函数 优化算法 代码 简介 ---- 对数几率回归(Logistic Regression),也称逻辑回归,虽然名字中含有回归,但其实是一种分类算法。 找一个单调可微函数将分类任务中的真实标记与线性回归模型的预测值联系起来,是一种广义线性回归。 比如给定身高和体重数据,通过线性回归算法训练模型后,可以得到身高体重的回归方程,从而得到预测值。 线性回归可参考::回归-线性回归算法(房价预测项目) 激活函数 ---- 激活函数就是将预测值 图片 转换为0/1值。 损失函数 ---- 损失函数是定义了预测标记和真实标记的误差,在逻辑回归中,我们希望每个样本属于其真实标记的概率越大越好,使用对数似然损失。 二分类 y = iris.target[0:100] x_train, x_test, y_train, y_test = train_test_split(x, y) # 划分训练集测试集 # 创建逻辑回归模型

    1.4K30编辑于 2022-10-07
  • 来自专栏SuperFeng

    机器学习系列7逻辑回归

    我想通过一个模型去预测该短信是否为垃圾短信,这时候用原来学过的线性回归算法就不太好用了,因为结果只有两种值,要么是垃圾短信(假设为 1),要么不是垃圾短信(假设为 0)。 这时候我们要学习一种新的算法去预测这种分类问题,它就是逻辑回归算法(Logistic Regression)。逻辑回归是一种分类算法。 让我们来看一下逻辑回归算法逻辑回归算法的假设函数 hθ(x) 由以下表达式组成: ? 其中g(z) 称为逻辑函数(Logistic Function),又称为 Sigmoid Function。 对于逻辑回归算法的假设函数 hθ(x) 可以这样理解,对于给定的参数 θ ,一组数据(x, y),通过 x 去预测 y = 1 的概率有多大,或 y = 0 的概率有多大。

    41630发布于 2019-09-26
  • 来自专栏blog(为什么会重名,真的醉了)

    机器学习-对数几率回归逻辑回归算法

    简介 对数几率回归(Logistic Regression),也称逻辑回归,虽然名字中含有回归,但其实是一种分类算法。 找一个单调可微函数将分类任务中的真实标记与线性回归模型的预测值联系起来,是一种广义线性回归。 比如给定身高和体重数据,通过线性回归算法训练模型后,可以得到身高体重的回归方程,从而得到预测值。 线性回归可参考::回归-线性回归算法(房价预测项目) 激活函数 ---- 激活函数就是将预测值 z=\bold w^T\bold x+ b 转换为0/1值。 损失函数 ---- 损失函数是定义了预测标记和真实标记的误差,在逻辑回归中,我们希望每个样本属于其真实标记的概率越大越好,使用对数似然损失。 二分类 y = iris.target[0:100] x_train, x_test, y_train, y_test = train_test_split(x, y) # 划分训练集测试集 # 创建逻辑回归模型

    1.2K20编辑于 2023-05-23
  • 来自专栏海边的拾遗者

    逻辑回归算法原理及实现

    在典型的分类算法中,一般为监督学习,其训练样本中包含样本的特征和标签信息。在二分类中,标签为离散值,如{-1,+1},分别表示负类和正类。 分类算法通过对训练样本的学习,得到从样本特征到样本标签之间的映射关系,这也被称为假设函数,可利用该函数对新样本进行预测类别。 在该算法中,通过对训练样本的学习,最终得到该超平面,将数据分为两个不同的类别。在这里,可引入阈值函数来将样本映射到不同的类别中,最常见的函数以Sigmoid函数为例,形式如下: ?

    92820发布于 2020-08-13
  • 来自专栏数据结构和算法

    Python基础算法解析:逻辑回归

    逻辑回归是一种常用的分类算法,尤其适用于二分类问题。本文将介绍逻辑回归的原理、实现步骤以及如何使用Python进行逻辑回归的编程实践。 什么是逻辑回归逻辑回归是一种基于概率的统计分类技术,主要用于二分类问题。尽管名字中含有“回归”,但实质上是一种分类算法逻辑回归的原理 逻辑回归的核心在于 sigmoid 函数,它的数学表达式如下: 这里, x_0 = 1 , w_i 是特征 x_i 对应的权重。 model.predict(X_test) # 计算准确率 accuracy = np.mean(y_pred == y_test) print("Accuracy:", accuracy) 总结 逻辑回归是一种简单而强大的分类算法 通过本文的介绍,你已经了解了逻辑回归的原理、实现步骤以及如何使用Python进行编程实践。希望本文能够帮助你更好地理解和应用逻辑回归算法

    95810编辑于 2024-03-16
  • 来自专栏乱码李

    机器学习常用算法——逻辑回归

    逻辑回归 首先,逻辑回归是一个分类算法而不是一个回归算法,该算法可根据已知的一系列因变量估计离散数值(比方说二进制数值 0 或 1 ,是或否,真或假),它通过将数据拟合进一个 逻辑函数 来预估一个事件出现的概率 这就是逻辑回归能提供给你的信息。 用途 逻辑回归主要用于分类,比如邮件分类,是否肿瘤、癌症诊断,用户性别判断,预测用户购买产品类别,判断评论是正面还是负面等。 逻辑回归的数学模型和求解都相对比较简洁,实现相对简单。通过对特征做离散化和其他映射,逻辑回归也可以处理非线性问题,是一个非常强大的分类器。 因此在实际应用中,当我们能够拿到许多低层次的特征时,可以考虑使用逻辑回归来解决我们的问题。 算法选择–逻辑回归 大多数问题都可以归结为二元分类问题。这个算法的优点是可以给出数据所在类别的概率。

    75030发布于 2021-11-26
  • 来自专栏NowlNowl_AI

    机器学习第7天:逻辑回归

    介绍 作用:使用回归算法进行分类任务 思想:将回归值转为概率值,然后找到一个适当的数值,当概率大于这个值时,归为一类,当小于这个值时,归为另一类 概率计算 函数的输入值为特征的加权和 是sigmoid 函数,公式为 函数图像为 可见它输出一个0-1的值,我们可以将这个值当作概率 则我们可以通过这个概率来分类,设定一个值,在这个值的两端进行分类 逻辑回归的损失函数 单个实例的成本函数 当p>=0.5时 (x, y) 参数说明 multi_class="multinomial": 表示采用多类别分类,即多类别的逻辑回归问题,与二元逻辑回归不同。 solver="lbfgs": 表示使用LBFGS(Limited-memory Broyden–Fletcher–Goldfarb–Shanno)优化算法进行求解。 结语 逻辑回归是一种简单的分类方法,二分类任务就用第一种方法,多分类任务就用第二种方法

    29010编辑于 2024-01-18
  • 来自专栏小闫笔记

    机器学习算法逻辑回归

    —— Arianna Huffington" 逻辑回归(Logistic Regression)是机器学习中的一种分类模型。虽然名字中带有「回归」,但它却不是回归算法,而是一种分类算法。 由于此算法的简单和高效,在实际场景中应用非常广泛。也许有人很好奇,那为什么叫做「回归」而不是「分类」呢? 逻辑回归可谓是解决二分类问题的利器。 2.原理 要想熟悉逻辑回归,必须掌握以下两点: 1) 逻辑回归中,其输入值是什么? 2) 如何判断逻辑回归的输出? 2.1 输入 ? 逻辑回归的输入其实就是一个线性回归的结果。(正解决了大家对文章开始部分,介绍逻辑回归实质时那句话的疑问) 2.2 激活函数 1) sigmoid 函数 ? 通过更新逻辑回归前面对应算法的权重参数,提升原本属于1类别的概率,降低原本是0类别的概率。

    54610发布于 2020-02-26
  • 来自专栏数据科学与人工智能

    算法逻辑回归(Logistic Regression) 模型

    小编邀请您,先思考: 1 逻辑回归算法的原理是什么? 2 逻辑回归算法的有哪些应用? 逻辑回归(Logistic Regression)是机器学习中的一种分类模型,由于算法的简单和高效,在实际中应用非常广泛。 本文作为美团机器学习InAction系列中的一篇,主要关注逻辑回归算法的数学模型和参数求解方法,最后也会简单讨论下逻辑回归和贝叶斯分类的关系,以及在多分类问题上的推广。 要解决这些问题,通常会用到一些已有的分类算法,比如逻辑回归,或者支持向量机。它们都属于有监督的学习,因此在使用这些算法之前,必须要先收集一批标注好的数据作为训练集。 Softmax 回归是直接对逻辑回归在多分类的推广,相应的模型也可以叫做多元逻辑回归(Multinomial Logistic Regression)。

    2.9K50发布于 2018-03-27
  • 来自专栏趣Python

    机器学习(7)Logistic Regression逻辑回归

    逻辑回归,又称逻辑斯蒂回归,其英文名称为Logistic Regression,取这个中文名字的人应该拖出去打一顿,逻辑这个词的误导性太大,还让人很迷惑。 敌对的 7.humanistic [human n. moralistic [moral n.道德 + -istic 形容词后缀 → ] adj.道学的 9.hedoniatic [hedon 愉快 + -istic 形容词后缀 → ] adj.享乐主义的 逻辑回归从数学上讲 ,就是在线性回归的基础上,外层套了一个sigmoid函数,sigmoid函数如下所示,它的特点就是无论x怎么范围,能够把f(x)限制到[0, 1]之间,这样方便于做0-1二分类。 具体的,逻辑回归的代价函数的推导如下所示: ? 所以,逻辑回归还不如取名叫:对数化回归,反而更确切!!!

    94640发布于 2020-06-03
  • 来自专栏数据STUDIO

    机器学习 | 逻辑回归算法(二)LogisticRegression

    文章机器学习 | 逻辑回归算法(一)理论中详细介绍了逻辑回归理论知识。 逻辑回归是一种广义线性回归模型,是Sigmoid函数归一化后的线性回归模型,常用来解决二元分类问题,可解释性强。 逻辑回归,假设样本服从伯努利分布(0-1分布),然后求得满足该分布的似然函数,接着取对数求极值最小化负的似然函数。应用极大似然估计法估计模型参数,从而得到逻辑回归模型。 sklearn中逻辑回归 Sklearn中逻辑回归相关的类 说明 linear_model.LogisticRegression 逻辑回归分类器(又叫logit回归,最大熵分类器) linear_model.LogisticRegressionCV 在逻辑回归中,同样也使用了L1正则化来做特征选择。如使用高效的嵌入法embedded对逻辑回归进行特征选择来降维。 第二种通过逻辑回归的类LR_中参数C的学习曲线来实现: ---- ?

    1.4K10发布于 2021-06-24
  • 来自专栏ShowMeAI研究中心

    图解机器学习 | 逻辑回归算法详解

    介绍逻辑回归模型中最重要的Sigmoid变换函数,以及不同分类器得到的决策边界。 第4部分:模型优化使用的梯度下降算法。介绍模型参数学习过程中最常使用到的优化算法:梯度下降。 (本篇逻辑回归算法的部分内容涉及到机器学习基础知识,没有先序知识储备的宝宝可以查看ShowMeAI的文章 图解机器学习 | 机器学习基础知识)。 [3fa381f3dd67436067e7c8ee7c04475c.png] 2)分类问题的数学抽象 从算法的角度解决一个分类问题,我们的训练数据会被映射成n维空间的样本点(这里的n就是特征维度),我们需要做的事情是对 2.逻辑回归算法核心思想 下面介绍本次要讲解的算法——逻辑回归(Logistic Regression)。逻辑回归是线性回归的一种扩展,用来处理分类问题。 [c7e49855127c5a18c36d4016ada9cd7b.png] 梯度下降(Gradient Descent)法,是一个一阶最优化算法,通常也称为最速下降法。

    1.3K52编辑于 2022-03-10
  • 来自专栏数据STUDIO

    机器学习 | 逻辑回归算法(一)理论

    从线性回归函数到逻辑回归函数 逻辑回归是线性分类器,其本质是由线性回归通过一定的数学变化而来的。要理解逻辑回归,得先理解线性回归。线性回归是构造一个预测函数来映射输入的特性矩阵和标签的线性关系。 线性回归中 带入到Sigmoid函数中,即得到二元逻辑回归模型的一半形式: 其中 为逻辑回归的返回的标签值。假设已经训练好一组权值向量 。 ---- 逻辑回归模型(Logistic Regression) 二项逻辑回归模型是一种分类模型,由条件概率分布 表示,形式为参数化的逻辑回归逻辑回归返回类概率数字 逻辑回归返回的分类结果不是固定的0,1,而是以小数形式概率数字呈现的。因此可以把逻辑回归返回的结果当成连续型数据来利用。 算法求解 梯度下降法 评估指标 混淆矩阵:AUC Recall Precision ---- 逻辑回归和朴素贝叶斯区别 朴素贝叶斯 贝叶斯公式 是后验概率, 是似然函数, 在这里是代表“特征

    1.9K20发布于 2021-06-24
  • 来自专栏尼莫的AI小站

    手撸机器学习算法 - 逻辑回归

    系列文章目录: 感知机 线性回归 非线性问题 多项式回归回归 逻辑回归 算法介绍 今天我们一起来学习使用非常广泛的分类算法逻辑回归,是的,你没有看错,虽然它名字里有回归,但是它确实是个分类算法,作为除了感知机以外 ,最最最简单的分类算法,下面我们把它与感知机对比来进行学习; 从决策边界上看 感知机:决策边界就是类别的分界线,处于错误一侧的点即为分类错误点; 逻辑回归:决策边界表示分为正类和负类均为50%,数据点被分为正类的概率直观上由其到决策边界的距离决定 : ln(1+e^{-(yi*wxi)}) ,yi∈{-1,+1},模型分类正确返回值>=0,错误返回值<0,负数绝对值越大,表示错误越严重,对所有样本计算该误差加起来求平均即为逻辑回归的误差函数; 算法推导 再来对比看下逻辑回归的分类情况: ? epsilon=0.0005) i,norm,w = model.train() print(f"epochs={i} -> w={w} -> norm={norm:>.8f}") 最后 逻辑回归几乎是机器学习中应用最为广泛的一种分类算法

    70320发布于 2021-07-01
  • 来自专栏算法之名

    机器学习算法整理(三)逻辑回归

    接机器学习算法整理(二) 逻辑回归 什么是逻辑回归(Logistic Regression) 逻辑回归是解决分类问题的,那回归问题怎么解决分类问题呢? 逻辑回归既可以看作是回归算法,也可以看作是分类算法。如果我们不进行最后的一步根据 的值进行分类的操作,那么它就是一个回归算法。我们计算的是根据样本的特征来拟合计算出一个事件发生的概率。 不过通常我们使用逻辑回归还是当作分类算法用,只可以解决二分类问题。如果对于多分类问题,逻辑回归本身是不支持的。当然我们可以使用一些其他的技巧进行改进,使得我们用逻辑回归的方法,也可以解决多分类的问题。 但是对于KNN算法来说,它天生就可以支持多分类的问题。 逻辑回归使用一种什么方式可以得到一个事件概率的值?对于线性回归来说, 它的 值域是(-∞,+∞)的。对于线性回归来说它可以求得一个任意的值。 对于线性回归进行向量化处理,它的梯度可以写成 那么对逻辑回归的梯度进行向量化处理,就有 实现逻辑回归算法 import numpy as np from math import sqrt def

    58010发布于 2021-09-14
  • 来自专栏机器学习技术分享

    通俗易懂--逻辑回归算法讲解(算法+案例)

    1.逻辑回归(Logistic Regression) 1.1逻辑回归与线性回归的关系 逻辑回归是用来做分类算法的,大家都熟悉线性回归,一般形式是Y=aX+b,y的取值范围是[-∞, +∞],有这么多取值 好了,接下来我们把aX+b带入t中就得到了我们的逻辑回归的一般模型方程: ? 结果P也可以理解为概率,换句话说概率大于0.5的属于1分类,概率小于0.5的属于0分类,这就达到了分类的目的。 1.2损失函数 逻辑回归的损失函数跟其它的不同,先一睹尊容: ? 解释一下,当真实值为1分类时,用第一个方程来表示损失函数;当真实值为0分类时,用第二个方程来表示损失函数,为什么要加上log函数呢? 1.4逻辑回归(LR)的一些经验 模型本身并没有好坏之分。 LR能以概率的形式输出结果,而非只是0,1判定。 LR的可解释性强,可控度高(你要给老板讲的嘛…)。

    8.9K20发布于 2019-07-30
领券