首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏创及数字产业人才培养基地

    逻辑回归算法

    逻辑回归(Logistic Regression)是一种广义的线性回归分析模型,常用于数据挖掘、疾病自动诊断、经济预测等领域。它根据给定的自变量数据集来估计事件的发生概率。 它是基于自我引用和递归定义的思想,将逻辑和计算理论相结合,形成了一种强有力的推理工具。例如,下图为逻辑回归曲线图,显示了考试通过概率与学习时间的关系。 通过逻辑回归分析,可以得到自变量的权重,从而可以大致了解到底哪些因素是胃癌的危险因素。同时根据该权值可以根据危险因素预测一个人患癌症的可能性。 需要注意的是,逻辑递归的推理过程可能面临一些挑战,如悖论和无限循环等。因此,在使用逻辑递归进行推理时,需要注意对递归定义和推理规则的合理限制,以避免逻辑矛盾和无穷循环的问题。 逻辑递归在逻辑学和计算理论中有广泛的应用。它被用于形式系统的研究,证明理论中的定理和推理规则,以及计算机科学中的递归算法和程序设计等领域。

    37310编辑于 2023-12-28
  • 来自专栏mythsman的个人博客

    逻辑回归算法

    说到逻辑回归(Logistic Regression),其实他解决的并不是回归问题(Regression),而是分类问题(Classification)。 (-2*x)) plot(x,y,color='green', linewidth=2.5,label='$S(t)=\\\\frac{1}{1+e^{-2t}}$') y=1/(1+np.exp(-4* x)) plot(x,y,color='yellow', linewidth=2.5,label='$S(t)=\\\\frac{1}{1+e^{-4t}}$') y=1/(1+np.exp(-8*x) 而且更重要的是,他并不是一个下凸函数,所以甚至不能用GD算法求极值。 优化算法 对于逻辑回归算法,有一些高级的优化算法比如Conjugate gradient、BFGS、L-BFGS等,这些跑起来快,但是难学。。。这里就不提了。

    1.1K20编辑于 2022-11-14
  • 来自专栏智能算法

    逻辑回归(LR)算法

    一、算法介绍 Logistic regression (逻辑回归)是一种非线性回归模型,特征数据可以是连续的,也可以是分类变量和哑变量,是当前业界比较常用的机器学习方法,用于估计某种事物的可能性,主要的用途 可以用于多分类),且必须线性可分; 参考内容: Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)” 李航博士《统计学习方法》 回复数字或算法名称即可查看相关文章 决策树算法之一C4.5 2. 数据挖掘之Apriori算法 3. 网页排序算法之PageRank 4. 分类算法之朴素贝叶斯分类 5. 遗传算法如何模拟大自然的进化? 6. 没有公式如何看懂EM算法? 7. Python实现KNN算法 8. 基础聚类算法:K-means算法 9. 集成学习算法----Adaboost 10. 分类回归算法---CART 11. EAG多目标进化算法 12. 蚁群算法(独辟蹊径的进化算法) 13. 逻辑回归(LR)算法 免责声明:本文系网络转载。版权归原作者所有。如涉及版权,请联系删除!

    8.3K60发布于 2018-04-02
  • 来自专栏智能算法

    逻辑回归(LR)算法

    一、算法介绍 Logistic regression (逻辑回归)是一种非线性回归模型,特征数据可以是连续的,也可以是分类变量和哑变量,是当前业界比较常用的机器学习方法,用于估计某种事物的可能性,主要的用途 LR可以用来回归,也可以用来分类,主要是二分类。logistic回归模型在多分类问题上的推广是softmax regression。 (3) 绝对损失函数(absolute loss function) L(Y,f(x))=|Y-f(x)| (4) 对数损失函数(logarithmic loss function 改进算法,随机梯度上升算法: ? 1)第一种改进算法,随机梯度算法,加大计算每组数据的梯度。 可以用于多分类),且必须线性可分; 参考内容: Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)” 李航博士《统计学习方法》 免责声明:本文系网络转载

    1.5K130发布于 2018-04-03
  • 来自专栏机器学习原理

    机器学习(4)——逻辑回归Logistic回归softmax回归

    前言:这里是分类问题,之所以放到线性回归的下面介绍,是因为逻辑回归的步骤几乎是和前面一样的,写出目标函数,找到损失函数,求最小值,求解参数,建立模型,模型评估。 分类算法,概率模型,返回的是属于这类模型的概率多大,交叉对数损失函数,其微分方程和梯度下降一样 softmax分类,解决数据不平均的问题,提高准确率 Logistic回归 sogmid函数 ? softmax回归 解决多分类问题 写出概率函数: ? 注:为什么用指数函数,为了表示数据的微小变动引起的概率的指数级增大, 写出损失函数 ?

    1.9K80发布于 2018-04-27
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 9-4 实现逻辑回归算法

    本小节主要依据sklearn的设计理念封装我们自己的逻辑回归算法,最后在jupyter中调用并实现。 a 实 现 逻 辑 回 归 算 法 在之前的小节中详细推导了逻辑回归算法的损失函数。 由于逻辑回归算法没有解析解,只能通过梯度下降算法更新迭代求解,因此我们又详细推导了损失函数相应的梯度向量以及向量化的梯度表达式。 通过之前的学习我们知道逻辑回归算法和线性回归算法有很多相似之处,我们完全可以在原来实现的LinearRegression基础上修改成LogisticRegression。 接下来就具体的实现我们自己的逻辑回归算法: 导入相应的模块 由于逻辑回归算法解决的是分类问题,所以通过accuracy_score准确率来评估模型的好坏。 初始化类的方法 实现批量梯度下降法 逻辑回归没有数学解析解,所以只能通过梯度下降算法来求解。在本小节先不实现随机梯度下降法,只实现批量梯度下降法。

    82920发布于 2020-02-26
  • 来自专栏blog(为什么会重名,真的醉了)

    分类-对数几率回归逻辑回归算法

    文章目录 简介 激活函数 损失函数 优化算法 代码 简介 ---- 对数几率回归(Logistic Regression),也称逻辑回归,虽然名字中含有回归,但其实是一种分类算法。 找一个单调可微函数将分类任务中的真实标记与线性回归模型的预测值联系起来,是一种广义线性回归。 比如给定身高和体重数据,通过线性回归算法训练模型后,可以得到身高体重的回归方程,从而得到预测值。 线性回归可参考::回归-线性回归算法(房价预测项目) 激活函数 ---- 激活函数就是将预测值 图片 转换为0/1值。 损失函数 ---- 损失函数是定义了预测标记和真实标记的误差,在逻辑回归中,我们希望每个样本属于其真实标记的概率越大越好,使用对数似然损失。 二分类 y = iris.target[0:100] x_train, x_test, y_train, y_test = train_test_split(x, y) # 划分训练集测试集 # 创建逻辑回归模型

    1.4K30编辑于 2022-10-07
  • 来自专栏blog(为什么会重名,真的醉了)

    机器学习-对数几率回归逻辑回归算法

    简介 对数几率回归(Logistic Regression),也称逻辑回归,虽然名字中含有回归,但其实是一种分类算法。 找一个单调可微函数将分类任务中的真实标记与线性回归模型的预测值联系起来,是一种广义线性回归。 比如给定身高和体重数据,通过线性回归算法训练模型后,可以得到身高体重的回归方程,从而得到预测值。 线性回归可参考::回归-线性回归算法(房价预测项目) 激活函数 ---- 激活函数就是将预测值 z=\bold w^T\bold x+ b 转换为0/1值。 损失函数 ---- 损失函数是定义了预测标记和真实标记的误差,在逻辑回归中,我们希望每个样本属于其真实标记的概率越大越好,使用对数似然损失。 二分类 y = iris.target[0:100] x_train, x_test, y_train, y_test = train_test_split(x, y) # 划分训练集测试集 # 创建逻辑回归模型

    1.2K20编辑于 2023-05-23
  • 来自专栏海边的拾遗者

    逻辑回归算法原理及实现

    在典型的分类算法中,一般为监督学习,其训练样本中包含样本的特征和标签信息。在二分类中,标签为离散值,如{-1,+1},分别表示负类和正类。 分类算法通过对训练样本的学习,得到从样本特征到样本标签之间的映射关系,这也被称为假设函数,可利用该函数对新样本进行预测类别。 在该算法中,通过对训练样本的学习,最终得到该超平面,将数据分为两个不同的类别。在这里,可引入阈值函数来将样本映射到不同的类别中,最常见的函数以Sigmoid函数为例,形式如下: ?

    92820发布于 2020-08-13
  • 来自专栏数据结构和算法

    Python基础算法解析:逻辑回归

    逻辑回归是一种常用的分类算法,尤其适用于二分类问题。本文将介绍逻辑回归的原理、实现步骤以及如何使用Python进行逻辑回归的编程实践。 什么是逻辑回归逻辑回归是一种基于概率的统计分类技术,主要用于二分类问题。尽管名字中含有“回归”,但实质上是一种分类算法逻辑回归的原理 逻辑回归的核心在于 sigmoid 函数,它的数学表达式如下: 这里, x_0 = 1 , w_i 是特征 x_i 对应的权重。 model.predict(X_test) # 计算准确率 accuracy = np.mean(y_pred == y_test) print("Accuracy:", accuracy) 总结 逻辑回归是一种简单而强大的分类算法 通过本文的介绍,你已经了解了逻辑回归的原理、实现步骤以及如何使用Python进行编程实践。希望本文能够帮助你更好地理解和应用逻辑回归算法

    95810编辑于 2024-03-16
  • 来自专栏乱码李

    机器学习常用算法——逻辑回归

    逻辑回归 首先,逻辑回归是一个分类算法而不是一个回归算法,该算法可根据已知的一系列因变量估计离散数值(比方说二进制数值 0 或 1 ,是或否,真或假),它通过将数据拟合进一个 逻辑函数 来预估一个事件出现的概率 这就是逻辑回归能提供给你的信息。 用途 逻辑回归主要用于分类,比如邮件分类,是否肿瘤、癌症诊断,用户性别判断,预测用户购买产品类别,判断评论是正面还是负面等。 逻辑回归的数学模型和求解都相对比较简洁,实现相对简单。通过对特征做离散化和其他映射,逻辑回归也可以处理非线性问题,是一个非常强大的分类器。 因此在实际应用中,当我们能够拿到许多低层次的特征时,可以考虑使用逻辑回归来解决我们的问题。 算法选择–逻辑回归 大多数问题都可以归结为二元分类问题。这个算法的优点是可以给出数据所在类别的概率。

    75030发布于 2021-11-26
  • 来自专栏小闫笔记

    机器学习算法逻辑回归

    —— Arianna Huffington" 逻辑回归(Logistic Regression)是机器学习中的一种分类模型。虽然名字中带有「回归」,但它却不是回归算法,而是一种分类算法。 由于此算法的简单和高效,在实际场景中应用非常广泛。也许有人很好奇,那为什么叫做「回归」而不是「分类」呢? 逻辑回归可谓是解决二分类问题的利器。 2.原理 要想熟悉逻辑回归,必须掌握以下两点: 1) 逻辑回归中,其输入值是什么? 2) 如何判断逻辑回归的输出? 2.1 输入 ? 逻辑回归的输入其实就是一个线性回归的结果。(正解决了大家对文章开始部分,介绍逻辑回归实质时那句话的疑问) 2.2 激活函数 1) sigmoid 函数 ? 通过更新逻辑回归前面对应算法的权重参数,提升原本属于1类别的概率,降低原本是0类别的概率。

    54610发布于 2020-02-26
  • 来自专栏数据科学与人工智能

    算法逻辑回归(Logistic Regression) 模型

    小编邀请您,先思考: 1 逻辑回归算法的原理是什么? 2 逻辑回归算法的有哪些应用? 逻辑回归(Logistic Regression)是机器学习中的一种分类模型,由于算法的简单和高效,在实际中应用非常广泛。 本文作为美团机器学习InAction系列中的一篇,主要关注逻辑回归算法的数学模型和参数求解方法,最后也会简单讨论下逻辑回归和贝叶斯分类的关系,以及在多分类问题上的推广。 要解决这些问题,通常会用到一些已有的分类算法,比如逻辑回归,或者支持向量机。它们都属于有监督的学习,因此在使用这些算法之前,必须要先收集一批标注好的数据作为训练集。 Softmax 回归是直接对逻辑回归在多分类的推广,相应的模型也可以叫做多元逻辑回归(Multinomial Logistic Regression)。

    2.9K50发布于 2018-03-27
  • 来自专栏数据STUDIO

    机器学习 | 逻辑回归算法(二)LogisticRegression

    文章机器学习 | 逻辑回归算法(一)理论中详细介绍了逻辑回归理论知识。 逻辑回归是一种广义线性回归模型,是Sigmoid函数归一化后的线性回归模型,常用来解决二元分类问题,可解释性强。 逻辑回归,假设样本服从伯努利分布(0-1分布),然后求得满足该分布的似然函数,接着取对数求极值最小化负的似然函数。应用极大似然估计法估计模型参数,从而得到逻辑回归模型。 sklearn中逻辑回归 Sklearn中逻辑回归相关的类 说明 linear_model.LogisticRegression 逻辑回归分类器(又叫logit回归,最大熵分类器) linear_model.LogisticRegressionCV 在逻辑回归中,同样也使用了L1正则化来做特征选择。如使用高效的嵌入法embedded对逻辑回归进行特征选择来降维。 第二种通过逻辑回归的类LR_中参数C的学习曲线来实现: ---- ?

    1.4K10发布于 2021-06-24
  • 来自专栏数据STUDIO

    机器学习 | 逻辑回归算法(一)理论

    从线性回归函数到逻辑回归函数 逻辑回归是线性分类器,其本质是由线性回归通过一定的数学变化而来的。要理解逻辑回归,得先理解线性回归。线性回归是构造一个预测函数来映射输入的特性矩阵和标签的线性关系。 线性回归中 带入到Sigmoid函数中,即得到二元逻辑回归模型的一半形式: 其中 为逻辑回归的返回的标签值。假设已经训练好一组权值向量 。 ---- 逻辑回归模型(Logistic Regression) 二项逻辑回归模型是一种分类模型,由条件概率分布 表示,形式为参数化的逻辑回归逻辑回归返回类概率数字 逻辑回归返回的分类结果不是固定的0,1,而是以小数形式概率数字呈现的。因此可以把逻辑回归返回的结果当成连续型数据来利用。 算法求解 梯度下降法 评估指标 混淆矩阵:AUC Recall Precision ---- 逻辑回归和朴素贝叶斯区别 朴素贝叶斯 贝叶斯公式 是后验概率, 是似然函数, 在这里是代表“特征

    1.9K20发布于 2021-06-24
  • 来自专栏ShowMeAI研究中心

    图解机器学习 | 逻辑回归算法详解

    第2部分:逻辑回归核心思想。介绍线性回归问题及逻辑回归解决方式,讲解逻辑回归核心思想。 第3部分:Sigmoid函数与分类器决策边界。 介绍逻辑回归模型中最重要的Sigmoid变换函数,以及不同分类器得到的决策边界。 第4部分:模型优化使用的梯度下降算法。介绍模型参数学习过程中最常使用到的优化算法:梯度下降。 (本篇逻辑回归算法的部分内容涉及到机器学习基础知识,没有先序知识储备的宝宝可以查看ShowMeAI的文章 图解机器学习 | 机器学习基础知识)。 2.逻辑回归算法核心思想 下面介绍本次要讲解的算法——逻辑回归(Logistic Regression)。逻辑回归是线性回归的一种扩展,用来处理分类问题。 ,但是在逻辑回归问题中不太适用。

    1.3K52编辑于 2022-03-10
  • 来自专栏尼莫的AI小站

    手撸机器学习算法 - 逻辑回归

    系列文章目录: 感知机 线性回归 非线性问题 多项式回归回归 逻辑回归 算法介绍 今天我们一起来学习使用非常广泛的分类算法逻辑回归,是的,你没有看错,虽然它名字里有回归,但是它确实是个分类算法,作为除了感知机以外 ,最最最简单的分类算法,下面我们把它与感知机对比来进行学习; 从决策边界上看 感知机:决策边界就是类别的分界线,处于错误一侧的点即为分类错误点; 逻辑回归:决策边界表示分为正类和负类均为50%,数据点被分为正类的概率直观上由其到决策边界的距离决定 : ln(1+e^{-(yi*wxi)}) ,yi∈{-1,+1},模型分类正确返回值>=0,错误返回值<0,负数绝对值越大,表示错误越严重,对所有样本计算该误差加起来求平均即为逻辑回归的误差函数; 算法推导 再来对比看下逻辑回归的分类情况: ? epsilon=0.0005) i,norm,w = model.train() print(f"epochs={i} -> w={w} -> norm={norm:>.8f}") 最后 逻辑回归几乎是机器学习中应用最为广泛的一种分类算法

    70320发布于 2021-07-01
  • 来自专栏算法之名

    机器学习算法整理(三)逻辑回归

    接机器学习算法整理(二) 逻辑回归 什么是逻辑回归(Logistic Regression) 逻辑回归是解决分类问题的,那回归问题怎么解决分类问题呢? 逻辑回归既可以看作是回归算法,也可以看作是分类算法。如果我们不进行最后的一步根据 的值进行分类的操作,那么它就是一个回归算法。我们计算的是根据样本的特征来拟合计算出一个事件发生的概率。 不过通常我们使用逻辑回归还是当作分类算法用,只可以解决二分类问题。如果对于多分类问题,逻辑回归本身是不支持的。当然我们可以使用一些其他的技巧进行改进,使得我们用逻辑回归的方法,也可以解决多分类的问题。 但是对于KNN算法来说,它天生就可以支持多分类的问题。 逻辑回归使用一种什么方式可以得到一个事件概率的值?对于线性回归来说, 它的 值域是(-∞,+∞)的。对于线性回归来说它可以求得一个任意的值。 对于线性回归进行向量化处理,它的梯度可以写成 那么对逻辑回归的梯度进行向量化处理,就有 实现逻辑回归算法 import numpy as np from math import sqrt def

    58010发布于 2021-09-14
  • 来自专栏机器学习技术分享

    通俗易懂--逻辑回归算法讲解(算法+案例)

    1.逻辑回归(Logistic Regression) 1.1逻辑回归与线性回归的关系 逻辑回归是用来做分类算法的,大家都熟悉线性回归,一般形式是Y=aX+b,y的取值范围是[-∞, +∞],有这么多取值 好了,接下来我们把aX+b带入t中就得到了我们的逻辑回归的一般模型方程: ? 结果P也可以理解为概率,换句话说概率大于0.5的属于1分类,概率小于0.5的属于0分类,这就达到了分类的目的。 1.2损失函数 逻辑回归的损失函数跟其它的不同,先一睹尊容: ? 解释一下,当真实值为1分类时,用第一个方程来表示损失函数;当真实值为0分类时,用第二个方程来表示损失函数,为什么要加上log函数呢? 1.4逻辑回归(LR)的一些经验 模型本身并没有好坏之分。 LR能以概率的形式输出结果,而非只是0,1判定。 LR的可解释性强,可控度高(你要给老板讲的嘛…)。

    8.9K20发布于 2019-07-30
  • 来自专栏机器学习与统计学

    机器学习算法Python实现--逻辑回归

    theta1[0] = 0 grad = np.dot(np.transpose(X),h-y)/m+inital_lambda/m*theta1 #正则化的梯度 return grad 4、 out, temp.reshape(-1,1))) return out 6、使用scipy的优化方法 梯度下降使用scipy中optimize中的fmin_bfgs函数 调用scipy中的优化算法 8、使用scikit-learn库中的逻辑回归模型实现 导入包 from sklearn.linear_model import LogisticRegression from sklearn.preprocessing scaler.fit(x_train) x_train = scaler.fit_transform(x_train) x_test = scaler.fit_transform(x_test) 逻辑回归 #逻辑回归 model = LogisticRegression() model.fit(x_train,y_train) 预测 # 预测 predict =

    90920发布于 2019-04-10
领券