首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏用户画像

    推荐算法分类

    本文链接:https://blog.csdn.net/jxq0816/article/details/103198596 推荐算法大致可以分为三类:基于内容的推荐算法、协同过滤推荐算法和基于知识的推荐算法 1、基于内容的推荐算法,原理是用户喜欢和自己关注过的Item在内容上类似的Item,比如你看了哈利波特I,基于内容的推荐算法发现哈利波特II-VI,与你以前观看的在内容上面(共有很多关键词)有很大关联性 ,就把后者推荐给你,这种方法可以避免Item的冷启动问题(冷启动:如果一个Item从没有被关注过,其他推荐算法则很少会去推荐,但是基于内容的推荐算法可以分析Item之间的关系,实现推荐),弊端在于推荐的 2、协同过滤算法,原理是用户喜欢那些具有相似兴趣的用户喜欢过的商品,比如你的朋友喜欢电影哈利波特I,那么就会推荐给你,这是最简单的基于用户的协同过滤算法(user-based collaboratIve 混合推荐算法,则会融合以上方法,以加权或者串联、并联等方式尽心融合。

    2.6K22发布于 2019-11-26
  • 来自专栏AIUAI

    分类算法总结

    (本文来自网上,具体出处不可查,此处转载,以备后查,请原作者见谅) 分类算法总结: ----------------------------------------------- ---------- 决策树分类算法: 决策树归纳是经典的分类算法。 另外还有一种Reverse KNN法,能降低KNN算法的计算复杂度,提高分类的效率。 该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。 通过学习算法,SVM可以自动寻找出那些对分类有较好区分能力的支持向量,由此构造出的分类器可以最大化类与类的间隔,因而有较好的适应能力和较高的分准率。 神经网络: 神经网络分类算法的重点是构造阈值逻辑单元,一个值逻辑单元是一个对象,它可以输入一组加权系数的量,对它们进行求和,如果这个和达到或者超过了某个阈值,输出一个量。

    91240发布于 2019-02-18
  • 来自专栏石头岛

    List分类算法

    对一个 List 里面相同属性的内容进行分类,如:对相同部门的员工进行分类。 思路是使可以区分类型的属性进行分类,以部门类型为例。

    82430发布于 2019-06-28
  • 来自专栏Hsinyan写字的地方

    kNN分类算法

    算法简介 KNN(K-Nearest Neighbor)算法是机器学习算法中最基础、最简单的算法之一。它既能用于分类,也能用于回归。KNN通过测量不同特征值之间的距离来进行分类。 KNN算法的思想非常简单:对于任意n维输入向量,分别对应于特征空间中的一个点,输出为该特征向量所对应的类别标签或预测值。 ) # 取出投票最多的一个元素 predict_y = votes.most_common(1)[0][0] # 1 # 上面的1即为预测结果 使用Scikit-learn中的kNN # 导入kNN分类器 kNN算法中的k 支持向量机的C和sigma超参数。 kNN算法中的超参数 超参数k 在上面的示例中,k的值都是由我们自己手动设定,由k设置的不同,模型的准确率也不同,那么k取多少的时候,能够得到最优解呢?

    1.2K20编辑于 2022-06-19
  • 来自专栏全栈程序员必看

    xgboost分类算法_python分类统计

    import accuracy_score 这里的accuracy_score是用来计算分类的正确率的。 我们这个分类是通过蘑菇的若干属性来判断蘑菇是否有毒的分类,这个数据集中有126个属性,我们来看看数据集,我把数据集放到网盘上分享给大家:训练和测试数据集,密码:w8td。 打开数据集可以发现这其实是一组组的向量,我们来看一组数据集的截图: 首先第一列表示标签列,是每一组数据的正确分类,1表示蘑菇是有毒的,0表示蘑菇无毒的。 在每次提升计算之后,算法会直接获得新特征的权重。eta通过缩减特征的权重使提升计算过程更加保守。 以上就是我们用Python实现的xgboost分类模型的过程,希望对各位朋友有所帮助,本人能力有限,文中如有纰漏之处,还望各位朋友多多指教,如有转载,也请标明出处,谢谢。

    1.5K30编辑于 2022-09-27
  • 来自专栏大数据风控

    R分类算法-KNN算法

    分类(Classification): 分类算法通过对已知类别训练数据集的分析,从中发现分类规则,以此预测 新数据的类别,分类算法属于监督学习的类型。 KNN算法(K Nearest Neighbors) K近邻节点算法 KNN算法从训练集中找到和新数据最接近的K条记录,然后根据他们的主要分类 来决定新数据的类别。

    1.9K70发布于 2018-01-09
  • 来自专栏机器视觉工坊

    AI算法分类

    AI算法分类如下: 一、机器学习算法 监督学习 1、回归算法:线性回归和逻辑回归。 线性回归:进行直线或曲线拟合,一般使用“最小二乘法”来求解。 而逻辑回归属于分类算法,也就是说,逻辑回归预测结果是离散的分类,例如判断这封邮件是否是垃圾邮件,以及用户是否会点击此广告等等。 下面的两个算法是机器学习界最强大且重要的算法,都可以拟合出非线性的分类线。logistic回归核心:直接从样本估计出它属于正负样本的概率。 kNN算法是一种判别模型,即支持分类问题,也支持回归问题,是一种非线性模型。它天然的支持多分类问题。kNN算法没有训练过程,是一种基于实例的算法。 和其他类型的神经网络一样,循环神经网络是一个判别模型,既支持分类问题,也支持回归问题,并且支持多分类问题 三、大数据算法 数据挖掘&数据分析 推荐算法 四、一些算法本身并不算是一个机器学习算法

    2.4K20发布于 2020-07-28
  • 来自专栏后端码匠

    分类算法-K-近邻算法

    [img202108130815581.jpg] 目标 说明K-近邻算法的距离公式 说明K-近邻算法的超参数K值以及取值问题 说明K-近邻算法的优缺点 应用KNeighborsClassifier实现分类 了解分类算法的评估标准准确率 应用:Facebook签到位置预测 K-近邻算法(KNN) 定义 如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别 ,即由你的“邻居”来推断出你的类别 来源:KNN算法最早是由Cover和Hart提出的一种分类算法 距离公式 两个样本的距离可以通过如下公式计算,又叫欧式距离 [img202108130819435.png ‘auto’将尝试根据传递给fit方法的值来决定最合适的算法。 (不同实现方式影响效率) 案例1 鸢尾花种类预测 数据集介绍 Iris数据集是常用的分类实验数据集,由Fisher, 1936收集整理。 ,对测试样本分类时的计算量大,内存开销大 必须指定K值,K值选择不当则分类精度不能保证 使用场景:小数据场景,几千~几万样本,具体场景具体业务去测试

    1K30发布于 2021-08-18
  • 来自专栏大数据风控

    R分类算法-Logistic回归算法

    优点: 算法易于实现和部署,执行效率和准确度高 缺点: 离散型的数据需要通过生产虚拟变量的方式来使用。

    1.2K100发布于 2018-01-09
  • 来自专栏全栈程序员必看

    DP算法分类总结_算法总结

    viewmode=list ———- Accagain 2014年5月15日 动态规划一直是ACM竞赛中的重点,同时又是难点,因为该算法时间效率高,代码量少,多元性强,主要考察思维能力 最优子结构性质为动态规划算法解决问题提供了重要线索。 子问题重叠性质:子问题重叠性质是指在用递归算法自顶向下对问题进行求解时,每次产生的子问题并不总是新问题,有些子问题会被重复计算多次。 ******************************************************************************************** 动态规划分类有很多划分方法 我觉得还是按功能即解决的问题的类型以及难易程度来分比较好,下面按照我自己的理解和归纳,把动态规划的分类如下: 一、简单基础dp 这类dp主要是一些状态比较容易表示,转移方程比较好想,问题比较基本常见的。 1、递推: 递推一般形式比较单一,从前往后,分类枚举就行。

    1.3K20编辑于 2022-11-01
  • 来自专栏Python机器学习算法说书人

    OneR 算法实现分类

    分类应用的目标是,根据已知类别的数据集,经过训练得到一个分类模型,再用模型对未知的数据进行分类。 02 实现 OneR 算法 OneR 算法的思路很简单,它根据已有的数据中,具有相同特征值的个体最可能属于哪个类别进行分类。 计算方法把它的各个取值的错误率相加,选取错误率最低的特征作为唯一的分类准则(OneR),用于接下来的分类。 现在,我们就来实现该算法。 OneR 算法会把具有该项特征值的个体统统分到上面找到的出现次数最多的类别中。 total_error0 = sum(errors0) return predictors0, total_error0 03 测试算法 分类问题的目标是建立一个能够根据已有知识对没有见过的个体进行分类的模型

    1.5K10发布于 2019-07-26
  • 来自专栏封碎

    BitSet位图算法 博客分类算法 算法IDEA

    位图算法,使用bit存储数据并排序,优点是快速、占用资源少,缺点是只能对整数使用。     Java和C++中都有已经实现的的BitSet类,可以直接使用。     举个例子,0到10000中随机出1000个数,然后用位图算法排序: import java.util.BitSet; public class BitSetDemo { public static

    1.7K51发布于 2018-10-31
  • 来自专栏机器学习算法与Python学习

    机器学习分类算法

    大数据文摘出品 来源:builtin 编译:邢畅、刘兆娜、李雷、钱天培 说起分类算法,相信学过机器学习的同学都能侃上一二。 可是,你能够如数家珍地说出所有常用的分类算法,以及他们的特征、优缺点吗? 一起来通过这篇文章回顾一下机器学习分类算法吧(本文适合已有机器学习分类算法基础的同学)。 机器学习是一种能从数据中学习的计算机编程科学以及艺术,就像下面这句话说得一样。 最后,根据这两类中较高的概率对变量进行分类。 ? K-近邻算法(K-NN) K-NN算法是一种最简单的分类算法,通过识别被分成若干类的数据点,以预测新样本点的分类分类的集成算法 集成算法是一个模型组。从技术上说,集成算法是单独训练几个有监督模型,并将训练好的模型以不同的方式进行融合,从而达到最终的得预测结果。 梯度提升分类器 梯度提升分类器是一种提升集成算法。提升(boosting)算法是为了减少偏差而对弱分类器的而进行的一种集成方法。

    1.9K20发布于 2019-08-13
  • 来自专栏人工智能头条

    sklearn 与分类算法

    它具有各种分类,回归和聚类算法,包括支持向量机,随机森林,梯度增强,k-means 和 DBSCAN,旨在与 Python 数值和科学库NumPy和SciPy互操作。 本文将带你入门常见的机器学习分类算法——逻辑回归、朴素贝叶斯、KNN、SVM、决策树。 伯努利朴素贝叶斯 (BernoulliNB) BernoulliNB 实现了基于多元伯努利分布的数据的朴素贝叶斯训练和分类算法。 是最经典的机器学习算法之一。 iris.target) clf.predict(iris.data)clf.predict_proba(iris.data) 06 总结 本文介绍了几种常见的机器学习分类算法

    1K30发布于 2019-11-18
  • 来自专栏C/C++基础

    常见排序算法分类

      此篇博客不讨论排序算法的思想,时间复杂度,空间复杂度,实现代码。只介绍常见排序算法有哪些,并按照什么进行分类。    排序算法分为两大类: 比较类非线性时间排序:交换类排序(快速排序和冒泡排序)、插入类排序(简单插入排序和希尔排序)、选择类排序(简单选择排序和堆排序)、归并排序(二路归并排序和多路归并排序)。 请记住:两类排序算法中在不知道待排序数特点的情况下,普适性能最佳者分别为归并排序和基数排序。当然具体情况需要具体分析,根据待排序数和各排序算法的特点选择合适的排序算法

    1.7K20发布于 2018-08-03
  • 来自专栏具身小站

    SLAM算法分类对比

    ref: 激光与视觉 SLAM 的算法综述 1. SLAM估计算法 SLAM 算法旨在解决机器人在未知环境中运动时的定位与路标估计问题,获得机器人位姿和路标特征 概率分布,通过机器人的运动模型和观测信息,利用统计手段逐步减少估计值与真实值的偏差,从而完成机器人在环境运动过程中的位姿和路标的估计 SLAM算法演进 SLAM 算法的演进历程划分为三个阶段:滤波阶段、优化阶段和深度学习阶段,滤波法计算效率高但受限于模型假设或矩阵可逆性要求,而图优化法更擅长处理非线性问题并挖掘数据关联,深度学习进一步丰富了技术体系 基于优化的激光 SLAM: 通过构建位姿和环境特征的图模型,用非线性优化算法优化全局状态,减少累计误差来定位建图。 该算法具备强大的特征学习能力,能更好适应动态环境,且可实现端到端学习,提升系统性能,但存在对数据依赖程度高、计算资源需求大以及模型解释性差等缺点。

    31210编辑于 2025-10-28
  • 来自专栏企鹅号快讯

    机器学习算法分类

    最近看到对机器学习各种算法从另一个角度的分类,觉得很有意思,于是画了几张图,把它们重新整理了一下。 首先依然是有监督地学习,而有监督地学习又能分为回归和分类两种算法: 回归算法用于处理连续变量,比如预测房价、股价什么的这种走势连续的变量。 分类算法则用于处理离散变量,它们在高维空间可表征为一个一个的离散点。 其实分类算法往往有一种回归算法与之对应,因为是同一种方法用于处理不同类型的数据而发展出来的,比如回归树和分类树就都属于决策树(decision tree),随机森林算法其实也是久仰大名了,小姐姐甚至在网上闲逛的时候发现了一篇发表在 图样图森破,小姐姐想说的是,你别听他灌鸡汤就以为喝多了鸡汤就能成,鸡汤没毛用,有用的还是隐马尔科夫模型 在这些分类之外,其实还有一支,自成一派,叫增强学习(或者强化学习): 它的工作原理是基于来自环境的反馈

    96790发布于 2018-02-27
  • 来自专栏数据科学CLUB

    Bayes算法分类案例

    因此,在交给朴素贝叶斯分类器学习之前,要对数据做进一步的处理。不过在此之前,仍需要对数据进行分割并且随机采样出一部分用于测试。 y_predict = mnb.predict(x_test) 模型测评 #从sklearn .metrics里导人classification_ report用于详细的分类性能报告。 4712条新闻文本测试样本分类的准确性约为83. 977%,平均精确率、召回率以及F1指标分别为0.86、0.84和0.82。 模型特点分析 朴素贝叶斯模型被广泛应用于海量互联网文本分类任务,由于其较强的特征条件独立假设,使得模型预测所需要估计的参数规模从幂指数量级向线性量级减少,极大地节约了内存消耗和计算时间。 但是,也正是受这种强假设的限制,模型训练时无法将各个特征之间的联系考量在内,使得该模型在其他数据特征关联性较强的分类任务上的性能表现不佳。

    90130发布于 2020-06-11
  • 来自专栏全栈程序员必看

    文本分类算法之–贝叶斯文本分类算法

    文本分类过程 例如文档:Good good study Day day up可以用一个文本特征向量来表示,x=(Good, good, study, Day, day , up)。 在文本分类中,假设我们有一个文档d∈X,类别c又称为标签。我们把一堆打了标签的文档集合<d,c>作为训练样本,<d,c>∈X×C。 朴素贝叶斯分类器是一种有监督学习,常见有两种模型,多项式模型(multinomial model)即为词频型和伯努利模型(Bernoulli model)即文档型。 Shanghai yes 3 Chinese Macao yes 4 Tokyo Japan Chinese no 给定一个新样本Chinese Chinese Chinese Tokyo Japan,对其进行分类 再有TF、TDIDF,这些只是描述事物属性时的不同计算方法,例如文本分类时,可以用单词在本文档中出现的次数描述一个文档,可以用出现还是没出现即0和1来描述,还可以用单词在本类文档中出现的次数与这个单词在剩余类出现的次数

    88010编辑于 2022-09-05
  • 来自专栏blog(为什么会重名,真的醉了)

    分类-KNN算法(鸢尾花分类实战)

    简介 K近邻(K Nearest Neighbors,KNN)算法是最简单的分类算法之一,也就是根据现有训练数据判断输入样本是属于哪一个类别。 算法原理很简单,如下图,K取3时,输入数据为红色点,在它最近的3个邻居点中,有2个黄色1个蓝色,故应把它分类为黄色这一类。 可以看出K的取值应为奇数,避免K近邻中有相同个数的类别,同时也不能为类别数的倍数,如3分类中K取3时,出现1:1:1无法分类的情况。注意如果K过小可能造成过拟合。 return np.array(y_pre) def _count(self, y_top_k): # 统计各分类数量 y_map = {} for y in ,红色是分类错误的点,可以看出上图只错了一个。

    1.3K30编辑于 2022-11-30
领券