首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏计算机与AI

    视图类总结

    Spectral-based MvC 谱类是一种典型的数据类模型。其基本思想是在任意一对对象之间形成一个成对的亲和矩阵,将该亲和矩阵归一化,并计算该归一化亲和矩阵(即图拉普拉斯)的特征向量。 视图子空间类的一般过程 Multi-task multi-view clustering MVC利用不同视图之间的一致性和互补性来实现更好的集群质量,如上所述。 另一个概念,即多任务类(属于多任务学习领域),共同执行多个相关任务,并利用这些任务之间的关系来增强单视图数据的类性能。 通过继承MVC和多任务集群的特性,多任务视图类将每个视图数据处理为一个或多个任务,如下图所示。近年来,这一点受到了一些关注。 多任务类模型的图形表示 Publically Available Datasets 3Sources Dataset:一个视图文本语料库,由三个在线新闻服务的新闻文章构成。

    3K30发布于 2020-12-03
  • 来自专栏代谢检测试剂盒推文

    突破检测瓶颈!Elabscience PolyHRP - 链霉亲和素,信号放大倍数远超传统 HRP

    内容概要PolyHRP - 链霉亲和素是 Elabscience 研发的高性能生物偶联试剂,通过将辣根过氧化物酶(PolyHRP)与链霉亲和素(Streptavidin)高效偶联,结合链霉亲和素与生物素的超高亲和力及 适用于酶联免疫吸附试验(ELISA)、免疫组织化学(IHC)、Western Blot 等多种检测场景,为科研与临床检测提供稳定可靠的技术支持产品介绍核心成分:采用高纯度链霉亲和素与辣根过氧化物酶( 传统辣根过氧化物酶(HRP)标记链霉亲和素虽已普及,但单酶分子的信号输出有限,难以满足低丰度靶标检测的需求。 辣根过氧化物酶(PolyHRP)通过将多个 HRP 分子交联形成聚合物,相比单个 HRP 分子,其催化活性更高、信号放大倍数更强。 产品优势超高灵敏度:PolyHRP 的酶聚合结构使信号放大倍数远超传统 HRP 标记物,可检出 pg/mL 级甚至 fg/mL 级低丰度靶标;稳定性强:-20℃下可稳定储存 24 个月,偶联物结构稳定

    24410编辑于 2025-11-25
  • 来自专栏技术文章

    信号强 + 背景低!Elabscience PolyHRP - 链霉亲和素,重新定义高敏 ELISA 检测

    产品构建了稳定的“一对”高效信号放大结构,在提升信号强度的同时有效控制背景,为高灵敏度ELISA检测提供更优解。 产品简介Elabscience®PolyHRP-链霉亲和素检测试剂适用于高灵敏度ELISA检测,其核心原理在于“信号级联放大”:通过一种新型共价偶联技术先将大量高活性的辣根过氧化物酶(HRP)共价聚合, 再将辣根过氧化物酶(PolyHRP)与链霉亲和素分子偶联,形成高效的“一对”高效信号放大结构,克服了传统SA-HRP信号弱、灵敏度不足的局限。

    20010编辑于 2025-11-24
  • 来自专栏罗超频道

    划算与芒果台“非不可”,电商将主导屏互动广告时代?

    继天猫与湖南卫视合作双十一晚会、支付宝与CCTV春晚独家合作之后,近日划算与湖南卫视为期近一个月的合作正式结束,双方的合作模式在业内尚属首创,对业界有较强的启示意义,并且表明屏互动广告时代已然来临, 划算、芒果台和品牌商三人一台戏 这一活动大致玩法是这样的:在3月14日到4月9日期间,观众在指定时间观看芒果台,与广告同步在划算App进行“摇一摇”,就有机会获得上海家化佰草集、裂帛服饰、水星家纺 屏互动这四个字,在智能手机刚刚出现时就有人在提了,但一直缺乏经典案例。最近一年春晚、双十一晚会和划算“非不可”这类大型营销事件表明,屏互动时代已然来临。 数据显示,划算与电视台探索的“跨月屏互动”玩法取得了不错的效果:不到四周引发近千万人参与,总摇奖次数接近1.8亿人次,派出近500万份奖品,送出近150万份1分钱秒杀商品,有商家表示,活动期间不光店铺日均流量增长了三成 不过,如果留心观察可发现,电商,是屏互动最核心的参与者,双十一、春晚、划算“非不可”参与者均是阿里巴巴,而阿里巴巴是最具电商属性的巨头。

    16.5K50发布于 2018-04-27
  • 来自专栏多视图

    视图类-使用GPU云服务器训练

    在使用服务器训练深度学习的模型时,常常由于用电脑训练CNN时遇到了性能瓶颈(显存不够),就会发出错误报告,这样训练也就不会正常开始,当然也可以调整自己的batch_size的大小,从而对自己电脑的GPU带来小的内容消耗,虽然这样可以进行训练,但是训练出来的模型一定效果不太理想。

    1.6K40编辑于 2022-04-20
  • 来自专栏blog(为什么会重名,真的醉了)

    类-层次类(谱系类)算法

    简介 ---- 层次类(Hierarchical Clustreing)又称谱系类,通过在不同层次上对数据集进行划分,形成树形的类结构。 根据上述步骤绘制谱系图,横坐标就是每个类,纵坐标表示合并两个类时的值: 根据谱系图,如果要类为2类,从上往下看首次出现了2个分支的地方,即将样品0分为一类,样品1、2分为另一类。

    6.1K40编辑于 2022-11-30
  • 来自专栏明明如月的技术专栏

    软考高级架构师:AI通俗讲解功能内、顺序内、通信内、过程内、时间内、逻辑内、偶然内

    功能内(Functional Cohesion) 功能内是最理想的内类型,它指模块内的所有元素都共同完成一个单一的功能。 顺序内(Sequential Cohesion) 顺序内发生在一个模块中的元素输出是另一个元素的输入。 时间内(Temporal Cohesion) 时间内是指模块中的功能是基于它们在同一时间执行的事实组合的。 偶然内(Coincidental Cohesion) 偶然内是最低级的内形式,指模块中的元素毫无逻辑地放在一起。 总结来说,理想的内类型是功能内,因为它确保模块高度集中于执行单一任务,易于理解和维护。而偶然内则应该尽量避免,因为它使模块变得杂乱无章,难以维护和扩展。

    1.5K01编辑于 2024-05-25
  • 来自专栏量化投资与机器学习

    QIML Insight:基于源特征及机器学习的股票类模型

    关于层次化类的层数及每个层次的类个数可以对齐传统的行业分类,比如GICS,这样也能方便我们对比该类方法与GICS行业分类体系。 也就是说层次化类时也分成了三个级别,每个级别中对应的类的数量与GICS对应,比如第一层类数量与GICS的sector的数量一致,也就是11个。 如最后一行XGBoost:ALL+GICS,Sector列的指标值是36.58,表示:使用XGBoost模型与所有特征数据进行类后,在Sector这个层类中,首先对每个类中的每个股票计算其与类中其他股票相关系数的均值 除了比较类暴露因子的收益,本文还比较了类内及类间,相关基本面因子的离散度。如下表8和9所示。 总结 本文给我们最大的启示,是使用机器学习模型及源数据对现有的行业分类体系进行改进,最终达到组合投资中更优的分散性。

    1.7K10编辑于 2022-05-25
  • 来自专栏微生态与微进化

    层次类与类树

    类可以分为特征类(Vector Clustering)和图类(Graph Clustering)。特征类是指根据对象的特征向量矩阵来计算距离或者相关性来实现类,例如各种层次类和非层次类。 ⑶平均聚合类 平均聚合类(averageagglomerative clustering)是一类基于对象之间平均相异性或者类簇形心(centroid)的进行类的方法。 在hclust()函数中有等权重算术平均类"average"(UPGMA)、不等权重算术平均类"mcquitty"(WPGMA)、等权重形心类"centroid"(UPGMC)、不等权重形心类" ⑷最小方差类 Ward最小方差类是一种基于最小二乘法线性模型准则的类方法。分组的依据是使组内距离平方和(方差)最小化,由于使用了距离的平方,常常使类树基部过于膨胀,可取平方根再进行可视化。 类树 类树是聚类分析最常用的可视化方法。

    2.2K30编辑于 2022-05-05
  • 来自专栏Gvoidy备份小站

    类算法之层次

    层次类(Hierarchical Clustering)是类算法的一种,通过计算不同类别的相似度类创建一个有层次的嵌套的树。 层次类怎么算 层次类分为自底向上和自顶向下两种,这里仅采用scikit-learn中自底向上层次类法。 类过程的散点图变化一下,就是我们要的层次图 层次类 Python 实现 import numpy as np from sklearn.cluster import AgglomerativeClustering data = np.random.rand(100, 3) #生成一个随机数据,样本大小为100, 特征数为3 #假如我要构造一个类数为3的类器 estimator = AgglomerativeClustering (n_clusters=3)#构造类器 estimator.fit(data) print(estimator.labels_)#获取类标签 主函数 AgglomerativeClustering

    3.5K40发布于 2020-07-14
  • 来自专栏Gvoidy备份小站

    类算法之DBSCAN

    DBSCAN (Density-Based Spatial Clustering of Applications with Noise) 是一种基于密度的类算法,基于密度的类寻找被低密度区域分离的高密度区域 若某一点,从任一核心地点出发都是密度不可达的,则称该点为噪声点 DBSCAN 类算法实现如下图: ? 当出现奇葩数据时,K-Means 无法正常类,而 DBSCAN 完全无问题 ? 、类间距差相差很大时参数密度阈值minPts和邻域r参数选取困难 对于高维数据,容易产生“维数灾难”(类算法基于欧式距离的通病) DBSCAN 类 Python 实现 # coding=utf # 调用密度类 DBSCAN db = DBSCAN(eps=0.3, min_samples=10).fit(X) # print(db.labels_) # db.labels_为所有样本的类索引 (类结果中-1表示没有类为离散点) # 模型评估 print('估计的类个数为: %d' % n_clusters_) print("同质性: %0.3f" % metrics.homogeneity_score

    4.4K30发布于 2020-07-14
  • 来自专栏小明的博客

    聚类分析 scikit-learn的sklearn.cluster模块提供了多种类方法 K-means类 仿射传播类 均值漂移类 谱类 凝聚聚类 密度类 高斯混合类 层次类 K-means #%% #例10-4 对两个分类样本进行类,使用肘部法则确定最佳K值, #使用特征集进行类,使用类标签对类结果进行对比 import numpy as np import matplotlib.pyplot ') #子图4,类结果与原类别的对比 ax = p.add_subplot(2,2,4) #获取错误类样本的索引 index_wrong=np.where(labels! ']) plt.title('类错误样本与原类别的对比') plt.show() 多分类样本的可视化 #%% #例10-5 对4个分类样本进行类,使用肘部法则确定最佳K值, #使用特征集进行类 ') plt.title('类结果与原始分类结果对比') plt.legend(['原始分类','类结果']) plt.show()

    1.4K20编辑于 2022-09-05
  • 来自专栏foochane

    类(Clustering) hierarchical clustering 层次

    假设有N个待类的样本,对于层次类来说,步骤: 1、(初始化)把每个样本归为一类,计算每两个类之间的距离,也就是样本与样本之间的相似度; 2、寻找各个类之间最近的两个类,把他们归为一类(这样类的总数就少了一个 整个类过程其实是建立了一棵树,在建立的过程中,可以通过在第二步上设置一个阈值,当最近的两个类的距离大于这个阈值,则认为迭代可以终止。另外关键的一步就是第三步,如何判断两个类之间的相似度有不少种方法。

    1.8K30发布于 2019-05-23
  • 来自专栏大数据风控

    R类算法-层次类算法

    层次类(Hierarchical Clustering算法) 层次类算法又称为树类算法,它根据数据之间的距离,透过一种层次架构方式,反复将数据进行聚合,创建一个层次以分解给定的数据集。 常用于一维数据的自动分组 层次类方法 hclust(dist) dist 样本的距离矩阵 距离矩阵的计算方式 dist(data) data 样本数据 层次类的代码实现: pColumns result 1 2 3 setosa 50 0 0 versicolor 0 23 27 virginica 0 49 1 我们可以看到,层次类对这份数据的类得到的结果并不是太好

    2.1K81发布于 2018-01-09
  • 来自专栏Lixj's Blog

    簇索引和非簇索引

    关于簇索引和非簇索引的内容。 簇索引不是一种单独的索引类型,而是一种数据存储方式。将数据存储与索引放到了一块,找到索引也就找到了数据。 InnoDB 中,在簇索引之上创建的索引称之为辅助索引,辅助索引访问数据总是需要二次查找,非簇索引都是辅助索引,像组合索引、前缀索引、唯一索引,辅助索引叶子节点存储的不再是行的物理位置,而是主键值。 当表有簇索引时,它的数据行实际存放在索引的叶子节点中。 簇索引默认是主键,如果没有定义主键,InnoDB 会选择一个唯一的非空索引代替。 如果没有这样的索引,InnoDB 会隐式的定义一个主键来作为簇索引。InnoDB 只聚集在同一个页面的记录。 簇索引的优缺点, 优点: 可以把数据保存到一起。 Copyright: 采用 知识共享署名4.0 国际许可协议进行许可 Links: https://lixj.fun/archives/簇索引和非簇索引

    95010编辑于 2022-06-10
  • 来自专栏WD学习记录

    簇索引和非簇索引

    簇索引:主索引文件和数据文件为同一份文件。表数据按照索引的顺序存储的,索引项的顺序与表中记录的物理顺序一直。 非簇索引:B+树的叶子节点上的data,并不是数据本身,而是数据存放的地址。表数据存储顺序与索引顺序无关。叶子节点包含索引字段值以及指向数据行的逻辑指针。

    1K30发布于 2019-05-07
  • 来自专栏一个会写诗的程序员的博客

    簇索引与非簇索引

    (重点在于通过其他键需要建立辅助索引) 簇索引的优势 看上去簇索引的效率明显要低于非簇索引,因为每次使用辅助索引检索都要经过两次B+树查找,这不是多此一举吗?簇索引的优势在哪? 簇索引适合用在排序的场合,非簇索引不适合 取出一定范围数据的时候,使用用簇索引 二级索引需要两次索引查找,而不是一次才能取到数据,因为存储引擎第一次需要通过二级索引找到索引的叶子节点,从而找到数据的主键 如果没有使用簇索引,则每封邮件都可能导致一次磁盘 I/O。 簇索引的劣势 维护索引很昂贵,特别是插入新行或者主键被更新导至要分页(page split)的时候。 mysql中簇索引的设定 簇索引默认是主键,如果表中没有定义主键,InnoDB 会选择一个唯一的非空索引代替。如果没有这样的索引,InnoDB 会隐式定义一个主键来作为簇索引。 MyISM 非簇索引 MyISM使用的是非簇索引,非簇索引的两棵B+树看上去没什么不同,节点的结构完全一致只是存储的内容不同而已,主键索引B+树的节点存储了主键,辅助键索引B+树存储了辅助键。

    1.8K70发布于 2019-10-25
  • 来自专栏机器学习,脑机接口,算法优化

    凝聚层次类,DBSCAN类(1)

    凝聚层次类:初始每个对象看成一个簇,即n个簇,合并最相似的两个簇,成(n-1)个簇,重复直到一个簇 \ 相似度衡量方法 最小距离:两个簇中最近的两个对象的距离 最大距离:两个簇中最远的两个对象的距离 平均距离:两个簇中所有对象两两距离的平均值 质心距离:两个簇质心的距离 \ DBSCAN类算法 数据集中一个对象的半径内有大于minPts个对象时,称这个点核心点,将这些核心点半径内的对象加入这个簇,

    2.2K00发布于 2020-11-17
  • 来自专栏机器学习原理

    机器学习(7)——类算法类算法

    类算法 前面介绍的集中算法都是属于有监督机器学习方法,这章和前面不同,介绍无监督学习算法,也就是类算法。 我们对数据进行类的思想不同可以设计不同的类算法,本章主要谈论三种类思想以及该类思想下的三种类算法。 为了避免这种敏感性导致的最终结果异常性,可以采用初始化套初始节点构造不同的分类规则,然后选择最优的构造规则。 又或者改变初始值的选择。这样通过改进的K-Means算法,将在下面进行一一介绍。 (3)如果距离D小于T1,表示该节点属于该簇,添加到该簇列表中 (4)如果距离D小于T2,表示该节点不仅仅属于该簇,还表示和当前簇中心点非常近,所以将该簇的中心点设置为该簇中所有样本的中心点 #第一个参数表示给定中心点的个数,第二个参数给出初始质心怎么给,第三个参数是套初始质心,第四个代表的是迭代次数 sklearn.cluster.KMeans(n_clusters=8, init

    4.3K70发布于 2018-04-27
  • 来自专栏流川疯编写程序的艺术

    类算法 ---- 大数据类算法综述

    文章大纲 简介 类算法的分类 相似性度量方法 大数据类算法 spark 中的类算法 类算法对比 性能对比 效果对比 参考文献 简介 随着数据量的迅速增加如何对大规模数据进行有效的类成为挑战性的研究课题 ,面向大数据的类算法对传统金融行业的股票投资分析、 互联网金融行业中的客户细分等金融应用领域具有重要价值, 本文对已有的大数据类算法,以及普通类算法做一个简单介绍 聚类分析是伴随着统计学、计算机学与人工智能等领域科学的发展而逐步发展起来的 比如机器学习领域的人工神经网络与支持向量机的发展就出现促生了基于神经网络的类方法与核类方法。目前,基于人工神经网络的深度学习(如:AlphaGo围棋系统)也必将推动聚类分析方法的进一步发展。 然而,类算法又有了长足的发展与进步。 类算法的分类 相似性度量方法 3)曼哈顿距离(Manhattan Distance)。 大数据类算法 spark 中的类算法 http://spark.apache.org/docs/latest/ml-clustering.html spark 支持的类算法有以下几个: K-means

    2K30编辑于 2021-12-06
领券