首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏生信技能树

    R版BBKNN整合批次

    之前我有测试过很多整合批次的算法,例如CCA,RPCA,harmony,LIGER等: CCA单细胞多样本整合和插槽选择(一) 单细胞多样本整合之RPCA 单细胞多样本整合之Harmony,LIGER batch_key = "orig.ident") ifnb.data <- ifnb.data %>% FindNeighbors(reduction = "pca", k.param = 10

    2.8K10编辑于 2023-02-27
  • 来自专栏生信补给站

    scRNA分析|多样本merge 和 harmony批次

    三 多样本合并 多样本的单细胞数据合并的时候需要考虑 (1)是否批次 ? (2)使用何种方式批次 ? 这里简单的介绍 不考虑批次直接Merge 以及 使用harmony方法批次 这2种方式,为了直观的对比一下区别。 可以看到转移组和原发组的样本分布区别很大,就需要考虑是否批次。 原文中是转移组和原发组分别单独分析,没有批次。 2 harmony 批次 批次的方法有很多,本文对比展示使用harmony批次分析。后续会介绍其他批次的方法。 关于是否需要去批次以及使用什么方法批次 ,需要根据数据 以及 组织背景的真实情况来选择。

    5K52编辑于 2022-11-11
  • 来自专栏分析工具

    转录组数据批次方法整理(combat,combat-seq,removeBatchEffect)

    正是因为这些非生物学的因素存在就有可能会导致我们的结果偏离真实的情况,那么实际分析的过程中研究者应当评估是否存在批次效应,并决定是否要进行批次处理。 值得注意的是,即使使用了所谓的批次效应的工具,批次效应仍不能被完全消除,只是尽可能的减少了批次带来的干扰! combat批次-可视化# 官方展示了三种函数设置方式# combat_edata1 = ComBat(dat=edata, batch=batch, mod=NULL, par.prior=TRUE combat-seq批次# 官方展示了三种函数设置方式# adjusted <- ComBat_seq(count_matrix, batch=batch, group=NULL)# group=NULL removeBatchEffect批次# 设置批次信息batch <- pheno$batch # 批次# 设置生物学分类,告诉函数不要把生物学差异整没了 pheno$cancer <- factor

    1.6K10编辑于 2024-08-01
  • 来自专栏天意生信俱乐部

    单细胞测序数据分析|多样本整合与批次

    上一节我们基于seucat框架学习了单细胞转录组单样本分析,本节我们学习多样本整合批次的内容。 首先要清楚的是不同的批次效应算法适用于不同的场景。 从而更直观的理解批次效应。 批次模型 我们首先尝试基于全局模型的combat: adata_combat = ov.single.batch_correction(adata, batch_key='batch', basis='X_mde_combat', frameon='small', color=['batch', 'cell_type'], show=False) 结果图: 从结果图中可以看出,批次的效果并不好 总结: 本节我们使用三个样本的骨髓数据,测试了批次效应的模型,总体分为降维、建模并消除批次效应、嵌入三个步骤。

    84810编辑于 2025-01-22
  • 来自专栏SAP供应链

    SAP QM 物料主数据分类视图维护了批次分类特性值以后,不允许批次主数据里覆盖了?

    SAP QM 物料主数据分类视图维护了批次分类特性值以后,不允许批次主数据里覆盖了? 业务场景:某物料的某个特性,有标准值,然后每个批次也有该特性的不同的值。 笔者试图如下方式来满足这个业务场景的需求:1)物料主数据分类视图023分类的特性里维护标准值;2)批次主数据里分类视图的该特性里维护这个批次的实际值。 经过项目实践证明,这个思路是行不通的。 1,如下的物料, 在分类视图里,我为某个特性值维护了一个数值,如下图: 2, MSC1N 创建一个新的批次,在批次分类视图里,维护该批次这个特性的值,比如99,系统报错, 只能维护一个跟物料主数据里该特性值相同的值 ,比如100, 3, 该特性的值是single value, 这也是为啥项目实践中,物料主数据里的批次分类(class type 023)的特性值多是空的原因。 因为一旦在物料主数据里设置了特性值,就不能在批次主数据的分类视图里维护不同的特性值了。这是SAP标准行为。 2020-12-20 写于苏州市。

    67100发布于 2021-01-09
  • visium HD多样本批次及sketch下采样分析【scanpy+spatialdata】

    前面我们介绍了python版visium HD空转数据的分析,scanpy+spatialdata策略(10X空转visium HD多样本分析策略二【scanpy+spatialdata】),这也是比较正式的一种方式 其中有亮点问题没有涉及到,一个是多样本批次问题(事实证明,我们演示的数据没有批次效应,这里我们仅仅是演示,么有意义),一个是类似于R中那样进行下采样分析,因为visium HD数据太大了,虽然服务器python sketched_adata = sc.concat(sketched_adatas)#合并进行后续降维分析 sc.tl.pca(sketched_adata) #这里直接演示使用harmony进行批次矫正 random_state=0) sc.tl.umap(sketched_adata,min_dist=0.5, spread=2, random_state=0) # Plot UMAP #这个结果起来批次矫枉过正了 这里采取分块(chunk)的方式,也就说说每次执行10万个细胞,最后将返回的结果concat到一起,这样做的目的是为了节省内存!

    22510编辑于 2026-01-13
  • 来自专栏生信技能树

    并不需要得到批次后的表达量矩阵

    批次这个分析在我们组学数据分析领域非常常见, 可以提高数据质量,确保分析结果的准确性和可靠性。 然而,批次效应并不总是完美的,需要结合具体的数据特点和生物学背景,选择合适的方法,并进行仔细的验证和解释。 如果不进行批次效应处理,可能会对后续的数据分析和生物学解释产生误导。 统计分析:批次效应可能会掩盖或模糊化真实的生物学变异,使得统计分析的结果不准确。去除批次效应可以提高统计检验的可靠性。 机器学习:在利用机器学习算法进行模式识别或分类时,批次效应可能会引入噪声,影响模型的性能。批次效应可以提高模型的泛化能力和预测准确性。 DESeq2包本来就是可以把批次这个变量考虑进去 我们拿常规的转录组数据分析"批次效应"(batch effect removal)这个操作举例来说明,详见:转录组测序的count矩阵如何批次呢(sva

    54810编辑于 2024-05-06
  • 来自专栏生信技能树

    校正批次效应

    http://genomicsclass.github.io/book/ Chapter 10 - Batch Effects Introduction to batch effects [Rmd] 10年nature有一篇综述,专门讲这个问题。 不同平台的数据,同一平台的不同时期的数据,同一个样品不同试剂的数据,以及同一个样品不同时间的数据等等都会产生一种batch effect 。

    1.7K30发布于 2018-07-27
  • 来自专栏医学数据库百科

    批次效应去除工具

    这个工具除了基本的批次效应矫正,还可以对数据之间的批次影响的情况进行检测。 在这个数据库当中,主要是通过PVCA算法来评估批次对于分组的影响。 通过UMAP来可视化批次效应的影响,然后通过SVA包当中的Combat算法来去除批次效应。 在这里我们可以选择PCVA算法来数据来评估各个批次效应的影响程度。也可以选择UMAP 来计算可视化批次效应的影响。 需要注意的是,PCVA根据作者的介绍这个是用来评价芯片数据的批次效应的。 结果主要是包括三个内容 批次去除之后的热图 批次效应去除后的表达数据 批次效应去除后,差异表达分析的结果。 总的来说 以上就是两个用来去除批次效应的工具。其中 Batch Server使用的是经典的算法。除了基本的批次效应去除还可以在前期检测批次效应和后期检测去除后的结果。

    2.4K30编辑于 2022-01-05
  • 来自专栏苏三说技术

    10亿QQ号如何重?

    前言 最近在网上看到一个问题:10亿QQ号如何重? 我觉得挺有意思的。 今天这篇文章跟大家一起分享一些常见的解决方案,希望对你会有所帮助。 一、技术难点 1.1 数据规模分析 原始数据:10亿×8字节 = 8GB HashSet重:至少16GB内存(Java对象开销) 理想方案:<1GB内存 1.2 核心挑战 二、单机解决方案:位图法 2.1 = ;       }   }   2.2 QQ号范围优化 QQ号范围:10000(5位) - 9999999999(10位) 位图内存计算: (10^10 - 10^4) / 8 / 1024/1024 架构层 技术栈 处理目标 批处理层 Spark + HDFS 全量数据重 速度层 Flink + Redis 实时增量重 服务层 Spring Boot + HBase 统一查询接口 6.3 实时重实现 亿QQ号重的本质,是将问题拆解到每个计算单元都能高效处理的粒度。

    36010编辑于 2025-07-17
  • 来自专栏大史住在大前端

    【带着canvas流浪(10)】文字烟花

    比如你截取了一个长为200像素高为10像素的矩形区域的数据点,那么就会得到一个200*10*4=8000个数据点的数组。 非常重要的一个API,它的应用场景非常多,例如结合WebRTC输入的流数据来做视频弹幕,或者使用算法对像素数据进行加工实现各种各样的图片滤镜等,还可以使用离屏canvas来进行性能提升,具体的应用就留给你自己探索喽

    1.1K20发布于 2019-05-17
  • 来自专栏生信菜鸟团

    转录组测序的count矩阵如何批次呢(sva包的ComBat_seq函数)

    目前我们还是就纯粹的count矩阵即可,如果大家的count矩阵来源于多个数据集,理论上就需要去批次啦。 dat2,dat3,dat4,common_rows,Group,exp,file = "Rdata/exp.Rdata") 然后使用sva包的ComBat_seq函数针对转录组测序的count矩阵批次 如下所示的代码: rm(list = ls()) load("Rdata/exp.Rdata") #处理批次效应(combat) library(sva) #ComBat_seq是基于ComBat框架的改进模型

    3.1K11编辑于 2024-05-11
  • 来自专栏生信菜鸟团

    使用kBET检测批次效应

    (Abstract) 使用kBET来评估常用的批次回归和归一化方法,并量化它们在保留生物变异性的同时消除批次效应的程度 ... 在这里,我们进一步显示一名患者的摘要信息: kBET中的零模型(null model)包括随机排列批次标签以估计预期的拒绝率,而观察到的拒绝率使用实际的批次标签来测量批次效应引起的偏差 我个人理解就是非参数方法 <- prcomp(log10(1+t(umi.qc[-spikes,]))) pca.df <- data.frame(PC1=pca.umis$x[,1], replicate, colour=patient)) + geom_point() + theme_bw() + ggtitle(expression(PCA * ' '* of* ' '* log[10 后面的部分作者使用kBET来评估常用的批次回归和归一化方法,并量化它们在保留生物变异性的同时消除批次效应的程度 得出normalization方法使得表达谱同分布来解决批次效应会下游分析产生不利影响,

    1.8K20编辑于 2023-10-24
  • 来自专栏SAP ERP管理实践

    SAP 批次管理配置介绍

    这意味着,对于启用了批次管理的物料,所有的库存移动都需要录入批次号(自动或人工指定),当为收入时还需要指定批次属性。 通常,批次管理依赖于分类系统保存批次属性,简单的配置过程如下 ? 1、激活批次管理并指定批次的级别:在此处激活系统的批次管理功能;批次级别是指批次号的生产范围,由小到大可以选择是工厂级别、物料级别或客户端级别,意义就是批次号在哪个级别是唯一的,比如选择了物料级别,那么当接受到物料时生产一个批次号 1.复制生产订单号至批次号码上。 2.复制销售订单号至批次号码上。 3.批次号码按物料类型来分配。 4.批次号码按物料号码来分配。 5.批次号码包括日期。 6.批次号码包括工厂号码。 Batch Splits:批次分割 a. No.of splits:分割的数量。数量决定了满足目标数量需要最多多少个批次,如果该数量下的批次总数还不能满足的话,系统不会自动分配下一个批次。 在上述不能满足的情况下,可以手动增加或减少分割的数量。 c. OverDel allowed,分割后,总数量是否可以超过目标数量。 不选择的话,系统会提示一个 Warning信息。

    5.7K21发布于 2019-07-16
  • 来自专栏生信补给站

    Seurat V5|一个函数就能解决多种批次方法,按需尝试

    V5的升级部分主要体现在以下4个方面(https://satijalab.org/seurat/articles/get_started_v5_new),本次先介绍第一个:Seurat V5中批次方法的集成 Seurat v5引入了更加灵活和精简的基础架构,可以用一行代码完成不同的集成批次算法,极大的减少了不同方法的环境准备和数据处理时间,可以更聚焦在使用哪种方法效果更好。 Seurat v5中的integratelayer函数支持一行代码完成批次集成分析,当前支持以下五种主流的单细胞集成批次方法。 4,确定批次方法 4.1 ,umap展示 这里用CCA 和 RPCA 示例,其他的两种同样的方式,注意修改reduction.name 。 三 FindMarker 分析 确定批次方法后,就可以进行FindMarker 以及注释。

    14.6K22编辑于 2023-12-19
  • 来自专栏刷题笔记

    1-10 链表重 (20 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/100149932 1-10 链表重 (20 分) 给定一个带整数键值的链表 L,你需要把其中绝对值重复的键值结点删掉 输入格式: 输入在第一行给出 L 的第一个结点的地址和一个正整数 N(≤10​5​​,为结点总数)。一个结点的地址是非负的 5 位整数,空地址 NULL 用 -1 来表示。 随后 N 行,每行按以下格式描述一个结点: 地址 键值 下一个结点 其中地址是该结点的地址,键值是绝对值不超过10​4​​的整数,下一个结点是下个结点的地址。 题目大意:给一个链表,重(去掉值或者绝对值相等的),先输出删除后的链表,再输出删除了的链表。 分析:用结构体数组存储这个链表,大小为maxn = 100000,node[i]表示地址为i的结点。

    74950发布于 2019-11-08
  • 来自专栏SAP供应链

    SAP 序列号里主批次与库存批次不同,如何修改?

    SAP 序列号里'主批次'与'库存批次'不同,如何修改? 如下的序列号,'主批次'与'库存批次'字段值不相同, 这是错误的数据,会带来后续的发货过账,POD等报错。 简单的使用IQ02修改的话,是不能成功的。 如下图: 把主批次也改成4211913013,然后保存, 保存,系统报错,如下图: 必须使用如下方式修改, 选择'从库存',回车,进入如下界面, 修改主批次字段值,跟库存批次字段值保持一致,保存, 点击按钮 继续IQ02, 输入物料号和批次号,进入修改界面, 选择'库存'选项, 然后回车, 啥都不做,直接保存, 再次提示序列号已被更改。 此时,才算是修改好了,'主批次'与'库存批次'字段值保持一致了,如下图: 2019-03-05 写于苏州市高新区。

    1.4K20发布于 2021-03-02
  • 来自专栏生物信息云

    harmony包整合多批次单细胞数据以去除批次效应(batch effect)

    单细胞分析的前期教程: 单细胞专题 | 1.单细胞测序(10×genomics技术)的原理 单细胞专题 | 2.如何开始单细胞RNASeq数据分析 单细胞专题 | 3.单细胞转录组的上游分析-从BCL到 单细胞专题 | 10.细胞周期分析 单细胞专题 | 11.最新版cellphoneDB细胞通讯分析 单细胞专题 | 12.cellChat细胞通讯代码案例 1.1 方法文献 Korsunsky, I. 这里max_iter=10,预期最多有10个修正步骤。 示例:如果数据集包含批次信息和其他变量,可以将批次信息放在一个变量中,并将该变量传递给group.by.vars参数,以便根据批次信息对数据进行整合。 默认值为10。 示例:如果您希望算法运行更多或更少的迭代次数,可以调整此参数的值。 lambda: 参数类型:数值型(numeric) 默认值:1 描述:决定了Harmony整合的力度。

    10.2K22编辑于 2023-12-26
  • 来自专栏SAP供应链

    SAP MIGO 发货批次确定界面批次可用数量无穷大问题之对策

    本周收到业务的一个问题,MIGO投料的时候批次确定功能建议的数量不准确。在批次确定界面里,每个批次的可用数量都是无穷大,如下图示: ? 尽管如此,我还是着了开发同事帮忙以debug的方式查原因。最后得到了开发同事的反馈,说是不是因为增强导致的,而是系统的后台配置导致的。 具体的配置点如下, ? ? 去掉后的测试效果如下, ? 经验证批次可用数量都是正确的,看MMBE报表结果, ? 这让笔者很是意外,觉得很有总结的价值,是故写下这篇文字。 2019-03-15 写于苏州市。

    1.2K20发布于 2021-03-01
  • 10GB以上TXT重方法介绍

    ,实际上操作系统不会让我们这么一直在内存添加数据,而且是会有限制的 (2)32操作系统和64位操作系统重支持最大数不一样,64位支持更多数据重,但是不能用32位程序在64操作系统重,这样就相当于32 位重。 所以现在根本没有软件可以做到超大文本重,受限于哈希表的长度和内存限制,根本无法做到软件达到一次重,超大文本重目前只可能是一种方法那就是将数据存入数据库用数据库重。 虽然我们不能做到一次性重,但是我们还是可以通过其他方法重,为此笔者想到一种分块重思想,虽然不能把所有文本重,但是可以分成块,一块一块重,这样可以降低文件大小,不失为一种好方法,一旦把文件大小降下来我们就可以降低重任务数和占用空间 ,分块重好处就是对内存没有要求,对操作系统也没有要求。

    12500编辑于 2025-07-18
领券