首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏生信技能树

    SPOTlight || 用NMF卷积空间表达数据

    然而,目前空间转录组分析技术(Spatial Transcriptomics,ST)尚未达到单细胞分辨率,往往需要结合单细胞RNA测序(scRNA-seq)信息来反褶积(或卷积,Deconvolute spotlight_deconvolution函数接受scRNAseq数据和空间转录组学数据计数矩阵的Seurat对象,并返回反卷积结果。 ? element_text(angle = 90), axis.text = element_text(size = 12)) 思考题: 卷积可以在算法上解析出一个 举个例子,某种技术一个spot中理论上的细胞数(Ns)1~10 ,但是用卷积可能算出来的细胞数((Nct)大于10,如是本文的23。剩下的13个作何解释? 动动手: 查一查还有哪些卷积的方法还没有用到空间转录组中?

    1.9K10发布于 2021-10-22
  • 来自专栏单细胞天地

    SPOTlight || 用NMF卷积空间表达数据

    然而,目前空间转录组分析技术(Spatial Transcriptomics,ST)尚未达到单细胞分辨率,往往需要结合单细胞RNA测序(scRNA-seq)信息来反褶积(或卷积,Deconvolute spotlight_deconvolution函数接受scRNAseq数据和空间转录组学数据计数矩阵的Seurat对象,并返回反卷积结果。 ? 思考题: 卷积可以在算法上解析出一个spot有哪几种细胞类型,但是解析出来的细胞类型的数量(Nct)与每个spot中可能的细胞数(Ns)的关系如何对应起来呢? 举个例子,某种技术一个spot中理论上的细胞数(Ns)1~10 ,但是用卷积可能算出来的细胞数((Nct)大于10,如是本文的23。剩下的13个作何解释? 动动手: 查一查还有哪些卷积的方法还没有用到空间转录组中?

    3.2K20发布于 2021-01-12
  • 来自专栏数据处理

    TensorFlow构建卷积神经网络mnist2

    原理可以看CNN,对图片数据做了卷积池化操作,然后还是用DNN,示意图如下 卷积操作参考卷积 初始化权重与偏移量函数,主要是方便操作 def weight_variable(shape): def bias_variable(shape): initial = tf.constant(0.1, shape=shape) return tf.Variable(initial) 卷积与池化 # 卷积和池化 def conv2d(x, W): # 步长(四个方向)为1,padding:SAME 保持图片大小不变 return tf.nn.conv2d(x, W, strides -1,28,28,1]) h_conv1=tf.nn.relu(conv2d(x_image, W_conv1)+b_conv1) h_pool1=max_pool_2x2(h_conv1) 第二层卷积与池化 # 第二层卷积 W_conv2 = weight_variable([5,5,32, 64]) b_conv2 = bias_variable([64]) h_conv2 = tf.nn.relu(

    55740发布于 2018-06-07
  • 来自专栏机器之心

    学界 | 堆叠卷积网络实现图像语义分割顶尖效果

    选自arXiv 机器之心编译 参与:路雪 本文介绍了一种堆叠卷积网络(Stacked Deconvolutional Network),它可用于高效的图像语义分割。 该方法堆叠多个浅层卷积网络,采用层级监督帮助网络优化,在多个数据集上实现了顶尖效果。机器之心对该论文进行了介绍。 ? 为了解决该问题,我们提出了一种堆叠卷积网络(Stacked Deconvolutional Network/SDN)用于语义分割。 在 SDN 中,多个浅层卷积网络(即 SDN 单元)依次堆叠,以整合语境信息,确保位置信息的精细恢复。 上半部分表示我们提出的堆叠卷积网络(SDN)的结构,下半部分表示 SDN 单元(a)、下采样模块(b)和上采样模块(c)的具体结构。 ? 图 2.

    89770发布于 2018-05-08
  • 来自专栏IT派

    干货|一文全深度学习中的卷积

    正是靠着卷积卷积神经网络,深度学习才超越了几乎其他所有的机器学习手段。但卷积为什么如此强大?它的原理是什么?在这篇博客中我将讲解卷积及相关概念,帮助你彻底地理解它。 在物理和工程上,卷积被广泛地用于化简等式——等会儿简单地形式化描述卷积之后——我们将把这些领域的思想和深度学习联系起来,以加深对卷积的理解。但现在我们先从实用的角度理解卷积。 我们如何对图像应用卷积 当我们在图像上应用卷积时,我们在两个维度上执行卷积——水平和竖直方向。 流体力学的启发 流体力学为空气和水创建了大量的微分方程模型,傅里叶变换不但简化了卷积,也简化了微分,或者说任何利用了微分方程的领域。有时候得到解析的唯一方法就是对微分方程左右同时执行傅里叶变换。 在这个过程中,我们常常将写成两个函数卷积的形式,以得到更简单的表达。这是在一个维度上的应用,还有在两个维度上的应用,比如天文学。

    1.1K60发布于 2018-03-28
  • 来自专栏生信补给站

    空转 | 我,SPOTlight,用卷积,解决空间转录组spot注释!

    前面介绍过整合scRNA-seq和空间转录组数据主要有(1)映射(Mapping)和(2)去卷积(Deconvolution)两种方法。 前面空转 | 结合scRNA完成空转spot注释(Seurat Mapping) & 彩蛋(封面的空转主图代码)介绍了使用Seurat Mapping的方式进行spot注释,本文介绍一种经典的卷积方法

    3.1K31编辑于 2023-08-25
  • 来自专栏漫漫深度学习路

    tensorflow学习笔记(三十二):conv2d_transpose (卷积)

    deconv卷积,实际是叫做conv_transpose, conv_transpose实际是卷积的一个逆向过程,tf 中, 编写conv_transpose代码的时候,心中想着一个正向的卷积过程会很有帮助 想象一下我们有一个正向卷积: input_shape = [1,5,5,3] kernel_shape=[2,2,3,1] strides=[1,2,2,1] padding = "SAME " 那么,卷积激活后,我们会得到 x(就是上面代码的x)。 的模样 kernel = tf.random_normal(shape=[2,2,3,1]) # strides 和padding也是假想中 正向卷积的模样。 对deconv 求导就相当于 拿着 conv_transpose 中的参数对 deconv 输出的值的导数做卷积

    3K90发布于 2018-01-02
  • 来自专栏Visium HD

    Visium HD 空间转录组分析探索之--细胞类型注释(RCTD卷积

    这里我们使用文章中提到的,基于单细胞数据进行卷积注释,文章中用到的方法是RCTD(Robust decomposition of cell type mixtures in spatial transcriptomics 读取单细胞数据,构造reference;开始卷积分析。ImmuRef <- readRDS('. 卷积结果展示adata = sc.read_h5ad('./adata_P1.h5ad')rctd_res = pd.read_csv('.

    3.4K00编辑于 2025-05-29
  • 方法分享---利用TACIT卷积空间多组学中细胞类型和状态

    20410编辑于 2025-04-22
  • 来自专栏生信技能树

    空间转录组细胞卷积的实用指南:18种方法测评

    这篇文献使用了50个真实世界和模拟数据集对18种现有的方法进行基准测试,通过评估方法的准确性、鲁棒性和易用性来解决细胞卷积任务,并使用不同的指标、分辨率、空间转录组技术、spot 数量和基因数量对这些方法进行了全面比较 在性能方面,CARD、Cell2location和Tangram是进行细胞卷积任务的最佳方法。 基准测试流程 为了全面评估细胞卷积方法,我们从已发表和预印本论文中确定了18种现有方法,如下所示:CARD、Cell2location、RCTD、DestVI、stereoscope、SpatialDecon 当点位数量较多(即MERFISH和Slide-seqV2)时,Cell2location、SpatialDecon和Tangram最能对组织的大范围视图进行卷积。 seqFISH⁺中所有六种细胞类型和MERFISH中12个样本的全部细胞类型比例及其真实值在所有方法中进行了可视化(图3A、B) 鲁棒性评估:通过多种实验条件评估了18种细胞卷积方法的鲁棒性。

    77810编辑于 2025-07-14
  • 来自专栏AutoML(自动机器学习)

    对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解

    1.2 深度可分离卷积的过程 而应用深度可分离卷积的过程是①用16个3×3大小的卷积核(1通道)分别与输入的16通道的数据做卷积(这里使用了16个1通道的卷积核,输入数据的每个通道用1个3×3的卷积卷积 1.3 深度可分离卷积的优点 可以看出运用深度可分离卷积比普通卷积减少了所需要的参数。重要的是深度可分离卷积将以往普通卷积操作同时考虑通道和区域改变成,卷积先只考虑区域,然后再考虑通道。 2.1 什么是分组卷积 在说明分组卷积之前我们用一张图来体会一下一般的卷积操作。 ? 转置卷积和反卷积的区别 那什么是反卷积?从字面上理解就是卷积的逆过程。值得注意的反卷积虽然存在,但是在深度学习中并不常用。而转置卷积虽然又名反卷积,却不是真正意义上的反卷积。 你可以理解成,至少在数值方面上,转置卷积不能实现卷积操作的逆过程。所以说转置卷积与真正的反卷积有点相似,因为两者产生了相同的空间分辨率。

    4.2K20发布于 2018-10-10
  • 关于10X HD和Xenium数据整合分析以及HD卷积RCTD的运用

    以及HD需不需要卷积的问题。我们这一篇就来回答一下这个分析。 如果采用卷积,对于这种高精度的平台,c2l是不合适,需要用RCTD。 RCTD的卷积示例 ## load libraries library(arrow) library(Seurat) library(spacexr) FlexOutPath <- "~/AggrOutput

    1.3K20编辑于 2024-06-10
  • 知识积累---空间数据结合图像分割实现单细胞级卷积分析

    因此,spot分辨率和单细胞水平之间的上述差距提出了新的计算挑战:分别针对低分辨率和高分辨率spot的“单细胞反卷积”和“单细胞卷积”。 其中的区别在于单细胞反卷积是指将大的低分辨率spot分裂成单个细胞,而单细胞卷积是指将相邻的高分辨率spot覆盖的小块组装成一个完整的单个细胞。 STIE有两种模式:(1)单细胞反STIE有两种模式:(1)单细胞反卷积/卷积:根据细胞类型转录组特征,STIE将低/高分辨率spot反卷积/卷积成单细胞。 (2)单细胞聚类(Signature-free 单细胞反卷积/卷积):在没有细胞类型转录组特征的情况下,STIE可以在单细胞水平上进行聚类。 聚类算法建立在反卷积/卷积的基础上:给定聚类数量和聚类转录组特征的初始值,STIE迭代改进基于单细胞反卷积/卷积的聚类特征,并重新估计特征,直到迭代收敛。

    33610编辑于 2024-09-01
  • 来自专栏TechLead

    卷积神经网络是什么?CNN结构、训练与优化一文全

    2.1 卷积操作 卷积操作是卷积神经网络的核心,涉及多个复杂的概念和细节。我们将逐一介绍它们。 卷积核与特征映射 卷积核是一个小型的矩阵,通过在输入上滑动来生成特征映射。 每个卷积核都能捕获不同的特征,例如边缘、角点等。 卷积核大小 卷积核的大小影响了它能捕获的特征的尺度。较小的卷积核可以捕获更细致的特征,而较大的卷积核可以捕获更广泛的特征。 多通道卷积 在多通道输入下进行卷积,每个输入通道与一个卷积核进行卷积,然后所有的结果相加。 ) 空洞卷积是一种扩展卷积核感受野的方法,它在卷积核的元素之间插入空白。 # 使用空洞率2的卷积核 conv_layer_dilated = nn.Conv2d(3, 64, 3, dilation=2) 分组卷积(Grouped Convolution) 分组卷积通过将输入通道分组并对每组使用不同的卷积核来扩展卷积操作

    6.2K20编辑于 2023-10-21
  • 来自专栏全栈程序员必看

    卷积神经网络CNN(1)——图像卷积与反卷积(后卷积,转置卷积

    ,所以这里就详细解释卷积与反卷积。 对于1维的卷积,公式(离散)与计算过程(连续)如下,要记住的是其中一个函数(原函数或者卷积函数)在卷积前要翻转180度 图1 对于离散卷积,f的大小是n1,g的大小是n2,卷积后的大小是n1 图6的卷积的滑动是从卷积核右下角与图片左上角重叠开始进行卷积,滑动步长为1,卷积核的中心元素对应卷积后图像的像素点。 其实这才是完整的卷积计算,其他比它小的卷积结果都是省去了部分像素的卷积。 1,图片大小为5×5,卷积核大小为3×3,卷积后图像大小:3×3 3.反卷积(后卷积,转置卷积) 这里提到的反卷积跟1维信号处理的反卷积计算是很不一样的,FCN作者称为backwards convolution

    6.4K30编辑于 2022-06-24
  • 来自专栏深度学习

    【深度学习实验】卷积神经网络(一):卷积运算及其Pytorch实现(一维卷积:窄卷积、宽卷积、等宽卷积;二维卷积

    一、实验介绍 本文主要介绍了卷积运算及其Pytorch实现,包括一维卷积(窄卷积、宽卷积、等宽卷积)、二维卷积卷积神经网络通过多个卷积层、池化层和全连接层组成。 卷积层主要用于提取图像的局部特征,通过卷积操作和激活函数的处理,可以学习到图像的特征表示。 通过将文本或时间序列数据转换成二维形式,可以利用卷积神经网络进行相关任务的处理。 1. 一维卷积 a. 概念 一维卷积是指在一维输入数据上应用滤波器(也称为卷积核或核)的操作。 注意: 在早期的文献中,卷积一般默认为窄卷积; 而目前的文献中,卷积一般默认为等宽卷积。 这样设置了卷积层的权重,使其进行卷积运算时使用了翻转后的卷积核。 执行卷积运算,将输入张量input_tensor通过卷积层conv_layer进行卷积操作,得到输出张量output_tensor。

    2.5K31编辑于 2024-07-30
  • 来自专栏全栈程序员必看

    对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解

    而以往标准的卷积过程可以用下面的图来表示: 1.2 深度可分离卷积的过程 而应用深度可分离卷积的过程是①用16个3×3大小的卷积核(1通道)分别与输入的16通道的数据做卷积(这里使用了16个1通道的卷积核 1.3 深度可分离卷积的优点 可以看出运用深度可分离卷积比普通卷积减少了所需要的参数。重要的是深度可分离卷积将以往普通卷积操作同时考虑通道和区域改变成,卷积先只考虑区域,然后再考虑通道。 2.1 什么是分组卷积 在说明分组卷积之前我们用一张图来体会一下一般的卷积操作。 转置卷积和反卷积的区别 那什么是反卷积?从字面上理解就是卷积的逆过程。值得注意的反卷积虽然存在,但是在深度学习中并不常用。而转置卷积虽然又名反卷积,却不是真正意义上的反卷积。 你可以理解成,至少在数值方面上,转置卷积不能实现卷积操作的逆过程。所以说转置卷积与真正的反卷积有点相似,因为两者产生了相同的空间分辨率。

    1.2K20编辑于 2022-06-24
  • 来自专栏全栈程序员必看

    卷积与转置卷积

    当正向卷积步长不为1时(常常可能为2),转置卷积步长为: 转置卷积填充由正向卷积卷积核和填充决定: 转置卷积的核和正向卷积一样: 转置卷积的输出公式: 转置卷积又称微步卷积(“微步 ”的含义指:新的步长为1,而之前的步长为2,使得转置卷积的滑窗处理相比较卷积的“小”。) ,可以视作传统卷积操作的一种“逆向”传递过程;并且,转置卷积受“正向”卷积的参数约束,即步长stride和零填充(zero-padding)。 下面给出stride=1和padding=0、stride=1和padding=1、stride=2和padding=0、stride=2和padding=1的卷积和转置卷积例子。

    99330编辑于 2022-06-24
  • 来自专栏全栈程序员必看

    卷积与反卷积关系超详细说明及推导(反卷积又称转置卷积、分数步长卷积

    虽然在一些文章中将反卷积与转置卷积认为是等价的,但是 [1] 中的作者表示他们反对使用反卷积来表示转置卷积,他们的依据是在数学中反卷积被定义为卷积的逆,这实际上与转置卷积是不相同的。 1.CNN中的卷积   因为本文主要介绍卷积与转置卷积之间的关系,所以对于卷积相关的知识并没有过多的介绍,如果想详细了解卷积的相关基础知识课参考我的博文《卷积神经网络入门详解》。 2.3 转置卷积 转置卷积是通过交换前向传播与反向传播得到的。还有一种说法是核定义了卷积,但是它定的是直接卷积还是转置卷积是由前向和反向的计算方式得到的。 卷积和转置卷积是一对相关的概念,转置卷积嘛,你总得告诉我你针对谁是转置卷积啊。 ,s=1) 的过程,如下图所示 2.5 步长小于 1 的转置卷积   由于转置卷积的步长是直接卷积的倒数,因此当直接卷积的步长 s>1 的时候,那么转置卷积的步长就会是分数,这也是转置卷积又称为分数步长卷积的原因

    3.8K30编辑于 2022-06-24
  • 来自专栏和蔼的张星的图像处理专栏

    主元素12

    样例 给出数组[1,1,1,1,2,2,2],返回 1 1 如果不要求空间复杂度和时间复杂度的话,最简单的方法就是放入map种统计次数,然后把次数大于一半size的拿出来就可以了。 } // write your code here } 如果要求一遍遍历,空间复杂度为O(1)呢,我也是没想到太好的方法,查了查别人的做法,有个很值得参考,总结如下: 2

    43020发布于 2018-09-04
领券