首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习和数学

    Tensorflow Reduction operations

    # Tensorflow Reduction operations """ Reduction,翻译为简化,约简比较合适。Reduction操作主要包括很多简化张量维度的op。 区别在于不同的Reduction,所约简的维度不同。今天主要是对文档的翻译,并举例说明。 Should have numeric type. reduction_indices: The dimensions to reduce. Reduces input_tensor along the dimensions given in reduction_indices. Reduces input_tensor along the dimensions given in reduction_indices.

    1.2K40发布于 2018-04-11
  • 来自专栏hsdoifh biuwedsy

    Hierarchical clustering and dimension reduction

    Lecture 8: Hierarchical clustering and dimension reduction -be able to explain the steps of (agglomerative results Very sensitive to outliers -appreciate the following motivations for dimensionality reduction help to eliminate irrelevant features / reduce noise -understand the concept of dimensionality reduction ) generating a small number of new features -understand the purpose of using PCA for dimensionality reduction information to describe objects Motivation: it's a systematical way to implement dimensionality reduction

    62020发布于 2021-05-19
  • 来自专栏算法channel

    降维技术 (Dimensionality Reduction

    降维是一个去掉冗余的不重要的变量,而只留下主要的可以保持信息的变量的过程。通常通过两种途径来实现:

    1.1K10发布于 2020-02-21
  • 来自专栏自学笔记

    Some methods of deep learning and dimensionality reduction

    Dimensionality Reduction——Principal Component Analysis 既然讲到了降维,那顺便把PCA也讲了,Deep Learning的部分已经讲完。

    51640发布于 2019-01-23
  • 来自专栏自学笔记

    Some methods of deep learning and dimensionality reduction

    Dimensionality Reduction——Principal Component Analysis 既然讲到了降维,那顺便把PCA也讲了,Deep Learning的部分已经讲完。

    48620发布于 2018-09-07
  • 来自专栏实时计算

    机器学习(十)-------- 降维(Dimensionality Reduction)

    降维(Dimensionality Reduction) 降维的目的:1 数据压缩 ? 这个是二维降一维 三维降二维就是落在一个平面上。

    81220发布于 2019-08-08
  • 来自专栏CreateAMind

    意图、假设、行动、证据 Dynamic inference by model reduction

    Dynamic inference by model reduction 2023.09.10.557043v1.full 贝叶斯模型缩减是一种强大的技术,其用途广泛,可以将连续信号可以假设的无限量值缩小为一小组假设 4 Methods 4.1 Bayesian Model Reduction 考虑一个带有参数 θ 和数据 y 的生成模型 p(θ, y): 然后考虑一个附加分布 ,它是第一个模型的简化版本,如果某些数据的可能性在两个模型下相同

    34110编辑于 2024-04-11
  • 来自专栏潇涧技术专栏

    Python Algorithms - C4 Induction and Recursion and Reduction

    Reduction means transforming one problem to another. Reduction(规约)意味着对问题进行转换,例如将一个未知的问题转换成我们能够解决的问题,转换的过程可能涉及到对问题的输入输出的转换。 其实,Reduction是有两种的,上面的两种都是Reduction!还记得前面介绍过的递归树吗? 那其实就是将规模较大的问题转换成几个规模较小的问题,而且问题的形式并没有改变,这就是一种Reduction。 你可以理解这种情况下Reduction是降维的含义,也就类似机器学习中的Dimension Reduction,对高维数据进行降维了,问题保持不变。

    97930发布于 2018-08-01
  • 来自专栏AI算法与图像处理

    张量运算之ArgMax和Reduction | PyTorch系列(九)

    深度学习的张量 Reduction 运算 欢迎回到这个关于神经网络编程的系列。在这篇文章中,我们将学习张量的Reduction 运算。 ---- 张量的Reduction 运算 首先给出一个reduction 运算的定义。 ) 看一下第一个reduction操作,求和 > t.sum()tensor(8.) 二、常用的张量reduction操作 以下是一些其他常见的reduction函数: > t.sum()tensor(8.) > t.prod()tensor(0.) > t.mean()tensor( reduction 运算是否总是将一个张量reduction 为张量? 答案是否定的! 事实上,我们经常一次减少特定的轴。这个过程很重要。

    2.6K40发布于 2020-04-29
  • 来自专栏机器学习与自然语言处理

    降维(Dimensionality Reduction)

    Dimensionality Reduction Content  10. Dimensionality Reduction   10.1 Motivation     10.1.1 Motivation one: Data Compression     10.2.2   10.1 Motivation 10.1.1 Motivation one: Data Compression 如果我们有许多冗余的数据,我们可能需要对特征量进行降维(Dimensionality Reduction

    98980发布于 2018-03-13
  • 来自专栏单细胞天地

    OSCA单细胞数据分析笔记8—Dimensionality reduction

    二维平面是对于我们人类可接受的表征细胞间距离的可视化方式。因此,尽管上一步PCA已经降至50个维度以内,但在可视化呈现方面,仍需采取一定手段。

    1.6K21发布于 2021-07-02
  • 来自专栏翻译scikit-learn Cookbook

    Kernel PCA for nonlinear dimensionality reduction核心PCA非线性降维

    this recipe, we'll look at applying nonlinear transformations, and then apply PCA for dimensionality reduction

    89700发布于 2019-11-02
  • 来自专栏贾志刚-OpenCV学堂

    干货 | GIMP中的Noise Reduction算法原理及快速实现

    随便瞄了一下Enhance菜单,发现里面有一个Nosie Reduction算法,试了下,还有点效果。 可是在源代码里搜索相关的关键词确没有发现任何的相关代码,后来才发现很多东西都有个GEGL关键词,结果一百度,原来他是一个单独的软件包,于是有下载了GEGL的源代码,终于在gegl-master\operations\common\里面看到了noise-reduction.c 其核心的代码如下: static void noise_reduction (float *src_buf, /* source buffer, one pixel to the left 优化的第一步是弄明白算法的原理,在GIMP的UI界面上可当鼠标停留在Noise Reduction菜单上时,会出现Anisotroic smoothing operation字样,所以初步分析他是属于各项异性扩散类的算法 第五点,我们还可以考虑我在其他文章里提到的支持Inplace操作的方式,这样noise_reduction这个函数的输入和输出就可以是同一个内存。

    1.8K10发布于 2019-11-20
  • 来自专栏小小挖掘机

    十九种损失函数,你能认识几个?

    torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 torch.nn.MSELoss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效. torch.nn.KLDivLoss(reduction='mean') 参数: reduction torch.nn.SmoothL1Loss(reduction='mean') ? 其中 ? torch.nn.CTCLoss(blank=0, reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值; sum:返回loss

    1.2K20发布于 2019-08-28
  • 来自专栏深度学习和计算机视觉

    最全的损失函数汇总

    torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 torch.nn.MSELoss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。 KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效. torch.nn.KLDivLoss(reduction='mean') 参数: reduction torch.nn.CTCLoss(blank=0, reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss

    68710编辑于 2022-09-28
  • 来自专栏深度学习自然语言处理

    十九种损失函数,你能认识几个?

    torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 torch.nn.MSELoss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效. torch.nn.KLDivLoss(reduction='mean') 参数: reduction torch.nn.SmoothL1Loss(reduction='mean') ? 其中 ? torch.nn.CTCLoss(blank=0, reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值; sum:返回loss

    1K20发布于 2019-08-28
  • 来自专栏小詹同学

    十九种损失函数,你能认识几个?

    torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 torch.nn.MSELoss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效. torch.nn.KLDivLoss(reduction='mean') 参数: reduction torch.nn.SmoothL1Loss(reduction='mean') ? 其中 ? torch.nn.CTCLoss(blank=0, reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值; sum:返回loss

    56310发布于 2019-08-29
  • 来自专栏生信补给站

    Seurat V5|一个函数就能解决多种去批次方法,按需尝试

    = "pca", reduction.name = "umap.unintegrated") DimPlot(obj, reduction = "umap.unintegrated = obj, method = RPCAIntegration, orig.reduction = "pca", new.reduction = "integrated.rpca", verbose = "pca", new.reduction = "harmony", verbose = FALSE ) #FastMNN obj <- IntegrateLayers( object = 还要注意定义new.reduction的名字,不然会被覆盖掉。 4,确定去批次方法 4.1 ,umap展示 这里用CCA 和 RPCA 示例,其他的两种同样的方式,注意修改reduction.name 。

    14.3K22编辑于 2023-12-19
  • 来自专栏大数据共享

    Pytorch_第六篇_深度学习 (DeepLearning) 基础 [2]---神经网络常用的损失函数

    image.png '''代码示例''' loss_func = torch.nn.L1Loss(reduction='mean') '''note: reduction=None 啥也不干 reduction ='mean' 返回loss和的平均值 reduction='mean' 返回loss的和。 image.png '''代码示例''' loss_func = torch.nn.MSELoss(reduction='mean') # note: reduction同上。 # reduction同上。 # 用的时候需要在该层前面加上 Sigmoid 函数。 # reduction同上。

    94550编辑于 2022-03-30
  • 来自专栏深度学习和计算机视觉

    认识这19种深度学习损失函数,才能说你了解深度学习!

    torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 torch.nn.MSELoss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。 KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效. torch.nn.KLDivLoss(reduction='mean') 参数: reduction torch.nn.SmoothL1Loss(reduction='mean') ? 其中 ? torch.nn.CTCLoss(blank=0, reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss

    3.1K20发布于 2019-09-04
领券