首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏零域Blog

    Data Representation - Integer

    There are mainly two properties to make a integer representation different: Size, of the number of bits There are four well-known schemas to encode it, according to signed number representation of wikipedia the minimal negative is -128 Offset binary 移码 It’s also called excess-K (偏移 K) or biased representation extension such as Unicode nowadays, but we’ll ignore it for future posts dedicated for char and string representation

    56520编辑于 2022-03-28
  • 来自专栏CreateAMind

    disentangled-representation-papers

    https://github.com/sootlasten/disentangled-representation-papers This is a curated list of papers on disentangled (and an occasional "conventional") representation learning. Life-Long Disentangled Representation Learning with Cross-Domain Latent Homologies (Aug, Achille et. [paper] *** Neural Scene Representation and Rendering (Jun, Eslami et. al.) [paper] ? [paper] * Neural Discrete Representation Learning (Nov, Oord et. al.) [paper] ?

    2K20发布于 2018-09-27
  • 来自专栏AIUAI

    low rank representation

    所以提出来了low rank representation的方法,因为lowrank是对系数矩阵整体的约束,所以llr的方法是从全局的观点出发来表达的,其次由于噪声会提高数据的rank,故在lowrank

    1K30发布于 2019-02-18
  • 来自专栏CreateAMind

    State Representation Learning for Control: An Overview

    Loss = Lprior(s1:n;θφ|c) (5) All these approaches are detailed in Section 3. 2.3 State representation characteristics Besides the general idea that the state representation has the role of encoding essential In a reinforcement learning framework, the authors of [Böhmer et al., 2015] defines a good state representation as a representation that is: • Markovian, i.e. it summarizes all the necessary information to be able Learning In this section, we cover various implementation aspects relevant to state representation learning

    81120发布于 2019-04-28
  • 来自专栏计算机视觉理论及其实现

    Learning Texture Invariant Representation for Domain Adaptation

    由于为语义分割注释像素级标签非常费力,因此利用合成数据是一个很有吸引力的解决方案。然而,由于合成域与真实域之间存在域间的差异,用合成数据训练的模型很难推广到真实数据中去。在本文中,我们考虑到两个域之间的根本区别作为纹理,提出了一种适应目标域纹理的方法。首先,我们利用风格转换算法对合成图像的纹理进行多样性处理。生成图像的各种纹理防止分割模型过度拟合到一个特定的(合成)纹理。然后通过自训练对模型进行微调,得到对目标纹理的直接监督。我们的结果达到了最先进的性能,我们通过大量的实验分析了在程式化数据集上训练的模型的属性。

    2.4K30编辑于 2022-09-02
  • 来自专栏机器学习入门

    Prime Number of Set Bits in Binary Representation

    Prime Number of Set Bits in Binary Representation 传送门:762. Prime Number of Set Bits in Binary Representation Problem: Given two integers L and R, find the count of numbers in the range [L, R] (inclusive) having a prime number of set bits in their binary representation

    58250发布于 2019-05-26
  • 来自专栏零域Blog

    Data Representation - Floating Point Numbers

    In the last episode we talked about the data representation of integer, a kind of fixed-point numbers The representation of floating-point number had to made trade-offs between ranges and precision. Imaging the dot can be float to the left by one to make the representation .12345. Recall that the E = 0b0111 1111 = 0 because it used a biased representation! } Representation of Non-Numbers There are more in the IEEE-754!

    57420编辑于 2022-03-28
  • 来自专栏CreateAMind

    Nonparametric VAE for Hierarchical Representation Learning

    structured Bayesian nonparametric priors with VAEs, to en- able infinite flexibility of the latent representation We apply our model in video representation learning.

    38710发布于 2018-07-24
  • 来自专栏叶子的开发者社区

    Intermediate Representation (IR) 中间表示

    Intermediate Representation(IR,中间表示)是在计算机科学和编译器设计中使用的概念,它是一种中间形式的程序表示,用于在不同编译阶段之间传递和处理代码。 下面将详细介绍Intermediate Representation的背景、特点和用途。 背景 在编译过程中,源代码需要经过多个阶段的转换和优化,最终生成可执行的机器代码。 为了在这些阶段之间进行通信和处理,需要一种中间形式的程序表示,即Intermediate Representation。 特点 抽象性:IR是在高级语言和底层机器代码之间的抽象层次。 总之,Intermediate Representation是一种中间形式的程序表示,被广泛应用于编译器设计和优化领域。

    1.5K20编辑于 2023-07-30
  • 来自专栏CreateAMind

    CPC(representation learning with contrastive predctive coding)

    摘要: 监督学习在很多应用方面有了巨大的进步,但是非监督学习却没有如此广的应用,非监督学习是人工智能方面非常重要也非常具有挑战性的领域。这篇论文提出了 constrative predictive coding,一个非监督的通用的算法用于在高维度数据中提取有用的表示信息。算法的核心是通过强大的自回归(autoregressive)模型来学习未来的(预测的)隐变量表示。论文使用对比损失概率(probabilistic contrastive loss)来引入最大化预测样本的信息的隐变量。大多数其他研究的工作都集中在使用一个特殊的修正(公式)评估表示,论文(CPC)所使用的方法在学习有用信息表示的时候表现非常优异。

    2.1K30发布于 2018-10-18
  • 来自专栏叶子的开发者社区

    MLIR (Multi-Level Intermediate Representation

    MLIR(Multi-Level Intermediate Representation)是一种多级中间表示的编译器基础架构,旨在提供通用的、可扩展的编译器基础设施。

    84110编辑于 2023-07-30
  • 来自专栏书山有路勤为径

    Image Representation & Classification(图像表示与分类)

    RGB channels Visualize the levels of each color channel. Pay close attention to the traffic signs!

    64520发布于 2018-08-27
  • 来自专栏计算机视觉理论及其实现

    Momentum Contrast for Unsupervised Visual Representation Learning

    我们提出了无监督视觉表征学习的动量对比(MoCo)。从作为字典查找的对比学习[29]的角度来看,我们构建了具有队列和移动平均编码器的动态字典。这使得能够动态构建一个大型且一致的词典,从而促进对比无监督学习。MoCo在ImageNet分类的通用线性协议下提供了有竞争力的结果。更重要的是,MoCo了解到的情况很好地转移到了下游任务中。在PASCAL VOC、COCO和其他数据集上,MoCo在7项检测/分割任务中的表现优于其监督的预训练对手,有时甚至远远超过它。这表明,在许多视觉任务中,无监督和有监督表示学习之间的差距已经基本消除。

    2K30编辑于 2022-09-02
  • 来自专栏计算机视觉

    (condition instance batchnorm)A LEARNED REPRESENTATION FOR ARTISTIC STYLE

    分享一个不错的对batchnorm的解释https://blog.csdn.net/aichipmunk/article/details/54234646.作者提到:Batch Norm会忽略图像像素(或者特征)之间的绝对差异(因为均值归零,方差归一),instance norm也是一样的,他们只考虑相对差异,所以在不需要绝对差异的任务中(比如分类、风格),有锦上添花的效果。而对于图像超分辨率这种需要利用绝对差异的任务(超分辨率),Batch Norm只会添乱。 instance是作用于单张图片,batchnorm作用于一个batch instance batchnorm 作者提到图像风格化的结果不应该取决于内容图的对比度,而应该是风格图的对比度,所以instance batchnorm 能消除内容图的对比度的,毕竟归一化处理了,对比度一定下降。

    67520发布于 2018-07-27
  • 来自专栏AIUAI

    论文阅读学习 - Deep Representation Learning with Target Coding

    Deep Representation Learning with Target Coding [Project HomePage] [Paper - AAAI2015] [Supplementary

    78860发布于 2019-02-18
  • 来自专栏图与推荐

    CS224W 7.2 Graph Representation Learning

    CS224W 7.1 Graph Representation Learning 那么,有没有更好的随机游走策略来进一步提升deepwalk的效果呢,那就是Jure组的node2vec.

    51420发布于 2020-04-07
  • 来自专栏全栈程序员必看

    graph representation learning_with for什么意思

    云从科技在跨镜追踪(行人再识别)技术(ReID)上获取重大突破。同时在Market-1501,CUHK03,DukeMTMC-reID三个数据集刷新了世界纪录,其中最高在Market-1501上的首位命中率(Rank-1 Accuracy)达到96.6%,让跨镜追踪(ReID)在准确率上首次达到商用水平,人工智能即将从「刷脸」跨到「识人」的新纪元。

    94220编辑于 2022-11-08
  • 来自专栏小小程序员——DATA

    神经网络 表述(Neural Networks: Representation)

    神经网络 表述(Neural Networks: Representation) 1 非线性假设 我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。

    26010编辑于 2023-12-03
  • 来自专栏神经网络和深度学习

    8 神经网络:表达(Neural Networks: Representation)

    8 神经网络:表达(Neural Networks: Representation) 8.1 非线性假设(Non-linear Hypotheses) 8.2 神经网络和大脑(Neurons and the Brain) 8.3 模型表示1(Model Representation I) 8.4 模型表示2(Model Representation II) 8.5 例子和直观理解1(Examples 例子和直观理解2(Examples and Intuitions II) 8.7 多类别分类(Multiclass Classification) 8 神经网络:表达(Neural Networks: Representation 8.3 模型表示1(Model Representation I) 既然神经网络模仿的是大脑神经元,那就先看一下大脑的神经元长什么样吧: [fhz61uhqto.jpg] 想象一下印刷厂中流水线的工人( 依据本节所给模型,有: Size(Θ(1))=sj+1×(sj+1)=s2×(s1+1)=3×4 Size(Θ(2))=s3×(s2+1)=1×4 8.4 模型表示2(Model Representation

    81240发布于 2020-07-07
  • 来自专栏chenjx85的技术专栏

    leetcode-762-Prime Number of Set Bits in Binary Representation

    count of numbers in the range [L, R] (inclusive) having a prime number of set bits in their binary representation

    57140发布于 2018-05-21
领券