首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏计算机视觉理论及其实现

    torch.masked_select

    torch.masked_select(input, mask, out=None) → Tensor根据掩码张量mask中的二元值,取输入张量中的指定项( mask为一个 ByteTensor),将取值返回到一个新的 torch.masked_select(x,mask)?注意: 返回的正是一维张量

    84910编辑于 2022-09-02
  • 来自专栏DeepHub IMBA

    论文导读:Masked Autoencoders Are Scalable Vision Learners

    Facebook 人工智能研究 (FAIR) 团队发表的论文 Masked Autoencoders Are Scalable Vision Learners 已成为计算机视觉社区的热门话题。 FAIR 论文解决了这个问题,并证明了 Masked Autoencoders (MAE) 可以是用于计算机视觉的可扩展自监督学习器。

    91511发布于 2021-11-23
  • 来自专栏我的充电站

    文献阅读:Should You Mask 15% in Masked Language Modeling?

    文献阅读:Should You Mask 15% in Masked Language Modeling? 1. 内容简介 2.

    59510编辑于 2022-04-13
  • 来自专栏日常学python

    Python NumPy掩码数组masked array应用

    自动屏蔽指定值 NumPy 提供了 masked_equal、masked_greater 等便捷方法,可以自动屏蔽符合条件的值: # 自动屏蔽特定值 masked_arr = ma.masked_equal 1, 50]) masked_arr = ma.masked_array(arr, mask=arr < 0) print("从现有数组创建的掩码数组:\n", masked_arr) 输出: 从现有数组创建的掩码数组 示例: print("原始数据:", masked_arr.data) print("掩码:", masked_arr.mask) print("用0填充屏蔽值:", masked_arr.filled [0] = True print("屏蔽第一个元素后的数组:\n", masked_arr) # 取消屏蔽 masked_arr.mask[0] = False print("取消屏蔽后的数组:\n" , masked_arr) 对屏蔽值的计算 掩码数组会自动忽略屏蔽值,仅对未屏蔽的元素进行计算: # 计算平均值(忽略屏蔽值) mean_value = masked_arr.mean() print

    98910编辑于 2024-12-19
  • 来自专栏AI绘画

    复旦&腾讯 AI图像Masked Diffusion Transformer V2

    什么是Masked Diffusion Transformer V2? Masked Diffusion Transformer V2(MaskDiT V2)是一种先进的深度学习模型,它结合了扩散模型(Diffusion Models)和变换器(Transformers)的架构

    46920编辑于 2024-08-15
  • 来自专栏AI机器学习与深度学习算法

    PyTorch入门笔记-masked_select选择函数

    masked_select torch.masked_select(input,mask,out=None) 函数返回一个根据布尔掩码 (boolean mask) 索引输入张量的 1D 张量,其中布尔掩码和输入张量就是 torch.masked_select(input, mask, out = None) 函数的两个关键参数,函数的参数有: input(Tensor) - 需要进行索引操作的输入张量; mask(BoolTensor 比如执行 torch.zeros([2, 2], out = tensor_a),相当于执行 tensor_a = torch.zeros([2, 2]); 「masked_select 函数最关键的参数就是布尔掩码 (x, mask3)) Traceback (most recent call last): File "/home/chenkc/code/masked_select.py", line 100 the size of tensor b (4) at non-singleton dimension 1 masked_select 函数虽然简单,但是有几点需要注意: 使用 masked_select

    4.8K20发布于 2020-12-02
  • 来自专栏机器学习、深度学习

    遮挡人脸检测--Detecting Masked Faces in the Wild with LLE-CNNs

    Detecting Masked Faces in the Wild with LLE-CNNs CVPR2017 本文针对遮挡人脸检测问题,首先建立了一个新的数据库:MAFA, with 30,811 Internet images and 35,806 masked faces,其次提出了一个 CNN 网络 LLE-CNNs 来用于遮挡人脸检测。 首先来看看新建的数据库 3 MAFA: A Dataset of Masked Faces 3.1. 4 LLE-CNNs for Masked Face Detection 遮挡人脸检测存在两个大的挑战:incomplete facial cues and inaccurate features

    2.9K90发布于 2018-01-03
  • 来自专栏朴素人工智能

    Soft-Masked BERT:文本纠错与BERT的最新结合

    文本纠错最优模型:Soft-Masked BERT(2020-ACL) 5. 四、文本纠错最优模型:Soft-Masked BERT 为了弥补baseline方法的不足,最大限度发挥BERT功效,复旦大学的研究人员在2020 ACL上发表了最新论文:Spelling Error Correction with Soft-Masked BERT ? (2)以检测网络的输出作为权重,将 masking-embedding以“soft方式”添加到各个字符特征上,即“Soft-Masked”。 Soft-Masked BERT 在两份数据集上几乎都取得了最好结果。同时我们发现,Finetune对于原始BERT的表现具有巨大的促进作用。

    2.6K50发布于 2020-06-05
  • 来自专栏机器学习AI算法工程

    文本纠错与BERT的最新结合,Soft-Masked BERT

    四、文本纠错最优模型:Soft-Masked BERT 为了弥补baseline方法的不足,最大限度发挥BERT功效,复旦大学的研究人员在2020 ACL上发表了最新论文——“Spelling Error Correction with Soft-Masked BERT”。 (2)以检测网络的输出作为权重,将 masking 特征添加到各个输入字符,即“Soft-Masked”。 Soft-Masked BERT 在两份数据集上几乎都取得了最好结果。同时我们发现,Finetune对于原始BERT的表现具有巨大的促进作用。

    2K31发布于 2020-07-14
  • 来自专栏CSDN搜“看,未来”

    问题解决:Failed to start etcd.service: Unit is masked.

    百度一下全是这三步走,但是这个没有办法解决我的问题(难道我自己把服务关掉我会不知道???要这样给我报错???)

    96410编辑于 2022-06-08
  • 来自专栏深度学习和计算机视觉

    Masked Mamba: 基于Mamba的病理图像分类的自监督框架

    论文信息 题目:Masked Mamba: An Efficient Self-Supervised Framework for Pathological Image Classification Masked 因此,作者提出了一种名为Masked Mamba的新架构,它在低成本推理和鲁棒分类性能方面具有显著优势。它基于两个核心设计。 3 方法 3.1 Masked Mamba 3.1.1 预训练流程 Masked Mamba预训练的详细程序在图1中描绘。 Masked Mamba预训练的实现是直接的,可以抽象地由以下方程表示: 3.1.2 Masked Mamba编码器 其中Linear表示线性变换层,SSD指的是选择性扫描操作,代表激活函数,Sep-Conv1D 3.2 Masked Mamba迁移 4 实验结果

    71810编辑于 2024-11-29
  • 来自专栏云上修行

    【玩转 GPU】Stable-Diffusion Inpaint小知识:Masked content的作用

    绘制蒙版内容、inpaint not masked绘制非蒙版内容,选择第一个就是只在蒙版区域重绘,另一种则相反(可以理解为将蒙版图中的0与1,黑与白互换),默认值是inpaint masked绘制蒙版内容 Inpaint area:重绘区域,包括 whole picture全图、only masked仅蒙版。 padding, pixels:当选择Only masked 仅重绘蒙版区域 模式时,我们可以通过此参数来调整放大区域的边界来控制重绘的精度。 边界越大,运行Only masked模式时放大的倍数就越小,但是周围能参考的区域也就越多,这样绘制出来的效果相对更加平滑,不容易出现瑕疵。 Masked content Masked content有四种选项: fill 填充 original 原图 latent noise 潜在噪声 latent nothing 无潜在空间 这是一种预处理的步骤

    6.9K84编辑于 2023-06-09
  • 来自专栏Sentieon:文献解读

    文献解读-Chromosome-Scale Genome of Masked Palm Civet (Paguma larvata) Shows Genomic

    关键词:果子狸;基因组特征;变异检测; 文献介绍 标题(英文):Chromosome-Scale Genome of Masked Palm Civet (Paguma larvata) Shows Genomic

    29510编辑于 2025-03-04
  • 来自专栏媒矿工厂

    ICCV2023 | Masked Diffusion Transformer: 增强扩散模型对上下文关系的理解

    作者:Shanghua Gao 等 论文题目:Masked Diffusion Transformer is a Strong Image Synthesizer 来源:ICCV2023 论文链接:https 为了解决这个问题,我们提出了一种掩码扩散Transformer(Masked Diffusion Transformer,MDT),明确增强了DPMs在图像中物体语义部分之间上下文关系学习的能力。 为了解决这个问题,提出了一种有效的掩码扩散变换器(Masked Diffusion Transformer,MDT),以提高DPMs的训练效率。

    3.4K40编辑于 2023-11-03
  • 来自专栏AI SPPECH

    114_预训练:Masked LM优化与动态掩码效率深度解析

    Masked Language Modeling(MLM)作为BERT等模型采用的核心预训练任务,通过随机掩盖文本中的部分token并让模型预测这些被掩盖的token,有效地训练了模型的双向表示能力。 Masked Language Modeling基础 2.1 MLM任务定义与目标 Masked Language Modeling(MLM)是一种自监督预训练任务,其核心思想是: 任务定义:随机掩盖输入序列中的部分 = input_ids.clone() masked_input[mask_80] = mask_token_id # 生成随机token替换 random_tokens masked_input = input_ids.clone() masked_input[mask_80] = mask_token_id # 并行生成随机token return masked_input, labels 7.

    34510编辑于 2025-11-16
  • 来自专栏秋枫学习笔记

    SIGIR22「腾讯」GMT:邻域感知的Masked Transformer进行点击率预测

    关注我们,一起学习~ title:Masked Transformer for Neighhourhood-aware Click-Through Rate Prediction link:https

    59730编辑于 2022-09-19
  • 来自专栏DeepHub IMBA

    论文推荐:谷歌Masked Generative Transformers 以更高的效率实现文本到图像的 SOTA

    在23年1月新发布的论文 Muse中:Masked Generative Transformers 生成文本到图像利用掩码图像建模方法来达到了最先进的性能,零样本 COCO 评估的 FID 分数为 7.88

    88530编辑于 2023-02-01
  • 来自专栏机器之心

    SIGIR 2022|邻域建模Graph-Masked Transformer提高微信视频点击率预测

    论文题目为《Neighbour Interaction based Click-Through Rate Prediction via Graph-masked Transformer》,论文已被 SIGIR2022 基于邻域信息的 Graph-Masked Transformer 模型。 以下对各个模块分别进行介绍。 对于异构的交互图集合的建模:Graph-Masked Transformer 在局部交互图的构建之后, 一个用户 - 视频样本对可以被表示为如下: 为了从节点特征和异构的交互结构中学习到用户 - 视频的样本对的表示 具体的,给定输入序列 ,和的交互图邻接矩阵 M,我们定义了 Masked Attention: 其中 为掩码函数: 通过这种简单而有效的方式,我们使得 Graph-Masked Transformer 为了更好地建模子图中存在的显式和隐式关系,我们探索了多种邻域节点的交互表示,并且设计了一种简洁的 Masked-Graph Transformer 结构来加入对多种交互表示的先验信息的建模。

    54120编辑于 2022-07-26
  • 来自专栏数据派THU

    SIGIR 2022|邻域建模Graph-Masked Transformer提高微信视频点击率预测

    论文题目为《Neighbour Interaction based Click-Through Rate Prediction via Graph-masked Transformer》,论文已被 SIGIR2022 基于邻域信息的 Graph-Masked Transformer 模型。 以下对各个模块分别进行介绍。 对于异构的交互图集合的建模:Graph-Masked Transformer 在局部交互图的构建之后, 一个用户 - 视频样本对可以被表示为如下: 为了从节点特征和异构的交互结构中学习到用户 - 视频的样本对的表示 具体的,给定输入序列 ,和的交互图邻接矩阵 M,我们定义了 Masked Attention: 其中 为掩码函数: 通过这种简单而有效的方式,我们使得 Graph-Masked Transformer 为了更好地建模子图中存在的显式和隐式关系,我们探索了多种邻域节点的交互表示,并且设计了一种简洁的 Masked-Graph Transformer 结构来加入对多种交互表示的先验信息的建模。

    29220编辑于 2022-08-29
  • 来自专栏DeepHub IMBA

    Multi-modal Multi-task Masked Autoencoder:一种简单、灵活且有效的 ViT 预训练策略

    在新论文 MultiMAE: Multi-modal Multi-task Masked Autoencoders 中,来自瑞士洛桑联邦理工学院 (EPFL) 的团队提出了 Multi-modal Multi-task Masked Autoencoders (MultiMAE),也是一种预训练策略,可以对掩码进行自动编码处理并执行多模态和多任务的训练。 MultiMAE 的设计基于传统的 Masked Autoencoding,但在两个关键方面有所不同: 1、除了 RGB 图像,它还可以选择接受输入中的附加模态信息(因此是“多模态”) 2、其训练目标相应地包括 论文 MultiMAE: Multi-modal Multi-task Masked Autoencoders 公开资料汇总地址如下:https://multimae.epfl.ch/ 作者:Hecate

    44820编辑于 2022-04-14
领券