首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习AI算法工程

    华为2023年多元时间序列预测模型(MTS-Mixers

    结论 本文提出了MTS Mixers,这是一个多变量时间序列预测的通用框架。我们进行了一项广泛的研究,以调查注意力机制对时间序列预测性能的真正贡献和不足。

    1.7K31编辑于 2023-10-28
  • 来自专栏集智书童

    Transformer | 详细解读Transformer怎样从零训练并超越ResNet?

    3.3 ViTs和MLP-Mixers的可训练性较差 此外,作者还发现ViTs和MLP-Mixers的可训练性较差,可训练性定义为通过梯度下降优化的网络的有效性。 4.2 SAM优化器实质上改进了ViTs和MLP-Mixers 作者在没有大规模的预训练或强大的数据增强的情况下训练了vit和MLP-Mixers。 MLP-Mixers从平滑的loss geometry中获得最多。 SAM还显著改善了MLP-Mixers的结果。 结论3:MLP-Mixers中较稀疏的active neurons 根据递归公式(3)到(4),作者确定了另一个影响Hessian的MLP-Mixers的内在度量:激活神经元的数量。

    1.9K21发布于 2021-07-07
  • 来自专栏QAPM-腾讯客户端性能分析

    Google Monarch,下一代内存时序数据库

    query 部分 Mixers: 查询引擎 root mixers: 部署在 GLOBAL 区域,负责跨 Zone 的查询 zone mixers: 部署在 Zone 区域,负责 Zone 内的查询 如果查询仅在 Zone 内便可以执行完成,便会下沉到 zone mixers 执行以减轻 root mixers 负载 Index servers: 索引服务,作为优化查询计划用 Evaluators: Monarch 允许用户定义 standing queries, 类似与 SQL 中的 View 视图,并定期执行后写回 Monarch,Evaluators 便是负责提交 standing queries 到 Mixers Monarch 将负责查询的服务命名为 Mixers。 并且,为了实现多租户的特性,势必要对各个查询进行一定程度的隔离,我们将在后文 Query (查询) 详述。

    1.5K81发布于 2021-02-16
  • 来自专栏机器学习AI算法工程

    15种时间序列预测方法总结(包含多种方法代码实现)

    MTS-Mixers MTS-Mixers(Multi-Time-Series Mixers)是一种基于深度学习的多元时间序列预测方法。 MTS-Mixers是在Transformer的基础上进行了改进和扩展,以应对多变量时间序列数据的特殊要求。 MTS-Mixers模型将多个时间序列数据混合在一起,并结合Transformer的编码器和解码器进行建模和预测。它利用交叉注意力机制来学习序列之间的相关性,并根据这些相关性进行联合预测。 MTS-Mixers模型还考虑了不同时间尺度(比如小时、天、周等)之间的关系,并通过适当的时间间隔对输入序列进行采样和处理。 时间序列预测的应用领域 时间序列预测在很多领域都具有广泛的应用。

    14.3K34编辑于 2024-04-30
  • 来自专栏DeepHub IMBA

    Vision Transformer和MLP-Mixer联系和对比

    视觉Vision Transformer的性能略好于MLP-Mixers,但更复杂。但是这两个模型非常相似,只有微小的区别。 例如很长一段时间以来,我们认为卷积和池化可能是最终视觉系统的基本构建模块,但VIT和MLP-Mixers挑战了这种信念。 引用 [1] Vaswani, Ashish, et al.

    78110编辑于 2022-11-11
  • 来自专栏DeepHub IMBA

    Tiny Time Mixers (TTM)轻量级时间序列基础模型:无需注意力机制,并且在零样本预测方面表现出色

    所以IBM的研究人员就推出了一个轻量级模型Tiny Time Mixers[1],并且在M4数据集上优于大型SOTA模型(包括MOIRAI),并且它还是开源的! tinytimemixer/ttm_m4_hourly.ipynb 如果我没记错的话 M4的Top都是用的xgboost,所以大家也可以自行对比 引用 [1] Ekambaram et al., Tiny Time Mixers

    1.2K11编辑于 2024-06-17
  • 来自专栏机器之心

    ICCV 2023 | 傅里叶算子高效Token Mixer:轻量级视觉网络新主干

    论文《Adaptive Frequency Filters As Efficient Global Token Mixers》: 链接:https://arxiv.org/abs/2307.14008

    47310编辑于 2023-09-08
  • 来自专栏YOLO大作战

    Yolov8改进:用于微小目标检测的上下文增强和特征细化网络ContextAggregation,助力小目标检测

    虽然CNN、Transformer和MLP-Mixers可以被视为完全不同的架构,但我们提供了一个统一的视图,表明它们实际上是在神经网络堆栈中聚合空间上下文的更通用方法的特殊情况。

    1.5K30编辑于 2023-10-23
  • 来自专栏韩东吉的Unity杂货铺

    零基础入门 4: 窗口介绍(完)

    然后在音效混合器窗口内创建我们的第一个Mixers。 实际操作如下图。创建第一个且命名为FirstMixers,此时我们可以看下Project窗口里就已经出现了我们新创建的Mixers。 ? ? 所以我在这里贴上UnityChina官方论坛里的技术贴,专门介绍Audio Mixers相关技术应用。

    2K20发布于 2018-10-19
  • 来自专栏媒矿工厂

    高帧率视频标准与规范简介

    总结 随着HFR的标准制定完成,设备制造商应该开始考虑在产品(摄像机,混音器mixers,消费级显示器等)中构建HFR支持,而广播公司则该思考如何应用HFR技术到蓝图中了。

    2.1K00发布于 2018-08-08
  • 来自专栏计算机视觉理论及其实现

    计算机视觉最新进展概览(2021年5月30日到2021年6月5日)

    虽然CNN、Transformer和MLP-Mixers可以被视为完全不同的架构,但我们提供了一个统一的视图,表明它们实际上是在神经网络堆栈中聚合空间上下文的更通用方法的特殊情况。

    94630编辑于 2022-09-02
  • 来自专栏计算机视觉理论及其实现

    Container: Context Aggregation Network

    虽然CNN、Transformer和MLP-Mixers可以被视为完全不同的架构,但我们提供了一个统一的视图,表明它们实际上是在神经网络堆栈中聚合空间上下文的更通用方法的特殊情况。 在表面上,CNNs[34, 8, 61, 23],Vision Transformers(Vision Transformers, ViTs)[14, 52]和MLP-mixers[50]通常被认为是不同的架构

    1.6K40编辑于 2022-09-02
  • 来自专栏机器之心

    CV之后,纯MLP架构又来搞NLP了,性能媲美预训练大模型

    事实上,BASE 模型在 pNLP-Mixers 中达到最高分,达到 92.1%,仅比只有 1.2M 参数的 mBERT 低 0.5%,但参数只有 pQRNN 参数的 60%。 然而,在 Hyperpartisan 任务中,Longformer 仍然是最好的模型,而 pNLP-Mixers 的表现优于 RoBERTa, BASE 模型达到 90.6 F1,即高出 3.2 分。

    1K20编辑于 2022-02-24
  • 来自专栏机器学习与推荐算法

    ICLR2024推荐系统投稿论文一览

    ConvFormer: Revisiting Token-mixers for Sequential User Modeling 25. ConvFormer: Revisiting Token-mixers for Sequential User Modeling Ratings: 1, 6, 5 https://openreview.net This observation motivates our study, which aims to revisit and optimize the design of token mixers for token mixer, identifying three empirically-validated criteria essential for designing effective token mixers

    1.7K11编辑于 2023-11-30
  • 来自专栏区块链大本营

    随着黑客变得越来越精明,2019年发生了有史以来最多的交易所攻击事件

    具体来说,他们会使用CoinJoin和混合器(mixers)(实际上在2019年之前从未使用过,部分原因是可靠的加盟市场joining markets直到2018年底才出现)来混淆线索,但收效甚微,因为

    60720发布于 2020-02-21
  • 来自专栏AiCharm

    ICCV 2023 | 傅里叶算子高效Token Mixer:轻量级视觉网络新主干

    论文《Adaptive Frequency Filters As Efficient Global Token Mixers》: 链接:https://arxiv.org/abs/2307.14008

    52930编辑于 2023-09-06
  • 来自专栏区块链大本营

    两年洗钱80亿,交易所是黑客洗钱幕后推手还是受害者?

    在虚拟世界里,这一过程涉及了将虚拟货币转移到加密货币系统中,通过使用搅拌器(mixers)、滚筒(tumblers)(注:Mixers和tumblers是指用不同的地址和交易记录取出一组比特币然后返还另一组同等价值的比特币

    75820发布于 2018-08-03
  • 来自专栏绿盟科技研究通讯

    Istio系列三:Mixer、Pilot组件分析实践

    二、Mixers组件分析 在传统的软件架构中应用代码与后端基础设施(例如访问控制系统,日志系统,监控系统,ACL检查,配额执行系统等)间的耦合度较高,这样无疑给业务维护带来了复杂性。 Envoy进行代理转发后再根据check rpc返回的[lw1] [PM2] [lw3] 引用属性向Mixers的report rpc发起调用。

    2.7K40发布于 2019-12-11
  • 来自专栏架构之美

    一盏茶的时间初探网格服务架构Istio

    控制平面:主要包括了Pilot、Mixer、Citadel和Galley共4个组件,主要功能是通过管理和配置 Envoy 来管理流量,此外,控制平面配置 Mixers来实施路由策略并收集检测到的监控数据

    81320发布于 2020-04-22
  • 来自专栏科学最Top

    2024年NIPS中6篇时序大模型研究汇总

    6、论文标题:Tiny Time Mixers (TTMs): Fast Pre-trained Models for Enhanced Zero/Few-Shot Forecasting of Multivariate

    1.2K10编辑于 2024-10-31
领券