首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CreateAMind

    上下文多任务表示学习

    在这里,我们首先证明细树突分支非常适合实现前馈处理的上下文调制。这种特定于神经元的调制利用以稳定的前馈权重编码的先验知识来实现跨上下文的迁移学习。 在具有独立于上下文的前馈权重的生物物理学现实神经元模型网络中,我们证明了对细树突的调制输入可以使用 Hebb 误差调制学习规则解决线性不可分学习问题。 最后,我们证明了对表示是源自不同输入还是源自同一输入的不同上下文调制的局部预测会导致跨处理层的分层前馈权重的表示学习,以适应多种上下文。 虽然抽象模型中的上下文调制是通过 通过对分类损失的梯度下降,我们表明我们的方法可以转化为生物学上真实的尖峰模型,该模型配备了用于上下文突触的 Hebb 误差调制学习规则。 最后,我们展示了上下文调制表示通过为对比学习提供一种数据增强形式来促进跨处理层层次结构的自我监督学习,这种形式允许更深的处理层提取一般的高级特征,而无需错误 跨层反向传播。

    27010编辑于 2023-09-13
  • 来自专栏前端进阶之路

    JS学习系列 05 - 执行上下文

    根据顺序我们也可以看出来,想要理解作用域链,执行上下文是我们碰到的第一个坎。 这一章我们就来讨论一下到底什么是执行上下文。 1. 但是在逻辑上,我们可以将活动的执行上下文看成一个栈结构。栈底部永远是全局上下文(global context),而顶部就是当前活动的执行上下文。执行到当前代码时,上下文入栈,执行完毕后,上下文出栈。 可执行代码有几种 前面说到当引擎执行到可执行代码的时候,就会将当前上下文压入上下文栈中。那么可执行的代码又分为几种? ,但是却不会退出 只有每次 return 的时候,才会退出当前执行上下文,相应上下文会从栈中弹出,栈指针会自动移动位置。 如果有抛出的异常没有被截获的话,也有可能从一个或多个执行上下文中退出。当所有代码执行完以后,EC 中只会包含全局上下文(global context),当程序退出以后,全局上下文也会退出。

    47810编辑于 2024-02-01
  • 来自专栏前端进阶之路

    JS学习系列 05 - 执行上下文

    根据顺序我们也可以看出来,想要理解作用域链,执行上下文是我们碰到的第一个坎。 这一章我们就来讨论一下到底什么是执行上下文。 1. 但是在逻辑上,我们可以将活动的执行上下文看成一个栈结构。栈底部永远是全局上下文(global context),而顶部就是当前活动的执行上下文。执行到当前代码时,上下文入栈,执行完毕后,上下文出栈。 可执行代码有几种 前面说到当引擎执行到可执行代码的时候,就会将当前上下文压入上下文栈中。那么可执行的代码又分为几种? ,但是却不会退出 复制代码 只有每次 return 的时候,才会退出当前执行上下文,相应上下文会从栈中弹出,栈指针会自动移动位置。 如果有抛出的异常没有被截获的话,也有可能从一个或多个执行上下文中退出。当所有代码执行完以后,EC 中只会包含全局上下文(global context),当程序退出以后,全局上下文也会退出。

    1.3K30发布于 2018-10-31
  • 来自专栏相约机器人

    插图PIRL:不变上下文表示学习

    2019年底,使用对比学习的自我监督学习研究论文数量激增。在2019年12月,Misra等人。来自Facebook AI Research的研究人员提出了一种新的方法PIRL来学习图像表示。 动机 最近提出了许多有趣的自我监督学习方法来学习图像表示。其中许多使用这样的想法,即利用某种几何变换来建立前置任务以获取标签。 这包括几何旋转预测,上下文预测,拼图游戏,帧顺序识别,自动编码转换(AET)等。 ? 设置前置任务,以便学习变换图像的表示形式,以预测变换的某些属性。 迁移学习 训练模型后,然后投影头 F(。)f (。) 和G(。) 删除 g (。),并将ResNet-50编码器用于下游任务。 Chaudhary}, year = 2020, note = {\url{https://amitness.com/2020/03/illustrated-pirl}} } 参考文献 自主学习的不变表示形式学习

    94920发布于 2020-03-20
  • 来自专栏公众号PowerBI大师

    PowerPivot筛选上下文学习测试

    测试问题:我们利用本章节搭建好的数据模型制作数据表,请回答下面图表中9个所标出的数据值的筛选上下文是什么?

    55310发布于 2019-08-06
  • 来自专栏python成长之路

    (搬运以学习)flask 上下文的实现

    Request对象 flask通过_RequestContext将app与Request关联起来 总结 app = Flask(__name__)创建了application, 这个application对应的上下文 ,就是application context Flask每响应一个http请求,就会创建一个Request对象,这个request对象对应的上下文,就是request context

    48210发布于 2019-03-01
  • 来自专栏DeepHub IMBA

    预训练、微调和上下文学习

    这些模型通过预训练、微调和上下文学习的组合来学习。在本文中将深入研究这三种主要方法,了解它们之间的差异,并探讨它们如何有助于语言模型的学习过程。 上下文学习 上下文学习(In-Context Learning)也可以翻译成情境学习:是一种新兴的方法,它结合了预训练和微调,同时在训练过程中结合特定任务的指令或提示。 上下文提示:上下文学习包括提供明确的指令或提示,以指导模型在生成响应或输出时的行为。 强化学习或结构化反馈:上下文学习可以结合强化学习技术或结构化反馈来指导模型的响应。 上下文学习在训练过程中包含特定于任务的指令或提示,指导模型的行为并提高任务性能。 上下文学习包括训练语言模型,以根据特定的指令或提示生成与上下文相关的响应。 总结 语言模型通过预训练、微调和上下文学习的结合来学习。预训练捕获一般的语言理解,微调专门针对特定任务的模型,而上下文学习包含特定任务的指令以提高性能。

    86031编辑于 2023-08-30
  • 来自专栏数据云团

    Django源码学习-12-ContextMixin 上下文

    Django源码学习-11-base.py ? django.views.generic.base.ContextMixin 属性 extra_context 指定一些简单上下文的便捷方式 as_view()。 TemplateView.as_view(extra_context={'title': 'Article Title'}) 方法 get_context_data(** kwargs) 返回表示模板上下文的字典 提供的关键字参数将构成返回的上下文。 Django中Mixin和View把原来的视图函数中的三个东西分开了,模板(TemplateResponseMixin),上下文数据(ContextMixin),负责将这些联系起来的(View)。

    71620发布于 2019-08-09
  • 来自专栏技术墨客

    React学习(10)—— 高阶应用:上下文(Context)

    任意组件更新Context 某些时候需要在内部组件需要去更新Context的数据,其实我们仅仅需要向上下文增加一个回调即可,看下面的例子: //创建Context组件 const ThemeContext = React.createContext({ theme: 'dark', toggle: () => {}, //向上下文设定一个回调方法 }); function Button() { 16.x之后的Context使用起来比旧版本的简单明了太多,实现思路上还是学习了Redux等将状态抽取出来统一管理并触发更新的方式来实现,在使用时选择一种方式来实现就行。

    1.4K30发布于 2018-08-15
  • 来自专栏CreateAMind

    Atlas: 在测试时学习最优记忆上下文

    /pdf/2505.23735v1 摘要 Transformer 已成为序列建模中最流行的骨干网络,这主要得益于其在上下文检索任务中的有效性以及大规模学习的能力。 然而,这种设计可能因为记忆单个令牌而错过上下文。为此,在这项工作中,我们提出一个长期神经记忆模块,它度量局部(或全局)上下文窗口的惊奇度,这意味着它在测试时学习如何记忆(令牌)上下文。 通常,一旦记忆被清除,不会将持久学习或技能获取延续到新的、独立的全局上下文中。因此,我们更倾向于使用“测试时记忆”而非“测试时训练”。 因此,该序列模型是一个具有两个优化层级的元上下文学习者: 我们的术语体系建立在此框架之上。 3 在测试时学习记忆上下文 长期联想记忆对人类学习至关重要(Terry 2017),它启发了许多人工神经架构(Behrouz, Razaviyayn 等人,2025;Behrouz, Zhong 等人,

    12610编辑于 2026-03-11
  • 来自专栏圣杰的专栏

    DDD理论学习系列(3)-- 限界上下文

    引言 限界上下文可以拆分为两个词,限界和上下文。 限界:是指一个界限,具体的某一个范围。 上下文:个人理解就是语境。 比如我们常说的段子: “我想静静。” 可见上下文语境很重要。 这个例子只是个开胃菜,我们接着往下看。 2. 案例分析 整个应用程序之内的一个概念性边界。 边界之内的每种领域术语、词组或句子--也即通用语言,都有确定的上下文含义。 在DDD的思想下,当划分子域之后,每个子域都对应有各自的上下文。在销售子域和商品子域所在的上下文语境中,商品就是商品,无二义性。 限界上下文的命名 限界上下文只是一个统一的命名,在我们划分子域后,每个子域一般对应一个上下文,也可以对应多个上下文。但如果子域对应多个上下文的时候,就要考虑一下是不是子域能否继续划分。 命名方式很简单,领域名+上下文。 比如我们的销售子域对应销售上下文,物流子域对应物流上下文。 4. 总结 通过我们上面的举例分析,限界上下文也并不是一个高深的概念。

    1.3K100发布于 2018-01-11
  • 来自专栏架构进阶之路

    并发多线程学习(二)上下文切换

    上下文切换(有时也称做进程切换或任务切换)是指 CPU 从一个进程(或线程)切换到另一个进程(或线程)。上下文是指某一时间点 CPU 寄存器和程序计数器的内容。 2.在内存中检索下一个线程B的上下文并将其在 CPU 的寄存器中恢复,执行B线程。 3.当B执行完,根据程序计数器中指向的位置恢复线程A。 CPU通过为每个线程分配CPU时间片来实现多线程机制。 所以任务从保存到再加载的过程就是一次上下文切换。 上下文切换通常是计算密集型的,意味着此操作会消耗大量的 CPU 时间,故线程也不是越多越好。 如何减少系统中上下文切换次数,是提升多线程性能的一个重点课题。

    48530编辑于 2023-02-28
  • 来自专栏自然语言处理(NLP)论文速递

    【华盛顿大学&&Facebook&&含源码】上下文学习(Meta Learning)--学习如何学习

    正文开始 1 文章背景 Brown 等人证明了大型语言模型 (LM) 能够进行上下文学习,它们学习新任务仅仅是通过几个训练例子和预测哪个标记最适合完成测试输入。 在该文章中,作者通过引入 MetaICL:上下文学习的元训练来解决上面遇到的问题。MetaICL在大量任务上调整预先训练的语言模型,以学习如何在上下文学习,并在严格新的未知任务上进行评估。 在这个数据设置中简单地微调模型直接导致更好的上下文学习——模型学会从给定的示例中恢复任务的语义,就像在测试时对新任务的上下文学习必须做的那样。 这模拟了推理时的上下文学习,其中前k个例子作为训练例子,最后(k + 1)个例子作为测试例子。 推论时,模型计算: 3 实验结果 1、实验结果表明,MetaICL 始终优于基线,其中包括:(1) 各种没有元训练的 LM 上下文学习基线;(2) 多任务学习以及零样本转移。

    85720发布于 2021-11-26
  • 来自专栏深度学习自然语言处理

    陈丹琦团队最新力作:上下文学习上下文“学到”了什么?

    arxiv.org/abs/2305.09731 代码:https://github.com/ princeton-nlp/WhatICLLearns 录取:Findings of ACL 2023 众所周知,上下文学习第一次在 GPT-3的论文Language Models are Few-Shot Learners中提出,这种超能力意味着大模型能够仅从上下文中的例子“学习”执行任务而不进行任何参数更新。 那么,上下文学习究竟在上下文“学到”了什么? 这个问题尚无定论,一派研究假设预训练期间LLMs就已经隐含地学习了下游应用所需的任务,而上下文演示只是提供信息、使模型识别所需任务而已。 另一派则表示,Transformer-based模型可以执行隐式梯度下降以更新“内部模型”,并且上下文学习与显式微调之间具有相似性!这个脑洞有点神奇了! 也就是说,从上下文示例中识别任务(TR)并不会随着模型大小或示例数量的增加而急剧扩展。 相比之下,任务学习(TL)受规模的影响,并且随着更多演示而进一步改善。

    92920编辑于 2023-08-22
  • 来自专栏又见苍岚

    上下文

    所以业务上下文变更需要慎之又慎。 运行程序上下文 大家应该对一句话有印象:(进程/线程)上下文切换开销很大。这里的上下文一般指的就是运行程序的上下文。 这里的通信问题就是进程上下文切换开销大的缘故。 方法/类所在的上下文(作用域) 方法上下文可以理解为方法所在的作用域。类亦如此。 还有一些比较特殊的概念实际上也是和方法上下文相关。 比如worker语言特性中,需要监听message事件,这实质上,就是在当前上下文监听另一个上下文的状态。再比如回调函数。实际上是因为上下文变更后,对原有上下文访问的一种编程手段。 从这个角度看,闭包实质上也是对上下文的一种操作手段:返回一个函数,该函数在当前上下文可以操作闭包上的上下文。 执行上下文:当函数或方法被调用时,它会创建一个执行上下文,这个上下文包括了局部变量、参数、返回地址等信息。在JavaScript等语言中,执行上下文还包括this的值。

    69210编辑于 2024-07-31
  • 来自专栏Spring Cloud设计原理

    Dojo 学习笔记–dojo模块引用 和上下文绑定

    dojo.a.b 模块,只需要执行下面的语句: require("dojo.a.b"); // 实际上这个是相当于加载dojo/a/b.js 文件 2、dojo.hitch() 此方法为指定的函数绑定上下文 = { age:20 } var woman = { age:40 } dojo.hitch(girl,printAge); // 为printAge 绑定girl上下文 ,输出:20; dojo.hitch(woman,printAge); //为printAge 绑定woman 上下文 ,输出 40; //dojo.hitch 的实质: dojo.hitch

    64820发布于 2019-05-25
  • 来自专栏机器之心

    Transformer的上下文学习能力是哪来的?

    它给众多大语言模型带来的上下文学习 (In-Context Learning) 能力是从何而来? 此外,研究人员发现所得的 mesa 优化算法表现出上下文中的小样本学习能力,与模型规模无关。因此,新的结果对此前大语言模型中出现的小样本学习的原理进行了补充。 与 LLM 类似,实验表明简单的自回归训练模型也可以成为上下文学习者,而即时调整对于改善 LLM 的上下文学习至关重要,也可以提高特定环境中的表现。 那么,这些与上下文学习(in-context learning)有什么关系呢? 该研究假设 LLM 也存在 mesa 优化,从而提高了其上下文学习能力。有趣的是,该研究还观察到,为 LLM 有效调整 prompt 也可以带来上下文学习能力的实质性改进。

    54340编辑于 2023-09-19
  • 来自专栏ArrayZoneYour的专栏

    TensorFlow强化学习入门(1.5)——上下文赌博机

    在本文结束后,我们会建立一个完备的强化学习问题:问题中存在环境状态并且下一时刻的状态取决于上一步的行动,决策的收益也是延迟发放的。 从无状态的场景迁移到完备的强化学习需要解决很多问题,下面我将提供一个实例并展示如何解决它。希望新接触到强化学习的同学可以从这个过程中有所收获。 本文这种强化学习问题的简化版本又被称为上下文赌博机问题。 [上:多臂赌博机问题,收益只受行动的影响。中:上下文赌博机问题,行动和状态共同决定收益。 下:完备的强化学习问题,行为影响状态,收益延迟发放] 上下文赌博机 在上文讨论的多臂赌博机问题中,我们只有一个赌博机,可以理解为一台老虎机。 上下文赌博机引入了 状态 的概念。agent可以利用状态中对环境的表述作出更加明智的决策。在引入这个概念之后,我们把之前的单个赌博机扩展为多个赌博机。

    2K100发布于 2018-02-24
  • 来自专栏Nicky's blog

    并发编程系列之上下文切换学习笔记

    介绍上下文切换之前先介绍一下进程、线程的相关概念,以便于更好地理解上下文切换 进程:在操作系统中的定义是计算机中的程序关于某数据集合上的一次运行活动,是系统进行资源分配和调度的基本单位。 ,不仅在线程间可以上下文切换,进程也同样可以 上下文切换测试: Lmbench3 [1] 可 以 测 量 上 下 文 切 换 的 时 长。 避免上下文切换方法: 多线程的锁竞争会导致上下文切换频繁,所以就可以从这两方面下手,一个方面是锁,就是尽量不用锁;一个方面是线程,不用线程,用其它方法替换 取模分段,将id按照hash算法取模分段,不同线程处理不同端的数据 CAS算法,java中的Atomic就是使用CAS算法来更新数据,并没有使用锁 使用协程的方法,在不必要的地方就不调用,避免上下文切换 volatitle的应用,volatile关键字可以说是轻量级的锁 ,volatile关键字是实现线程操作可见性的,可以用于避免上下文切换

    39420编辑于 2022-05-07
  • 来自专栏运维开发故事

    cpu上下文

    进程的上下文 用户级上下文: 正文、数据、用户堆栈以及共享存储区;寄存器上下文: 通用寄存器、程序寄存器(IP)、处理器状态寄存器(EFLAGS)、栈指针(ESP);系统级上下文: 进程控制块task_struct 它们都是 CPU 在运行任何任务前,必须的依赖环境,因此也被叫做 CPU 上下文。 进程上下文切换 ? 每当内核压入一个新的系统上下文层时,它就要保存一个进程的上下文。 特别是当系统收到一个中断,或一个进程执行系统调用,或当内核做上下文切换时,就要对进程的上下文进行保存。上下文切换情况: 一个进程结束,需要从队列中重新选择一个进程运行。 从逻辑上讲,新上下文层的核心栈不同于前一上下文层的核心栈。 这些指令恢复前一上下文层的寄存器上下文和核心栈,使它们和中断发生时的情况一样,并恢复该上下文层的运行。

    1.1K20发布于 2021-08-13
领券