首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏DrugOne

    大语言模型是语境中的分子学习

    最后,上下文分子微调借助于大语言模型的上下文学习能力,生成最终的分子/分子描述。 具体来说,N如果比精排结果n大很多,召回的质量就可能被影响,而n如果太小(接近于N),则可能会损害结果多样性,因此在本文中,考虑到上下文长度的限制,n是个不超过5的数字,而N被设置为10. 上下文分子微调 MolReGPT[1]已经表明,上下文学习对于提示大语言模型进行分子-描述翻译任务是有效的,但是为了达到这种效果,需要依赖于上下文学习和推理能力,而这种能力通常都对模型的参数量和性能有着极高的要求 因此,我们提出上下文分子微调,去训练大语言模型,使得他们具有从上下文中提取有用信息和学习分子片段和描述片段之间的对应的能力,不同于直接微调的损失函数: 上下文分子微调同时学习了上下文例子所给出的对应关系 ,提升了大语言模型在分子-描述翻译任务上的能力,也表明了大语言模型是天然的上下文分子学习者。

    33510编辑于 2024-06-04
  • 来自专栏FunTester

    Groovy语境下的Map

    使用Groovy就是为了简洁提效,不需要为了学习学习花式炫技的语法,一旦时过境迁,自己会对自己的代码感觉陌生。

    96610编辑于 2022-12-09
  • 来自专栏深度学习自然语言处理

    【ACL2020】基于语境的文本分类弱监督学习

    高成本的人工标签使得弱监督学习备受关注。seed-driven 是弱监督学习中的一种常见模型。 使用上面算法,我们就可以将原始语料库转变为基于语境下的语料库: ? 第三步:使用基于语境下的语料库进行文档分类 本篇论文使用Hierarchical Attention Networks (HAN) 进行文本分类。 ?

    1.1K20发布于 2021-01-14
  • 来自专栏机器学习之旅

    中文语境下的手机号识别

    只要需要进行一下正则就行了: text = '9*6箱车转让,连线路一起打包,带线路转让,固定货源联系13802131234,手机号,非诚勿扰2+1合同' mobilephone_pattern = "1\d{10

    1.2K30发布于 2019-05-14
  • 来自专栏AI智能体从入门到实践

    构建AI智能体:大模型三大适应技术详解:有监督微调、提示学习语境学习

    语境学习: 更强调即时适配、无需训练,它不需要提前准备标注数据或调整模型,只需在输入时给出少量示例或清晰的任务描述,模型就能在当前语境中快速理解任务逻辑,完成新需求。 多样本(10+个示例):准确率达到85%。示例越多,模型性能越好,但增长趋势会放缓。颜色从红色(零样本)逐渐变为蓝色(多样本),通常表示从低到高的性能。 示例:动态少样本学习通过Qwen1.5-1.8B-Chat模型演示了让AI模型通过示例学习新任务,通过情感分析判断文本情感倾向、实体识别提取人名、组织、地点以及文本分类划分文章类别,展示了大模型语境学习的实际应用 从“引导”到“改造”:介入深度的不同提示学习 & 语境学习(轻量级引导):如上图左侧所示,它们位于同一层级,都属于不更新模型权重的方法。 实际项目,循序渐进原型与验证阶段(提示/语境学习):当有一个新想法时,首先使用提示学习语境学习来快速验证想法的可行性。这就像做一个概念验证,几乎零成本。目的:快速回答“大模型能不能做这个任务?”

    35832编辑于 2026-01-19
  • 来自专栏【腾讯云开发者】

    React语境下前端DDD的长年探索经验

    因为对于业务而言,这一功能可能会在5年甚至10年后还要继续使用,而如果功能不够健壮,或者设计之初没有充分考虑业务发展后所需要的扩展能力,很有可能在之后的迭代中给自己挖下巨大的坑。 前端语境下DDD的价值主张 1)前端需要DDD吗? 这个问题可以细化为,前端需要与业务方领域专家进行沟通吗?在设计系统或功能时,需要基于沟通结构的领域模型展开完成模块的搭建吗?我们需要在前端建模吗? 前后端要解决的问题大不相同: 表2 前后端要解决的问题对比 这也就意味着,在前端语境下,我们关注的内容范畴比后端还要大。 图10 基于Mobx的简易模型 使用mobx提供的装饰器,我们以最少的改动增强模型。这一改动几乎不会对原始模型的原有阅读产生任何干扰,但却使得该模型是可被观察的。 在前端语境下,由于前端关注的内容的异质性,我们不可能直接照搬后端的DDD实践,不得不探索前端DDD的特殊途径。基于DDD的设计,我们的架构剖离出不同的分层,在领域层和控制层完完全全描述了业务需求。

    1K40编辑于 2023-01-18
  • 来自专栏机器之心

    观点 | 人工智能的三个阶段:我们正从统计学习走向语境顺应

    统计学习(Statistical Learning)阶段 3. 语境顺应(Contextual Adaptation)阶段 Launchbury 的观点对我帮助极大。 Launchbury 表明,到目前为止,我们已经拥有非常先进、细分和强大预测能力的系统,但是仍然还没有理解语境和最小推理能力。 第三阶段:语境顺应(contextual adaption) 接下来呢?Lauchbury 说,当前统计学习时代出现了两个问题,第三个阶段要解决两个问题。 生成模型:这些模型可以从潜在语境中进行学习,比如一个模型,掌握了每个字母的笔画,而不是基于大量糟糕的书写样本进行粗暴分类。我们今天使用的生成模型有望显著减少对训练数据的需求。 鉴于这些特点,处在这一阶段的人工智能系统就能使用语境模型(contextual models)进行感知、学习、推理以及抽象,将从一个系统中学习到的东西应用到一个完全不同的语境中。

    1.4K90发布于 2018-05-07
  • 来自专栏时空探索之旅

    CVPR 2026 | SounDiT: 地理语境声景到景观生成

    “地理语境声景到景观生成”(Geo-contextual Soundscape-to-Landscape, GeoS2L)问题 数据集构建 以往音频到图像研究多依赖通用音视数据集,主要用于声源定位与视听对应学习 为此,本文构建了两套面向 GeoS2L 的大规模多模态数据集:SoundingSVI(来自 Aporee 地理标注录音,匹配附近街景,切分 10 秒片段并过滤人声/对齐时间,用 VLM 生成场景提示;共 169,221 对,覆盖 90 国)与 SonicUrban(基于 YouTube 城市实景视频提取 10 秒音频与代表帧,过滤人声并生成场景提示;共 236,674 对,覆盖 131 城市、97 国 SoundingSVI与SonicUrban数据集覆盖范围 研究方法 GeoS2L(地理语境声景到景观生成)旨在从某地的环境声景生成与该地点语境一致的景观图像。 SounDiT图片生成结果与基线方法对比定量评估 讨论 研究结果显示,SounDiT 可将地理语境声景到景观生成同时做到可控与可解释,并将听觉线索与场所语境连接起来,支持下游分析与设计。

    13110编辑于 2026-04-02
  • 来自专栏BestSDK

    机器学习精华,1010

    更好的强化学习/深度学习和强化学习的整合;能够可靠地学习如何控制机器人的强化学习算法等。 更好的生成式模型;可以稳定地学习如何生成人类分不出真假的图像、语音、文字的算法。 学习如何学习的算法,以及普适深度学习算法(可以重新设计它们自己的架构,自行优化超参数的算法)。 在未来,哪个机器学习领域会取代深度学习? Ian Goodfellow:“深度学习”是一个非常广泛的概念,我不确定它是否可以被取代。深度学习只是意味着用更多的处理步骤来学习,而不是仅仅只有一步。 在2006-2011,“深度学习”很流行,但是这里的“深度学习”多是把许多无监督学习算法叠起来,从而为监督学习定义复杂的特征。 GAN类问题 10. 机器学习领域的新人应该了解对抗性机器学习的哪些内容? Alexey Kurakin:首先,你要对机器学习和深度学习有一定的了解,这样才能理解这个问题的背景。

    1K60发布于 2018-03-01
  • 来自专栏各类技术文章~

    Redis学习10)更正

    Redis的操作命令 1 基础命令 获得符合规则的键名称 keys 表达式(?,* ,[],\?)。 其中,?:匹配任意一个字符;*:匹配0个或者多个任意字符;[]:匹配括号间的任一字符;\?:匹配字

    20800发布于 2021-09-18
  • 来自专栏NowlNowl_AI

    机器学习10天:集成学习

    介绍 集成学习的思想是很直观的:多个人判断的结合往往比一个人的想法好 我们将在下面介绍几种常见的集成学习思想与方法 投票分类器 介绍 ​ 假如我们有一个分类任务,我们训练了多个模型:逻辑回归模型 model, accuracy_score(y_test, y_pred)) 运行结果 ​ 该示例代码可以看到各个模型在相同数据集上的性能测试,该示例的数据集较小,所以性能相差不大,当数据集增大时 ,集成学习的性能往往比单个模型更优 软投票与硬投票 当基本模型可以计算每个类的概率时,集成学习将概率进行平均计算得出结果,这种方法被称作软投票,当基本模型只能输出类别时,只能实行硬投票(以预测次数多的为最终结果) bagging与pasting =100, max_leaf_nodes=16, n_jobs=-1) model.fit(X_train, y_train) max_leaf_nodes限制了子分类器的最大叶子节点数量 结语 集成学习就是利用了一个很基本的思想

    31010编辑于 2024-01-18
  • 来自专栏Alter聊科技

    “数字孪生”语境下的城市:拼图模式与航向之争

    上世纪六十年代,NASA在“阿波罗计划”中建立了一套完整的物理仿真系统,地面上的“孪生飞行器”可以在仿真技术的帮助下预演登月过程中可能遇到的紧急情况。

    53730编辑于 2023-01-13
  • 《谷歌Gemini 1.5:长语境理解重塑文档分析与检索新格局》

    谷歌Gemini 1.5的问世,凭借其卓越的长语境理解能力,在文档分析和检索任务方面掀起了一阵技术革新的浪潮。以往的大语言模型在处理长文本时,常因上下文窗口的限制而出现信息丢失、理解偏差等问题。 在文档分析领域,Gemini 1.5的长语境理解能力犹如一把精准的手术刀,能够深入剖析复杂文档。 而Gemini 1.5凭借强大的长语境理解能力,能够理解用户查询的真正意图,即使查询语句表述模糊,它也能在庞大的文档库中精准定位到最相关的文档。 尽管Gemini 1.5在长语境理解能力上取得了重大突破,但它并非完美无缺。在处理一些专业性极强、领域知识极为复杂的文档时,Gemini 1.5可能仍需要进一步学习和优化,以达到更精准的理解。 谷歌Gemini 1.5的长语境理解能力为文档分析和检索任务带来了巨大的变革,虽然还存在一些挑战,但它无疑为人工智能在这两个领域的应用开辟了新的道路,让我们对未来智能文档处理充满期待。

    30910编辑于 2025-04-21
  • 来自专栏机器学习算法与Python学习

    10月机器学习开源项目Top10

    作者 | Mybridge 译者 | 林春眄 整理 | Jane 出品 | AI科技大本营 过去一个月里,我们对近 250 个机器学习开源项目进行了排名,并挑选出热度前 10 的项目。 这份清单的平均 github star 数量高达 1345,涵盖了包括深度学习, Tensorflow, 图像分割, 漫画着色, 强化学习,Unity 等主题,希望你能从中找到一个你所感兴趣的项目深入探究 fastai 库是基于 fast.ai 团队进行的深度学习最佳实践研究,包括对视觉,文本,表格和协作(协同过滤)模型的支持,方便研究者直接使用。 它可直接从 Apache Parquet格式的数据集中进行单机或分布式训练,以及深度学习模型的评估。 utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌Top 10:Tencent-ml-images Tencent-ml-images

    50730发布于 2018-12-05
  • 来自专栏AI科技大本营的专栏

    10月机器学习开源项目Top10

    作者 | Mybridge 译者 | 林春眄 整理 | Jane 出品 | AI科技大本营 【导读】过去一个月里,我们对近 250 个机器学习开源项目进行了排名,并挑选出热度前 10 的项目。 这份清单的平均 github star 数量高达 1345,涵盖了包括深度学习, Tensorflow, 图像分割, 漫画着色, 强化学习,Unity 等主题,希望你能从中找到一个你所感兴趣的项目深入探究 fastai 库是基于 fast.ai 团队进行的深度学习最佳实践研究,包括对视觉,文本,表格和协作(协同过滤)模型的支持,方便研究者直接使用。 它可直接从 Apache Parquet格式的数据集中进行单机或分布式训练,以及深度学习模型的评估。 utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌Top 10:Tencent-ml-images Tencent-ml-images

    58830发布于 2018-12-05
  • 来自专栏小道

    Flink学习笔记(10) - CEP

      一个或多个由简单事件构成的事件流通过一定的规则匹配,然后输出用户想得到的数据 —— 满足规则的复杂事件

    1.4K00编辑于 2022-09-01
  • 来自专栏计算机工具

    深度学习10:Attention 机制

    做个不太恰当的类比,人类学习一门新语言基本经历四个阶段:死记硬背(通过阅读背诵学习语法练习语感)->提纲挈领(简单对话靠听懂句子中的关键词汇准确理解核心意思)->融会贯通(复杂对话懂得上下文指代、语言背后的联系 ,具备了举一反三的学习能力)->登峰造极(沉浸地大量练习)。 这也如同attention的发展脉络,RNN 时代是死记硬背的时期,attention 的模型学会了提纲挈领,进化到 transformer,融汇贯通,具备优秀的表达学习能力,再到 GPT、BERT,通过多任务大规模学习积累实战经验 想要了解更多技术细节,可以看看下面的文章或者视频: 「文章」深度学习中的注意力机制 「文章」遍地开花的 Attention,你真的懂吗? 另一方面,因为不可导,一般需要用强化学习的方法进行训练。

    1K10编辑于 2024-12-14
  • 来自专栏机器学习原理

    机器学习10)——线性SVM

    在不考虑集成学习算法,不考虑特定的数据集的时候,在分类算法中SVM可以说是特别优秀的。

    908102发布于 2018-04-27
  • 来自专栏米扑专栏

    Clojure 学习入门(10)—— httpkit

    text/html"} :body "hello ithomer.net"}) (run-server app {:ip "172.27.22.21" :port 8888 :thread 10

    1.1K60发布于 2019-02-18
  • 来自专栏mukekeheart的iOS之旅

    OC学习10——内存管理

    因此,内存管理是学习面向对象语言中非常重要也是非常头疼的一个问题。 而对于我们学习的OC语言,内存管理已经从最开始需要我们进行手动管理发展倒现在可以自动管理了,尽管现在已经不需要我们过多地关心内存管理问题,但是还是有必要了解一些基本概念和思想,这也是本篇文章的出发点。 4 //引用计数加1,为2 5 [person retain]; 6 //引用计数减1,为1 7 [person release]; 8 9 //打印结果是1 10 10、在正常情况下,如果某个函数很长,且在该函数运行过程过程中出现很多中间变量,占据了大量的内存,或者程序在执行过程中创建了大量的临时对象(比喻在循环中创建对象),程序可能需要多次释放这些临时对象,这次程序可以考虑将

    78950发布于 2018-02-27
领券