首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏朴素人工智能

    模态语言模型

    多模态输入 目前最新的多模态模型基本都是以transformer为backbone,为了达到更好的语言模态处理能力,往往都在预训练语言模型的基础上进行扩展。 先分别使用语言编码器和图像编码器对两种信息进行分别编码,再通过一个模态编码器(cross-modality encoder)进行交互。如果你熟悉文本匹配,那对这种套路应该再熟悉不过了。 ? 采用“双塔”分别对文本和图片进行编码,再通过模态编码器进行交互 如何预训练 在介绍VL-BERT的预训练之前,我们先简单回顾一下BERT的预训练任务。 这个任务是第一个任务的对偶任务,前面那个任务是用视觉信息来辅助语言模型训练,而这个是借助语言信息来进行ROI图像预测。预测的标签来自于R-CNN模型的预测结果(注意,这个结果是来自于视觉信息的)。 这是我们不希望看到的,我们希望模型能够建立模态的联系,它需要从输入的“kitten drink from bottle”里预测出被mask掉的区域里应该有只猫(因为另一个区域已经有瓶子了)。

    1.5K20发布于 2020-06-29
  • 来自专栏痴者工良

    平台、语言应用开发,Elements 介绍

    实际上,平台、语言开发移动应用的解决方案很多,Xamarin 优势不大。 以下为 Elements 能够开发的应用类型: ? 特色: 先进的编辑功能 单元测试集成 平台的调试和部署 ? 2,Water 用于在 Windows 中开发应用,笔者就不再深入介绍了~~~ ? ,具有智能感知和高级的生产力功能 对所有平台都有丰富的调试能力,包括针对 Mac、Linux 和 iOS 的网络调试 与 Elements.NET 项目、Microsoft Visual CrossBox FXGen Profiler Obfuscation Oxidlzer Marzipan CrossBox  CrossBox 是平台的系统调试项目 Profiler 平台的性能分析器,能够监控代码运行、远程主机上应用运行的情况,分析性能数据。 Obfuscation 保护代码,防止反编译的工具。根据官方解释的解释,是利用了代码混淆技术。

    6.1K20发布于 2021-04-26
  • 来自专栏机器之心

    语言版BERT:Facebook提出语言预训练模型XLM

    今天,Facebook 发布了一种新型语言预训练语言模型,它旨在构建一种语言编码器,从而将不同语言的句子在相同的嵌入空间中进行编码。这种共享的编码空间对机器翻译等任务有很大的优势。 项目地址:https://github.com/facebookresearch/XLM 在这一项工作中,作者展示了语言预训练语言模型的高效性,它在多种语言理解基准任务中都取得了很好的效果。 总的而言,Facebook 提供的是一种语言版的 BERT,它在 XNLI 和无监督机器翻译等语言任务取得了当前最好的效果。 ? 预训练语言模型: 因果语言模型(CLM)—单语言 BERT 中通过掩码训练的语言模型(MLM)—单语言 翻译语言模型(TLM)—语言 2. 生成语言句子表征 项目提供了一段简单的示例代码,它可以帮我们从预训练模型快速获取语言句子表征,这种语言的句子表征对机器翻译、计算句子相似性或实现语言的分类器都很有帮助。

    1.7K40发布于 2019-04-30
  • 来自专栏技术杂货店

    JVM笔记 -- Java平台和JVM语言

    Java是一门平台语言,所谓平台就是,Java源文件会被编译成为字节码文件,不管是Windows,Linux还是Mac,都有其适配的JVM,也就是字节码文件可以随意在这些JVM上去运行。 其他的语言,例如c语言,编译成为机器码之后,由于底层的机器语言支持不一样,编译后的机器语言文件是不可以操作系统运行的。而Java则是把兼容的工作,交给了JVM。 使用虚拟机实现编程语言是相当普遍的。最知名的虚拟机可能是UCSD Pascal的P代码计算机。 JVM 语言怎么理解? JVM是语言的平台,很多语言都可以编译成为遵守规范的字节码,这些字节码都可以在Java虚拟机上运行。 但是并非一开始设计要语言语言的平台有利于什么?由于有了语言平台,多语言混合编程就更加方便了,通过特定领域的语言去解决特定领域的问题。

    1.4K20编辑于 2022-02-15
  • 来自专栏技术杂货店

    JVM笔记 -- Java平台和JVM语言

    其他的语言,例如c语言,编译成为机器码之后,由于底层的机器语言支持不一样,编译后的机器语言文件是不可以操作系统运行的。而Java则是把兼容的工作,交给了JVM。 使用虚拟机实现编程语言是相当普遍的。 最知名的虚拟机可能是UCSD Pascal的P代码计算机。 JVM 语言怎么理解? JVM是语言的平台,很多语言都可以编译成为遵守规范的字节码,这些字节码都可以在Java虚拟机上运行。 Java虚拟机要做到语言,目前来看应该是当下最强大的虚拟机。但是并非一开始设计要语言语言的平台有利于什么? 由于有了语言平台,多语言混合编程就更加方便了,通过特定领域的语言去解决特定领域的问题。

    1.2K00发布于 2021-01-30
  • 来自专栏七夜安全博客

    Python语言调用java

    但是我也有担忧,毕竟是两种语言的包,版本管理的方式不一定一样。万一python 中的version.parse不适用,该怎么办呢? newDefaultArtifactVersion("1.2.7"); int res = version1.compareTo(version2); logger.info("res={}", res); } 语言调用 我是用Python实现了整体框架,用来适配各种语言包的版本比较,maven包的比较只是其中一个功能,因此开始考虑 python如何调用jar包中的函数。

    1.4K31发布于 2020-03-25
  • 来自专栏mathor

    语言对比学习

    猿辅导的这篇论文和SimCES却不一样,它主要是从网络整体架构入手,基于Momentum网络提出了一种有监督的语言句子相似度计算方法 Dual Momentum Contrast Momentum本意是动量 q为x^q经过encoder网络后的向量,k为经过Momentum encoder网络后的多个向量 回到原论文,给定一个语言平行句子集\{x_i,y_i\}_{i=1}^n,对于每种语言的句子,分别用特定语言的 每一种语言的BERT都有一个参数为\boldsymbol{\theta}的Momentum encoder,可以理解为原BERT的复制,只不过复制的是结构而不是参数,这些Momentum encoder 虽然作者提出的方法以及后续实验都是基于语言的,但实际上针对同语言也是适用的,例如给定一个同语言的句子对(x_i,x_j),设句子y_j是由句子x_j翻译得到的,如果模型训练得比较好,那么对于句子x_j mathbf{h}_{x_i}得 \mathbf{h}_{x_i}\cdot \mathbf{h}_{x_j}\approx \mathbf{h}_{x_i}\cdot \mathbf{h}_{y_j} 后者是语言的句子相似度

    78530发布于 2021-11-17
  • 来自专栏Cikian技术站

    Java语言平台原理

    一、平台和平台 我们这里所说的“平台”指的是操作系统,如我们常见的Windows、MacOS、Linux等。 而“平台”指的是同样的Java程序可以在所有平台上面运行,并且运行结果相同。 二、平台原理 举个例子:有三个人A,B,C,A只会说并且只听得懂a语言,B只会说并且只听得懂b语言,C只会说并且只听得懂c语言,如果A想和B、C交流,那么他们直接对话是行不通的,因为他们说的话互相都听不懂 而Java之所以能“平台”运行,是因为JVM(Java虚拟机)的存在,JVM在不同平台间就充当着“翻译”的角色。 三、注意 平台运行不是Java程序能在所有的平台上运行,关键是该平台是否能安装相应的虚拟机,也就是能不能找到对应的“翻译”; Java源程序经过编译器编译后变成字节码(.class文件,Android

    84520编辑于 2022-09-22
  • 来自专栏PaddlePaddle

    语言模态、任务的大模型,驱动应用生态繁荣

    大模型迭代闭环趋势 众所周知,大模型技术不断发展,已经从大模态发展到了多模态和模态,比如从Instruct GPT3技术发展到模态的DALL·E-2技术,同时大模型在应用过程中也产生了非常好的轻量级应用技术 在自然语言处理领域,大模型具有更强的小样本学习能力,比如基于思维链的Flan-PaLM,该模型已经具有基本推理能力;再如基于层次化多任务学习的文心ERNIE 3.0 Zeus。 在模态领域,最近提出了扩散模型,该模型引发了文本到图像生成技术的变革,比如百度提出了文心ERNIE-ViLG 2.0,该模型可以生成语义更相关、质量更高的图片。 统一大模型进一步促进生态繁荣 随着技术、应用、数据闭环的不断发展,模型开始趋向于语言模态、任务的统一大模型。 以前不同语言、不同模态和不同任务,都是单独模型;随着技术不断发展,现在能够对多个任务使用统一模型学习,比如模型能同时学习文本、语音、图像、视频等数据。

    1.1K30编辑于 2023-03-06
  • 来自专栏程序媛驿站

    综述 | 语言自然语言处理笔记

    作者:匿名侠 | 排版:葡萄媛 转载请在后台输入 授权 01 摘要 语言自然语言处理是当下研究的热点。 其中,语言词向量(Cross-lingual Word Embedding)可以帮助比较词语在不同语言下的含义,同时也为模型在不同语言之间进行迁移提供了桥梁。 ., 2017] 详细描述了语言词向量学习方法和分类体系,将语言词向量按照对齐方式分为了基于词对齐、基于句子对齐、基于文档对齐的方法。其中基于词对齐的方法是所有方法的核心和基础。 本文主要记录一些语言词向量的相关论文。 02 单词语词向量 常用的单语词向量有 Word2Vec, GloVe, fastText 等。 因此提出了一种在向量空间完成隐式翻译的方法,本质上是使用了语言词向量。

    72720编辑于 2022-04-11
  • 来自专栏深度学习自然语言处理

    【NLP】综述 | 语言自然语言处理笔记

    阅读大概需要20分钟 跟随小博主,每天进步一丢丢 作者:匿名侠 排版:葡萄媛 来自:程序媛驿站 01 摘要 语言自然语言处理是当下研究的热点。 其中,语言词向量(Cross-lingual Word Embedding)可以帮助比较词语在不同语言下的含义,同时也为模型在不同语言之间进行迁移提供了桥梁。 ., 2017] 详细描述了语言词向量学习方法和分类体系,将语言词向量按照对齐方式分为了基于词对齐、基于句子对齐、基于文档对齐的方法。其中基于词对齐的方法是所有方法的核心和基础。 本文主要记录一些语言词向量的相关论文。 02 单词语词向量 常用的单语词向量有 Word2Vec, GloVe, fastText 等。 因此提出了一种在向量空间完成隐式翻译的方法,本质上是使用了语言词向量。

    2.3K41发布于 2019-12-10
  • 语言模型:语言迁移学习实战

    对于语音助手(如某智能助手)而言,要拓展新语言环境,传统方法需要为每种语言从头训练一个自然语言理解模型,这种方法难以规模化扩展。另一种方案是训练一个多语言模型,即一个能同时处理多种语言的单一模型。 多语言模型架构近年来,多语言建模已成为热门话题,尤其关注将从大规模语料库训练的模型知识迁移到小数据量语言的模型上,即低资源语言迁移学习。 单语言模型使用不同语言的数据进行训练,但通常具有相同的架构。因此,使用相同的模型架构,应该能够训练一个由多种语言数据喂养的通用多语言模型。 知识迁移与结果我们使用四种语言的数据训练模型,包括三种相对接近的语言:某中心英语、某中心西班牙语和某中心意大利语。第四种语言是印地语,这是一种低资源语言,且在词汇和语法上与其他三种语言差异显著。 多语言模型可能从其他语言中学到了单语言模型无法仅从印地语数据集中提取的通用语言信息。FINISHED

    11210编辑于 2026-02-15
  • 来自专栏Golang语言社区

    Golang语言域解决

    在使用golang做web的应用程序的时候,最容易碰到域问题了,域就是www.a.com访问[url]www.b.com[/url]的文件。 这样问题就来了,因为你使用js做前台,golang做后台,这样js传值的时候,是可以传到服务器的,并且是可以进行域访问的,因为golang构造的服务器与你前台就造成了域问题了。 而ajax传值是传到服务器端的,并且可以进行域访问,所以我在开发的时候果断使用了它。 2而在golang接受传值之后,要返回信息给前台,这是golang里面就要设置可以进行域访了。

    2.2K80发布于 2018-03-21
  • 语言嵌入模型的调查

    伪交叉语言:这些方法通过混合不同语言的语境来创建语言伪语料库。然后,他们在创建的语料库上训练一个现成的单词嵌入模型。原理是语言语境允许用学习表达来捕捉语言关系。 Lexicon:双语或语言词典,包含不同语言的单词之间的翻译对照。 没有并行数据:没有任何并行数据。只从单语资源中学习语言表达从而实现语言的零点学习。 虽然伪语言方法由于其简单性和易于实施性而具有吸引力,但依靠天真的替换和置换不能使其捕捉更复杂的语言关系方面。 语言培训 语言培训方法专注于优化语言目标。 联合优化 使用联合优化的模型旨在做到这一点:他们不仅考虑了语言约束,而且还共同优化了单语言语言的目标。 我们假设学习语言多义嵌入将变得越来越相关,因为它使我们能够捕捉到更细粒度的语言含义。 可行性 最后的挑战是关于学习语言嵌入本身的可行性:语言是非常复杂的人工制品。

    7.4K100发布于 2018-02-06
  • 来自专栏深度学习自然语言处理

    语言大模型》最新综述

    语言大模型(MLLMs)能够利用强大的大型语言模型处理和回应多种语言的查询,在多语言自然语言处理任务中取得了显著的成功。尽管取得了这些突破,但仍然缺乏一份全面的调查总结该领域现有方法和最新发展。 https://arxiv.org/pdf/2404.04925.pdf 01 语言对齐 本文从预训练对齐、指令微调对齐以及下游任务微调对齐分别进行了详细的归纳和介绍: 在每个对齐中,又分为Parameter-Tuning 对齐与Parameter-Frozen对齐,具体示例图如下: Parameter-Tuning对齐 Parameter-Frozen对齐 02 未来方向 该综述探讨了目前语言语言模型潜在的未来研究方向 ,主要包括: 1、语言大模型中的幻觉问题 2、语言大模型中的知识编辑问题 3、语言大模型中的安全性问题 4、语言大模型中的公平性问题 5、语言大模型中的语言扩展问题 6、语言大模型中的模态扩展问题 03 网站 在这项工作中,作者们还提供了一个网站来整理语言大模型的相关进展,地址为:https://multilingual-llm.net/ 相关的GitHub地址如下:https://github.com

    47710编辑于 2024-04-19
  • 来自专栏python3

    Grpc 语言远程调用 python

    grpc介绍 gRPC 一开始由 google 开发,是一款语言中立、平台中立、开源的远程过程调用(RPC)系统。 多语言支持 ( C, C++, Python, PHP, Nodejs, C#, Objective-C、Golang、Java) gRPC支持多种语言,并能够基于语言自动生成客户端和服务端功能库 目前已提供了C版本grpc、Java版本grpc-java 和 Go版本grpc-go,其它语言的版本正在积极开发中,其中,grpc支持C、C++、Node.js、Python、Ruby、Objective-C 、PHP和C#等语言,grpc-java已经支持Android开发。 ,反过来,它们可以在各种环境中,从云服务器到你自己的平板电脑—— gRPC 帮你解决了不同语言及环境间通信的复杂性。

    4K20发布于 2020-01-09
  • 来自专栏架构师高级俱乐部

    语言调用Hangfire定时作业服务

    但令人遗憾的是普遍都是业务代码和hagnfire服务本身聚合在一个程序中运行,极大的限制了hangfire的扩展和语言调用。 此库也已上传nuget 使用方式 01 第一步: 部署hangfire服务   拉取Chaunce.Hangfire.Server(属于.netcore程序,支持平台部署)项目   然后修改appsettings.json

    1K10编辑于 2022-04-27
  • 来自专栏热爱IT

    语言RPC框架Thrift详解 转

    TSimpleJSONProtocol:提供JSON只写协议(缺少元数据信息),生成的文件很容易用过脚本语言解析。     TDebugProtocol:使用易懂的刻度文本格式,以便于调试。

    1.1K20发布于 2019-04-10
  • 来自专栏java开发的那点事

    17-语言调用 Google ProtoBuf

    ObjectDecoder和ObjectEncoder可以用来实现Pojo对象或各种业务对象的编码和解码,底层使用的依然是Java序列化技术, 而Java序列化技术本身效率就不高, 存在如下问题 无法语言 目前很多公司 http + JSON -> tcp + protobuf 参考文档: https://developers.google.com/protocol-buffers/docs/proto 语言指南 Protobuf是以message的方式来管理数据的 支持平台, 语言, 即[客户端和服务器端可以是不同的语言编写的] (支持目前绝大多数语言, 例如C++, C#, Java, Python等)

    81030编辑于 2022-02-18
  • 来自专栏AI科技评论

    XLM,基于BERT的语言模型

    这个模型在语言分类任务(15个语言的句子蕴含任务)上比其他模型取得了更好的效果,并且显著提升了有预训练的机器翻译效果。 这个模型在语言分类任务(15个语言的句子蕴含任务)上比其他模型取得了更好的效果,并且显著提升了有预训练的机器翻译效果。 BERT进行语言文本分类 尽管BERT的训练语料超过100种语言,它的模型本身并没有针对多语言进行优化——大多数词汇没有在语言间共享,因此能学到的语言知识是很有限的。 BPE把输入按所有语言中最常见的词片段(sub-words)进行切分,以此来增加语言共享的词汇。 上图:类似BERT的单语言模型MLM, 和语言模型TLM进行对比。来源:XLM 为了评估模型效果,这篇论文在句子蕴含(句子对关系分类)任务上测试了模型。

    1.9K10发布于 2019-08-23
领券