首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏龙进的专栏

    Word-Embedding词向量

    隐藏层: 一个形状为V×N的参数张量W1,一般称为word-embedding,N表示每个词的词向量长度,我们假设为128。

    1.1K20编辑于 2022-10-31
  • 来自专栏JiahuiZhu1998_技术笔记

    NLP: Word Embedding 词嵌入(Part2: fastText)

    1. word2vec 和 fastText 对比 概述: word2vec, n-gram 等 word-embedding 方法选择用vector表示single word 而不考虑词根词缀之间的关系

    91200编辑于 2023-06-19
  • 来自专栏程序媛驿站

    面经 | 机器学习算法岗(阿里-飞猪)

    的实验室的,所以有如下两个问题(NLP相关),小看官们可以选择性略过这一趴: LTP分词怎么做的 UNK怎么处理 char-emb:英文字符中使用char-embedding编码得到的feature来代替word-embedding ;或char-embedding编码得到的feature拼接word-embedding; 词汇表扩展:为不同的UNK编号,进行训练。

    77220编辑于 2022-04-11
  • 来自专栏AI科技评论

    开发 | 在玩图像分类和图像分割?来挑战基于 TensorFlow 的图像注解生成!

    为了把词语转换成适合 LSTM 输入的固定长度表示,我们使用了一个 embedding 层,它能学习把词语映射到 256 维的特征(或 word-embedding)。 Word-embedding 帮助我们把词语表示为矢量,相近的词语矢量在语义上也是近似的。 在 VGG-16 图像分类器里,卷积层提取了 4,096 维表示,传入最终的 softmax 层进行分类。

    1.2K60发布于 2018-03-12
  • 来自专栏机器之心

    更偏好白人男性?Science新研究证明人工智能也能学会偏见

    为了测试机器「心智」中的类似偏见(bias),Bryson 及其同事开发了一种词嵌入关联测试(WEAT:Word-Embedding Association Test)。 随后,研究者开发了一个词嵌入真实关联测试(word-embedding factual association test,WEFAT)。

    80680发布于 2018-05-07
  • 来自专栏AI研习社

    在玩图像分类和图像分割?来挑战基于 TensorFlow 的图像注解生成!

    为了把词语转换成适合 LSTM 输入的固定长度表示,我们使用了一个 embedding 层,它能学习把词语映射到 256 维的特征(或 word-embedding)。 Word-embedding 帮助我们把词语表示为矢量,相近的词语矢量在语义上也是近似的。 在 VGG-16 图像分类器里,卷积层提取了 4,096 维表示,传入最终的 softmax 层进行分类。

    1.3K40发布于 2018-03-28
  • 来自专栏Pytorch实践

    机器是如何做阅读理解的?

    选取的特征一般为 word-embedding和character-level embedding进行拼接,再添加一下额外的特征,例如词性、实体等。分别对文章和问题进行编码。

    2.4K70发布于 2018-04-16
  • 来自专栏AI科技大本营的专栏

    AI 生成假文件,用套娃让黑客自我怀疑

    而本文提出的 WE-FORGE 系统,基于 Word-Embedding 技术,完全消除了对本体的需求,可以自动制造虚假文件,来保护药物设计和军事技术等方面的知识产权。

    44920编辑于 2023-05-08
  • 来自专栏Datawhale专栏

    NLP入门之路及学习方法:从任务实践入手!

    简单理解domain-embedding其实和word-embedding是一个意思,只不过这里的“词表”对应你有多少个Domain,向量具体如何得出不做展开【详见Reference 3】,只需要记住它是一个类似 word-embedding的参数矩阵就好。

    91530发布于 2020-03-19
  • 来自专栏程序随笔

    聊聊Embedding(嵌入向量)

    ELMo的提出意味着我们从词嵌入(Word Embedding)时代进入了语境词嵌入(Contextualized Word-Embedding)时代!

    2.2K10编辑于 2023-10-19
  • 来自专栏自然语言处理

    零基础入门NLP - 新闻文本分类 方案整理

    如在双向GRU后接上最大池化和平均池化,并拼接上word-embedding层的池化等等。总体在0.95-0.96。

    1.8K10发布于 2020-11-24
  • 来自专栏漫漫深度学习路

    pytorch学习笔记(十九):torchtext

    ', format='tsv', fields=[('Text', TEXT), ('Label', LABEL)]) 然后构建语料库的 Vocabulary, 同时,加载预训练的 word-embedding

    2.8K30发布于 2019-05-26
  • 来自专栏前行的CVer

    图神经网络3-应用:零样本动作识别

    这之后,把 $\hat V$ 和object 的word-embedding向量 $\left\{s_{o}\right\}_{o=1}^{O}$ 相乘构成 graph的特征,即$\mathbf{X}^

    1.2K10发布于 2021-03-04
  • 来自专栏全栈程序员必看

    CBOW全称_skip的形式

    就是这个output和target之间的的差(output的V维向量和input vector的one-hot编码向量的差),该神经网络的目的就是最小化这个loss; 优化结束后,隐藏层的N维向量就可以作为Word-Embedding

    2.3K30编辑于 2022-10-04
  • 来自专栏DT数据侠

    海量游戏、影视究竟哪部才是你的菜?交给这个推荐系统帮你选

    数据侠Stefan,Yvonne 和 Daniel 为自己设计了一个电子游戏、电视节目和电影的推荐系统 Metarecommendr,使用词嵌入(word-embedding)神经网络、情感分析和协同过滤来为你作出最佳的推荐选择

    46700发布于 2018-08-08
  • 来自专栏朴素人工智能

    Soft-Masked BERT:文本纠错与BERT的最新结合

    论文简要分析 具体来看,模型Input是字粒度的word-embedding,可以使用BERT-Embedding层的输出或者word2vec。

    2.6K50发布于 2020-06-05
  • 来自专栏NLP/KG

    3.词向量word2vec(图学习参考资料1)

    隐藏层: 一个形状为V×N的参数张量W1,一般称为word-embedding,N表示每个词的词向量长度,我们假设为128。 可视化网络训练效果,代码如下:batch_size = 512epoch_num = 3embedding_size = 200step = 0learning_rate = 0.001#定义一个使用word-embedding 查询同义词的函数#这个函数query_token是要查询的词,k表示要返回多少个最相似的词,embed是我们学习到的word-embedding参数#我们通过计算不同词之间的cosine距离,来衡量词和词的相似度

    70800编辑于 2022-11-20
  • 来自专栏AI科技评论

    EMNLP 2018 上 FB 、谷歌继续并肩「刷榜」,瓜分最佳长论文和十分之一接收论文

    2017 年中,词嵌入(word-embedding)毫无疑问是最为火热的方法,以至于有人开玩笑说 EMNLP 的名称「自然语言处理实证方法(Empirical Methods in Natural Language

    52920发布于 2018-12-11
  • 来自专栏Coding迪斯尼

    用深度学习实现自然语言处理:word embedding,单词向量化

    one-hot-vector对单词进行编码有很多缺陷,一是冗余过多,一大堆0,然后只有一个1,二是向量的维度过高,有多少个单词,向量就有多少维度,这会给计算带来很多麻烦,word-embedding把原来高维度的冗余向量转换为低纬度的

    1.5K11发布于 2018-08-16
  • 来自专栏计算机工具

    自然语言处理2-NLP

    隐藏层: 一个形状为V×N的参数张量W1,一般称为word-embedding,N表示每个词的词向量长度,我们假设为128。

    29411编辑于 2024-12-14
领券