首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AutoML(自动机器学习)

    【NLP CS224N笔记】Lecture 1 - Introduction of NLP

    NLP全称是Natural Language Processing,即自然语言处理,这是一门计算机科学、人工智能以及语言学的交叉学科。

    61130发布于 2018-12-28
  • 来自专栏NewBeeNLP

    CS224N课程笔记】神经网络与反向传播

    CS224N课程笔记系列,持续更新中 课程主页: http://web.stanford.edu/class/cs224n/ 前情提要: 【CS224N课程笔记】词向量I: 简介, SVD和Word2Vec 【CS224N课程笔记】词向量II: GloVe, 评估和训练 1、Neural Networks: Foundations 在前面的讨论中认为,因为大部分数据是线性不可分的所以需要非线性分类器,不然的话线性分类器在这些数据上的表现是有限的

    62230发布于 2021-04-12
  • 来自专栏AI研习社

    CS224n 更新 | 第十三讲 - 卷积神经网络

    深度自然语言处理课 CS224n(2016-2017)为斯坦福官方开源最新版本,由斯坦福大学教授、 Salesforce 首席科学家 Richard Socher 授权雷锋字幕组翻译。 CS224d ( 2016-2017 ) 作业概览 感兴趣的小伙伴可以戳这里: http://web.stanford.edu/class/cs224n/archive/WWW_1617/index.html

    69520发布于 2018-08-16
  • 来自专栏SimpleAI

    【Hello NLP】CS224n笔记:语言模型(LM)和循环神经网络(RNNs)

    SimpleAI 【HelloNLP】系列笔记,主要参考各知名网课(Stanford CS224n、DeepLearning.ai、李宏毅机器学习等等),并配合NLP的经典论文和研究成果、我的个人项目实践经验总结而成 CS224n笔记[5]:语言模型(LM)和循环神经网络(RNNs) 作者:郭必扬 许久没更新了,十分惭愧,翻了翻之前的笔记,才知道上一期我们讲的是“依存分析”。 所以今天我们就来一起跟着CS224N网课把这个概念搞清楚。 理解玄乎的理论的最佳方法,就是记住它的一些经典的具体应用。语言模型最典型的应用就是“输入法联想”。 这里拿CS224N的PPT上的一个例子来说明: ? 这段文字中高亮的"today the"是预先给定的文本,后面则是通过LM一个字一个字预测出来形成的文本。 CS224N中的一张图描绘地很清晰: ? 一图胜前言,这里就不再赘述了。 训练好RNN了之后,如何进行文本生成呢?

    1K20发布于 2020-05-25
  • 来自专栏AI研习社

    CS224n 更新 | 第十一讲 - GRU 及 NMT 的其他议题

    深度自然语言处理课 CS224n(2016-2017)为斯坦福官方开源最新版本,由斯坦福大学教授、 Salesforce 首席科学家 Richard Socher 授权雷锋字幕组翻译。 免费无限次观看 CS224n 中英字幕版 中文版 CS224d 课程介绍 自然语言处理(NLP)是信息时代最重要的技术之一。理解复杂的语言话语也是人工智能的重要组成部分。 CS224d ( 2016-2017 ) 作业概览 感兴趣的小伙伴可以戳这里: http://web.stanford.edu/class/cs224n/archive/WWW_1617/index.html

    63510发布于 2018-08-06
  • 来自专栏用户2133719的专栏

    CS224N 课程笔记之二:词向量(下)

    之前我们介绍了两种表示词向量的方法:「基于数量」的矩阵分解方法(HAL & LSA)和「基于窗口」的概率方法(word2vec)。第二种方法明显优于第一种,但其只考虑了一个较小窗口内的词语信息,没有利用好全局的词语共现数据。

    99310发布于 2020-08-14
  • 来自专栏用户2133719的专栏

    CS224N 课程笔记之一:词向量(上)

    从处理的对象来看,NLP 与其他机器学习任务有很大区别:NLP 处理的对象是人类语言,而人类的语言是一种特定的用于传达意义的系统,并不由任何形式的物理表现产生,大部分词语只是一个表达某种意义的符号。语言通过各种方式编码(语音、手势、写作等),以连续信号的形式传输给大脑。

    63440发布于 2020-08-17
  • 来自专栏SimpleAI

    CS224n笔记:更好的我们,更好的RNNs

    CS224n笔记[6]:更好的我们,更好的RNNs 作者:郭必扬 上一节我们介绍了语言模型,并由此引入了RNN这种神经网络。 上面我说的应该很清楚了,不过下面这张来自CS224N的总结更加直观,大家可以对照着图片看我上面的文字: ? 来源:CS224N 我们对LSTM三个门的功能进行了描述,下面给出具体的模型公式,还是放出cs224n课程中的总结: ? 来源:CS224N 从上面的公式、我的描述以及图示中,我们可以发现,虽然LSTM结构复杂,但是「很有规律」的: 三个门的输入都一样! 来源:CS224N 神经网络加深,往往可以带来更好的效果,因为它的学习能力大大提高。而且,就跟CNN一样,不同层次的RNN也可以学习到语言的不同层次的特征。

    1.1K20发布于 2020-06-02
  • 来自专栏NewBeeNLP

    CS224N课程笔记】词向量II: GloVe, 评估和训练

    CS224N课程笔记系列,持续更新中 ? 课程主页: http://web.stanford.edu/class/cs224n/ 前情提要:【CS224N课程笔记】词向量I: 简介, SVD和Word2Vec 1、Global Vectors

    87910发布于 2021-01-12
  • 来自专栏SimpleAI

    【Hello NLP】CS224n笔记:Word2Vec算法推导&实现

    SimpleAI 【HelloNLP】系列笔记,主要参考各知名网课(Stanford CS224n、DeepLearning.ai、李宏毅机器学习等等),并配合NLP的经典论文和研究成果、我的个人项目实践经验总结而成 CS224n笔记[2]:Word2Vec算法推导&实现 作者:郭必扬 其实关于Word2Vec的详细推导,我之前写过一篇十分详细精美的手写笔记: 关于word2vec你想知道的一切(精美手绘笔记),墙裂推荐阅读 本文主要根据cs224n的assignment2的计算题和编程题进行一个总结回顾。我发现这份作业设计太棒了,循序渐进,有理论有实践,前后呼应,难度适中,整个的编排我觉得更像是一份详细的教程。 Word2Vec的编程实现 这个就是cs224n作业2的编程部分了。 当然,我们肯定不是从零到一实现一个word2vec算法,这还是太复杂了,作业主要是填空的形式,让我们把算法的核心部分给填写了一下。

    1.4K20发布于 2020-02-26
  • 来自专栏SimpleAI

    【Hello NLP】CS224n学习笔记:词向量从而何来

    SimpleAI 【HelloNLP】系列笔记,主要参考各知名网课(Stanford CS224n、DeepLearning.ai、李宏毅机器学习等等),并配合NLP的经典论文和研究成果、我的个人项目实践经验总结而成 CS224n学习笔记[1]:词向量从何而来 前言:关于自然语言 人类的语言文字的出现,帮助了人类记录自己的智慧,由此加速了人类文明的进化,这也是人区别于动物的主要优势之一。 例如著名的WordNet,它被称为是NLP中的瑞士军刀,下图展示了通过调取wordnet工具包查询一个词的相关信息: WordNet使用举例(图源自cs224n课程slides) WordNet的构建花费了很多人多年时间 如下图,我们将训练好的词向量降维后进行可视化: Word2Vec可视化举例(图源自cs224n课程slides) 从图上可以看出一些类别的词汇明显的聚在一起。

    82220发布于 2020-02-25
  • 来自专栏SimpleAI

    【Hello NLP】CS224n笔记:机器翻译和seq2seq

    SimpleAI 【HelloNLP】系列笔记,主要参考各知名网课(Stanford CS224n、DeepLearning.ai、李宏毅机器学习等等),并配合NLP的经典论文和研究成果、我的个人项目实践经验总结而成 CS224n笔记[7]:机器翻译和seq2seq 作者:郭必扬 今天主要介绍机器翻译的简单发展历史和方法,由此引入seq2seq框架,我们会一起深入讨论seq2seq框架中的各种细节,并配合精美的结构图 比方下图: 来源CS224N 这里例子展示了一个法语句子和英语句子词语对齐关系,其中法语词entarte,英文翻译是“hit me with a pie”,英文中根本没有一个词可以直接表示这个含义。 再多描述不如一张图直观,我用下图描绘一个极简的案例(只有3个词的语料,k=2): 本来想贴CS224N上的图,发现上面省去了一些细节容易造成误解。

    1K10发布于 2020-06-12
  • 来自专栏机器之心

    Manning、陈丹琦讲座,2021斯坦福CS224N即将开课

    机器之心报道 作者:杜伟、小舟 斯坦福大学 CS224N 深度学习自然语言处理 2021 冬季课程即将开课! 自然语言处理(NLP)或者计算语言学是信息时代最重要的技术之一。 而提及入门自然语言处理,想必大家都非常熟悉斯坦福大学的公开课 CS224N,它与计算机视觉方面的课程 CS231n 堪称绝配。 CS224N 是一门关于自然语言处理的专项课程,非常系统地介绍自然语言处理任务等相关知识。 机器之心介绍过 CS224N 2019 冬季课程,重点讲解了 Transformer 和预训练表征。 课程链接:http://web.stanford.edu/class/cs224n/ 该课程全面介绍了 NLP 深度学习的前沿研究。 本年度的 CS224n 课程依然使用 PyTorch 授课。 不过遗憾的是,CS224N 2021 冬季课程视频只对注册学生开放,课程 PPT 和作业会在网上实时更新。

    77520发布于 2021-01-20
  • 来自专栏AutoML(自动机器学习)

    【NLP CS224N笔记】Lecture 2 - Word Vector Representations: word2vec

    Research Highlight 期间老师让一个中国学生做了一个关于一篇论文的报告,具体内容不作赘述,可参考CS224n研究热点1 一个简单但很难超越的Sentence Embedding基线方法。

    68620发布于 2019-01-02
  • 来自专栏深度学习自然语言处理

    CS224N笔记】一文详解神经网络来龙去脉

    我们输入一个向量并且通过一系列的逻辑回归函数,我们可以得到一个输出向量,但是我们不需要提前决定,逻辑回归试图预测的向量是什么

    69510发布于 2020-11-03
  • 来自专栏AutoML(自动机器学习)

    【NLP CS224N笔记】Lecture 3 GloVe: Global Vectors for Word Representation

    可以很明显地看到该向量非常稀疏。常见的解决办法有两种:一是使用稀疏矩阵更新运算来更新矩阵\(U,V\)的特定的列向量。二是使用哈希来更新,即key为word string,value是对应的列向量。

    64220发布于 2019-01-03
  • 来自专栏SimpleAI

    【Hello NLP】CS224n笔记:自然语言中的依存分析(Dependency Parsing)

    SimpleAI 【HelloNLP】系列笔记,主要参考各知名网课(Stanford CS224n、DeepLearning.ai、李宏毅机器学习等等),并配合NLP的经典论文和研究成果、我的个人项目实践经验总结而成 CS224n笔记[4]:自然语言中的依存分析(Dependency Parsing) 作者:郭必扬 什么是依存分析 自然语言处理任务中,有很重要的一块,就是分析语言的结构。 ---- cs224n的Assignment3就是Neural Dependency Parsing的实现,代码见github: https://github.com/beyondguo/CS224n-notes-and-codes

    1.1K10发布于 2020-03-25
  • 来自专栏AI研习社

    CS224n 更新 | 第十二讲 - 语音处理的端对端模型

    深度自然语言处理课 CS224n(2016-2017)为斯坦福官方开源最新版本,由斯坦福大学教授、 Salesforce 首席科学家 Richard Socher 授权雷锋字幕组翻译。 CS224d ( 2016-2017 ) 作业概览 感兴趣的小伙伴可以戳这里: http://web.stanford.edu/class/cs224n/archive/WWW_1617/index.html

    64120发布于 2018-08-16
  • 来自专栏新智元

    【Manning主讲】斯坦福CS224n深度学习与NLP课程全部视频、PPT

    【新智元导读】斯坦福大学CS224n(全称:深度学习与自然语言处理)是自然语言处理领域很受欢迎的课程,由 Chris Manning 和 Richard Socher 主讲。 全部课程视频(英文字幕):http://t.cn/R6RGxtR 所有课程资料、PPT等:http://web.stanford.edu/class/cs224n/ 课程描述 ? 编程语言 大学微积分,线性代数(例如MATH 19或41,MATH 51) 基本概率和统计知识(例如 CS109 或其他统计课程) CS229(机器学习)的同等知识 推荐掌握 自然语言处理的相关知识(CS224N

    1.6K50发布于 2018-03-22
  • 来自专栏新智元

    斯坦福CS224n《基于深度学习的NLP》课程更新,C.Manning主讲

    近日,斯坦福大学官网公布了2019年度冬季cs224n课程:基于深度学习的自然语言处理的课程安排。 cs224n官网链接: http://web.stanford.edu/class/cs224n/index.html 2017年本课程视频观看地址(油管): https://www.youtube.com 今年,CS224n将首次使用PyTorch而不是TensorFlow。 如果学生已经掌握基本的机器学习/深度学习知识,那么理解本课程将会更容易,但这一点不做强制要求,不掌握这些知识也可以上CS224n这门课。 这里给出了一些参考资源。 更多信息和资源,可访问斯坦福cs224n官网链接: http://web.stanford.edu/class/cs224n/index.html

    94550发布于 2019-01-09
领券