首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏漫漫深度学习路

    mxnet-Gluon(一):mxnet-Gluon 入门

    Gluon。 同时也可以对Gluon的几个重要模块进行一下总结,以后查询方便。 (博主水平有限,如有错误,请不吝指出。) <NDArray 1 @cpu(0)> 神经网络 到这里,终于可以看到 Gluon 的身影了,Gluon给我们提供了一些简洁的 高级 API,我们可以使用这个 API 快速的搭建想要的神经网络结构。 计算 loss 反向传导得到 模型参数的梯度信息 更新参数 from mxnet import nd from mxnet.gluon import nn from mxnet.gluon import 组件一一展现了出来,包括: gluon.nn.Block 容器一样的概念,用来构建神经网络 gluon.loss 各种 loss 的聚集地 gluon.nn 有很多 层的 实现 gluon.rnn 里面有循环神经网络的一些

    1.5K60发布于 2018-01-02
  • 来自专栏文武兼修ing——机器学习与IC设计

    基于gluon的Inception结构Inception结构代码

    __init__() with self.name_scope(): self.conv1 = mx.gluon.nn.Conv2D(out_channel,1, = mx.gluon.nn.Conv2D(out_channel,3,activation='relu',padding=1) self.conv5_pre = mx.gluon.nn.Conv2D (out_channel//2,1) self.conv5 = mx.gluon.nn.Conv2D(out_channel,5,activation=' = mx.gluon.data.DataLoader(mx.gluon.data.vision.MNIST(train=True, transform=transform),100, shuffle= True) gluon_test_data = mx.gluon.data.DataLoader(mx.gluon.data.vision.MNIST(train=False, transform=transform

    91080发布于 2018-04-27
  • 来自专栏SnailTyan

    动手学深度学习——丢弃法(gluon)

    import mxnet as mx from mxnet import nd from mxnet import gluon from mxnet import autograd from mxnet.gluon batch_size = 256 # 加载数据 train_data, test_data = load_data_fashion_mnist(batch_size) # 优化 trainer = gluon.Trainer (net.collect_params(), 'sgd', {'learning_rate': 0.5}) # 定义交叉熵损失 softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss

    70910发布于 2019-05-25
  • 来自专栏菩提树下的杨过

    机器学习笔记(2):线性回归-使用gluon

    代码来自:https://zh.gluon.ai/chapter_supervised-learning/linear-regression-gluon.html 1 from mxnet import ndarray as nd 2 from mxnet import autograd 3 from mxnet import gluon 4 5 num_inputs = 2 6 num_examples (X, y) 18 data_iter = gluon.data.DataLoader(dataset, batch_size, shuffle=True) 19 20 #2 定义回归模型 21 net = gluon.nn.Sequential() 22 net.add(gluon.nn.Dense(1)) 23 24 #3 参数初始化 25 net.initialize() 26 27 #4 损失函数 28 square_loss = gluon.loss.L2Loss() 29 30 #5 指定训练方法 31 trainer = gluon.Trainer(net.collect_params

    46330发布于 2018-09-20
  • 来自专栏SnailTyan

    动手学深度学习(一)——逻辑回归(gluon)

    # 导入mxnet import mxnet as mx # 设置随机种子 mx.random.seed(2) from mxnet import gluon from mxnet import ndarray # 获取训练数据和测试数据 train_data, test_data = load_data_fashion_mnist(batch_size) 定义和初始化模型 # 定义一个空的模型 net = gluon.nn.Sequential 维 net.add(gluon.nn.Flatten()) # 加入一个全连接层, 输出为10类 net.add(gluon.nn.Dense(10)) # 参数初始化 net.initialize () Softmax和交叉熵损失函数 # 定义交叉熵损失 softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss() 优化 # 定义训练器和优化方法 trainer = gluon.Trainer(net.collect_params(), 'sgd', {'learning_rate': 0.1}) 训练 # 定义迭代周期 epochs = 5

    60210发布于 2019-05-25
  • 来自专栏菩提树下的杨过

    机器学习笔记(6):多类逻辑回归-使用gluon

    上一篇演示了纯手动添加隐藏层,这次使用gluon让代码更精减,代码来自:https://zh.gluon.ai/chapter_supervised-learning/mlp-gluon.html from mxnet import gluon from mxnet import ndarray as nd import matplotlib.pyplot as plt import mxnet as mx =False) #计算模型 net = gluon.nn.Sequential() with net.name_scope(): net.add(gluon.nn.Flatten()) net.add(gluon.nn.Dense(256, activation="relu")) net.add(gluon.nn.Dense(10)) net.initialize() softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss() #定义训练器 trainer = gluon.Trainer(net.collect_params(), 'sgd',

    78391发布于 2018-01-18
  • 来自专栏SnailTyan

    动手学深度学习(一)——线性回归(gluon)

    /gluon/gluon.html? highlight=gluon.nn.sequential#mxnet.gluon.nn.Sequential L2Loss https://mxnet.incubator.apache.org/ api/python/gluon/loss.html? /gluon.html? highlight=trainer#mxnet.gluon.Trainer 代码地址 https://github.com/SnailTyan/gluon-practice-code

    56110发布于 2019-05-25
  • 来自专栏企鹅号快讯

    gluon:深度卷积神经网络和AlexNet

    下面的Gluon代码定义了(稍微简化过的)Alexnet: In [1]: frommxnet.gluonimportnnnet=nn.Sequential()withnet.name_scope(): frommxnetimportinit frommxnetimportgluon ctx=utils.try_gpu() net.initialize(ctx=ctx,init=init.Xavier()) loss=gluon.loss.SoftmaxCrossEntropyLoss () trainer=gluon.Trainer(net.collect_params(),'sgd',{'learning_rate':0.01}) utils.train(train_data,test_data 原文:http://zh.gluon.ai/chapter_convolutional-neural-networks/alexnet-gluon.html

    95790发布于 2018-01-03
  • 来自专栏SnailTyan

    动手学深度学习(二)——正则化(gluon)

    mxnet import random import mxnet as mx # 设置随机种子 random.seed(2) mx.random.seed(2) from mxnet import gluon (X_train, y_train) # 读取数据 data_iter = gluon.data.DataLoader(dataset_train, batch_size, shuffle=True) # 损失函数 square_loss = gluon.loss.L2Loss() # 测试 def test(net, X, y): return square_loss(net(X), () with net.name_scope(): net.add(gluon.nn.Dense(1)) #net.collect_params().initialize 2.32450151 0.03733355]] <NDArray 1x10 @cpu(0)>, '\nlearned b:', [ 0.79914868] <NDArray 1 @cpu(0)>) 使用Gluon

    61910发布于 2019-05-25
  • 来自专栏SnailTyan

    动手学深度学习(二)——多层感知机(gluon)

    # 导入mxnet import mxnet as mx # 设置随机种子 mx.random.seed(2) from mxnet import gluon from mxnet import ndarray 256 # 获取训练数据和测试数据 train_data, test_data = load_data_fashion_mnist(batch_size) 定义模型 # 按顺序堆叠网络层 net = gluon.nn.Sequential () # name_scope作用, 方便管理参数名称 with net.name_scope(): net.add(gluon.nn.Flatten()) net.add(gluon.nn.Dense (256, activation='relu')) net.add(gluon.nn.Dense(10)) # 参数初始化 net.initialize() Softmax和交叉熵损失函数 # 定义交叉熵损失 softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss() 优化 # 定义训练器和优化方法 trainer = gluon.Trainer

    46110发布于 2019-05-25
  • 来自专栏BestSDK

    微软联手亚马逊发布Gluon,可使用Python API优化神经网络模型

    近日、亚马逊AWS和微软共同宣布推出深度学习库GluonGluon为各种水平的深度学习开发人员设计,帮助炼丹师们在云端、App和其他设备上设计原型,创建、训练和部署复杂的深度学习模型。 这不是Gluon第一次亮相了。在CVPR 2017上,亚马逊AI主任科尔学家李沐就提出了MXNet的重要新接口Gluon,还撰文介绍MXNet/Gluon的教程。 有了Gluon助力,开发人员能用简单的Python API建立机器学习模型和一系列预构建、优化的神经网络组件。 开发人员可用Gluon实时创建神经网络,并动态改变它们的大小和形状。此外,由于Gluon将训练算法和神经网络模型结合在一起,开发人员可以逐步执行模型训练。 “这就是微软与AWS合作创建Gluon,并将其定义为开放的AI生态系统的原因。机器学习有能力改变我们工作、互动和交流方式。为了实现这一目标,我们需要物尽其用,而Gluon就是朝着这个方向迈出的一步。”

    1.2K60发布于 2018-03-01
  • 来自专栏机器之心

    业界 | MXNet 0.11发布,加入动态图接口Gluon(附CMU教授亲笔教程)

    这次最大的改进是加入了动态图接口 GluonGluon 学习了 Keras,Chainer,和 Pytorch 的优点,并加以改进。接口更简单,且支持动态图(Imperative)编程。 Gluon 教程包括深度学习理论讲解和代码实践。前五章每个例子都包括了两个版本。从零开始(from scratch)版本深入讲解所有细节,Gluon 版本则着重演示高级封装的灵活高效。 Gluon 与其他框架的对比 Tensorflow:Gluon 同时支持静态图和动态图,在灵活性和速度上都有优势。但由于 Gluon 刚刚面市,在成熟度和线上部署方面还有不足。 Pytorch:Gluon 与 Pytorch 的相似度很高,而 Gluon 独特的静、动态图混合功能可以在不牺牲灵活性的前提下提高性能。 Gluon 深度学习样例:https://github.com/apache/incubator-mxnet/tree/master/example/gluon ?

    68370发布于 2018-05-08
  • 来自专栏机器之心

    CVPR 2017李沐介绍MXNet新接口Gluon:高效支持命令式与符号式编程

    此外,读者也将体验到 Gluon 命令式地开发和符号式地部署,这是非常高效和便捷的方式。 下面是本教程的文档和 PPT 资源。 什么是 Gluon?为什么我们要使用 Gluon? (文档一),http://gluon.mxnet.io/P14-C03-multiple-gpus-gluon.html(文档二) 使用多机器训练模型文档:http://gluon.mxnet.io/ 什么是 Gluon,为什么使用它? 在进入教程之前,我们需要先了解什么是 Gluon。 下面,我们分别从Gluon中的卷积神经网络和并行计算详细介绍Gluon的使用过程和特点,希望能和大家共同体会Gluon的命令式开发和符号式部署的高效性。 Gluon 中的卷积神经网络 现在我们看一下如何使用 gluon 来简洁的表示一个卷积神经网络。

    1.1K50发布于 2018-05-09
  • 来自专栏文武兼修ing——机器学习与IC设计

    有基础(PytorchTensorFlow基础)mxnet+gluon快速入门mxnet基本数据结构mxnet的数据载入网络搭建模型训练准确率计算模型保存与载入

    网络结构 Gluon模型搭建 Gluon模型搭建与pytorch类似,通过继承一个mx.gluon.Block或使用mx.gluon.nn.Sequential()来实现 一般搭建方法 class MLP = mx.gluon.nn.Sequential() with gluon_model2.name_scope(): gluon_model2.add(mx.gluon.nn.Dense(256 ,activation="relu")) gluon_model2.add(mx.gluon.nn.Dense(64,activation="relu")) gluon_model2.add = mx.gluon.loss.SoftmaxCrossEntropyLoss() trainer = mx.gluon.Trainer(gluon_model.collect_params(), ' gluon保存模型 使用gluon.Block.save_params()可以保存模型 gluon_model.save_params("gluon_model") gluon载入模型 使用gluon.Block.load_params

    2.5K80发布于 2018-04-27
  • 来自专栏AI研习社

    微软携手亚马逊推出全新Gluon深度学习库,全面支持符号式和命令式编程

    Gluon也将支持CNTK(Microsoft Cognitive Toolkit)深度学习库。Gluon为开发者提供的高级KPI能让他们交替运行不同的深度学习库。 Gluon具体介绍 Gluon用于构建神经网络,很简洁,是一个动态的高级深度学习库(接口),在使用MXNet和CNTK时都可以调用它,微软Azure的所有服务、工具和基础结构也将全面支持GluonGluon为开发者提供的接口非常好用,它支持高度可扩展的训练,能高效的评估模型。对于经验老道的研究人员来说,在发挥Gluon的优势时完全不会牺牲灵活性。 ,Gluon支持很多复杂技术,如动态图和灵活结构。 目前在MXNet上已经可以使用Gluon接口了,可以在GitHub上查看详情,地址为: https://github.com/gluon-api/gluon-api/ 微软也表示他们即将推出支持CNTK

    94760发布于 2018-03-19
  • 来自专栏AI科技大本营的专栏

    MXNet 0.11发布,加入动态图接口Gluon,还有两位CMU教授的亲笔教程

    同时为了彻底解决MXNet文档不全的弱点,我们还特地邀请了前CMU知名教授Alex Smola和即将出任CMU教授的小网红Zachary Lipton联手为Gluon打造文档(http://gluon.mxnet.io Gluon同时支持灵活的动态图和高效的静态图,让你在享受动态编程的灵活易用的同时最小化性能的损失。而Gluon的HybridBlock和hybridize接口让你可以在静态动态间一键切换。 Gluon教程包括深度学习理论讲解和代码实践。前五章每个例子都包括了两个版本。从零开始(from scratch)版本深入讲解所有细节,Gluon版本则着重演示高级封装的灵活高效。 Gluon与其他框架的对比 Tensorflow:Gluon同时支持静态图和动态图,在灵活性和速度上都有优势。但由于Gluon刚刚面市,在成熟度和线上部署方便还有不足。 Pytorch:Gluon与Pytorch的相似度很高,而Gluon独特的静、动态图混合功能可以在不牺牲灵活性的前提下提高性能。

    85570发布于 2018-04-26
  • 来自专栏菩提树下的杨过

    机器学习笔记(4):多类逻辑回归-使用gluton

    这次改用gluton来实现关键处理,原文见这里 ,代码如下: import matplotlib.pyplot as plt import mxnet as mx from mxnet import gluon (train=True, transform=transform) mnist_test = gluon.data.vision.FashionMNIST(train=False, transform= 定义计算模型 net = gluon.nn.Sequential() with net.name_scope(): net.add(gluon.nn.Flatten()) net.add (gluon.nn.Dense(10)) net.initialize() #损失函数(使用交叉熵函数) softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss 相对之前的版本可以发现,几乎相同的参数,但是准确度有所提升,从0.7几上升到0.8几,10个里错误的预测数从4个下降到3个,说明gluon在一些细节上做了更好的优化。

    76350发布于 2018-01-18
  • 来自专栏新智元

    【抗击谷歌】亚马逊微软发布深度学习库,让训练神经网络像开发APP一样简单

    【新智元导读】AWS和微软共同宣布了推出一个新的深度学习库GluonGluon允许所有技能水平的开发者设计原型、创建和训练深度学习模型,部署在云端、终端设备或手机APP。 近日,AWS和微软共同宣布了推出一个新的深度学习库:GluonGluon允许所有技能水平的开发者设计原型、创建和训练深度学习模型,部署在云端、终端设备或手机APP。 AWS和微软发布了Gluon的参考规范,因此其他深度学习引擎可以与该接口集成。开始使用Gluon接口,请访问:https://github.com/gluon-api-Gluon-api/。 下面是Gluon的4个主要有点和代码示例: 简单、易于理解的代码 在Gluon中,你可以使用简单、清晰、简洁的代码来定义神经网络。 Gluon方法不同。它将训练算法和神经网络模型结合在一起,从而在不牺牲性能的前提下为开发过程提供了灵活性。这种方法的核心是Gluon trainer,它用于训练模型。

    96380发布于 2018-03-21
  • 来自专栏机器之心

    资源 | DMLC团队发布GluonCV和GluonNLP:两种简单易用的DL工具箱

    选自 Gluon 机器之心编译 参与:思源、李亚洲 近日,DMLC 发布了简单易用的深度学习工具箱 GluonCV 和 GluonNLP,它们分别为计算机视觉和自然语言处理提供了顶级的算法实现与基本运算 GluonCV 文档地址:http://gluon-cv.mxnet.io GluonNLP 文档地址:http://gluon-nlp.mxnet.io/ 自去年以来,MXNet 的动态图接口 Gluon 此外,Gluon 最大的特点就是文档和教程齐全,李沐及 MXNet 团队还发布了一系列「动手学深度学习」的公开课。 GluonCV 和 GluonNLP 继承了 Gluon 的优良传统,它们都能使用简单易用的 API 构建复杂的深度神经网络。此外,这两个项目目前都处于开发的早期阶段,它们的更新频率会比较高。 GluonCV 项目地址:https://github.com/dmlc/gluon-cv GluonNLP 项目地址:https://github.com/dmlc/gluon-nlp GluonCV

    1K80发布于 2018-05-08
  • 来自专栏CreateAMind

    单负螺旋度胶子树图振幅非零

    的 n-gluon 树级散射振幅被重新研究。 我们推导了一个分段常数闭式表达式,用于描述一个单负 helicity gluon 衰变成 n − 1 个正 helicity gluon 的过程,该表达式是其动量的函数。 这种现象的一个突出例子出现在树级色序gluon散射中——gluon是传递强力的粒子,构成杨-米尔斯理论。粗略地看,n-gluon散射振幅涉及阶乘n!项。 此外,对于对应于单负gluon衰变成n-1个正gluon的特殊运动学区域,我们给出了对所有n都成立的简单公式。在这个特殊区域,剥离后的振幅仅取值+1、-1或0。 在第二部分,我们限制到一个特殊的运动学道,记为R1,其中一个入射负helicity gluon和n-1个出射正helicity gluon

    7710编辑于 2026-03-11
领券