首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >NVIDIA显卡有没有替代GPU计算进行深度学习的方法?

NVIDIA显卡有没有替代GPU计算进行深度学习的方法?
EN

Stack Overflow用户
提问于 2016-06-13 10:55:20
回答 2查看 2.2K关注 0票数 1

现在我正在研究一个深度学习问题。我正在尝试在matlab中使用卷积神经网络。但是文档上说,我们需要用于gpu计算的NVIDIA显卡。

我的笔记本电脑具有用于图形处理的英特尔核芯显卡2600。因此,有人可以建议我们在这种情况下运行深度学习算法和convnet算法的任何其他选择。

我可以在没有GPU计算的情况下运行这些算法吗?会有什么效果(在时间差方面)。

EN

回答 2

Stack Overflow用户

发布于 2016-06-13 11:16:14

使用集成的英特尔显卡,您将无法实现更多目标。首先,大多数深度学习框架使用CUDA来实现GPU计算,并且CUDA仅由NVidia GPU支持。有几次尝试将标准深度学习框架扩展到OpenCL,值得注意的是,Theano有一个incomplete OpenCL backend,而Caffe已经被AMD研究实验室ported to OpenCL。然而,这些在这一点上要么是不完整的,要么是没有积极维护的。

另一个问题是性能。根据您的应用程序,您可能需要比您的笔记本电脑所能提供的更好的GPU。使用配备NVidia Titan的多GPU机器来训练网络数天甚至数周的情况并不少见。

我的建议是购买一台专门用于深度学习计算的机器(可以用一台标准笔记本电脑的价格购买一台装有刚刚发布的NVidia GTX1080的单一GPU机器),或者在亚马逊EC2上租用GPU实例。

票数 4
EN

Stack Overflow用户

发布于 2020-04-03 21:28:14

你可以使用谷歌张量处理单元与谷歌Colab,在那里你可以免费获得一个图形处理器,他们有一个相当酷的云图形处理器technology

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/37781207

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档