我期待着为机器学习研究投资一个好的GPU/ASIC。我不想选择任何NVIDIA的消费者级GPU,因为它们主要是面向游戏的,我将支付的价格将是不合理的,因为我不会使用任何游戏导向的功能,如射线追踪。而且,上一代GPU的价格已经上涨,尽管推出了新的20 of系列,使10 of不是一个好的购买。
AMD的消费者级GPU仍然不够强大,因为他们的同行和他们的企业级GPU太昂贵,不能证明性价比是合理的。
最近,哈巴纳实验室宣布了他们面向ML的芯片组,但它的样本发布了2019年的Q2,如果它是合理的,我可能会考虑等待。
那么,有什么好的消费级ASIC/GPU为ML?
我不介意图书馆的支持
发布于 2018-09-27 12:45:45
快速答案是:
不,没有您可以购买的消费级ML ASIC,也不会有在您的文章中提到的发布。
兔子洞:
如果您绝对需要本地硬件:
大多数GPU对于ML仍然有一个惊人的价值主张,即使它们没有张量核。一般来说,Nvidia GPU在ML世界中更受支持,所以除非你在物理上做不到,否则就和Nvidia一起执行这个任务吧。现在,RTX 2080/2080 to,即使没有使用射线追踪,是最好的物有所值的建议,在您的机器硬件,感谢他们的张量核心。下一步将是5000美元的GV泰坦卡,这是一个价格类别,你想要避免。如果你真的不想浪费任何潜力,拿一个高端10系列卡,但要注意,这些没有任何ML硬件优化。
类似ASIC的选项:
你的问题让我记得,谷歌不久前也提到,他们也在开发面向ML的ASIC,称为TPU,简称为“张量处理单元”。我做了一些调查,似乎这个项目已经从商业上可用的ASIC变成了一个ML研究驱动的云服务。我将链接到这里:https://cloud.google.com/tpu/docs/pricing
如果您愿意使用云服务,则您的价值主张将根据您必须训练ML算法的频率而改变。如果你要训练你的algo 24/7与小调整,去与当地的GPU。否则,谷歌服务似乎是硬件投资的合理替代方案。
发布于 2018-09-25 11:43:57
考虑英特尔的(前Altera) FPGAs他们有一个OpenCL编译器。他们甚至有PCIe开发工具包。或者Xeon系列可能更适合这一点。
发布于 2018-09-28 20:01:33
最接近你所要求的是NVIDIA Tesla -它是专用的,甚至没有单一的DP / HDMI输出,它的电源效率和优化的'AI‘。见NVIDIA Tesla T4,NVIDIA Tesla V100,NVIDIA Tesla P100,NVIDIA Tesla P4/P40。它是否最具成本效益取决于许多因素。如果你想买一家更大的机构,看看基于特斯拉( Tesla V100 )的数据中心解。
第二个候选人是尼迪娅·杰特森。它看起来是为机器人中的ML / AI设计的,作为端到端的解决方案(而不是代理与服务器的通信)。这是一个开发工具包,包括ARM CPU、GPU、RAM、eMMC存储器和2个DeepLearning加速器,售价2.5k美元(但它很小!)我找不到任何基准,但他们说,它比它的前任NVIDIA JETSON 2快20倍,耗电量的1/10。这里。
话虽如此,但这确实取决于你的用例--如果你想从它的模块化中获益,不要为安装购买任何其他硬件,而是将它作为嵌入式(就像你使用RaspberryPi一样)使用,NVIDIA的Jetson是完美的。如果你想为人工智能制作一个服务器,我会像user9313和NVIDIA建议的那样考虑RTX2080/2080ti,并达到对你来说最具成本效益的峰值--如果不知道你将使用的框架/库,这是不可能的。此外,正如user9313所提到的,云已经是一个可行的选择,不仅谷歌1,2,还有微软有良好的API接口,甚至云IDE。
此外,在“愿望清单”中添加其他项目,以便密切关注:
https://hardwarerecs.stackexchange.com/questions/9791
复制相似问题