我在寻找人工智能的模拟,机器学习和学科,并看到消息,世界各地的一些初创公司正在使用模拟计算机模拟人工智能/机器学习等。
他们的论点是,(有些)模拟计算机是不精确的,即使你在它们上运行了一次以上的相同计算,它们也会给出不同的结果。与数字计算机不同的是,数字计算机可以接收准确的数字并给出准确的结果(0's或1's)。因此,由于大脑也是不完美的,使用不完美的机器来模拟这样的事情是“合乎逻辑的”。另外,争论的另一部分是“摩尔定律正达到极限”。
嗯,我不是软件工程师,一开始我认为他们的论点是有道理的,但我越想越觉得不可能。简单地说,“既然如此,为何以前没有人尝试呢?”
这里是我读到的关于这个主题的一篇文章,它可能有助于回答这个问题。它使用了很多我不太理解的术语,所以我不知道它是真的是事实,还是只是另一种炒作。
发布于 2021-12-22 03:08:24
他们正在通过定制设计计算机来优化关键功能来执行这些特定的任务。这基本上是为了优化效率。
现在,平衡传播只在模拟中起作用。-“创业和学者们找到通往强大模拟AI的途径” (2020-07-30)
如果他们能模拟一台计算机,那么他们就可以使用它了。例如,他们可以模拟它的行为,只需要观察它的结果;所以,如果他们想要的只是结果,那么他们就已经完成了。
但他们不只是想要这种行为。相反:
模拟电路在某种程度上可以节省神经网络的电力,因为它们可以有效地执行一种名为乘法和累加的关键计算。-“创业和学者们找到通往强大模拟AI的途径” (2020-07-30)
这就是,他们想要的是实现效率。
。
有时,人们说机器编码和汇编是最低层次的语言。然后像C,然后是C++,C#,Mathemtica,等等都是高级语言。
但模拟计算的水平较低。这就是,我们可以把CPU看作是数字逻辑的VM,在较低层次的语言(即物理)上虚拟化它。
那么,你知道人们有时是如何推荐手动优化程序集的关键功能吗?手工设计一个关键功能的电路是一个更极端的变化。
这似乎就是他们正在做的事情:对他们所期望的高价值函数的硬核优化,为了效率而剥离数字结构。
他们的论点是,(有些)模拟计算机是不精确的,即使你对它们进行了多次相同的计算,它们也会给出不同的结果。与数字计算机不同的是,数字计算机可以接收准确的数字并给出准确的结果(0's或1's)。因此,由于大脑也是不完美的,使用不完美的机器来模拟这样的事情是“合乎逻辑的”。
据推测,他们认为模拟计算机可以完成这项工作,因此数字逻辑的开销将是不必要的。
这并不是真正的动机去抓住某种新的,神奇的力量,只有模拟计算机才能使用,就像人们认为缺乏承受数字结构开销的动力一样。
简单地说,“既然如此,为何以前没有人尝试呢?”
人们以前做过模拟计算机。听起来他们只是在做一个实现不同算法的程序。
例如,主要的机器学习包可能会附带手工优化的程序集,用于关键的计算,以此来加快速度。他们基本上也在做同样的事情,除了手工优化,一直到模拟计算。
如果你认为一个关键的函数足够重要,值得付出努力,那么这样的手工优化是有意义的。
https://softwareengineering.stackexchange.com/questions/435489
复制相似问题