首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏WOLFRAM

    大脑、神经元、认知:计算神经科学

    Wolfram Research的下一步努力将是让生物学变得可计算,在这里很高兴与大家分享我们最近发布的神经科学相关的内容。 人类神经系统最中心的部分是大脑。 我们新的神经科学内容将带给你大脑、神经元和认知的事实,让你有机会窥视这神奇的神经科学世界。 找到支配左手的神经: 使用 AnatomyPlot3D 函数进行立体可视化: 神经元特性 到目前为止,我们已经看过我们神经系统的宏观图片。现在让我们看看大脑的功能单位,神经元。 随着我们洞察力的增加,知识库的不断扩大,我们可以更好和更深的了解人类的神经系统。 不要走开噢,我们还会发布更多与神经科学相关的内容! 想了解更多关于神经科学的例子,请前往 Wolfram|Alpha 范例网站: http://www.wolframalpha.com/examples/Neuroscience.html http://

    90870发布于 2018-05-31
  • 来自专栏用户6291251的专栏

    Python数据科学神经网络

    (Artificial Neural Network,ANN)人工神经网络模型,以数学和物理的方法对人脑神经网络进行简化、抽象和模拟。 本次只是一个简单的神经网络入门,涉及神经元模型和BP神经网络。 其中神经网络就是采用数值算法求解参数,这就意味着每次计算得到的模型参数都会是不同的。 / 01 / 神经网络 01 神经元模型 神经网络中最基本的成分是神经元模型。 神经元的激活函数使得神经元具有不同的信息处理特性,反映了神经元输出与其激活状态之间的关系。 本次涉及到的激活函数有阈值函数(阶跃函数)、sigmoid函数(S型函数)。 02 单层感知器 感知器是一种具有单层计算单元的神经网络,只能用来解决线性可分的二分类问题。 无法运用到多层感知器中,无法确定隐藏层的期望输出。 它的结构类似之前的神经元模型。 03 BP神经网络 采用误差反向传播算法(有监督学习算法)训练的多层神经网络称为BP神经网络。 属于多层前馈型神经网络,模型的学习过程由信号的正向传播和误差反向传播两个过程组成。

    96710发布于 2020-10-09
  • 来自专栏CreateAMind

    神经科学的深度学习框架

    抽象 系统神经科学寻求解释大脑如何执行各种感知、认知和运动任务。相反,人工智能试图根据它们必须解决的任务来设计计算系统。对于人工神经网络,设计指定的三个组件是目标函数、学习规则和架构。 在这里,我们认为更多地关注这些组件也有利于系统神经科学。 大脑学习规则的实证研究 研究突触可塑性规则的神经科学有着悠久的传统。然而,这些研究很少探讨学分分配是如何发生的。 结论 许多系统神经科学都试图就大脑中单个神经元的功能制定简洁的陈述。这种方法已经成功地解释了一些(相对较小的)电路和某些硬连线行为。 正如我们所说,如果动物可以解决的一组任务是神经科学的基本考虑因素,那么构建能够实际解决这些任务的模型就至关重要。 不可避免地,需要自下而上的描述性工作和自上而下的理论工作才能在系统神经科学中取得进展。

    43730编辑于 2023-09-01
  • 来自专栏云深之无迹

    Blackrock-Nerotech神经科学设备

    今天朋友给我发了篇文章,里面有几种BCI设备,在说牛逼的时候也可以看看有没有可以学习的地方:

    20310编辑于 2024-08-21
  • 来自专栏CreateAMind

    组合神经科学的新数学语言

    [44]; Teatro et al., 2022 [63]) 来建模复杂系统,包括马尔可夫过程 (Baez & Fong, 2016 [6])、信号流图 (Bonchi et al., 2014 [9] 我们的工作旨在将这些线索综合成一个专为组合神经科学量身定制的综合操作子演算。 • 第 8 节:总结该操作子演算对组合神经科学的意义,并概述未来研究的关键方向。 关键在于开发可访问且稳健的软件库和工具链(建立在 AlgebraicJulia/Catlab 等努力之上或开发神经科学专用平台),这对于使更广泛的神经科学社区能够使用这些高级数学技术至关重要。 跨学科合作 (Cross-Disciplinary Collaboration): 进展将很大程度上依赖于范畴论学家、计算神经科学家、认知科学家和实验神经科学家之间持续、紧密的合作,以确保数学形式体系保持生物学相关性且可经实证检验

    12410编辑于 2026-03-11
  • 来自专栏脑机接口

    脑机接口基础之神经科学

    负责大脑信息处理任务的是一种叫做神经元的细胞。它们负责从其他大量神经元中获取信息、处理并将信息传递给其他神经元。它们之所以能完成这些工作,主要是由神经元的生物物理特性决定的。 神经元又称神经细胞,是神经系统最基本的结构和功能单位,也常被认为是神经系统最基本的计算单元。神经元分为细胞体和突起两部分。细胞体由细胞核、细胞膜、细胞质组成,具有联络和整合输入信息并传出信息的作用。 轴突除分出侧枝外,其末端形成树枝样的神经末梢。末梢分布于某些组织器官内,形成各种神经末梢装置。 ? 神经元和电信号 神经元是如何产生电信号的呢? 神经元存在于水介质中,细胞内外都有大量的离子,比如钠离子、钙离子,氯离子、钾离子等。 当神经细胞接收到其他神经细胞的神经递质(化学物质)后,会引发一系列事件的发生:钠离子快速流入细胞内,使得细胞膜电位升高,直到钾离子通道打开,促使钾离子流出细胞,使得细胞膜电位下降,这种膜电位快速上升和下降的现象称为动作电位或锋电位

    79720发布于 2020-06-29
  • 来自专栏CreateAMind

    深度学习与神经科学相遇(一)

    引言 计算神经科学专注于计算的详细实现,研究神经编码、动力学和电路。 我们建议一些神经科学的研究方向可以寻求改进和测试这些假设。 介绍 今天的机器学习和神经科学使用的并不是同一种“语言”。 如今在机器学习中突出的人工神经网络最初是受神经科学的启发(McCulloch and Pitts, 1943)。 虽然此后神经科学在机器学习继续发挥作用(Cox and Dean, 2014),但许多主要的发展都是以有效优化的数学为基础,而不是神经科学的发现(Sutskever and Martens,2013)。

    38820发布于 2018-07-24
  • 来自专栏思影科技

    工作记忆的认知神经科学

    50多年来,心理学家和认知神经科学家已经认识到,工作记忆在多个目标处于活动状态时协调加工,并用不存在于当前环境中的信息指导行为的重要性。 虽然我们不能仅仅在一篇综述中就对如此庞大的文献做出客观评价,但我们确实希望从认知神经科学的角度强调我们认为的工作记忆研究的重要进展。 2.1 工作记忆基于状态描述的神经可行性 近年来,基于状态的工作记忆模型越来越受到重视,因为认知神经科学研究表明,它们能很好地适应神经数据。 事实上,在系统和认知神经科学文献中,我们可以看到PFC刺激表征模型的变量流行度与工作记忆的多成分模型密切相关。 结论 在过去的50年里,工作记忆这个概念激发了许多领域的研究,包括认知、神经科学和临床。

    1.3K10编辑于 2022-04-12
  • 来自专栏新智元

    【计算神经科学】脑科学与人工智能的必要桥梁

    【作者汪小京】上海纽约大学副校长、纽约大学神经科学教授,原耶鲁大学神经科学终身教授。 计算神经科学:脑科学与人工智能的必要桥梁 众所周知,科技创新对社会经济的进步起着巨大的作用。 同时,发展神经科学也具有战略意义。 因此侧重于理论和模型的计算神经科学与实验神经科学的互动,将会对认识大脑工作机制起到十分关键的作用。 因此,计算神经科学与信息科学应密切合作,对脑科学与类脑人工智能重大前沿问题进行联合攻关。 在这些方面,中国都具有很大的潜力优势,而发展计算神经科学是关键。 计算神经科学在我国还相对薄弱,但我们拥有大批杰出的理工科人才,尤其是年轻人。他们若有机会进入脑科学,计算神经科学的快速发展便指日可待。

    1.7K70发布于 2018-03-13
  • 意识科学:探索神经关联与理论困境

    这些问题可能有客观答案,但由于它们涉及私密、主观的体验,无法直接测量,它们存在于科学方法所能揭示的边界。尽管如此,在过去的30年里,神经科学家在大脑中搜寻所谓的“意识的神经关联”,已经学到了很多。 也许是因为知道他们无法解释这是如何发生的,神经科学家们在20世纪90年代之前一直回避意识的谜团。 如果神经科学家能在人们的意识感知切换时扫描他们的大脑,他们就能找到与该变化相关的大脑部分:意识的神经关联。Koch下了大赌注,毫不夸张。 2023年9月,一封公开信在线发布,称整合信息理论为伪科学,由该领域内外的124名研究人员签署。争论的焦点较少在于理论本身,而更多在于媒体对其的报道,公开信的作者认为这些报道轻信不疑。 这场主要在在线帖子和媒体中进行的辩论,最终在去年三月的《自然神经科学》杂志上得到了梳理。自那时起,参与的科学家们似乎正试图将这一不愉快的章节抛在脑后。

    21000编辑于 2026-01-27
  • 来自专栏CreateAMind

    深度学习与神经科学相遇(三)

    原文: https://zhuanlan.zhihu.com/p/23979871 深度学习与神经科学相遇(一)[译] 深度学习与神经科学相遇(二)[译] 上次说到误差梯度的“反向传播”(Backpropagation 文中很多地方提到neuron spike, 神经元的电活动,但不代表该神经元一定被激活。个人觉得比较难翻译, “神经元动作电位”在有的地方不太通顺,所以后面就直接使用英文来描述这个概念。 STDP,Wikipedia:是大脑自身调整其神经元之间的连接强度的生物过程。 该过程基于特定神经元的输出和输入动作电位(或spike)的相对定时来调整连接强度。 在神经科学中,我们发现几乎无论在哪里找到前馈连接,哪里就伴随有反馈连接,讨论它们的作用是很多研究理论的主题(Callaway, 2004; Maass et al., 2007)。 例如,在大脑中,神经元往往是兴奋性的或抑制性的,但不是两者同时存在,而在人工神经网络中,单个神经元可向其下游神经元同时发送兴奋性和抑制性信号。

    33820发布于 2018-07-24
  • 来自专栏CreateAMind

    深度学习与神经科学相遇(二)

    https://zhuanlan.zhihu.com/p/23804250 更新:深度学习与神经科学相遇(一)[译] 注:阅读本文需要一定的机器学习、深度学习以及神经科学基础 2. 在一些结构中,其可以使用遗传基因预先规定的神经回路去解决仅需要基于数据即可快速学习的问题,或者可以利用局部优化以避免通过多层神经元来分配信用的需要。 )的神经回路,即快速计算成本函数对于任何给定连接权重的近似梯度。 一些效率增益可以通过扰乱神经活动而不是突触权重来实现,遵循神经突触的任何长程效应通过神经元介导的事实。 大脑中的真实神经回路似乎具有编码与实现那些算法相关的信号的机制(例如,可扩散神经调节器)。

    54430发布于 2018-07-24
  • 来自专栏深度学习

    9神经网络优化算法详解

    理解全局最小化和局部最小化局部最小化:Local Minima全局最小化:Global Minima优化器如何工作优化器是用于改变神经网络属性(例如权重和学习率)的算法或方法,以减少损失。 正在上传图片...同样,在训练神经网络时,我们无法从一开始就确定模型的权重应该是什么,但可以通过基于损失函数的不断调整(类似于判断登山者是否在下山)来逐步接近目标。 优化器的作用就在于此: 它决定了如何调整神经网络的权重和学习率以减少损失。优化算法通过不断优化损失函数,帮助模型尽可能地输出准确的结果。 9种优化器列举9种不同类型的优化器以及它们是如何精确地工作以最小化损失函数的。 3.7793, 3.5844], [3.1313, -3.2832, -1.8481], c='b', s=100, label="Local Minima")plt.legend()plt.show()优化器9

    1.7K10编辑于 2025-02-07
  • 来自专栏神经网络和深度学习

    9 神经网络: 学习(Neural Networks: Learning)

    Checking) 9.6 随机初始化(Random Initialization) 9.7 综合起来(Putting It Together) 9.8 自主驾驶(Autonomous Driving) 9 神经网络: 学习(Neural Networks: Learning) 9.1 代价函数(Cost Function) 神经网络的分类问题有两种: •二元分类问题(0/1分类) 只有一个输出单元 (K Rm: 即 m 维向量 Rm×n: 即 m×n 维矩阵 再次可见,神经网络背后的思想是和逻辑回归一样的,但由于计算复杂,实际上神经网络的代价函数 J(Θ) 是一个非凸(non-convex)函数。 《机器学习》一书中提到的 BP 网络强大之处: 任何布尔函数都可由两层神经网络准确表达,但所需的中间单元的数量随输入呈指数级增长; 任何连续函数都可由两层神经网络以任意精度逼近; 任何函数都可由三层神经网络以任意程度逼近 9.7 综合起来(Putting It Together) 一般来说,应用神经网络有如下步骤: 4.神经网络的建模(后续补充) –选取特征,确定特征向量 x 的维度,即输入单元的数量。

    74540发布于 2020-07-09
  • 来自专栏数据科学与人工智能

    【数据科学9个针对初学者的数据科学公开课

    如果你想自学,网络是一个非常好的地方,这里有太多的资源,有大神 Devendra Desale就挑选出了网络公开课中优秀的数据科学课程推荐给大家。 包括:(1)监督学习(参数或非参数算法,支持向量机,内核,神经网络)。 (2)无监督学习(集群、降维、推荐系统、深入学习)。 本课程结束时,你就会知道如何用数据科学和机器学习模型来构建和获得见解。 教授这门课的是Yaser S.Abu-Mostafa ,他是加州理工学院电气工程和计算机科学教授,不仅是亚马逊里机器学习的畅销书的作者,也是一个会简化学习方法的教授。 : 10周 需要的条件: 编程 工具: Python,R,SQL 介绍数据科学的基础知识,通过实践经验从大数据中提取价值。

    1.7K60发布于 2018-02-26
  • 脉冲神经网络:当神经科学遇见人工智能

    脉冲神经网络:当神经科学遇见人工智能人工神经网络(ANN)训练的高能耗和计算成本往往令人望而却步。此外,它们在学习简单时序任务方面的困难和无能似乎困扰着研究社区。 信息表示:脉冲生物神经元细胞的行为不像我们在ANN中使用的神经元。但是什么使它们不同呢?一个主要区别是生物神经元可以处理的输入和输出信号。生物神经元的输出不是要传播的浮点数。 另一方面,生物神经元依赖于时间维度。在任何时刻,它们都可以接收输入信号并产生输出,而不管其他神经元的行为如何。总之,生物神经元具有内部动力学,导致它们随时间变化。 因此,稀疏的输入脉冲不会导致神经元放电。为了进一步理解生物神经元的行为,我们将看一个例子。 另一方面,在神经元放电之前到达的脉冲强烈影响神经元脉冲的时间,因此其权重增加以通过这个突触(权重w₁)在时间上连接两个神经元。由于这个过程,模式出现在神经元的连接中,并且已经表明实现了学习。

    36610编辑于 2025-10-31
  • 来自专栏脑电信号科研科普

    Nature:功能神经成像作为整合神经科学的催化剂

    尽管取得了这些进展,但使用功能磁共振成像的人类认知神经科学的进展与神经科学其他子领域的快速进展相对孤立,这些子领域本身也在某种程度上彼此孤立。 从这个角度来看,我们认为功能磁共振成像可以很好地整合系统神经科学、认知神经科学、计算神经科学和临床神经科学的不同子领域。 4.计算神经科学中的fMRI有了功能神经成像获取认知过程的途径,神经科学家面临着如何理解功能神经成像数据中固有的复杂模式的新挑战。 这并不是说fMRI在目前的状态下不能对临床神经科学做出有意义的贡献;相反,我们建议重新关注发生在系统、认知和计算神经科学中的基础科学发现如何为临床神经科学提供信息,反之亦然。 虽然很多注意力都集中在基础科学的发现如何为临床问题提供信息上,但fMRI也可以促进从临床神经科学回到系统、认知和计算神经科学的基础科学模块的丰富可能的相互贡献。

    61110编辑于 2023-11-26
  • 来自专栏龙行天下CSIEM

    科学瞎想系列之一三二 电机绕组(9)

    上期讲了主极磁场分布不是正弦时产生的磁势高次谐波。本期我们讲另一种谐波电势——齿谐波电势。所谓齿谐波电势就是谐波的次数与每极槽数有着特定关系的谐波电势,根据上期讲的“种瓜得瓜种豆得豆”理论,其实齿谐波电势也是由于主极磁势中存在着齿谐波磁势引起的,只不过这种次数的谐波电势被齿槽给“调制放大”了,为了说清楚齿谐波电势被“调制放大”的机理,我们还是从任意υ次谐波电势的幅值讲起。 1 任意υ次谐波电势的大小 1.1 任意υ次谐波磁势产生的谐波磁场 上一期的(11)式讲到,对于转子主极任意一个υ次谐波磁势所产生的磁场包括三种,现将上期的第(11)式的推导结果重新列出如下: Bυ=Bυ0•sin(υ•ωt-υ•p•α)+∑Bυk•sin[υ•ωt-(k•Z+υ•p)α]+∑Bυk•sin[υ•ωt+(k•Z-υ•p)α] ⑴ 式中:Z为定子槽数;p为极对数;ω为转子旋转电角速度;k=1,2,3…; Bυ0=Fυ•λ0 ⑵ Bυk=(1/2)•Fυ•λk ⑶ 上述⑴式表明,任意一个υ次谐波磁势都会在气隙中产生三种谐波磁场:一是极对数为υ•p、转向与转子相同(顺转)、转速为同步转速的基本谐波磁场,(⑴式中第一项);二是一系列极对数为k•Z+υ•p(k=1,2,3…),转速为n1•υ•p/(k•Z+υ•p)的顺转谐波磁场(⑴式中第二项和式);三是一系列极对数为k•Z-υ•p,转向或顺转或反转、转速为n1•υ•p/(k•Z-υ•p)的谐波磁场(⑴式中第三项和式)。虽然这些谐波磁场的极对数各不相同,转速和转向也各式各样,但却都在定子绕组中感应出相同频率υ•f1的谐波电势。接下来我们就分别对这三种磁场产生的谐波电势进行解析计算,需要说明的是,这里用解析法计算纯粹是为了分析影响谐波电势大小的因素,以便后续讲解削弱谐波电势的机理,实际设计电机时还是建议用有限元进行定量仿真计算。 1.2 基本谐波磁场产生的υ次谐波电势 基本谐波磁场的极对数为υ•p,转速为n1,磁场幅值为Bυ0。感应出的谐波电势频率为υ•f1,谐波电势有效值为: Eυ0=4.44•υ•f1•Kdpυ•W•Φυ0 ⑷ Φυ0=(2/π)•Bυ0•τυ0•l ⑸ τυ0=π•D/(2υ•p) ⑹ 式中:Φυ0为基本谐波磁场的每极磁通;τυ0为基本谐波磁场的极距;D为电枢直径;l为铁心长;W为每相串联匝数;Kdpυ为υ次谐波绕组系数。将⑵、⑸、⑹式代入⑷式得: Eυ0=4.44•υ•f1•Kdpυ•W•(2/π)•Fυ•λ0•π•D•l/(2υ•p) =4.44•f1•(Kdpυ•W/p)•D•l•Fυ•λ0 =Ke•Kdpυ•Fυ•λ0 ⑺ 式中:Ke=4.44•f1•W•D•l/p,对于已经制造完成的电机,在一定的转速下(f1一定),Ke为一常数。由⑺式可见,由基本谐波磁场产生的υ次谐波电势与υ次谐波的绕组系数Kdpυ、υ次谐波的磁势幅值Fυ以及气隙平均磁导λ0成正比,要想削弱基本谐波磁场产生的谐波电势,需要从这三个方面入手(后续会详细讲解削弱方法)。 1.3 极对数为k•Z+υ•p的谐波磁场产生的υ次谐波电势 极对数为k•Z+υ•p的谐波磁场转速为n1•υ•p/(k•Z+υ•p),磁场幅值为Bυk。在绕组中同样感应出频率为υ•f1的谐波电势,谐波电势有效值为: E′υk=∑【k=1,2,3…】4.44•υ•f1•Kdpυ•W•Φ′υk ⑻ Φ′υk=(2/π)•Bυk•τ′υk•l ⑼ τ′υk=π•D/[2(k•Z+υ•p)] ⑽ 式中:Φ′υk为极对数为k•Z+υ•p的谐波磁场的每极磁通;τ′υk为极对数为k•Z+υ•p的谐波磁场的极距。将⑶、⑼、⑽式代入⑻式并整理得: E′υk=∑【k=1,2,3…】(1/2)•Ke•Kdpυ•Fυ•λk/ [k•Z/(υ•p)+1] =∑【k=1,2,3…】(1/2)•Ke•Kdpυ•Fυ•∑【k=1,2,3…】(λk•(υ•p)/(k•Z+υ•p) =Ke•Kdpυ•Fυ•∑【k=1,2,3…】λk•ξ1 =Eυ0•∑【k=1,2,3…】(λk/λ0)•ξ1 (11) 式中: ξ1=(υ•p)/[2•(k•Z+υ•p)] (12) 由(11)式可见,极对数为k•Z+υ•p (k=1,2,3…)的一系列谐波磁场产生的υ次谐波电势有效值,除了与υ次谐波的绕组系数Kdpυ、υ次谐波的磁势幅值Fυ以及k阶气隙磁导λk成正比外,还与一个系数ξ1有关,由(12)式可见,这个系数ξ1<1,且(λk/λ0)<1,这就意味着这种极对数为k•Z+υ•p (k

    1.4K20发布于 2021-05-10
  • 来自专栏数据科学与人工智能

    【数据科学家】9步让你从菜鸟成为数据科学

    由于数据科学和数据分析是个快速发展的领域,当前的合格申请者严重缺乏。这使得数据科学家对于那些有兴趣,并寻找新的职业生涯的人成为有前途的和有利可图的领域。 员工:当然,我还能把它们相乘 但如何能成为一个数据科学家呢? 首先,各个公司对数据科学家的定义各不相同,当前还没有统一的定义。 因此,排除一个数据科学的学位计划(世界各地的著名大学雨后春笋般的出现着),你需要采取什么措施,成为一个数据科学家? 8 练习 在你在新的领域有一个工作之前,你如何练习成为数据科学家?使用开源代码开发一个你喜欢的项目、参加比赛、成为网络工作数据科学家、参加训练营、志愿者或实习生。 最好的数据科学家在数据领域将拥有经验和直觉,能够展示自己的作品,以成为应聘者。 9 成为社区的一员 跟着同行业中的思想领袖,阅读行业博客和网站,参与,提出问题,并随时了解时事新闻和理论。

    71250发布于 2018-02-27
  • 来自专栏新智元

    Nature:AI与神经科学再现模拟大脑

    伦敦大学学院盖茨比计算神经科学团队的理论神经学专家Maneesh Sahani说。 “ 斯坦福大学的计算神经学家Daniel Yamins正在开发一套能够模拟大脑活动的神经网络 再现感官 斯坦福大学计算神经科学家Daniel Yamins采用的方法是建立一个可以复制大脑数据的人工系统。 Yamins说,现在只凭神经科学很难揭示无监督学习的运行机制。 “如果没有AI解决方案,如果没有任何人工构建的方式,就不可能建立起大脑的运作模型,” 他认为,计算机科学家更有可能提出一种或多种可供神经科学家测试的解决方案。 计算机的数据处理和建模能力已经带来了脑科学的进步。“人工智能将对神经科学产生巨大影响,”Sussillo说,“而我希望成为其中的一部分。”

    90220发布于 2019-08-15
领券