首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏WOLFRAM

    大脑、神经元、认知:计算神经科学

    Wolfram Research的下一步努力将是让生物学变得可计算,在这里很高兴与大家分享我们最近发布的神经科学相关的内容。 人类神经系统最中心的部分是大脑。 我们新的神经科学内容将带给你大脑、神经元和认知的事实,让你有机会窥视这神奇的神经科学世界。 找到支配左手的神经: 使用 AnatomyPlot3D 函数进行立体可视化: 神经元特性 到目前为止,我们已经看过我们神经系统的宏观图片。现在让我们看看大脑的功能单位,神经元。 随着我们洞察力的增加,知识库的不断扩大,我们可以更好和更深的了解人类的神经系统。 不要走开噢,我们还会发布更多与神经科学相关的内容! 想了解更多关于神经科学的例子,请前往 Wolfram|Alpha 范例网站: http://www.wolframalpha.com/examples/Neuroscience.html http://

    90870发布于 2018-05-31
  • 来自专栏用户6291251的专栏

    Python数据科学神经网络

    (Artificial Neural Network,ANN)人工神经网络模型,以数学和物理的方法对人脑神经网络进行简化、抽象和模拟。 本次只是一个简单的神经网络入门,涉及神经元模型和BP神经网络。 其中神经网络就是采用数值算法求解参数,这就意味着每次计算得到的模型参数都会是不同的。 / 01 / 神经网络 01 神经元模型 神经网络中最基本的成分是神经元模型。 神经元的激活函数使得神经元具有不同的信息处理特性,反映了神经元输出与其激活状态之间的关系。 本次涉及到的激活函数有阈值函数(阶跃函数)、sigmoid函数(S型函数)。 03 BP神经网络 采用误差反向传播算法(有监督学习算法)训练的多层神经网络称为BP神经网络。 属于多层前馈型神经网络,模型的学习过程由信号的正向传播和误差反向传播两个过程组成。 # 选取自变量数据 data = churn.iloc[:, 2:] # 选取因变量数据 target = churn['churn'] # 使用scikit-learn将数据集划分为训练集和测试集 train_data

    96710发布于 2020-10-09
  • 来自专栏CreateAMind

    神经科学的深度学习框架

    抽象 系统神经科学寻求解释大脑如何执行各种感知、认知和运动任务。相反,人工智能试图根据它们必须解决的任务来设计计算系统。对于人工神经网络,设计指定的三个组件是目标函数、学习规则和架构。 在这里,我们认为更多地关注这些组件也有利于系统神经科学。 (2) 他们应该了解我们的解剖学和可塑性知识。并且,(3)他们应该重现我们在大脑中观察到的表征和表征的变化(图 4). 当然,检查这些标准中的每一个都非常重要。它可能需要许多新的实验范式。 结论 许多系统神经科学都试图就大脑中单个神经元的功能制定简洁的陈述。这种方法已经成功地解释了一些(相对较小的)电路和某些硬连线行为。 正如我们所说,如果动物可以解决的一组任务是神经科学的基本考虑因素,那么构建能够实际解决这些任务的模型就至关重要。 不可避免地,需要自下而上的描述性工作和自上而下的理论工作才能在系统神经科学中取得进展。

    43730编辑于 2023-09-01
  • 来自专栏云深之无迹

    Blackrock-Nerotech神经科学设备

    今天朋友给我发了篇文章,里面有几种BCI设备,在说牛逼的时候也可以看看有没有可以学习的地方:

    20310编辑于 2024-08-21
  • 来自专栏CreateAMind

    组合神经科学的新数学语言

    ., 2016 [2])。 我们的工作旨在将这些线索综合成一个专为组合神经科学量身定制的综合操作子演算。 • 第 8 节:总结该操作子演算对组合神经科学的意义,并概述未来研究的关键方向。 关键在于开发可访问且稳健的软件库和工具链(建立在 AlgebraicJulia/Catlab 等努力之上或开发神经科学专用平台),这对于使更广泛的神经科学社区能够使用这些高级数学技术至关重要。 跨学科合作 (Cross-Disciplinary Collaboration): 进展将很大程度上依赖于范畴论学家、计算神经科学家、认知科学家和实验神经科学家之间持续、紧密的合作,以确保数学形式体系保持生物学相关性且可经实证检验

    12410编辑于 2026-03-11
  • 来自专栏脑机接口

    脑机接口基础之神经科学

    负责大脑信息处理任务的是一种叫做神经元的细胞。它们负责从其他大量神经元中获取信息、处理并将信息传递给其他神经元。它们之所以能完成这些工作,主要是由神经元的生物物理特性决定的。 神经元又称神经细胞,是神经系统最基本的结构和功能单位,也常被认为是神经系统最基本的计算单元。神经元分为细胞体和突起两部分。细胞体由细胞核、细胞膜、细胞质组成,具有联络和整合输入信息并传出信息的作用。 轴突除分出侧枝外,其末端形成树枝样的神经末梢。末梢分布于某些组织器官内,形成各种神经末梢装置。 ? 神经元和电信号 神经元是如何产生电信号的呢? 神经元存在于水介质中,细胞内外都有大量的离子,比如钠离子、钙离子,氯离子、钾离子等。 当神经细胞接收到其他神经细胞的神经递质(化学物质)后,会引发一系列事件的发生:钠离子快速流入细胞内,使得细胞膜电位升高,直到钾离子通道打开,促使钾离子流出细胞,使得细胞膜电位下降,这种膜电位快速上升和下降的现象称为动作电位或锋电位

    79720发布于 2020-06-29
  • 来自专栏CreateAMind

    深度学习与神经科学相遇(一)

    引言 计算神经科学专注于计算的详细实现,研究神经编码、动力学和电路。 我们建议一些神经科学的研究方向可以寻求改进和测试这些假设。 介绍 今天的机器学习和神经科学使用的并不是同一种“语言”。 如今在机器学习中突出的人工神经网络最初是受神经科学的启发(McCulloch and Pitts, 1943)。 虽然此后神经科学在机器学习继续发挥作用(Cox and Dean, 2014),但许多主要的发展都是以有效优化的数学为基础,而不是神经科学的发现(Sutskever and Martens,2013)。

    38820发布于 2018-07-24
  • 来自专栏思影科技

    工作记忆的认知神经科学

    50多年来,心理学家和认知神经科学家已经认识到,工作记忆在多个目标处于活动状态时协调加工,并用不存在于当前环境中的信息指导行为的重要性。 2 工作记忆的神经机制 我们可以从许多细节层面来考虑一种机制——某件事发生的过程。在这里,我们首先考虑,在一个相对抽象的水平上,激活长期记忆和感觉运动募集的总体思路的证据。 2.1 工作记忆基于状态描述的神经可行性 近年来,基于状态的工作记忆模型越来越受到重视,因为认知神经科学研究表明,它们能很好地适应神经数据。 事实上,在系统和认知神经科学文献中,我们可以看到PFC刺激表征模型的变量流行度与工作记忆的多成分模型密切相关。 结论 在过去的50年里,工作记忆这个概念激发了许多领域的研究,包括认知、神经科学和临床。

    1.3K10编辑于 2022-04-12
  • 来自专栏大数据文摘

    让老鼠迷上玩《毁灭战士2》?这个匈牙利神经科学家做到了

    当时,匈牙利神经科学家Viktor Tóth正在玩第一人称射击电脑游戏《毁灭战士II》,当他听到这个消息时,他想到的是可不可以让这些动物也来玩一玩这个游戏? 然后时间快进到2021年2月,这时已经有研究人员发现,猪在实验中显示出了游戏玩家的潜力。与此同时,Neuralink又亮相了一只可以用大脑玩电子游戏的猴子。 这些都为Tóth提供了研究灵感。 让老鼠感受到身临其境的体验 Tóth于2021年2月涉足职业玩家老鼠领域,并于8月结束。他认为这是相当成功的,而这仅仅是个开始。 “我决定离开纽约,搬回匈牙利。 除了《毁灭战士2》,Tóth还准备向这些老鼠玩家们安利其他游戏。“我想教他们如何玩3D吃豆人,但这可能行不通,因为老鼠在玩游戏时不能一直回头。 “当人们发现我正在训练老鼠玩《毁灭战士2》时,我收到了很多不同的反馈”,Tóth表示,“有人担心我正在建立一支杀手老鼠大军,但大多数人对此都非常期待,有人还开玩笑说,他们以前用鼠标玩《毁灭战士2》,现在他们可以和老鼠玩了

    58430编辑于 2022-02-25
  • 来自专栏新智元

    【计算神经科学】脑科学与人工智能的必要桥梁

    【作者汪小京】上海纽约大学副校长、纽约大学神经科学教授,原耶鲁大学神经科学终身教授。 计算神经科学:脑科学与人工智能的必要桥梁 众所周知,科技创新对社会经济的进步起着巨大的作用。 同时,发展神经科学也具有战略意义。 因此侧重于理论和模型的计算神经科学与实验神经科学的互动,将会对认识大脑工作机制起到十分关键的作用。 因此,计算神经科学与信息科学应密切合作,对脑科学与类脑人工智能重大前沿问题进行联合攻关。 在这些方面,中国都具有很大的潜力优势,而发展计算神经科学是关键。 计算神经科学在我国还相对薄弱,但我们拥有大批杰出的理工科人才,尤其是年轻人。他们若有机会进入脑科学,计算神经科学的快速发展便指日可待。

    1.7K70发布于 2018-03-13
  • 意识科学:探索神经关联与理论困境

    这些问题可能有客观答案,但由于它们涉及私密、主观的体验,无法直接测量,它们存在于科学方法所能揭示的边界。尽管如此,在过去的30年里,神经科学家在大脑中搜寻所谓的“意识的神经关联”,已经学到了很多。 也许是因为知道他们无法解释这是如何发生的,神经科学家们在20世纪90年代之前一直回避意识的谜团。 “你必须退休、有宗教信仰或者是哲学家才能谈论它,”神经科学家Christof Koch说,他是某中心董事会顾问,也是专注于感知科学的研究非营利组织Tiny Blue Dot Foundation的首席科学家 如果神经科学家能在人们的意识感知切换时扫描他们的大脑,他们就能找到与该变化相关的大脑部分:意识的神经关联。Koch下了大赌注,毫不夸张。 这场主要在在线帖子和媒体中进行的辩论,最终在去年三月的《自然神经科学》杂志上得到了梳理。自那时起,参与的科学家们似乎正试图将这一不愉快的章节抛在脑后。

    21000编辑于 2026-01-27
  • 来自专栏CreateAMind

    深度学习与神经科学相遇(三)

    原文: https://zhuanlan.zhihu.com/p/23979871 深度学习与神经科学相遇(一)[译] 深度学习与神经科学相遇(二)[译] 上次说到误差梯度的“反向传播”(Backpropagation 文中很多地方提到neuron spike, 神经元的电活动,但不代表该神经元一定被激活。个人觉得比较难翻译, “神经元动作电位”在有的地方不太通顺,所以后面就直接使用英文来描述这个概念。 STDP,Wikipedia:是大脑自身调整其神经元之间的连接强度的生物过程。 该过程基于特定神经元的输出和输入动作电位(或spike)的相对定时来调整连接强度。 在神经科学中,我们发现几乎无论在哪里找到前馈连接,哪里就伴随有反馈连接,讨论它们的作用是很多研究理论的主题(Callaway, 2004; Maass et al., 2007)。 例如,在大脑中,神经元往往是兴奋性的或抑制性的,但不是两者同时存在,而在人工神经网络中,单个神经元可向其下游神经元同时发送兴奋性和抑制性信号。

    33820发布于 2018-07-24
  • 来自专栏CreateAMind

    深度学习与神经科学相遇(二)

    https://zhuanlan.zhihu.com/p/23804250 更新:深度学习与神经科学相遇(一)[译] 注:阅读本文需要一定的机器学习、深度学习以及神经科学基础 2. 在一些结构中,其可以使用遗传基因预先规定的神经回路去解决仅需要基于数据即可快速学习的问题,或者可以利用局部优化以避免通过多层神经元来分配信用的需要。 )的神经回路,即快速计算成本函数对于任何给定连接权重的近似梯度。 一些效率增益可以通过扰乱神经活动而不是突触权重来实现,遵循神经突触的任何长程效应通过神经元介导的事实。 大脑中的真实神经回路似乎具有编码与实现那些算法相关的信号的机制(例如,可扩散神经调节器)。

    54430发布于 2018-07-24
  • 来自专栏EpiHub

    R数据科学-2(tidyr)

    R数据科学-2 是用于清洗数据的工具,如dplyr一样,其中每一列都是变量,每一行都是观察值,并且每个单元格都包含一个值。 12 7 2 2 5 23 3 3 3 3 16 6 ## 1. long data df_a 2 2 Shanghai 5 3 3 Shanghai 3 4 1 Beijing 12 5 2 Beijing 23 6 3 Beijing 16 7 1 Guangdong 7 8 2 Guangdong 3 9 3 Guangdong 6 ## 2. wide 2个参数 df %>% spread(key, value) image.png 重复列变量 有时候会碰到,需要新增一列是重复该变量的多少次,如上述例子中, 上海id=1的有2个,然后重复shanghai2

    1.3K20编辑于 2022-11-03
  • 脉冲神经网络:当神经科学遇见人工智能

    脉冲神经网络:当神经科学遇见人工智能人工神经网络(ANN)训练的高能耗和计算成本往往令人望而却步。此外,它们在学习简单时序任务方面的困难和无能似乎困扰着研究社区。 尝试处理这个22的灰度图像,我们意识到它存储为4个整数,范围从0(对于白色)到255(对于黑色)。在ANN中,这组数字是馈送到网络的输入向量。 E = 1/2 ∑(tⱼᵃ - tⱼᵈ)²我们考虑输出与期望脉冲时序的差异的事实允许我们:a)创建类来分类数据和b)使用损失函数与反向传播类似的规则来更新神经元的输入权重。 = self.fc2(spk1) spk2, mem2 = self.lif2(cur2, mem2) spk2_rec.append(spk2) mem2_rec.append(mem2) return torch.stack(spk2_rec, dim=0), torch.stack(mem2_rec, dim=0)# Load

    36610编辑于 2025-10-31
  • 来自专栏脑电信号科研科普

    Nature:功能神经成像作为整合神经科学的催化剂

    从这个角度来看,我们认为功能磁共振成像可以很好地整合系统神经科学、认知神经科学、计算神经科学和临床神经科学的不同子领域。 尽管fMRI在人类可用的其他技术中具有优势,但它有几个值得注意的弱点(图2)。首先,BOLD信号是神经元活动的间接探测,而是跟踪尖峰活动、局部场电位、神经胶质细胞功能和血管平滑肌细胞之间的复杂关系。 因此,考虑到这种情况,尽管有其固有的局限性,我们认为fMRI是整合神经科学子领域的最强候选。图2 功能磁共振成像的好处和挑战。2. 这并不是说fMRI在目前的状态下不能对临床神经科学做出有意义的贡献;相反,我们建议重新关注发生在系统、认知和计算神经科学中的基础科学发现如何为临床神经科学提供信息,反之亦然。 然后我们认为,尽管有其局限性(图2),功能磁共振成像是一种工具,它具有许多积极的特征,使其能够跨越并整合这些相对孤立的子学科。

    61010编辑于 2023-11-26
  • 来自专栏新智元

    Nature:AI与神经科学再现模拟大脑

    伦敦大学学院盖茨比计算神经科学团队的理论神经学专家Maneesh Sahani说。 比如功能性核磁共振,会以每秒1-2毫米的分辨率捕捉大脑活动的图像,神经科学上的难点在于,如何在数据量巨大的图像信息中找到想要的信号。 使用机器分析这些数据可以加速研究。 在2018年,Yamins和他的同事使用听觉皮层实现了类似的壮举,他们打造了一个深度神经网络,能够识别2秒视频剪辑中的音乐单词和类型,其精度与人类相当。 Yamins说,现在只凭神经科学很难揭示无监督学习的运行机制。 计算机的数据处理和建模能力已经带来了脑科学的进步。“人工智能将对神经科学产生巨大影响,”Sussillo说,“而我希望成为其中的一部分。”

    90220发布于 2019-08-15
  • 来自专栏计算机视觉战队

    神经网络机制中的脑科学原理

    过去几十年来通讯与计算机技术的长足发展带来了信息化革命,但现有计算系统仍然面临2个严重的发展瓶颈:一是系统能耗过高,二是对于人脑能轻松胜任的认知任务(比如语言及复杂场景的理解等)处理能力不足,难以支撑高水平的智能 类脑计算是生命科学,特别是脑科学与信息技术的高度交叉和融合,其技术内涵包括对于大脑信息处理原理的深入理解,在此基础上开发新型的处理器、算法和系统集成架构,并将其运用于新一代人工智能、大数据处理、人机交互等广泛的领域 2)DeepMind 公司目前最前沿的研究之一,是试图通过“模块化的网络” 自主学习来解决困扰人工神经网络几十年的 “灾难性失忆” 问题。 但是,他们现在所面临的技术难点,不在芯片的神经元高密度集成上,也不在芯片运算的加速技术上,而是无法制造出高智能表现的神经形态处理器。 总结而言,类脑计算是融合了脑科学与计算机科学、 信息科学和人工智能 等领域的交叉学科,我们有理由期待这一领域的研究将在不久的将来带来更多的令人瞩目的成就,推动智能技术向通用的人类水平的智能,即强人工智能的目标逐渐逼近

    1K70发布于 2018-04-17
  • 来自专栏思影科技

    解开神经科学中的交叉频率耦合

    神经科学的核心问题之一是神经活动如何在不同的空间和时间尺度上协调。这个问题的一个优雅的解决方案可能是,局部神经群的活动是根据全局神经元动力学来调节的。 然而,这种带宽的选择是重要的,因为它定义了什么被认为是一个成分(即边界在哪),以及成分的功率或相位如何随时间变化(图2)。 然而,如果较高频率分量(f2)的带宽不包括较低频率(f1)产生的边峰(side peaks),那么即使CFC存在,也不能被检测到(图2a)。 (c)当观测调制(f1)和被调制(f2)频率时,固定带宽会使CFC分析有偏差,会倾向于低频率f1。 非平稳性和频谱相关性:一枚硬币的两面 我们测量的大多数神经元信号都是非平稳的。 更保守的替代法可以通过在数据序列的一个随机位置的点上切割来最小化block的数量(分割为2块),并交换这两个数据序列来获得(就是随机以某个点把数据分割为前后2半,再前后调换)。

    1.2K20发布于 2021-10-18
  • 来自专栏人工智能

    深度学习与神经科学相遇(三)译

    原文: https://zhuanlan.zhihu.com/p/23979871 深度学习与神经科学相遇(一)[译] 深度学习与神经科学相遇(二)[译] 上次说到误差梯度的“反向传播”(Backpropagation 文中很多地方提到neuron spike, 神经元的电活动,但不代表该神经元一定被激活。个人觉得比较难翻译, “神经元动作电位”在有的地方不太通顺,所以后面就直接使用英文来描述这个概念。 STDP,Wikipedia:是大脑自身调整其神经元之间的连接强度的生物过程。 该过程基于特定神经元的输出和输入动作电位(或spike)的相对定时来调整连接强度。 在神经科学中,我们发现几乎无论在哪里找到前馈连接,哪里就伴随有反馈连接,讨论它们的作用是很多研究理论的主题(Callaway, 2004; Maass et al., 2007)。 例如,在大脑中,神经元往往是兴奋性的或抑制性的,但不是两者同时存在,而在人工神经网络中,单个神经元可向其下游神经元同时发送兴奋性和抑制性信号。

    76800发布于 2017-12-28
领券