在神经科学中,突触可塑性(Synaptic plasticity)是指神经细胞间的连接,即突触,其连接强度可调节的特性。突触的形态和功能可发生较为持久的改变的特性或现象。突触会随着自身活动的加强与减弱相应得到加强与减弱。在
人工神经网络中,突触可塑性是指利用
神经科学中突触可塑性有关理论结合数学模型来构造神经元之间的联系。
简介
突触可塑性主要包括短期突触可塑性(short-term synaptic plasticity)与长期突触可塑性(long-term synaptic plasticity)。短期突触可塑性主要包括易化(facilitation),抑制(depression),增强(potentiation).长期突触可塑性主要表现形式为-长时程增强(Long-term potentiation)和
长时程抑制(Long-term depression),这两者已被公认为是学习记忆活动的细胞水平的生物学基础。现在
人工神经网络主要利用神经细胞学习记忆功能,在神经网络的构建中,突触可塑性有关理论的应用必不可少。
有关理论
长期增强作用
长期增强作用(Long-term potentiation,LTP)又称
长时程增强作用、长期增益效应,是由于同步刺激两个神经元而发生在两个神经元信号传输中的一种持久的增强现象。这是与突触可塑性——突触改变强度的能力相关的几种现象之一。由于记忆被认为是由突触强度的改变来编码的,LTP被普遍视为构成学习与记忆基础的主要分子机制之一。LTP是1966年泰耶·勒莫在兔海马体中发现的,一直以来是研究的热门主题。许多现代的LTP研究试图更好地了解其生物学基本原理,而其他一些研究则以探索LTP和行为学习之间的因果关系为目标。还有一些则试图开发通过提高LTP改善学习和记忆的方法,不管是采用药物手段还是其他手段。LTP还是临床研究的主题,比如在阿兹海默病和成瘾医学领域。LTP具有几个特性,包括输入专一性、关联性、协同性和持久性。
输入专一性
一个突触的LTP一经诱导,不会扩散到其他突触,因而LTP具有输入专一性。LTP传播到那些依据关联性和协同性法则所规定的突触。但是,LTP的输入专一性法则在短距离内不一定特别精确。弗雷和莫里斯在1997年提出了一种解释输入专一性的假说,即突触标识和捕获假说。
关联性
关联性是指,当一条通路的弱刺激尚不足以诱导LTP时,另一通路的强刺激会同时诱导两条通路的LTP。
协同性
LTP可由强烈的强直刺激激发突触的单一通路,或通过许多较弱的刺激协作引发。当一条通向突触的路径受到弱刺激,它产生的突触后去极化不足以诱导LTP。与此相反,当微弱的刺激施加到许多通路,而这些通路均汇聚到一片单一的突触后膜时,产生个别性突触后去极化可以共同突触后细胞去极化,足以诱导LTP的合作。突触标识可能是关联性与协同性的共同基础。布鲁斯·麦克诺顿认为,关联性和协同性之间的差别仅仅是语义上的。
持久性
LTP的作用时间是持久的,可以持续几分钟乃至几个月。这是它与其他突触可塑性的根本区别。
长期抑制作用
长期抑制作用(Long-term depression,LTD)又称长时程抑制作用、长期抑势,指神经突触持续几个小时到几天的抑制行为。强烈的突触刺激(小脑Purkinje细胞)或者长期的弱突触刺激(海马体)均可导致长期抑势的形成。长期抑势被认为是后突触接受体密度的改变导致的,但是前突触释放物的改变也可能有一定影响。小脑的长期抑势被假定对运动神经的学习具有重要作用。海马体的长期抑势也可能对清除过去的记忆具有重要作用。海马体/大脑皮层长期抑势可由NMDA接受体,代谢型麸胺酸盐受体(mGluR)或者endocannabinoids控制。
短期突触可塑性
短时程的突触可塑性是突触可塑性的一种重要表现形式,对实现神经系统的正常功能起着重要作用。突触的短时程可塑性能够加强突触传递的确定性,调节大脑皮层兴奋和抑制之间的平衡,形成神经活动的时间、空间特性,形成并调节皮层丘脑网络的同步振荡。突触的短时程可塑性可能也参与了注意、启动效应、睡眠节律和学习记忆等神经系统高级功能的实现。短时程突触可塑性又分为短时程的增强和压抑作用。
人工神经网络
在机器学习和认知科学领域,人工神经网络(artificial neural network,缩写ANN),简称神经网络(英文:neural network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下
人工神经网络能在
外界信息的基础上改变内部结构,是一种自适应系统。[来源请求]现代神经网络是一种非线性统计性数据建模工具。典型的神经网络具有以下三个部分:
结构 (Architecture) 结构指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activities of the neurons)。
激励函数(Activity Rule) 大部分
神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)。
学习规则(Learning Rule)学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。
特点优点
第一,具有自学习功能。例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。
第二,具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。
第三,具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。