IT之家 11 月 22 日消息,据新华社,天津大学人工智能学院于强教授团队联合国际科研人员,在理解大脑神经网络信息处理机制方面取得研究进展。
该研究聚焦于神经网络的基本单元 —— 突触,首次揭示了其在处理时空信息过程中的核心工作机制。相关研究成果已于 11 月 22 日发表于国际权威学术期刊《美国科学院院刊》(PNAS)。
▲ 图为神经网络存储容量和噪声鲁棒性分析结果
在大脑中,数量庞大的神经元通过称为“突触”的连接点,以脉冲形式传递和处理信息。对突触工作机制的模拟与计算,是人工智能发展的重要借鉴方向。突触具备两种关键的调节能力:其一为“长时可塑性”,即其连接强度能够长时间增强或减弱,这被视作长期记忆形成的基础;其二为“短时可塑性”,指其在极短时间内动态调整信号强度的能力。这两种可塑性均至关重要,但二者如何协同作用以共同影响大脑的学习效率与信息处理能力,此前尚未明确。
针对这一科学问题,研究团队通过构建突触计算与学习的理论模型开展研究。研究发现,当“长时可塑性”作用于“短时可塑性”时,大脑能够将时间序列上的信息转化为空间上的模式表达。这一机制的运作,被证实能显著提升神经网络的记忆容量、抗干扰能力以及对复杂时空信息的识别能力。该理论模型在小鼠和人类大脑皮层的突触电生理观测中得到了实验验证,显示出较高的生物学合理性。
于强教授在介绍研究成果时比喻道,该发现如同找到了大脑在处理信息时的“协作密码”。他指出,该研究不仅有助于阐释大脑信息处理的底层原理,也为开发更具可解释性、通用性的下一代人工智能方法提供了理论支撑。
IT之家附论文地址:https://doi.org/10.1073/pnas.2426290122