近日,美国科学院院报(PNAS)刊登了一篇论文,“Learning in deep neural networks and brains with similarity-weighted interleaved learning”,由加拿大皇家学会会士、知名神经科学家 Bruce McNaughton 的团队发表。他们的工作发现,通过将旧信息与新信息进行相似性加权交错训练,深度网络可以快速学习新事物,不仅降低了遗忘率,而且使用的数据量大幅减少。
论文作者还作出一个假设:通过跟踪最近活跃的神经元和神经动力学吸引子(attractor dynamics)的持续兴奋性轨迹,可以在大脑中实现相似性加权交错。这些发现可能会促进神经科学和机器学习的进一步发展。
应用于图像分类数据集的
深度线性神经网络实现快速和
基于CIFAR10使用SWIL
新内容与旧类别的一致性
利用SWIL扩大类别间的距离,
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!