传统神经网络的内部运作常常被比作一个 “黑匣子”,让人难以理解其原理。MIT 研究团队最近推出了一种全新的网络架构 ——Kolmogorov-Arnold Networks(KANs),通过改变连接点的学习方式,使网络的可解释性提高。
KANs 的设计让网络的内在工作原理变得更透明,主要体现在以下几个方面:
- ** 复杂函数的学习 **:在 KANs 中,每个连接点学习一个映射函数,能够详细描述输入数据到输出结果的转换过程。这不仅让网络捕捉到数据中的复杂关系,还能清楚展示这些关系的具体数学表达式。
- ** 简化的网络结构 **:与传统的深度神经网络相比,KANs 的神经元功能较为简单,主要职责是汇总前一层的输出。这种简化结构减少了内部复杂的非线性变换,使每一层的作用和数据流向更加清晰。
- ** 可视化和手动调整 **:研究者可以直接观察和分析 KANs 中每个连接点上学习的函数,甚至可以手动调整这些函数或修剪不重要的连接。
与传统的多层感知器(MLP)相比,KANs 在多个方面表现出色。传统的 MLP 通过固定的激活函数来表示神经元之间的连接强度,而 KANs 则使用一种输入映射到输出的函数表示连接的全部性质。这种函数比传统的激活函数更复杂,也被称为 “样条”(spline)。而且,KANs 在参数量比 MLP 少 100 倍的情况下,其精度却是 MLP 的 100 倍。
研究人员通过利用简单的物理定律生成输入输出数据点,对每个物理函数使用一部分数据进行网络训练,并用剩余数据进行测试,验证了 KANs 的性能。
如果你想深入了解 KANs 的原理和应用,可以点击 这里 阅读原文。