2026年3月6日

第二章就是最小二乘法的介绍,没有更多的新东西,今天又过了一遍。

3.2 介绍了一个拥有3个隐藏单元的浅层神经网络,说是可以用来逼近任意精度的连续函数。

自己的理解是:在么一个段内,对于sita 使用ReLU函数处理后,再使用权重phi ,之后相加,就可以得到一个整体的结果。

这其实是使用的单个输出y。

也可以有多个输出结果,3.3 节就是这个含义