2026年3月6日
第二章就是最小二乘法的介绍,没有更多的新东西,今天又过了一遍。
3.2 介绍了一个拥有3个隐藏单元的浅层神经网络,说是可以用来逼近任意精度的连续函数。
自己的理解是:在么一个段内,对于sita 使用ReLU函数处理后,再使用权重phi ,之后相加,就可以得到一个整体的结果。

这其实是使用的单个输出y。
也可以有多个输出结果,3.3 节就是这个含义
第二章就是最小二乘法的介绍,没有更多的新东西,今天又过了一遍。
3.2 介绍了一个拥有3个隐藏单元的浅层神经网络,说是可以用来逼近任意精度的连续函数。
自己的理解是:在么一个段内,对于sita 使用ReLU函数处理后,再使用权重phi ,之后相加,就可以得到一个整体的结果。

这其实是使用的单个输出y。
也可以有多个输出结果,3.3 节就是这个含义