2026年3月2日

15~19页

2 监督学习

之前有过基本的了解,其实就是针对固定的输入,经过一系列的计算方法,算出一个结果,因为是监督学习,所以算法是有固定的预测结果的,对于同样的样本数据,训练出来的结果是比较相同的,具体涉及的一些问题,就需要书中协助解答。

2.1

就是上面的解释。

多了一个概念,损失函数,含义是模型基于当前参数 预测训练数据输出与实际输入的不匹配程度。

训练的过程,就是寻找损失最小的过程,这个其实像是逼近定理,取的是一个极值,并不是最值,有本质的差别

2.2 线性回归示例

这个比较容易理解,在高中与大学期间,手动计算过线性回归的参数数据,当时计算的脑袋都能大,但是现在已经忘得干净,只记得有这么个东西,基于大模型的训练,其实也是这个线性回归的计算,从手动计算,转换成了自动计算,甚至于现在的python 都已经开发出了比较简单的一个函数就能够计算出来。

2.2.2 损失 loss

对每组参数赋予一个数值,用来表示不匹配程度,这个值,称为损失,损失越低,表示拟合的越好。

书中介绍了一个公式,其实就是最小二乘法。

本节主要介绍的就是最小二乘法的,略作介绍而已,作者留了一个口子,第5章会继续讲解最小二乘法的内容。

2.2.3 训练

选择随机初始值,通过不断下降损失函数,直到最低点

今日总结

第二章的内容,所有内容在之前都有过了解,特别是损失函数,其实就是最小二乘法的应用,在大学里面计算到手软的一个虐心指标。

截止目前,书中的内容都是有所了解的,所以进度很快,三天就已经到了第22页,比计划中的速度快了一倍,希望未来是同样的进度。