李宏毅 深度学习 笔记一
from /video/BV15b411g7Wd?from=search&seid=2645809784486608148
脚踏实地学习,安安心心科研
这里是目录呀
李宏毅 深度学习 笔记一一、利用宝可梦的案例来引出回归模型二、损失函数三、Gradient Desent梯度的公式化表达四、我们在设计Model的时候可以考虑多个特征值五、Regularization可以让模型变得更加平滑六、Conclusion & Follow Lectures一、利用宝可梦的案例来引出回归模型
第一节课的内容是比较基础的线性回归的案例,没有太多的内容需要记录。
二、损失函数
损失函数的目的是为了找到最好的函数,这样的理解方式好好诶。
三、Gradient Desent
为什么在线性回归中没有local minimum 呢?
from /p/464887711
但是没有仔细看,有点难的哟
梯度的公式化表达
四、我们在设计Model的时候可以考虑多个特征值
我们可以把上面带有if的式子,写成下面:
同时,也可以添加更多的参数,以及对应参数的平方进来,用于构建model:
五、Regularization可以让模型变得更加平滑
为了解决过拟合的问题:
可以删除一些无意义的参数添加 regularization 可以更容易获得一个更接近0的function,更加平滑的function平滑的function可以获得更小的影响regularization时候是不需要调整bias