线性模型:
线性回归 假设有d个变量,知道 x 值与对应的 y 值,求每个变量对应的权重 w fx=w1x1+w2x2+…+wdxd
导数是用来反映函数局部性质的工具。 一个函数在某一点的导数描述了这个函数在这一点附近的变化率。如果函数的自变量和取值都是实数的话,函数在某一点的导数就是该函数所代表的曲线在这一点上的切线斜率。导数的本质是通过极限的概念对函数进行局部的线性逼近
梯度下降法 往斜率的反方向移动 loss=|预测值-目标值|min 初始化一个𝜽,求导,如果导数大于 0,𝜽减小一定值;如果导数小于 0,𝜽增大一定值,直到导数接近于 0,这个𝜽就是令 loss 最小的目标值 𝜽每次变化一定值,被称为学习率,过大过小都是影响很大,确定方法: 1.网格搜索,设 n 次,分别计算,比较结果选择最优 2.梯度限制,设置目标梯度向量值,无限迭代计算梯度向量值,直到结果小于目标向量值
局部最优和全局最优,暂时没找到什么好办法
算法优劣 时间长短,是否需要额外的空间 Big O 随着问题规模的扩大,时间和空间变化的规律,最差的情况