いろいろ備忘録

雑記です。

機械学習

octaveの行列の積

*と.*では異なる。 *は行列として積をとる。 [1 2; 3 4; 5 6] * [2 ; 2] = [ 1*2 + 2*2 ; 3*2 + 4*2 ; 5*2 + 6*2] = [6; 14 ; 22] octave:13> xx = 1 2 3 4 5 6 octave:14> yy = 2 2 octave:15> x * yans = 6 14 22 .*は要素ごと。 [1 2; 3 4; 5 6] .* [ 0 0…

Gradient Descent

Courseraの講義なので、ルー語になってしまうことをご了承ください。 概要 Cost functionをminimizeするには、傾きが0になる方向にθを近づけていく。 Cost functionをθで(Partial )derivativeすることで傾きを求めると、どちらの方向に行けば最小の地点があ…