y=1の場合とy=0の場合と、2つの別れたものを書いてきたが、これを上記のようにまとめることができる。 なぜなら、y=1の場合には、式の後ろの方にある(1-y)が0になってきえて、前半だけになり、y=0の場合には前半の-yが0なので前半が消える。yは0もしくは1しか取らないので、結果、組み合わせる前と同じことになる。 そしてなんとコストファンクションを解くために偏微分すると、リニアプログレッションのときと全く同じ式になる。 コレは全く同じかといえば、同じではない なぜなら、リニアのときは $h_\theta()$ は単なる一次式だったが、logistic regression の場合は、一次式をシグモイド関数g()にぶっこんだ値だから。そこが異なる。 そして、結果的に同じコストファンクションの計算になるので、やることは同じ
シュリーマンの伝説の学習法に則って、スペイン語を一から勉強!辞書を使わずに、スペイン語の村上春樹と英語の村上春樹を並べて、丸暗記をしていきます。本当にスペイン語がわかるようになるのか🦀