Skip to main content

Posts

『逆有料あだ名命名』私が500円をみなさまに支払った上で、あだ名をお付けいたします〜

今エデンでは、「逆有料」なんちゃらムーブメントが起きています。 例えば初期の成功例として、ざわさんの「逆有料悩み相談」があります。 通常であれば悩み相談というのは、依頼者からお願いします頼まれてと言われて聞いてあげるものですが、「いやいや、そもそもざわさんに話を聞いて欲しい人は今の段階ではいない。逆に自分が金を払って、初めて聞いてもらえるレベルだろう。」というえらてんの提案により、この企画が始まりました。 えらてんの、需要があるのかどうかを判断するセンス、嗅覚には眼を見張るものがあります。 確かに悩み相談というのは、ある程度信頼している人にするものなので、突然他人に依頼したいことはありません。本来ざわさんには需要はないのです。 しかし、有料、つまりお金をもらえるのであれば、まあ、聞いてもらってもいいかなあ…という人は出てくるかもしれません。こうして需要を生み出してしまう。面白いお金の使い方です。 そうこうしているうちに、ざわさん元来の人の良さがうまく出てきて、人間的に大きく成長されたようです。私も悩み相談の場に立ち会ったことがありましたが、非常に真摯にクライアントの話を傾聴し、共感した上で鋭いアドバイスを返されていました。逆有料相談員、おそるべし。 他にも、最近始まったぶらっくトトロさんの「逆有料レンタル彼氏」もあります。レンタル彼氏というのは本来、イケメンであるとか恋愛市場において価値がある人が対価をもらってやるわけですね。しかし、モテたいと嘆いているブラックトトロさんにはその市場価値はないわけです。 ではどうするか。お金を払って彼氏をやらせいただく。これだと。 特にえらてんさんの提案で非常に大事だなと思ったのは、「自分が安全な人間であることを証明する」、「終わりの時間を明確にして、面倒なことにならないことをあらかじめ宣言する」、「クライアント情報の秘密厳守」です。 一般的にいって女性は、生涯を通じて、ロクでもない男につきまとわれて迷惑しているので(一般論ですよ)、そうなることを危惧しており、怪しそうな男はシャットアウトする、という行動原理があると思います(一般論として) ですので「この人は危険ではない」ということを証明することが非常に大切であると思います。そういういう意味で、えらてんさんの提案は非常に重要な項目です。安...
Recent posts

逆有料インテリ 私がお金を払ってみなさんの疑問をリサーチいたします!

今エデンでは、「逆有料」なんちゃらムーブメントが起きています。 例えば初期の成功例として、ざわさんの「逆有料悩み相談」があります。 通常であれば悩み相談というのは、依頼者からお願いします頼まれてと言われて聞いてあげるものですが、「いやいや、そもそもざわさんに話を聞いて欲しい人は今の段階ではいない。逆に自分が金を払って、初めて聞いてもらえるレベルだろう。」というえらてんの提案により、この企画が始まりました。 えらてんの、需要があるのかどうかを判断するセンス、嗅覚には眼を見張るものがあります。 確かに悩み相談というのは、ある程度信頼している人にするものなので、突然他人に依頼したいことはありません。本来ざわさんには需要はないのです。 しかし、有料、つまりお金をもらえるのであれば、まあ、聞いてもらってもいいかなあ…という人は出てくるかもしれません。こうして需要を生み出してしまう。面白いお金の使い方です。

week3

y=1の場合とy=0の場合と、2つの別れたものを書いてきたが、これを上記のようにまとめることができる。 なぜなら、y=1の場合には、式の後ろの方にある(1-y)が0になってきえて、前半だけになり、y=0の場合には前半の-yが0なので前半が消える。yは0もしくは1しか取らないので、結果、組み合わせる前と同じことになる。 そしてなんとコストファンクションを解くために偏微分すると、リニアプログレッションのときと全く同じ式になる。 コレは全く同じかといえば、同じではない なぜなら、リニアのときは $h_\theta()$ は単なる一次式だったが、logistic regression の場合は、一次式をシグモイド関数g()にぶっこんだ値だから。そこが異なる。 そして、結果的に同じコストファンクションの計算になるので、やることは同じ

機械学習week3 logistic regression の const function

動画1 既に学習したcost function J(θ)を別の表し方をしてみる 単に、i番目の特徴量xとi番目の結果であるyの組み合わせの関数を定義してるだけ 次に、linear regression のコストファンクションは、logistic regression には合わないので、それ専用のコストファンクションを考えていく。 ちなみにlinear regression のコストファンクションが上手くない理由は以下。 $h_\theta(x)$ が $\frac{1}{1+e^{-\theta^Tx}}$ なので、これは1次関数ではない。今まではこれが1次関数だった。その場合には convex つまり極小値が1個しかないグラフになった。 $h_\theta(x)$ が $\frac{1}{1+e^{-\theta^Tx}}$ の場合には non-convex つまり極小値が複数あるものになるので、上手くgradient descent が機能しない。 logistic regression の場合の cost function まずy=1のときと、y=0のときでファンクションが違う 左の図が $-log(h_\theta(x))$ だ。 なぜこうなるかというと、log(z)が左の青い図 -がついて反転するのでピンクと赤の部分になる さらに、zの部分に $h_\theta(x)$ が入るわけだが、 $h_\theta(x)$ はシグモイド関数の中に入ってる関係上、0〜1までの値しか取らないので、結果としてピンクのエリアになる。これが $-log(h_\theta(x))$ の図 y=0のときは以下

機械学習 week3 Classification

動画1 分類問題 classification において一つの戦略として、linear regression を用いて、0.5より大きいものを1 true , 0.5 より小さいものを 0 false に分類するように解く方法が考えられるが、これは上手くいかない。なぜなら分類問題は、linear regression 似ているかもしれないが、根本的には異なるものだから。 binary classification problem 値が0か1、つまり2つの分類しかしない問題。 飛ばす 動画2 sigmoid function = logistic function $g(z)=\frac{1}{1+e^{-z}}$ つまり、どんな値を入れても、必ず0から1までの値が出力されるのがポイント。 なぜなら、分類問題においては 0が false 1が true になるように設定しているから、その範囲で値が出力される事が大事。 この sigmoid function の z に、いままで使ってきた一次式$\theta^Tx$を入れる。それが予測のために使う logistic regression model $h_\theta(x) =g(\theta^Tx)$←これがlogistic regression model $z=\theta^Tx$ $g(z)=\frac{1}{1+e^{-z}}$ 代入したらこう $h_\theta(x) =\frac{1}{1+e^{-\theta^Tx}}$ logistic regression model h(x) の値が示すものは、Y=1になると予想できる確率 例えば logistic regression の h(x) に特徴量$x_1$を入れた値が0.7だったとする。 $h(x_1)=0.7$ コレが意味するのは、$x_1$の時には、70%の確率でtrueであると logistic regression model が判定しているということ。 これを数学的に表すと次のようになる。 $h(x)=P(y=1|x;\theta)$ つまりh(x)が示すのは、特徴量xの場合に(|x)、yが1になる確率であり(P(y=1)) 、特徴量xとθが絡...

機械学習 week2-2 / 特徴量の大きさをだいたい揃える

feature scaling 特徴量をだいたい同じ範囲になるよう整える 動画3 https://www.coursera.org/learn/machine-learning/lecture/xx3Da/gradient-descent-in-practice-i-feature-scaling 特徴量の幅が、各特徴の種類によって異なる場合、だいたい揃えると計算が楽だし早い。 例えば、2つの特徴量、部屋のサイズ(0-2000 feet)とベッドルームの数(0-5)の場合、明らかに部屋のサイズのほうが数字が大きい。これをだいたい同じ範囲にまとめる。 そうしない場合、コストファンクションを等高線で表した場合の円が、歪む。この歪みは、特徴量の比率に従って歪む。なので、同じ範囲にあれば、比が一定になるので、真円に近づく。そのほうが計算しやすく、みやすい。時間がかかる。 特徴量が完全に同じ範囲、スケールになくても神経質に気にする必要はないが、かなりスケールが異なる場合には、注意。 次のようにスケーリングする方法がある $x_i := \frac{x_i - u_i}{s_i}$ $u_i$ は特徴量の平均値、$s_i$ はレンジ(最大-最小) 動画4 翻訳が現時点でずれているので英語字幕で見る方がいい https://www.coursera.org/learn/machine-learning/lecture/3iawu/gradient-descent-in-practice-ii-learning-rate メインはラーニングレイトを上手く設定する方法 gradient descent がうまく機能するかデバグする方法 よいラーニングレイトαを設定する方法 const function J の値をY軸にとり、試行回数をX軸にとって、Yが減っていっているなら gradient descent はうまくいっている。反対にYが増えているならαが大きすぎるので、αを小さくすること。 convergence は、値が収束することっぽい。1試行ごとに10^-3 くらいの変化 しかしなくなったらう収束とみなして良い。 動画5 2つの特徴量、家の正面の長さと...

機械学習week2 / multivariate linear regression : 複数変数を持つ一次関数を扱う

week 1 では、以下の事柄に関して、一つの定数と一つの変数を持つ1次関数に関して検討をおこなった。つまり f(x) = 定数a + θ(:xの変数) * x の場合の検討である。 const function const function の値が最小になるようにする = この場合が、最適な予想曲線となる cost function が最小になる θ を定める方法(gradient descent) week2 ではこれを発展させ、一次関数だが、複数の変数を持つ場合についての検討をおこなう。 メモ blogger で数式を埋め込む方法 基本これを参照 http://latex.codecogs.com/eqneditor/integration/blogger/install.php ガジェットを追加→<script type="text/javascript" src="http://latex.codecogs.com/latexit.php?p&li&div"></script>をコンテンツに追加 あとは本文に「$$」 で囲ったエリアに特定の様式で書けば OK $X ={X_i^2}$ 上記の式は、X ={X_i^2} を $$で囲ったもの http://www.codecogs.com/latex/eqneditor.php ↑example からよく使うものはあるので、クリックして表示されるものを参考に入力 動画1 https://www.coursera.org/learn/machine-learning/lecture/6Nj1q/multiple-features 複数変数variable をもつ場合の、表記について https://www.coursera.org/learn/machine-learning/supplement/WKgbA/multiple-features ${x_j^{(i)}}$ は、i番目のトレーニングサンプルの、j個目の特徴を表す。 ${x^{(i)}}$ は、i番目のトレーニングサンプル全体を表す。 m はトレーニングサンプルの数 n は特徴量の数 複数特徴量を持つ一...