好きな事で生きていく

統計的機械学習、因果推論、マーケティングサイエンス

pixivの2019春インターンでレコメンドモデルを作りました

概要 2/20から3/8にかけて、Pixiv Spring Boot Campというpixivの春インターンの機械学習コースに参加しました。pixiv本体(イラスト交流サイト)のレコメンドモデルを改良するための技術検証を行いました。 選考フロー 書類選考+面接でした。コーディング試験…

KL divergenceの式の意味を理解する

// 確率分布同士の隔たりを表す式、KL divergenceの式 \begin{align} D_{KL}(P || Q) = - \int p(x) \log \left( \frac{p(x)}{q(x)} \right) dx \label{1} \\ \end{align} の意味を理解します。 数式を用いつつ、かつ出来る限り噛み砕いて説明します。 情報…

2値分類で使われる損失関数、Sigmoid Cross Entropyは何を表しているのか

// Deepなモデルは、最適なパラメータを学習するために損失関数を設定して、モデルの予測値と正解値の誤差を最小化します。 回帰系の問題設定でよく使われる二乗誤差などMSE系列は、回帰分析における最小二乗法とそっくりなので何をやりたいかはイメージがつ…