I Know You’ll Be Back: Interpretable New User Clustering and Churn Prediction on a Mobile Social Application C […]
カテゴリー: 論文
[KDD2018 論文読み] Smoothed Dilated Convolutions for Improved Dense Prediction
Smoothed Dilated Convolutions for Improved Dense Prediction Zhengyang Wang (Washington State University); Shui […]
Batch Normalization と Dropout は併用しない方が良いという話
Deep Learningのモデルを訓練していたところ、思うようにvalidation lossが下がらないことがあった。色々と調べた結果、Batch NormalizationとDropoutを併用していたのが原因であ […]
ニューラルネットワークを利用した決定木:Deep Neural Decision Trees
引き続き、機械学習の解釈性についての論文を読んだ。今回読んだのは、「Deep Neural Decision Trees (WHI ’18)」。著者による実装のページはここ。 決定木とニューラルネットワークを […]
GPSデータによる交通事故リスク予測:Learning Deep Representation from Big and Heterogeneous Data for Traffic Accident Inference
読んだ論文のメモ。Learning Deep Representation from Big and Heterogeneous Data for Traffic Accident Inference (AAAI  […]
機械学習によるメモリアクセス予測:Learning Memory Access Patterns
ICML 2018の論文リストを眺めていて、目についたタイトルの論文を読み始めた。まず最初に「Learning Memory Access Patterns」という論文を読んだ。この論文はRNNを用いてメモリアクセスパタ […]
機械学習の解釈性とパフォーマンスの両立を目指して:Human-in-the-Loop Interpretability Prior
機械学習、特にニューラルネットワークなどのアルゴリズムを使った場合、出力された結果は何万・何十万次元のベクトル演算の結果であり、人間が直接解釈することは難しい。ニューラルネットワークの解釈性については近年様々な研究が行わ […]
大規模データのクラスタリングには Mini Batch K-Means を使うべきという話
タイトルの通りですが、大規模データをクラスタリングする際には単純なK-Means法ではなく、Mini Batch K-Means法を使うべきという話です。 とある大規模データ(150万件ほどの文章ベクトル)をクラスタリン […]
RNNのDropoutはどこに入れるべきか?:Where to Apply Dropout in Recurrent Neural Networks for Handwriting Recognition?
タイトルの通り、RNNに対してDropout層を追加する場合、どこに入れるのが適切なのか?と思い少し調べてみました。 ことの発端は、KerasにあるLSTMとGRUの、GPUによる高速化版であるCuDNNLSTMとCuD […]
CNNによる価格予測の論文:「The Price is Right: Predicting Prices with Product Images」を読んだ
タイトルの通り、CNNモデルを利用して、自動車・自転車の画像から価格を予測する論文、「The Price is Right: Predicting Prices with Product Images」を読んだ。 この論 […]