「Attacking Optical Character Recognition (OCR) Systems with Adversarial Watermarks」という論文を読んだ。 概要 OCRシステムを騙すための […]
カテゴリー: [Machine Learning][paper]
論文読み:Squeeze-and-Excitation Networks
元論文:Squeeze-and-Excitation Networks 最近良くCNN関連のタスクでよく使われる手法なので、論文を読んでみたときのメモ。 ググると他にも詳しい解説記事があるので、あくまでも個人的なメモとし […]
Batch Normalization と Dropout は併用しない方が良いという話
Deep Learningのモデルを訓練していたところ、思うようにvalidation lossが下がらないことがあった。色々と調べた結果、Batch NormalizationとDropoutを併用していたのが原因であ […]
ニューラルネットワークを利用した決定木:Deep Neural Decision Trees
引き続き、機械学習の解釈性についての論文を読んだ。今回読んだのは、「Deep Neural Decision Trees (WHI ’18)」。著者による実装のページはここ。 決定木とニューラルネットワークを […]
機械学習の解釈性とパフォーマンスの両立を目指して:Human-in-the-Loop Interpretability Prior
機械学習、特にニューラルネットワークなどのアルゴリズムを使った場合、出力された結果は何万・何十万次元のベクトル演算の結果であり、人間が直接解釈することは難しい。ニューラルネットワークの解釈性については近年様々な研究が行わ […]
大規模データのクラスタリングには Mini Batch K-Means を使うべきという話
タイトルの通りですが、大規模データをクラスタリングする際には単純なK-Means法ではなく、Mini Batch K-Means法を使うべきという話です。 とある大規模データ(150万件ほどの文章ベクトル)をクラスタリン […]
RNNのDropoutはどこに入れるべきか?:Where to Apply Dropout in Recurrent Neural Networks for Handwriting Recognition?
タイトルの通り、RNNに対してDropout層を追加する場合、どこに入れるのが適切なのか?と思い少し調べてみました。 ことの発端は、KerasにあるLSTMとGRUの、GPUによる高速化版であるCuDNNLSTMとCuD […]
CNNによる価格予測の論文:「The Price is Right: Predicting Prices with Product Images」を読んだ
タイトルの通り、CNNモデルを利用して、自動車・自転車の画像から価格を予測する論文、「The Price is Right: Predicting Prices with Product Images」を読んだ。 この論 […]
CNNによるセグメンテーション論文:「U-Net Convolutional Networks for Biomedical Image Segmentation」を読んだ
タイトルの通り、CNNを用いて医療画像をセグメンテーションするU-Netというネットワーク構造の論文を読んだ。 2015年に発表されたネットワーク構造だが、その後セグメンテーションでは古典的な内容になっており、いくつか発 […]
Kaggleで人気 XGBoostの論文 「XGBoost: A Scalable Tree Boosting System」を読んだ
タイトルの通りなんですが、Kaggleでとても人気のある手法のXGBoostがどういった仕組みで動いているのかを知るために次の論文を読みました。 XGBoost: A Scalable Tree Boosting Sys […]