Shunsuke KITADA

Results 25 comments of Shunsuke KITADA

解説スライド https://nlp.seas.harvard.edu/slides/aaai16.pdf

> DNNの判断根拠を理解するための新しい手法の提案。ネットワークの重みの役割は入力内の余分な情報(d)をフィルタし出力yに寄与する部分(s)を取り出すフィルタであると定義。この寄与部分sをxからどれだけ取り出せるかを計測する新しい評価指標を定義すると共に、既存手法の改良を行っている https://twitter.com/icoxfog417/status/924134856149184512

参考 https://github.com/arXivTimes/arXivTimes/issues/474

@maaan475 This repository is my project which summarizes the outline of the papers in Japanese. So I'm sorry but I can't share the code of this paper.

> 学習用の文にノイズを加えてロバストにするやつはありますね:Data Noising as Smoothing in Neural Network Language Models, ICLR'17. >> 画像処理でデータの一部を欠損させる前処理が有効だってのは、cutoutとrandom erasingで示された感ありますね。自然言語でも穴あき文章読ませて英訳とかしたら精度上がったりしないのかな。 https://twitter.com/yu4u/status/914354091224166400

確率的埋め込みを導入し特徴表現の確率的振る舞いを学習する CTR 予測のためのモデル Field-aware Probabilistic Embedding Neural Network を提案 [Field-aware Probabilistic Embedding Neural Network for CTR Prediction - Paper Survey](https://shunk031.github.io/paper-survey/summary/others/Field-aware-Probabilistic-Embedding-Neural-Network-for-CTR-Prediction)

@sunit1409 This repository is my project which summarizes the outline of the papers in Japanese. So I'm sorry but I can't share the code of this paper.

- TensorFlow Wide & Deep Learning Tutorial - https://www.tensorflow.org/tutorials/wide_and_deep - Research Blog: Wide & Deep Learning: Better Together with TensorFlow - https://research.googleblog.com/2016/06/wide-deep-learning-better-together-with.html

> 複数のCNNの出力のアンサンブルにより精度が上がることは広く知られているが、そのやり方(どんなモデルを組み合わせるか、出力をどう統合するか)と精度との関係を徹底的に調査。ネットワーク出力を単純平均するのが意外とベストに次ぐ結果。 https://twitter.com/sakanazensen/status/850211300529520641