Tatsuya Matsushima

Results 59 comments of Tatsuya Matsushima

- どんなもの? (アブストの一部のgoogle翻訳) > AIF(Active Inference Framework)について簡単に紹介し、進化論、生態学的心理学、体現化された現象論、ロボティクス/ AI研究の意味を探る。 我々は機械意識への影響を考慮してこの論文を終わらせる。

DL輪読会 - https://www.slideshare.net/TomomiMoriyama/rldistral-robust-multitask-reinforcement-learning

マルチタスク 方策の蒸留→転移

meta-learning手法のまとめ

DARQN - https://github.com/5vision/DARQN (lua実装)

### アーキテクチャ - gがattention network - CNNで出力された特徴マップに対してattentionを重み付け和する - 重み付け和した結果がcontext vector

DL輪読会 - https://www.slideshare.net/DeepLearningJP2016/dlzero-shot-visual-imitation プロジェクトページ - https://pathak22.github.io/zeroshot-imitation/ github - https://github.com/pathak22/zeroshot-imitation

## 1. どんなもの? ## 2. 先行研究と比べてどこがすごい? ## 3. 技術や手法のキモはどこ? ## 4. どうやって有効だと検証した? ## 5. 議論はある? ## 6. 次に読むべき論文は? ## 7. メモ

実装 https://github.com/bscellier/Towards-a-Biologically-Plausible-Backprop Yoshua Bengio - Deep learning and Backprop in the Brain (CCN 2017)(youtube) https://www.youtube.com/watch?v=W86H4DpFnLY

## Abustruct - energy-basedなモデルの学習の枠組みとして `Equilibrium Propagation` を提案 - 予測と訓練(重みの修正)を同じ計算で行う - backpropagationのように誤差が明示的に伝播して訓練が行われる訳ではない - 予測と訓練のフェーズの違いはシナプスの変化が認められているかどうか - シナプスの更新がSTDPの一般的な形式になっている - 1~3層の中間層でリカレントに接続したモデルでPermutation-invariant MNIST(回転とか拡大とか、事前の画像処理を禁止したMNIST)をデータセットとして実験した ## 1. Introduction - BPは生物学的な妥当性がないと考えられている - 訓練に特別な計算機構が必要なため - `Equilibrium Propagation` を提案 -...