GitHubじゃ!Pythonじゃ!

GitHubからPython関係の優良リポジトリを探したかったのじゃー、でも英語は出来ないから日本語で読むのじゃー、英語社会世知辛いのじゃー

floodsung

Deep-Learning-Papers-Reading-Roadmap – この驚くべき技術を学ぶことを熱望している人のためのロードマップを読むディープラーニ..

投稿日:

この驚くべき技術を学ぶことを熱望している人のためのロードマップを読むディープラーニングペーパー!

ディープ・ラーニング・ペーパー読書ロードマップ

ディープ・ラーニング分野の新人であれば、まず最初に “どの紙を読み始めますか?”という質問があります。

ディープ・ラーニング・ペーパーの読書ロードマップです。

ロードマップは、次の4つのガイドラインに従って作成されます。

  • アウトラインからディテールまで
  • 古いものから最先端のものまで
  • ジェネリックから特定の分野へ
  • 最先端技術に焦点を当てる

あなたは非常に新しいが本当に読む価値のある多くの論文を見つけるでしょう。

私はこのロードマップに論文を追加し続けます。


1深い学習の歴史と基礎

1.0本

Bengio、Yoshua、Ian J. Goodfellow、Aaron Courville。 深い学習 MIT Pressの本。 (2015)。 [html] (ディープ・ラーニング・バイブル、次の論文を読んでこの本を読むことができます) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

1.1調査

[1] LeCun、Yann、Yoshua Bengio、およびGeoffrey Hinton。 深い学習 Nature 521.7553(2015):436-444。 [pdf] (Three Giants ‘Survey) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

1.2深い信念ネットワーク(DBN)(深い学習のイヴのマイルストーン)

[2] Hinton、Geoffrey E.、Simon Osindero、およびYee-Whye Teh。 深い信念ネットのための速い学習アルゴリズム 。” ニューラルコンピューティング18.7(2006):1527-1554。 [pdf] (ディープ・ラーニング・イヴ) ⭐️ ⭐️ ⭐️

[3] Hinton、Geoffrey E.、Ruslan R. Salakhutdinov。 ニューラルネットワークによるデータの次元削減 Science 313.5786(2006):504-507。 [pdf] (マイルストーン、深い学習の約束を示す) ⭐️ ⭐️ ⭐️

1.3 ImageNet Evolution(ここから深い学習が始まった)

[4] Krizhevsky、Alex、Ilya Sutskever、Geoffrey E. Hinton。 深い畳み込みニューラルネットワークによるImagenet分類 神経情報処理システムの進歩。 2012年。 [pdf] (AlexNet、ディープ・ラーニング・ブレークスルー) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[5] Simonyan、Karen、Andrew Zisserman。 大規模な画像認識のための非常に深い畳み込みネットワーク arXiv preprint arXiv:1409.1556(2014)。 [pdf] (VGGNet、ニューラルネットワークは非常に深くなる!) ⭐️ ⭐️ ⭐️

[6] Szegedy、Christian、et al。 畳み込みでもっと深く コンピュータビジョンとパターン認識に関するIEEE会議の議事録。 [pdf] (GoogLeNet) ⭐️ ⭐️ ⭐️

彼は、Kaiming、et al。 画像認識のための深い残余学習 。” arXiv preprint arXiv:1512.03385(2015)。 [pdf] (ResNet、非常に深いネットワーク、CVPRのベストペーパー) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

1.4音声認識の進化

[8] Hinton、Geoffrey、et al。 音声認識における音響モデリングのためのディープニューラルネットワーク:4つの研究グループの共通の見解 IEEE信号処理マガジン29.6(2012):82-97。 [pdf] (音声認識のブレークスルー) ⭐️ ⭐️ ⭐️ ⭐️

Graves、Alex、Abdel-rahman Mohamed、Geoffrey Hinton。 深いリカレントニューラルネットワークによる音声認識 。” 2013年IEEEの音響学、音声および信号処理に関する国際会議。 IEEE、2013. [pdf] (RNN) ⭐️ ⭐️ ⭐️

[10] Graves、Alex、Navdeep Jaitly。 リカレントニューラルネットワークを用いたエンドツーエンド音声認識に向けて ICML。 Vol。 14. 2014年。 [pdf] ⭐️ ⭐️ ⭐️

[11] Sak、Haşim、et al。 スピーチ認識のための高速かつ正確なリカレントニューラルネットワーク音響モデル “。 arXiv preprint arXiv:1507.06947(2015)。 [pdf] (Googleの音声認識システム) ⭐️ ⭐️ ⭐️

[12] Amodei、Dario、et al。 深い発言2:英語とマンダリンでのエンドツーエンドの音声認識 。” arXiv preprint arXiv:1512.02595(2015)。 [pdf] (Baidu音声認識システム) ⭐️ ⭐️ ⭐️ ⭐️

[13] W. Xiong、J. Droppo、X. Huang、F. Seide、M. Seltzer、A. Stolcke、D. Yu、G. Zweig「 会話音声認識における人間のパリティの達成 arXiv preprint arXiv:1610.05256(2016)。 [pdf] (音声認識の最先端技術、Microsoft) ⭐️ ⭐️ ⭐️ ⭐️

上記の論文を読んだら、Deep Learningの歴史、Deep Learningモデルの基本的なアーキテクチャ(CNN、RNN、LSTMを含む)、そして画像と音声認識の問題にどの程度深い学習を適用できるかについての基本的な知識があります。 以下の論文では、Deep Learningの方法、アプリケーションのさまざまな分野でのDeep Learning、フロンティアについて深く理解していきます。 私はあなたの興味と研究の方向性に基づいて以下の論文を選ぶことをお勧めします。

#2深い学習方法

2.1モデル

[14] Hinton、Geoffrey E.、et al。 特徴検出器の同時適応を防止してニューラルネットワークを改善する 。” arXiv preprint arXiv:1207.0580(2012)。 [pdf] (ドロップアウト) ⭐️ ⭐️ ⭐️

[15] Srivastava、Nitish、et al。 ドロップアウト:ニューラルネットワークが過大になるのを防ぐ簡単な方法 機械学習研究15.1(2014):1929-1958のジャーナル。 [pdf] ⭐️ ⭐️ ⭐️

[16] Ioffe、Sergey、Christian Szegedy。 バッチの正規化:内部共変量を減らすことによる深いネットワークトレーニングの加速 arXiv preprint arXiv:1502.03167(2015)。 [pdf] (2015年に顕著な仕事) ⭐️ ⭐️ ⭐️ ⭐️

[17] Ba、Jimmy Lei、Jamie Ryan Kiros、Geoffrey E. Hinton。 層の正規化 。” arXiv preprint arXiv:1607.06450(2016)。 [pdf] (バッチ正規化の更新) ⭐️ ⭐️ ⭐️ ⭐️

[18] Courbariaux、Matthieu、et al。 “二値化ニューラルネットワーク:重み付けおよび活性化が+ 1または-1に制限されたニューラルネットワークのトレーニング [pdf] (新モデル、高速) ⭐️ ⭐️ ⭐️

[19] Jaderberg、Max、et al。 合成勾配を用いた神経インタフェースの分離 arXiv preprint arXiv:1608.05343(2016)。 [pdf] (トレーニング方法の革新、すばらしい作業) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[20] Chen、Tianqi、Ian Goodfellow、およびJonathon Shlens。 「Net2net:ナレッジ・トランスファーによる学習の加速」 arXiv preprint arXiv:1511.05641(2015)。 [pdf] (訓練されたネットワークを修正して訓練のエポックを減らす) ⭐️ ⭐️ ⭐️

[21] Wei、Tao、et al。 “ネットワークモーフフィス” arXiv preprint arXiv:1603.01670(2016)。 [pdf] (訓練されたネットワークを修正して訓練のエポックを減らす) ⭐️ ⭐️ ⭐️

2.2最適化

[22] Sutskever、Ilya、et al。 深い学習における初期化と勢いの重要性について ICML(3)28(2013):1139-1147。 [pdf] (Momentum Optimizer) ⭐️ ⭐️

[23]キンマ、ディデリク、ジミーバ。 アダム:確率的最適化のための方法 arXiv preprint arXiv:1412.6980(2014)。 [pdf] (現在最も頻繁に使用される可能性があります) ⭐️ ⭐️ ⭐️

[24] Andrychowicz、Marcin、et al。 勾配降下による勾配降下によって学習することを学ぶ arXiv preprint arXiv:1606.04474(2016)。 [pdf] (ニューラルオプティマイザー、素晴らしい作品) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[25] Han、Song、Huizi Mao、William J. Dally。 深い圧縮:枝刈り、訓練された量子化、ハフマン符号化による深いニューラルネットワークの圧縮 CoRR、abs / 1510.00149 2(2015)。 [pdf] (ICLRのベストペーパー、NNを速く走らせる新しい方向、DeePhi Tech Startup) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[26] Iandola、Forrest N.、et al。 SqueezeNet:50倍少ないパラメータと1MB未満のモデルサイズで、AlexNetレベルの精度 arXiv preprint arXiv:1602.07360(2016)。 [pdf] (NNを最適化する新しい方向性、DeePhi Tech Startup) ⭐️ ⭐️ ⭐️ ⭐️

2.3教師なし学習/深い生成モデル

[27] Le、Quoc V.「 大規模な教師なし学習を使用した高水準の機能の構築 2013年IEEEの音響学、音声および信号処理に関する国際会議。 IEEE、2013年。 [pdf] (Milestone、Andrew Ng、Google Brain Project、Cat) ⭐️ ⭐️ ⭐️ ⭐️

[28] Kingma、Diederik P.、およびMax Welling。 自動エンコードの可変ベイ 。” arXiv preprint arXiv:1312.6114(2013)。 [pdf] (VAE) ⭐️ ⭐️ ⭐️ ⭐️

[29] Goodfellow、Ian、et al。 生成的な対立ネット ニューラル情報処理システムの進歩。 [pdf] (GAN、super cool idea) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[30] Radford、Alec、Luke Metz、Soumith Chintala。 深い畳み込み生成的対立ネットワークを用いた教師なし表現表現学習 “。 arXiv preprint arXiv:1511.06434(2015)。 [pdf] (DCGAN) ⭐️ ⭐️ ⭐️ ⭐️

[31] Gregor、Karol、et al。 描画:画像生成のためのリカレントニューラルネットワーク arXiv preprint arXiv:1502.04623(2015)。 [pdf] (注目のVAE、顕著な仕事) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[32] Oord、Aaron van den、Nal Kalchbrenner、Koray Kavukcuoglu。 ピクセルリカレントニューラルネットワーク arXiv preprint arXiv:1601.06759(2016)。 [pdf] (PixelRNN) ⭐️ ⭐️ ⭐️ ⭐️

[33] Oord、Aaron van den、et al。 “PixelCNNデコーダによる条件付き画像生成” arXiv preprint arXiv:1606.05328(2016)。 [pdf] (PixelCNN) ⭐️ ⭐️ ⭐️ ⭐️

2.4 RNN /シーケンス間シーケンスモデル

[34] Graves、Alex。 リカレントニューラルネットワークによるシーケンスの生成 arXiv preprint arXiv:1308.0850(2013)。 [pdf] (LSTM、非常に良い生成結果、RNNの力を示す) ⭐️ ⭐️ ⭐️ ⭐️

[35]チョ・キョンヒョン、 統計的機械翻訳のためにRNN符号器 – 復号器を使用してフレーズ表現を学習すること arXiv preprint arXiv:1406.1078(2014)。 [pdf] (第1セクシート紙) ⭐️ ⭐️ ⭐️ ⭐️

[36] Sutskever、Ilya、Oriol Vinyals、およびQuoc V. Le。 ニューラルネットワークを用いた学習のシーケンス 。” 神経情報処理システムの進歩。 [pdf] (優秀作品) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[37] Bahdanau、Dzmitry、Cho KyunHyun、Yoshua Bengio。 調整して翻訳する共同学習によるニューラルマシン翻訳 arXiv preprint arXiv:1409.0473(2014)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

Vinyals、Oriol、およびQuoc Le [38] 神経対話モデル arXiv preprint arXiv:1506.05869(2015)。 [pdf] (チャットボットのSeq-to-Seq) ⭐️ ⭐️ ⭐️

2.5神経チューリングマシン

グレイヴス、アレックス、グレッグ・ウェイン、イボ・ダニエルカ。 神経チューリングマシン arXiv preprint arXiv:1410.5401(2014)。 [pdf] (未来のコンピュータの基本プロトタイプ) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[40] Zaremba、Wojciech、Ilya Sutskever。 補強神経チューリングマシンを学ぶ arXiv preprint arXiv:1505.00521 362(2015)。 [pdf] ⭐️ ⭐️ ⭐️

ウェストン、ジェイソン、スミット・チョプラ、アントワーヌ・ボーデス。 メモリネットワーク arXiv preprint arXiv:1410.3916(2014)。 [pdf] ⭐️ ⭐️ ⭐️

[42] Sukhbaatar、Sainbayar、Jason WestonおよびRob Fergus。 エンドツーエンドのメモリネットワーク 神経情報処理システムの進歩。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

Vinyals、Oriol、Meire Fortunato、およびNavdeep Jaitly。 ポインタネットワーク 。” ニューラル情報処理システムの進歩。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[44] Graves、Alex、et al。 ダイナミックな外部メモリを備えたニューラルネットワークを用いたハイブリッドコンピューティング 自然(2016年)。 [pdf] (マイルストーン、上記の論文のアイデアを組み合わせる) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

2.6深部強化学習

[45] Mnih、Volodymyr、et al。 深い強化学習でアタリをする arXiv preprint arXiv:1312.5602(2013)。 [pdf](最初の論文は深層強化学習と呼ばれています) ⭐️ ⭐️ ⭐️ ⭐️

[46] Mnih、Volodymyr、et al。 深い強化学習による人間のレベルの制御 Nature 518.7540(2015):529-533。 [pdf] (マイルストーン) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[47] Wang、Ziyu、Nando de Freitas、およびMarc Lanctot。 深い強化学習のためのネットワークアーキテクチャの闘争 arXiv preprint arXiv:1511.06581(2015)。 [pdf] (ICLRベストペーパー、素晴らしいアイデア) ⭐️ ⭐️ ⭐️ ⭐️

[48] Mnih、Volodymyr、et al。 深い強化学習のための非同期メソッド arXiv preprint arXiv:1602.01783(2016)。 [pdf] (最先端の方法) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

Lillicrap、Timothy P.、et al。 深い強化学習による継続的なコントロール arXiv preprint arXiv:1509.02971(2015)。 [pdf] (DDPG) ⭐️ ⭐️ ⭐️ ⭐️

[50] Gu、Shixiang、et al。 モデルベースの加速による継続的な深いQラーニング arXiv preprint arXiv:1603.00748(2016)。 [pdf] (NAF) ⭐️ ⭐️ ⭐️ ⭐️

Schulman、John、et al。 信頼領域政策の最適化 CoRR、abs / 1502.05477(2015)。 [pdf] (TRPO) ⭐️ ⭐️ ⭐️ ⭐️

[52] Silver、David、et al。 深いニューラルネットワークとツリー検索でGoのゲームをマスターする Nature 529.7587(2016):484-489。 [pdf] (AlphaGo) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

2.7深い伝達学習/生涯学習/特にRLのための

[53]ベンギオ、ヨシュア。 教師なし学習と伝達学習の表現の深い学習 ICML教師なし学習と伝達学習27(2012):17-36。 [pdf] (Aチュートリアル) ⭐️ ⭐️ ⭐️

[54]銀、Daniel L.、Qiang Yang、およびLianghao Li。 生涯学習機械:学習アルゴリズムを超えて AAAI春シンポジウム:生涯学習。 2013年。 [pdf] (生涯学習についての簡単な議論) ⭐️ ⭐️ ⭐️

Hinton、Geoffrey、Oriol Vinyals、Jeff Dean。 ニューラルネットワークにおける知識の肥大化 arXiv preprint arXiv:1503.02531(2015)。 [pdf] (ゴッドファーザーの仕事) ⭐️ ⭐️ ⭐️ ⭐️

[56] Rusu、Andrei A.、et al。 政策の蒸留 arXiv preprint arXiv:1511.06295(2015)。 [pdf] (RLドメイン) ⭐️ ⭐️ ⭐️

[57] Parisotto、Emilio、Jimmy Lei Ba、およびRuslan Salakhutdinov。 俳優 – 模倣:深いマルチタスクと転送強化学習 。” arXiv preprint arXiv:1511.06342(2015)。 [pdf] (RLドメイン) ⭐️ ⭐️ ⭐️

[58] Rusu、Andrei A.、et al。 プログレッシブニューラルネットワーク arXiv preprint arXiv:1606.04671(2016)。 [pdf] (優れた作品、新しいアイデア) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

2.8ワンショットディープラーニング

[59]湖、Brenden M.、Ruslan Salakhutdinov、およびJoshua B. Tenenbaum。 確率的プログラム誘導によるヒューマン・レベル・コンセプト Science 350.6266(2015):1332-1338。 [pdf] (ディープ・ラーニングはないが、読む価値がある) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

Koch、Gregory、Richard Zemel、Ruslan Salakhutdinov。 ワンショット画像認識のためのシャムニューラルネットワーク “(2015) [pdf] ⭐️ ⭐️ ⭐️

[61] Santoro、Adam、et al。 メモリ拡張型ニューラルネットワークによるワンショット学習 arXiv preprint arXiv:1605.06065(2016)。 [pdf] (ワンショット学習の基本ステップ) ⭐️ ⭐️ ⭐️ ⭐️

Vinyals、Oriol、et al。 ワンショット学習のためのネットワークマッチング arXiv preprint arXiv:1606.04080(2016)。 [pdf] ⭐️ ⭐️ ⭐️

ハリハラン、バラト、ロス・ギルシック。 低ショットの視覚オブジェクト認識 。” arXiv preprint arXiv:1606.02819(2016)。 [pdf] (一歩一歩大きなデータ) ⭐️ ⭐️ ⭐️ ⭐️

3アプリケーション

3.1 NLP(自然言語処理)

[1] Antoine Bordes、et al。 オープンテキストセマンティック解析のための単語と意味表現の共同学習 AISTATS(2012) [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[2] Mikolov、et al。 単語とフレーズの分散表現とその構成性 ANIPS(2013):3111-3119 [pdf] (word2vec) ⭐️ ⭐️ ⭐️

[3] Sutskever、et al。 “ニューラルネットワークを用いた学習のシーケンス 。 “ ANIPS(2014) [pdf] ⭐️ ⭐️ ⭐️

[4] Ankit Kumar、et al。 自然言語処理のためのダイナミックメモリネットワーク arXivプレプリントarXiv:1506.07285(2015) [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[5]金ユン、 文字認識型神経言語モデル NIPS(2015)arXiv preprint arXiv:1508.06615(2015) [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[6] Jason Weston、et al。 AI-完全な質問回答に向けて:前提条件となる玩具タスクのセット arXiv preprint arXiv:1502.05698(2015) [pdf] (bAbIタスク) ⭐️ ⭐️ ⭐️

[7] Karl Moritz Hermann、et al。 読み、理解する機械を教える arXiv preprint arXiv:1506.03340(2015) [pdf] (CNN / DailyMail cloze style questions) ⭐️ ⭐️

[8] Alexis Conneau、et al。 自然言語処理のための非常に深い畳み込みネットワーク arXiv preprint arXiv:1606.01781(2016) [pdf] (テキスト分類の最先端技術) ⭐️ ⭐️ ⭐️

[9] Armand Joulin、et al。 効率的なテキスト分類のための罠 arXiv preprint arXiv:1607.01759(2016) [pdf] (最先端より少し悪いが、もっと速く) ⭐️ ⭐️ ⭐️

3.2オブジェクト検出

[1] Szegedy、Christian、Alexander Toshev、およびDumitru Erhan。 オブジェクト検出のための深いニューラルネットワーク 。” ニューラル情報処理システムの進歩。 2013年。 [pdf] ⭐️ ⭐️ ⭐️

[2] Girshick、Ross、et al。 正確なオブジェクト検出とセマンティックセグメンテーションのための豊富な機能階層 コンピュータビジョンとパターン認識に関するIEEE会議の議事。 2014年。 [pdf] (RCNN) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

彼は、Kaiming、et al。 ビジュアル認識のための深い畳み込みネットワークにおける空間ピラミッドプーリング コンピュータビジョンに関する欧州会議。 Springer International Publishing、2014年。 [pdf] (SPPNet) ⭐️ ⭐️ ⭐️ ⭐️

[4] Girshick、Ross。 Fast r-cnn 。” IEEEビジョンに関する国際会議の議事録。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[5] Ren、Shaoqing、et al。 高速なR-CNN:地域提案ネットワークによるリアルタイムの物体検出に向けて 神経情報処理システムの進歩。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[6] Redmon、Joseph、et al。 一度見てみると、統合されたリアルタイムのオブジェクト検出 。」 arXiv preprint arXiv:1506.02640(2015)。 [pdf] (YOLO、Oustanding Work、本当に実用的) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[7] Liu、Wei、et al。 SSD:シングルショットマルチボックス検出器 arXiv preprint arXiv:1512.02325(2015)。 [pdf] ⭐️ ⭐️ ⭐️

[8] Dai、Jifeng、et al。 R-FCN:領域ベース完全畳み込みネットワークによるオブジェクト検出 arXiv preprint arXiv:1605.06409(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[9]彼は、Gkioxari、et al。 Mask R-CNN ” arXiv preprint arXiv:1703.06870(2017)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

3.3ビジュアルトラッキング

[1] Wang、Naiyan、Dit-Yan Yeung。 視覚的なトラッキングのために深くコンパクトなイメージ表現を学ぶ 神経情報処理システムの進歩。 2013. [pdf] (Deep Learning、DLT Trackerを使用したビジュアルトラッキングを行う最初の論文) ⭐️ ⭐️ ⭐️

[2] Wang、Naiyan、et al。 堅牢なビジュアルトラッキングのための豊富なフィーチャ階層の転送 arXiv preprint arXiv:1501.04587(2015)。 [pdf] (SO-DLT) ⭐️ ⭐️ ⭐️ ⭐️

[3] Wang、Lijun、et al。 完全畳み込みネットワークによるビジュアルトラッキング IEEEビジョンに関する国際会議の議事録。 [pdf] (FCNT) ⭐️ ⭐️ ⭐️ ⭐️

[4]開催、David、Sebastian Thrun、Silvio Savarese。 深い回帰ネットワークを使って100 FPSで追跡することを学ぶ arXiv preprint arXiv:1604.01802(2016)。 [pdf] (GOTURN、深い学習方法としては本当に速いが、深遠な学習方法にはまだまだ遅れている) ⭐️ ⭐️ ⭐️ ⭐️

[5] Bertinetto、Luca、et al。 オブジェクトトラッキングの完全畳み込みシャムネットワーク arXiv preprint arXiv:1606.09549(2016)。 [pdf] (SiameseFC、リアルタイムオブジェクトトラッキングのための新しい最先端技術) ⭐️ ⭐️ ⭐️ ⭐️

[6] Martin Danelljan、Andreas Robinson、Fahad Khan、Michael Felsberg。 相関フィルタを超えて:ビジュアルトラッキングのための連続畳み込み演算子の学習 ECCV(2016) [pdf] (C-COT) ⭐️ ⭐️ ⭐️ ⭐️

[7] Nam、Hyeonseob、Mooyeol Baek、Bohyung Han。 ビジュアルトラッキングのためのツリー構造におけるCNNのモデリングと伝播 arXiv preprint arXiv:1608.07242(2016)。 [pdf] (VOT2016受賞者、TCNN) ⭐️ ⭐️ ⭐️ ⭐️

3.4画像キャプション

[1] Farhadi、Ali、etal。 すべての画像は物語を伝える:画像から文章を生成する “。 Computer VisionECCV 2010年。Springer Berlin Heidelberg:15-29、2010. [pdf] ⭐️ ⭐️ ⭐️

[2] Kulkarni、Girish、et al。 ベイビートーク:画像の説明を理解して生成する “。 [第24回CVPRの議事録、2011年。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[3] Vinyals、Oriol、et al。 表示して教えてください:神経画像キャプションジェネレータ arXiv preprint arXiv:1411.4555、2014。 [pdf] ⭐️ ⭐️ ⭐️

[4] Donahue、Jeff、et al。 視覚的認識と記述のための長期反復畳み込みネットワーク “。 arXiv preprint arXiv:1411.4389、2014。 [pdf]

[5] Karpathy、Andrej、Li Fei-Fei。 msgstr画像記述を生成するための深い視覚 – セマンティックアライメント “。 arXiv preprint arXiv:1412.2306、2014。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

Karpathy、Andrej、Armand Joulin、Fei Fei F. Li。 双方向イメージセンテンスマッピングのための深いフラグメント埋め込み “。 神経情報処理システムの進歩、2014年。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[7] Fang、Hao、et al。 キャプションからビジュアルコンセプトへと戻る “。 arXiv preprint arXiv:1411.4952、2014。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[8] Chen、Xinlei、およびC. Lawrence Zitnick。 画像キャプション生成のための反復的な視覚的表現の学習 “。 arXiv preprint arXiv:1411.5654、2014。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[9] Mao、Junhua、et al。 マルチモーダルリカレントニューラルネットワーク(m-rnn)による深いキャプション “。 arXiv preprint arXiv:1412.6632、2014。 [pdf] ⭐️ ⭐️ ⭐️

[10] Xu、Kelvin、et al。 目に見える注意を払って、ニューラル画像キャプションの生成、表示、出席、および通知 “。 arXiv preprint arXiv:1502.03044、2015。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

3.5機械翻訳

いくつかのマイルストーン論文は、RNN / Seq-to-Seqトピックに記載されています。

[1] Luong、Minh-Thang、et al。 ニューラルマシンの翻訳におけるまれな単語の問題に対処する 。” arXiv preprint arXiv:1410.8206(2014)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[2] Sennrich、et al。 サブワード単位での希少語の神経機械翻訳 “。 arXiv preprint arXiv:1508.07909、2015。 [pdf] ⭐️ ⭐️ ⭐️

[3] Luong、Minh-Thang、Hieu Pham、Christopher D. Manning。 注意ベースの神経機械翻訳への効果的なアプローチ 。” arXiv preprint arXiv:1508.04025(2015)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[4] Chung、et al。 神経機械翻訳のための明示的セグメンテーションのないキャラクタレベルのデコーダ “。 arXiv preprint arXiv:1603.06147、2016. [pdf] ⭐️ ⭐️

[5] Lee、et al。 明示的セグメンテーションのない完全な文字レベルの神経機械翻訳 “。 arXiv preprint arXiv:1610.03017、2016. [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[6] Wu、Schuster、Chen、Le、et al。 Googleのニューラルマシン翻訳システム:人間と機械翻訳のギャップを埋める arXiv preprint arXiv:1609.08144v2、2016. [pdf] (マイルストーン) ⭐️ ⭐️ ⭐️ ⭐️

3.6ロボット工学

[1] Koutnik、Jan、et al。 視覚に基づく強化学習のための大規模なニューラルネットワークの進化 遺伝的および進化的計算に関する第15回年次会議の議事録。 ACM、2013。 [pdf] ⭐️ ⭐️ ⭐️

[2] Levine、Sergey、et al。 深い視力運動のエンドツーエンドのトレーニング 。” Journal of Machine Learning Research 17.39(2016):1-40。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[3] Pinto、Lerrel、Abhinav Gupta。 自己監督の超過:50K試行と700ロボット時間から把握することを学ぶ arXiv preprint arXiv:1509.06825(2015)。 [pdf] ⭐️ ⭐️ ⭐️

[4] Levine、Sergey、et al。 深い学習と大規模なデータ収集によるロボット把握のためのハンド・アイ・コーディネーションの学習 arXiv preprint arXiv:1603.02199(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[5] Zhu、Yuke、et al。 深層強化学習を用いた屋内シーンでのターゲット駆動視覚ナビゲーション arXiv preprint arXiv:1609.05143(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[6] Yahya、Ali、et al。 分散型非同期誘導ポリシー検索を用いた集団ロボット強化学習 arXiv preprint arXiv:1610.00673(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[7] Gu、Shixiang、et al。 ロボットマニピュレーションのための深い強化学習 arXiv preprint arXiv:1610.00633(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[8] Rusu、M Vecerik、ThomasRothörl、N Heess、R Pascanu、R Hadsell。「 プログレッシブネットを持つ画素から学ぶSim-to-Realロボット 」。 arXiv preprint arXiv:1610.04286(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[9] Mirowski、Piotr、et al。 複雑な環境でナビゲートすることを学ぶ arXiv preprint arXiv:1611.03673(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

3.7アート

[1] Mordvintsev、Alexander; オラ、クリストファー; Tyka、Mike(2015)。 発想主義:ニューラルネットワークにもっと深く進む “。 Google Research。 [html] (深い夢) ⭐️ ⭐️ ⭐️ ⭐️

[2] Gatys、Leon A.、Alexander S. Ecker、Matthias Bethge。 芸術的スタイルの神経アルゴリズム 。” arXiv preprint arXiv:1508.06576(2015)。 [pdf] (優れた作業、現在最も成功している方法) ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[3] Zhu、Jun-Yan、et al。 自然画像マニホールド上での生成的視覚操作 “。 コンピュータビジョンに関する欧州会議。 Springer International Publishing、2016. [pdf] (iGAN) ⭐️ ⭐️ ⭐️ ⭐️

[4] Champandard、Alex J. ” セマンティックスタイルの移転と2ビットの落書きを美術作品に変える arXiv preprint arXiv:1603.01768(2016)。 [pdf] (Neural Doodle) ⭐️ ⭐️ ⭐️ ⭐️

[5] Zhang、Richard、Phillip Isola、Alexei A. Efros。 カラフルな画像のカラー化 arXiv preprint arXiv:1603.08511(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[6] Johnson、Justin、Alexandre Alahi、Li Fei-Fei。 リアルタイムスタイルの転送と超解像度のための知覚損失 arXiv preprint arXiv:1603.08155(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[7] Vincent Dumoulin、Jonathon Shlens、Manjunath Kudlur。 芸術的なスタイルの学習表現 。” arXiv preprint arXiv:1610.07629(2016)。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[8] Gatys、LeonおよびEcker、et al。 ” 神経形式伝達における知覚因子の制御 。” arXiv preprint arXiv:1611.07865(2016)。 [pdf] (空間的位置、色情報、空間スケールにわたる制御スタイルの転送) ⭐️ ⭐️ ⭐️ ⭐️

[9] Ulyanov、DmitryおよびLebedev、Vadim、et al。 テクスチャネットワーク:テクスチャと画像のフィードフォワード合成 arXiv preprint arXiv:1603.03417(2016)。 [pdf] (テクスチャ生成とスタイル転送) ⭐️ ⭐️ ⭐️ ⭐️

3.8オブジェクトのセグメンテーション

[1] J. Long、E. Shelhamer、およびT. Darrell、「 意味論的セグメンテーションのための完全畳み込みネットワーク 」、CVPR、2015年。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[2] L.-C. Chen、G. Papandreou、I. Kokkinos、K. Murphy、およびAL Yuille。 深い畳み込みネットと完全に接続されたcrfsによるセマンティックイメージセグメンテーション ICLR、2015年。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️ ⭐️

[3] Pinheiro、PO、Collobert、R.、Dollar、P. ” オブジェクト候補を分割することを学ぶ ” In:NIPS。 [pdf] ⭐️ ⭐️ ⭐️ ⭐️

[4] Dai、J.、He、K。、Sun、J. ” マルチタスクネットワークカスケードによるインスタンス認識セマンティックセグメンテーション CVPRで 2016年[pdf] ⭐️ ⭐️ ⭐️

[5] Dai、J.、He、K.、Sun、J. ” インスタンスに敏感な完全畳み込みネットワーク arXiv preprint arXiv:1603.08678(2016)。 [pdf] ⭐️ ⭐️ ⭐️







-floodsung
-,

執筆者: