出典 しゅってん : フリー百科 ひゃっか 事典 じてん 『ウィキペディア(Wikipedia)』
ニューラル機械 きかい 翻訳 ほんやく (ニューラルきかいほんやく、英 えい : neural machine translation 、NMT)は、人工 じんこう ニューラルネットワーク を使用 しよう して単語 たんご の並 なら びの尤 ゆう 度 ど (ゆうど、確 かく からしさ)を予測 よそく する機械 きかい 翻訳 ほんやく へのアプローチであり、通常 つうじょう は単一 たんいつ の統合 とうごう モデルで文 ぶん 全体 ぜんたい をモデル化 か する。
これは、従来 じゅうらい の統計 とうけい 的 てき 機械 きかい 翻訳 ほんやく (英語 えいご 版 ばん ) (英 えい : statistical machine translation 、SMT)モデルで必要 ひつよう とされるメモリのごく一部 いちぶ しか必要 ひつよう としない。さらに、従来 じゅうらい の翻訳 ほんやく システムとは異 こと なり、翻訳 ほんやく 性能 せいのう を最大 さいだい 化 か するために、ニューラル翻訳 ほんやく モデルのすべての部分 ぶぶん が一緒 いっしょ に(エンド・ツー・エンドで)訓練 くんれん される[1] [2] [3] 。
ディープラーニングの応用 おうよう は、1990年代 ねんだい に音声 おんせい 認識 にんしき で最初 さいしょ に登場 とうじょう した。機械 きかい 翻訳 ほんやく でのニューラルネットワークの利用 りよう に関 かん する最初 さいしょ の科学 かがく 論文 ろんぶん は2014年 ねん に登場 とうじょう し、その後 ご の数 すう 年間 ねんかん で多 おお くの進歩 しんぽ (大 だい 語彙 ごい NMT、画像 がぞう キャプションへの応用 おうよう 、サブワードNMT、多言 たげん 語 ご NMT、マルチソースNMT、Character-dec NMT、Zero-Resource NMT、Google、Fully Character-NMT、2017年 ねん のZero-Shot NMT)があった。2015年 ねん に、公開 こうかい の機械 きかい 翻訳 ほんやく コンテスト (OpenMT '15) でNMTシステムが初 はじ めて登場 とうじょう した。WMT'15にも初 はじ めてNMTシステムが登場 とうじょう し、翌年 よくねん にはすでに入賞 にゅうしょう 者 しゃ の中 なか にNMTシステムの90%が含 ふく まれた[4] 。
ニューラル機械 きかい 翻訳 ほんやく は、個別 こべつ に設計 せっけい されたサブコンポーネントを使用 しよう するフレーズベースの統計 とうけい 的 てき (英語 えいご 版 ばん ) アプローチとは異 こと なる[5] 。ニューラル機械 きかい 翻訳 ほんやく (NMT) は、統計 とうけい 的 てき 機械 きかい 翻訳 ほんやく (SMT) で従来 じゅうらい 行 おこな われてきたことを超 こ える抜本 ばっぽん 的 てき なステップではない。その主 おも な出発 しゅっぱつ 点 てん は、単語 たんご と内部 ないぶ 状態 じょうたい のためのベクトル表現 ひょうげん (「埋 う め込 こ み」、「連続 れんぞく 空間 くうかん 表現 ひょうげん 」)の使用 しよう である。モデルの構造 こうぞう は、フレーズベースのモデルよりも単純 たんじゅん である。個別 こべつ の言語 げんご モデル、翻訳 ほんやく モデル、並 なら び替 が えモデルはなく、一 いち 度 ど に1つの単語 たんご を予測 よそく する単一 たんいつ のシーケンスモデルのみがある。しかし、このシーケンス予測 よそく は、ソースセンテンス(原文 げんぶん )全体 ぜんたい と、すでに生成 せいせい されたターゲットシーケンス全体 ぜんたい を条件 じょうけん としている。NMTモデルでは、深層 しんそう 学習 がくしゅう (ディープラーニング)と特徴 とくちょう 学習 がくしゅう (英語 えいご 版 ばん ) を利用 りよう している。
単語 たんご 列 れつ モデリングは、最初 さいしょ はリカレントニューラルネットワーク (RNN) を用 もち いて行 おこな われるのが一般 いっぱん 的 てき であった。エンコーダとして知 し られる双方向 そうほうこう リカレントニューラルネットワークは、ターゲット言語 げんご の単語 たんご を予測 よそく するために使用 しよう されるデコーダと呼 よ ばれる第 だい 2のRNNのソースセンテンスをエンコードするため、ニューラルネットワークによって使用 しよう される[6] 。リカレントニューラルネットワークは、長 なが い入力 にゅうりょく を単一 たんいつ のベクトルにエンコードする際 さい に困難 こんなん に直面 ちょくめん する。これは、出力 しゅつりょく の各 かく 単語 たんご を生成 せいせい している間 あいだ にデコーダが入力 にゅうりょく のさまざまな部分 ぶぶん に焦点 しょうてん を合 あ わせることができる注意 ちゅうい メカニズム(英 えい : attention mechanism )[7] によって補正 ほせい できる。重複 じゅうふく 訳 やく や訳 わけ 抜 ぬ けにつながる過去 かこ のアライメント情報 じょうほう を無視 むし するなど、このような注意 ちゅうい メカニズムの問題 もんだい に対処 たいしょ するカバレッジモデル(英 えい : Coverage Models )がさらに存在 そんざい する[8] 。
畳 たた み込 こ みニューラルネットワーク(英 えい : Convolutional Neural Networks 、Convnets)は、原理 げんり 的 てき には長 なが い連続 れんぞく シーケンスに対 たい していくらか優 すぐ れているが、いくつかの弱点 じゃくてん があったために当初 とうしょ は使用 しよう されなかった。これらは「注意 ちゅうい メカニズム」を使用 しよう することにより、2017年 ねん にうまく補償 ほしょう された[9] 。
注意 ちゅうい ベースのモデルであるトランスフォーマーアーキテクチャ は[10] 、いくつかの言語 げんご ペアの主要 しゅよう アーキテクチャとして存続 そんぞく している[11] 。
^ Kalchbrenner, Nal; Blunsom, Philip (2013). “Recurrent Continuous Translation Models” . Proceedings of the Association for Computational Linguistics : 1700–1709. http://www.aclweb.org/anthology/D13-1176 .
^ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc Viet (2014). "Sequence to sequence learning with neural networks". arXiv :1409.3215 [cs.CL ]。
^ Kyunghyun Cho; Bart van Merrienboer; Dzmitry Bahdanau; Yoshua Bengio (3 September 2014). "On the Properties of Neural Machine Translation: Encoder–Decoder Approaches". arXiv :1409.1259 [cs.CL ]。
^ Bojar, Ondrej; Chatterjee, Rajen; Federmann, Christian; Graham, Yvette; Haddow, Barry; Huck, Matthias; Yepes, Antonio Jimeno; Koehn, Philipp et al. (2016). “Findings of the 2016 Conference on Machine Translation” . ACL 2016 First Conference on Machine Translation (WMT16) (The Association for Computational Linguistics): 131–198. オリジナル の2018-01-27時点 じてん におけるアーカイブ。. https://web.archive.org/web/20180127202851/https://cris.fbk.eu/retrieve/handle/11582/307240/14326/W16-2301.pdf 2018年 ねん 1月 がつ 27日 にち 閲覧 えつらん 。 .
^ Wołk, Krzysztof; Marasek, Krzysztof (2015). “Neural-based Machine Translation for Medical Text Domain. Based on European Medicines Agency Leaflet Texts”. Procedia Computer Science 64 (64): 2–9. arXiv :1509.08644 . Bibcode : 2015arXiv150908644W . doi :10.1016/j.procs.2015.08.456 .
^ Dzmitry Bahdanau; Cho Kyunghyun; Yoshua Bengio (2014). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv :1409.0473 [cs.CL ]。
^ Bahdanau, Dzmitry; Cho, Kyunghyun; Bengio, Yoshua (1 September 2014). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv :1409.0473 [cs.CL ]。
^ Tu, Zhaopeng; Lu, Zhengdong; Liu, Yang; Liu, Xiaohua; Li, Hang (2016). "Modeling Coverage for Neural Machine Translation". arXiv :1601.04811 [cs.CL ]。
^ Coldewey, Devin (2017年 ねん 8月 がつ 29日 にち ). “DeepL schools other online translators with clever machine learning” . TechCrunch . https://techcrunch.com/2017/08/29/deepl-schools-other-online-translators-with-clever-machine-learning/ 2018年 ねん 1月 がつ 27日 にち 閲覧 えつらん 。
^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (5 December 2017). "Attention Is All You Need". arXiv :1706.03762 [cs.CL ]。
^ Barrault, Loïc; Bojar, Ondřej; Costa-jussà, Marta R.; Federmann, Christian; Fishel, Mark; Graham, Yvette; Haddow, Barry; Huck, Matthias et al. (August 2019). “Findings of the 2019 Conference on Machine Translation (WMT19)” . Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1) (Florence, Italy: Association for Computational Linguistics): 1–61. doi :10.18653/v1/W19-5301 . https://www.aclweb.org/anthology/W19-5301 .