(Translated by https://www.hiragana.jp/)
ニューラル機械翻訳 - Wikipedia コンテンツにスキップ

ニューラル機械きかい翻訳ほんやく

出典しゅってん: フリー百科ひゃっか事典じてん『ウィキペディア(Wikipedia)』

ニューラル機械きかい翻訳ほんやく(ニューラルきかいほんやく、えい: neural machine translation、NMT)は、人工じんこうニューラルネットワーク使用しようして単語たんごならびのゆう(ゆうど、かくからしさ)を予測よそくする機械きかい翻訳ほんやくへのアプローチであり、通常つうじょう単一たんいつ統合とうごうモデルでぶん全体ぜんたいをモデルする。

特徴とくちょう

[編集へんしゅう]

これは、従来じゅうらい統計とうけいてき機械きかい翻訳ほんやく英語えいごばんえい: statistical machine translation、SMT)モデルで必要ひつようとされるメモリのごく一部いちぶしか必要ひつようとしない。さらに、従来じゅうらい翻訳ほんやくシステムとはことなり、翻訳ほんやく性能せいのう最大さいだいするために、ニューラル翻訳ほんやくモデルのすべての部分ぶぶん一緒いっしょに(エンド・ツー・エンドで)訓練くんれんされる[1][2][3]

歴史れきし

[編集へんしゅう]

ディープラーニングの応用おうようは、1990年代ねんだい音声おんせい認識にんしき最初さいしょ登場とうじょうした。機械きかい翻訳ほんやくでのニューラルネットワークの利用りようかんする最初さいしょ科学かがく論文ろんぶんは2014ねん登場とうじょうし、そのすう年間ねんかんおおくの進歩しんぽだい語彙ごいNMT、画像がぞうキャプションへの応用おうよう、サブワードNMT、多言たげんNMT、マルチソースNMT、Character-dec NMT、Zero-Resource NMT、Google、Fully Character-NMT、2017ねんのZero-Shot NMT)があった。2015ねんに、公開こうかい機械きかい翻訳ほんやくコンテスト (OpenMT '15) でNMTシステムがはじめて登場とうじょうした。WMT'15にもはじめてNMTシステムが登場とうじょうし、翌年よくねんにはすでに入賞にゅうしょうしゃなかにNMTシステムの90%がふくまれた[4]

仕組しく

[編集へんしゅう]

ニューラル機械きかい翻訳ほんやくは、個別こべつ設計せっけいされたサブコンポーネントを使用しようするフレーズベースの統計とうけいてき英語えいごばんアプローチとはことなる[5]。ニューラル機械きかい翻訳ほんやく (NMT) は、統計とうけいてき機械きかい翻訳ほんやく (SMT) で従来じゅうらいおこなわれてきたことをえる抜本ばっぽんてきなステップではない。そのおも出発しゅっぱつてんは、単語たんご内部ないぶ状態じょうたいのためのベクトル表現ひょうげん(「み」、「連続れんぞく空間くうかん表現ひょうげん」)の使用しようである。モデルの構造こうぞうは、フレーズベースのモデルよりも単純たんじゅんである。個別こべつ言語げんごモデル、翻訳ほんやくモデル、ならえモデルはなく、いちに1つの単語たんご予測よそくする単一たんいつのシーケンスモデルのみがある。しかし、このシーケンス予測よそくは、ソースセンテンス(原文げんぶん全体ぜんたいと、すでに生成せいせいされたターゲットシーケンス全体ぜんたい条件じょうけんとしている。NMTモデルでは、深層しんそう学習がくしゅう(ディープラーニング)と特徴とくちょう学習がくしゅう英語えいごばん利用りようしている。

単語たんごれつモデリングは、最初さいしょリカレントニューラルネットワーク (RNN) をもちいておこなわれるのが一般いっぱんてきであった。エンコーダとしてられる双方向そうほうこうリカレントニューラルネットワークは、ターゲット言語げんご単語たんご予測よそくするために使用しようされるデコーダとばれるだい2のRNNのソースセンテンスをエンコードするため、ニューラルネットワークによって使用しようされる[6]。リカレントニューラルネットワークは、なが入力にゅうりょく単一たんいつのベクトルにエンコードするさい困難こんなん直面ちょくめんする。これは、出力しゅつりょくかく単語たんご生成せいせいしているあいだにデコーダが入力にゅうりょくのさまざまな部分ぶぶん焦点しょうてんわせることができる注意ちゅういメカニズム(えい: attention mechanism[7]によって補正ほせいできる。重複じゅうふくやくわけけにつながる過去かこのアライメント情報じょうほう無視むしするなど、このような注意ちゅういメカニズムの問題もんだい対処たいしょするカバレッジモデル(えい: Coverage Models)がさらに存在そんざいする[8]

たたみニューラルネットワーク(えい: Convolutional Neural Networks、Convnets)は、原理げんりてきにはなが連続れんぞくシーケンスにたいしていくらかすぐれているが、いくつかの弱点じゃくてんがあったために当初とうしょ使用しようされなかった。これらは「注意ちゅういメカニズム」を使用しようすることにより、2017ねんにうまく補償ほしょうされた[9]

注意ちゅういベースのモデルであるトランスフォーマーアーキテクチャ[10]、いくつかの言語げんごペアの主要しゅようアーキテクチャとして存続そんぞくしている[11]

参照さんしょう項目こうもく

[編集へんしゅう]
  1. ^ Kalchbrenner, Nal; Blunsom, Philip (2013). “Recurrent Continuous Translation Models”. Proceedings of the Association for Computational Linguistics: 1700–1709. http://www.aclweb.org/anthology/D13-1176. 
  2. ^ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc Viet (2014). "Sequence to sequence learning with neural networks". arXiv:1409.3215 [cs.CL]。
  3. ^ Kyunghyun Cho; Bart van Merrienboer; Dzmitry Bahdanau; Yoshua Bengio (3 September 2014). "On the Properties of Neural Machine Translation: Encoder–Decoder Approaches". arXiv:1409.1259 [cs.CL]。
  4. ^ Bojar, Ondrej; Chatterjee, Rajen; Federmann, Christian; Graham, Yvette; Haddow, Barry; Huck, Matthias; Yepes, Antonio Jimeno; Koehn, Philipp et al. (2016). “Findings of the 2016 Conference on Machine Translation”. ACL 2016 First Conference on Machine Translation (WMT16) (The Association for Computational Linguistics): 131–198. オリジナルの2018-01-27時点じてんにおけるアーカイブ。. https://web.archive.org/web/20180127202851/https://cris.fbk.eu/retrieve/handle/11582/307240/14326/W16-2301.pdf 2018ねん1がつ27にち閲覧えつらん. 
  5. ^ Wołk, Krzysztof; Marasek, Krzysztof (2015). “Neural-based Machine Translation for Medical Text Domain. Based on European Medicines Agency Leaflet Texts”. Procedia Computer Science 64 (64): 2–9. arXiv:1509.08644. Bibcode2015arXiv150908644W. doi:10.1016/j.procs.2015.08.456. 
  6. ^ Dzmitry Bahdanau; Cho Kyunghyun; Yoshua Bengio (2014). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv:1409.0473 [cs.CL]。
  7. ^ Bahdanau, Dzmitry; Cho, Kyunghyun; Bengio, Yoshua (1 September 2014). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv:1409.0473 [cs.CL]。
  8. ^ Tu, Zhaopeng; Lu, Zhengdong; Liu, Yang; Liu, Xiaohua; Li, Hang (2016). "Modeling Coverage for Neural Machine Translation". arXiv:1601.04811 [cs.CL]。
  9. ^ Coldewey, Devin (2017ねん8がつ29にち). “DeepL schools other online translators with clever machine learning”. TechCrunch. https://techcrunch.com/2017/08/29/deepl-schools-other-online-translators-with-clever-machine-learning/ 2018ねん1がつ27にち閲覧えつらん 
  10. ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (5 December 2017). "Attention Is All You Need". arXiv:1706.03762 [cs.CL]。
  11. ^ Barrault, Loïc; Bojar, Ondřej; Costa-jussà, Marta R.; Federmann, Christian; Fishel, Mark; Graham, Yvette; Haddow, Barry; Huck, Matthias et al. (August 2019). “Findings of the 2019 Conference on Machine Translation (WMT19)”. Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1) (Florence, Italy: Association for Computational Linguistics): 1–61. doi:10.18653/v1/W19-5301. https://www.aclweb.org/anthology/W19-5301.