La traduction automatique neuronale (TAN) est une approche de traduction automatique qui utilise un réseau neuronal artificiel pour prédire la probabilité d'une séquence de mots, généralement en modélisant puis en traduisant des phrases entières avec un seul modèle.
Propriétés
Les systèmes TAN ne nécessitent qu'une fraction de la mémoire nécessaire aux modèles traditionnels de traduction automatique statistique (en) (TAS). De plus, contrairement aux systèmes de traduction conventionnels, toutes les parties du modèle de traduction neuronale sont entraînées conjointement pour maximiser les performances de traduction[1],[2].
Histoire
En 2014, des chercheurs ont proposé une architecture encodeur-décodeur de traduction neurale automatique utilisant des réseaux de neurones récurrents[3],[4].
En 2015, les réseaux neuronaux ne nécessitaient qu'une fraction de la mémoire nécessaire aux modèles statistiques et des phrases entières peuvent être modélisées de manière intégrée. Le premier NMT a large échelle a été lancé par Baidu.
En 2016, suit Google Neural Machine Translation (en). Cela fut suivi par d'autres services de traduction comme DeepL et l'adoption de la technologie NMT dans des services de traduction antérieurs comme Microsoft translator.
Références
- ↑ Nal Kalchbrenner et Phil Blunsom, « Recurrent Continuous Translation Models », Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, Association for Computational Linguistics, , p. 1700–1709 (lire en ligne, consulté le )
- ↑ Ilya Sutskever, Oriol Vinyals et Quoc V. Le, « Sequence to Sequence Learning with Neural Networks », Advances in Neural Information Processing Systems 27 (NIPS 2014), (DOI 10.48550/ARXIV.1409.3215, lire en ligne, consulté le )
- ↑ Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre et Dzmitry Bahdanau, « Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation », Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), Association for Computational Linguistics, , p. 1724–1734 (DOI 10.3115/v1/D14-1179, lire en ligne, consulté le )
- ↑ Ilya Sutskever, Oriol Vinyals et Quoc V. Le, « Sequence to sequence learning with neural networks », Proceedings of the 28th International Conference on Neural Information Processing Systems - Volume 2, MIT Press, nIPS'14, vol. 2, , p. 3104–3112 (DOI 10.5555/2969033.2969173, lire en ligne, consulté le )
