Comment fonctionne DeepL ?
Nombre de gens se demandent comment DeepL Traducteur arrive‑t‑il à être souvent plus performant que ses concurrents issus des géants de la tech. Il y a plusieurs raisons à cela. À l'instar de la plupart des systèmes de traduction, DeepL Traducteur traduit du texte à l'aide de réseaux neuronaux artificiels. Ces réseaux sont entraînés sur plusieurs millions de textes traduits. Cependant, nos chercheurs ont réussi à améliorer de nombreuses aspects de la méthodologie globale du réseau neuronal, principalement dans quatre domaines.
Architecture réseau
Il est bien connu que la plupart des systèmes de traduction accessibles au public sont des modifications directes de l'architecture Transformer. Bien entendu, les réseaux neuronaux de DeepL intègrent également certains éléments de cette architecture, tels que les mécanismes d'attention. La topologie de nos réseaux présente toutefois des différences de taille, qui améliorent significativement la qualité des traductions en comparaison des dernières recherches publiques en la matière. Ces différences de structure se manifestent d’autant plus clairement lorsque nous utilisons les mêmes données pour entraîner nos architectures et les comparer aux architectures Transformer les plus connues.
Données d’entraînement
La plupart de nos concurrents sont des géants de la technologie qui développent des collecteurs web depuis des années. Ils disposent donc d'un avantage certain en termes de quantité de données d’entraînement disponibles. De notre côté, nous accordons une grande importance à l'acquisition ciblée de données d’entraînement spécialisées qui aident notre réseau à atteindre une meilleure qualité de traduction. Nous avons donc mis au point, entre autres, des collecteurs spéciaux capables non seulement de dénicher automatiquement des traductions accessibles en ligne, mais aussi d’en évaluer la qualité.
Méthode d’entraînement
Lorsqu’il s’agit d’entraîner des réseaux, le milieu de la recherche publique utilise généralement une méthode dite d’« apprentissage supervisé ». Dans cette approche, le réseau est inlassablement confronté à divers exemples. Le réseau compare de manière répétée ses propres traductions avec celles issues des données d’entraînement. En cas de divergences, les poids du réseau sont ajustés en conséquence. Nous utilisons également d'autres techniques issues d'autres domaines de l'apprentissage automatique pour entraîner les réseaux neuronaux. Cela nous permet également d'améliorer de manière significative.
Taille des réseaux
Parallèlement, nous (à l'instar de nos principaux concurrents) entraînons des réseaux de traduction comportant plusieurs milliards de paramètres. Ces réseaux sont si vastes qu'ils ne peuvent être entraînés que de manière distribuée sur de très grands clusters de calcul dédiés. Cependant, dans nos recherches, nous accordons une grande importance au fait que les paramètres du réseau soient utilisés de manière très efficace. C'est ainsi que nous avons réussi à obtenir une qualité de traduction similaire, même avec nos réseaux plus petits et plus rapides. Nous pouvons donc également offrir une qualité de traduction très élevée aux utilisateurs de notre service gratuit.
Bien entendu, nous sommes sans cesse à la recherche de mathématiciens et d’informaticiens de talent susceptibles de se joindre à nous pour accompagner notre développement, améliorer notre outil et nous aider à abolir les barrières linguistiques dans le monde entier. Si vous possédez également une expérience en mathématiques et en entraînement des réseaux neuronaux, et si vous êtes motivé par l'idée de travailler sur un produit utilisé gratuitement dans le monde entier, nous vous invitons à postuler chez DeepL.