Hoe werkt de DeepL Translator?

Door DeepL Team

Regelmatig krijgen wij de vraag hoe het komt dat de DeepL Translator vaak zo veel beter vertaalt dan de vertaalsystemen van de gerenommeerde techbedrijven waarmee wij concurreren. Dat is natuurlijk niet zomaar het geval. Net zoals de meeste vertaalsystemen maakt de DeepL Translator voor het vertalen van teksten gebruik van kunstmatige neurale netwerken die worden getraind met behulp van vele miljoenen vertaalde teksten. Wat ons echter van de concurrentie onderscheidt, is het feit dat ons onderzoeksteam erin is geslaagd om de algehele methodologie op het gebied van zulke netwerken in verschillende opzichten te verbeteren, wat zich voornamelijk uit in de volgende vier punten.

Netwerkarchitectuur

Het is algemeen bekend dat de meeste vrij toegankelijke vertaalsystemen directe adaptaties zijn van de zogenaamde Transformer-architectuur. Dit geldt ook voor de DeepL Translator, want bepaalde delen van deze architectuur, zoals de attention-mechanismes, kunnen nog altijd in onze neurale netwerken worden aangetroffen. Op bepaalde punten zijn er in de topologie van de netwerken echter ook duidelijke verschillen te zien, en juist deze verschillen zijn ervoor verantwoordelijk dat de kwaliteit van onze vertalingen zo baanbrekend is. Hoe groot de verschillen in de kwaliteit van de netwerkarchitectuur precies zijn, wordt vooral duidelijk wanneer wij onze architecturen intern trainen en vervolgens met de meest bekende Transformer-architecturen vergelijken op basis van dezelfde data.

Trainingsdata

De concurrentie van DeepL bestaat voornamelijk uit befaamde techbedrijven die in de loop der jaren veel ervaring hebben opgedaan met het ontwikkelen van zogenaamde webcrawlers. Zij beschikken daarom over een duidelijk voordeel wat betreft de hoeveelheid beschikbare trainingsdata. Wij daarentegen leggen grote nadruk op het gericht verzamelen van speciale trainingsdata die ons netwerk helpt een hogere vertaalkwaliteit te bereiken. Hiervoor hebben wij onder andere speciale webcrawlers ontwikkeld die volledig automatisch vertalingen op het internet kunnen vinden en de vertaalkwaliteit ervan kunnen beoordelen.

Trainingsmethodologie

In het algemeen worden trainingsnetwerken getraind met behulp van een methode die "supervised learning" wordt genoemd. Deze methode houdt in dat het netwerk steeds weer andere voorbeelden te zien krijgt en dat het zijn eigen vertalingen voortdurend met de vertalingen uit de trainingsdata vergelijkt. Indien er discrepanties zijn, worden de gewichten van het netwerk dienovereenkomstig aangepast. Bij het trainen van de neurale netwerken maken we ook gebruik van andere technieken uit andere gebieden van machine learning. Al deze methodes en technieken samen stellen ons in staat om de DeepL Translator voortdurend te verbeteren.

Netwerkgrootte

Net zoals onze grootste concurrenten trainen wij onze vertaalnetwerken inmiddels aan de hand van vele miljarden parameters. Deze netwerken zijn zo groot dat ze alleen op een gedistribueerde manier kunnen worden getraind op zeer grote, speciale computerclusters. In ons onderzoek hechten we echter veel belang aan het feit dat de parameters van het netwerk zeer efficiënt worden gebruikt. Op die manier is het ons gelukt om zelfs met onze kleinere en snellere netwerken een even goede vertaalkwaliteit te behalen als met onze grote netwerken. Dit is tevens de reden waarom wij kwalitatief hoogwaardige vertalingen kunnen aanbieden aan de gebruikers van onze gratis vertaaldienst.

Uiteraard zijn wij altijd op zoek naar bekwame wiskundigen en computerdeskundigen om ons onderzoeksteam te versterken, de DeepL Translator te verbeteren en taalbarrières wereldwijd te doorbreken. Indien u ook ervaring heeft met wiskunde en het trainen van neurale netwerken, en indien het u voldoening schenkt om te werken aan een product dat wereldwijd gratis wordt gebruikt, solliciteer dan bij DeepL.

Delen