DeepL AI Labs
De nieuwe producten en oplossingen die wij in DeepL AI Labs ontwikkelen, zijn mogelijk dankzij onze langdurige samenwerking met NVIDIA. De meest recente mijlpaal in deze samenwerking betrof het uitrollen door DeepL van de eerste NVIDIA DGX SuperPOD met DGX GB200-systemen. NVIDIA DGX SuperPOD met DGX GB200-systemen in Europa. Deze nieuwe supercomputer biedt nieuwe mogelijkheden voor het trainen en uitrollen van AI-oplossingen.
Onze nieuwe NVIDIA SuperPOD hebben wij DeepL Arion genoemd. Het maakt gebruik van NVIDIA's Grace Blackwell-architectuur, die 'eilanden' van 72 krachtige Blackwell GPU's met elkaar verbindt, zodat ze als één geheel kunnen functioneren. Hoe meer GPU's een SuperPOD op deze manier verbindt, hoe krachtiger hij wordt. Arion is aanzienlijk krachtiger dan onze vorige NVIDIA-supercomputer, Mercury. Mercury zou 193 dagen nodig hebben gehad om het volledige internet te vertalen. Indien we Arion deze hypothetische taak zouden toevertrouwen, zou het deze meer dan tien keer sneller kunnen uitvoeren, in iets meer dan 18 dagen.
Het vertalen van het wereldwijde web klinkt indrukwekkend, maar wat Arion betekent voor ons vermogen om grote taalmodellen (LLM's) te trainen, is nog belangrijker. Eenvoudig gezegd: hoe sneller GPU's kunnen communiceren, hoe groter de modellen zijn die we ermee kunnen bouwen. Met Arion kunnen we eenvoudige, schaalbare architecturen gebruiken om veel grotere LLM's te bouwen.
Wij zijn in staat om deze grotere LLM's te trainen met opgeschaalde trainingsdata, waarbij we gebruikmaken van geavanceerde technieken die wij hebben ontwikkeld voor het trainen van onze Language AI-modellen. Het is een beproefde methode voor het genereren van synthetische gegevens, die ons in staat heeft gesteld om de kwaliteit van DeepL LLMs in de loop van de tijd voortdurend te verbeteren. Deze methode zal ons helpen om het volledige potentieel van de grotere modellen die we bouwen te benutten.
AI-onderzoek toont aan dat wanneer men grotere modellen bouwt en deze traint met grotere hoeveelheden hoogwaardige gegevens, deze modellen onvoorziene functies kunnen gaan vertonen.
Dit komt vaak tot uiting in een model dat zich zeer snel ontwikkelt van een taak die als uiterst moeilijk wordt ervaren naar een taak die als relatief eenvoudig wordt ervaren. Dergelijke nieuwe functies belonen onderzoekers voor het verleggen van de grenzen van wat AI kan doen, het bedenken van nieuwe problemen die kunnen worden opgelost en het experimenteren met nieuwe manieren om deze op te lossen. Wij hebben DeepL AI Labs opgericht om een pijplijn van dergelijke experimenten op te zetten. En daarmee doen we gedurfde maar intelligente voorspellingen over wat de modellen van DeepL in de toekomst kunnen bereiken.
Wij doen dit door ambitieuze doelen in te stellen waarvan wij weten dat ze een aanzienlijk verschil zullen maken in de manier waarop mensen werken en hoe productief zij zullen zijn. Vervolgens voeren wij intensieve experimenten uit, waarbij wij ideeën voor nieuwe functies testen die ons kunnen helpen deze doelstellingen te bereiken. Emergente functies betekenen dat zelfs zeer ambitieuze experimenten verrassend succesvol kunnen blijven. Door het scala aan doelstellingen en oplossingen waarop wij onze modellen toepassen uit te breiden, kunnen nieuwe functies nog sneller tot stand komen.
De impact van grotere rekenkracht en nieuwe functies is nu al zichtbaar in de functies van DeepL en in de ervaring van de gebruikers van onze tools.
Clarify, de expert op het gebied van on-demand vertalingen die precies weet wanneer hij intelligente vragen moet stellen om de betekenis te verduidelijken, is hier een vroeg voorbeeld van. Wanneer modellen ambiguïteit kunnen begrijpen en aannames kunnen detecteren op de manier waarop Clarify dat doet, zijn ze in staat om op een waardevollere, natuurlijk klinkende manier met gebruikers te communiceren. Dit draagt bij aan een ervaring met AI die responsiever isen veel relevantere en indrukwekkendere resultaten oplevert dan een model dat zelfstandig probeert te redeneren.
We hebben deze interactieve functies in eerste instantie ontwikkeld voor vertaaltaken, maar ze zijn even waardevol voor vrijwel elke toepassing van AI. Door modellen te ontwikkelen die op een meer natuurlijke, intelligente en productieve manier met mensen kunnen samenwerken, kunnen we Enterprise en andere organisaties ondersteunen om veel meer te bereiken met AI.
De projecten die vorm krijgen in DeepL AI Labs onderzoeken innovatieve nieuwe manieren om dat potentieel te realiseren. Hierdoor profiteren zij van een ander resultaat van onze nauwe samenwerking met NVIDIA om het potentieel van rekenkracht te maximaliseren: een hogere inferentiesnelheid.
Over het algemeen hebben grotere AI-modellen een grotere latentie, wat betekent dat gebruikers langer moeten wachten op de resultaten wanneer zij AI vragen een taak uit te voeren. De toegenomen rekenkracht van Arion, in combinatie met NVIDIA's ondersteuning van FP8-training en FP4-inferentie, draagt bij aan het wijzigen van deze situatie. Dit betekent dat onze grotere, krachtigere modellen nog steeds taken zeer snel kunnen uitvoeren.
Arion ondersteunt AI-agenten bij het uitvoeren van complexe taken met de snelheid die gebruikers vereisen. Het maakt ook ambitieuze projecten mogelijk, zoals onze revolutionaire benadering van spraak-naar-spraakvertaling, die afhankelijk is van het intelligent kunnen voorspellen wat mensen zeggen en het vertalen terwijl ze het uitspreken.
Bij DeepL zijn wij nooit geïnteresseerd geweest in innovatie omwille van innovatie. Wij streven naar innovatieve ideeën die een reële impact hebben, met name op het gebied van de werk- en levenservaring van mensen. De functies van DeepL Arion en onze samenwerking met NVIDIA en EcoDataCenter, die hieraan ten grondslag liggen, stellen ons in staat om een veel breder scala aan ideeën te testen voor dit soort impact in de praktijk. Het zijn deze snel groeiende mogelijkheden die DeepL AI Labs tot een bijzonder interessante omgeving maken.