DeepL AI Labs

NVIDIA: Tekniken som driver DeepL AI Labs

De nya produkter och lösningar som vi skapar i DeepL AI Labs är möjliga tack vare vårt långvariga samarbete med NVIDIA. Den senaste milstolpen i detta partnerskap var att DeepL driftsatte den första NVIDIA DGX SuperPOD med DGX GB200-system i Europa tidigare i år. Denna nya superdator öppnar upp nya möjligheter när det gäller att träna och driftsätta AI-lösningar.

Vi har döpt vår nya NVIDIA SuperPOD till DeepL Arion. Den använder NVIDIAs Grace Blackwell-arkitektur, som kopplar samman 72 kraftfulla Blackwell-GPU:er så att de kan fungera som en enda enhet. Ju fler GPU:er som en SuperPOD ansluter på detta sätt, desto kraftfullare blir den, och Arion är mycket kraftfullare än vår tidigare NVIDIA-superdator, Mercury. Det skulle ha tagit Mercury 193 dagar att översätta hela internet. Om vi gav Arion denna hypotetiska uppgift skulle den kunna hantera den mer än 10 gånger snabbare, på drygt 18 dagar!

Snabbare maskiner tränar större modeller

Att översätta hela internet låter imponerande, men vad Arion betyder för vår förmåga att träna stora språkmodeller (LLM) är ännu mer betydelsefullt. Enkelt uttryckt: ju snabbare GPU:er kan kommunicera, desto större modeller kan vi bygga med dem. Med Arion kan vi använda enkla, skalbara arkitekturer för att bygga mycket större LLM:er.

Vi kan träna dessa större LLM:er med uppskalade träningsdata med hjälp av sofistikerade tekniker som vi har utvecklat för att träna våra Språk-AI-modeller. Det är en beprövad metod för att generera syntetiska data som har gjort det möjligt för oss att kontinuerligt förbättra kvaliteten på DeepL LLMs över tid, och den kommer att hjälpa oss att utnyttja den fulla potentialen hos de större modeller vi bygger.

Innovation med nya kapaciteter

AI-forskning visar att när man bygger större modeller och tränar dem på större mängder högkvalitativa data, kan dessa modeller börja uppvisa tidigare oförutsedda kapaciteter. 

Detta tar ofta formen av en modell som utvecklas mycket snabbt från att uppgiften upplevs som extremt svår till att den upplevs som relativt lätt. Sådana nya kapaciteter belönar forskare för att de utmanar gränserna för vad AI kan göra, för att de tänker ut nya problem som kan lösas och för att de experimenterar med nya sätt att lösa dem. Vi har skapat DeepL AI Labs för att etablera en pipeline för sådana experiment. Och genom att göra det satsar vi djärvt men intelligent på vad DeepL:s modeller kan göra härnäst. 

Vi gör detta genom att ställa in ambitiösa mål som vi vet kommer att göra stor skillnad för hur människor arbetar och hur produktiva de kommer att vara. Vi experimenterar sedan intensivt och testar idéer för nya funktioner som kan hjälpa oss att uppnå dessa mål. Nya kapaciteter innebär att även mycket ambitiösa experiment kan visa sig vara överraskande framgångsrika. Genom att utvidga utbudet av mål och lösningar som vi tillämpar våra modeller på kan nya kapaciteter uppstå ännu snabbare.

Möjliggör mer interaktiva och värdefulla AI-upplevelser

Effekterna av ökad datorkraft och nya kapaciteter påverkar redan DeepL:s funktioner och användarnas upplevelse av våra verktyg.

Clarify, experten på översättning på begäran som vet när man ska ställa intelligenta frågor för att förtydliga innebörden, är ett tidigt exempel på detta. När modeller kan förstå tvetydigheter och upptäcka antaganden på samma sätt som Clarify gör, kan de interagera med användarna på ett mer värdefullt och mänskligt sätt. Detta bidrar till att ge en upplevelse av att arbeta med AI som är mer responsivoch ger mycket mer relevanta och imponerande resultat än en modell som försöker resonera själv.

Vi utvecklade först dessa interaktiva kapaciteter för översättningsuppgifter, men de är lika värdefulla för nästan alla applikationer av AI. Genom att utveckla modeller som kan samarbeta mer naturligt, mer intelligent och mer produktivt med människor kan vi hjälpa Enterprise och andra organisationer att göra mycket mer med AI.

En pipeline av AI-projekt

De projekt som tar form i DeepL AI Labs utforskar innovativa nya sätt att förverkliga denna potential. På så sätt drar de nytta av ett annat resultat av vårt nära samarbete med NVIDIA för att maximera potentialen i datorkraft: ökad inferenshastighet

Generellt sett har större AI-modeller större latens, vilket innebär att användarna måste vänta längre på resultaten när de ber AI att utföra en uppgift. Arions ökade datorkraft, i kombination med NVIDIAs stöd för FP8-träning och FP4-inferens, bidrar till att ändra detta. Det innebär att våra större, kraftfullare modeller fortfarande kan utföra uppgifter extremt snabbt. 

Arion hjälper AI-agenter att utföra komplexa uppgifter i den hastighet som användarna kräver. Det möjliggör också ambitiösa projekt som vår revolutionerande metod för röst-till-röst-översättning, som bygger på förmågan att på ett intelligent sätt förutsäga vad människor säger och översätta det medan de talar.

På DeepL har vi aldrig varit intresserade av innovation för innovationens skull. Vi strävar snarare efter innovativa idéer som har en verklig inverkan – särskilt när det gäller människors upplevelse av arbete och liv. DeepL Arions kapacitet, och vårt samarbete med NVIDIA och EcoDataCenter som ligger till grund för denna, gör det möjligt för oss att testa ett mycket bredare spektrum av idéer för denna typ av verklig påverkan. Det är dessa snabbt växande möjligheter som gör DeepL AI Labs till en så spännande plats.

Dela

Håll kontakten

Få en förhandsvisning av våra senaste AI-innovationer.