Blog technologique

Blog technologique
Comment nous avons développé les modèles d'apprentissage profond (LLM) de nouvelle génération de DeepL avec FP8 pour entraîner et effectuer l'inférence

Découvrez comment DeepL utilise FP8 pour entraîner et inférer ses LLM de nouvelle génération, améliorant débit et qualité, avec NVIDIA pour des traductions rapides et précises à faible latence.

Par Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog technologique
Une analyse approfondie des MCP, partie 1 : Qu'est-ce que le MCP, au juste ?

Découvrez le protocole MCP (Model Context Protocol) et son impact sur l’IA depuis 2024, permettant aux agents IA d’accéder à des outils et créer votre serveur MCP en 10 lignes de code.

Par Ben Morss, Developer Evangelist, DeepL