Blog tecnológico

Blog tecnológico
Cómo creamos los LLM de última generación de DeepL con FP8 para entrenar e inferir

Descubre cómo DeepL usó FP8 para entrenar e inferir en los LLM de última generación, aumentando su rendimiento y calidad. Explora nuestra trayectoria con la tecnología de NVIDIA, que ha permitido acelerar el entrenamiento y obtener traducciones mejores.

Autor - Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog tecnológico
Una inmersión profunda en los MCP, parte 1: ¿Qué es un MCP?

Explora el Protocolo de Contexto de Modelos (MCP) y su impacto en la IA desde 2024, cómo permite a los agentes IA acceder a herramientas reales y crear tu servidor MCP en 10 líneas de código.

Autor - Ben Morss, Developer Evangelist, DeepL