Blog de tecnologia

Blog de tecnologia
Como desenvolvemos os LLMs de última geração da DeepL com FP8 para treinar e inferência

Descubra como a DeepL usou FP8 para treinar e fazer inferência em LLMs de última geração, aumentando produtividade e qualidade, e como a tecnologia NVIDIA permite treinamento rápido e traduções superiores com baixa latência.

Por Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog de tecnologia
Uma análise aprofundada dos MCPs, Parte 1: Afinal, o que é MCP?

Explore o Model Context Protocol (MCP) e seu impacto na IA desde 2024. Saiba como MCP permite que agentes de IA acessem ferramentas reais e construa seu próprio servidor MCP em apenas 10 linhas de código.

Por Ben Morss, Developer Evangelist, DeepL