Blog de tecnologia

Blog de tecnologia
Como criamos os LLMs de última geração do DeepL com o FP8 para treinamento e inferência

Descubra como a DeepL usou FP8 para treinar e fazer inferência em LLMs de última geração, aumentando rendimento e qualidade. Conheça nossa jornada com a tecnologia NVIDIA, que permite treinamentos mais rápidos e traduções superiores com baixa latência.

Por Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog de tecnologia
Um mergulho profundo nos MCPs, Parte 1: Afinal, o que é MCP?

Explore o Model Context Protocol (MCP) e seu impacto na IA desde 2024. Saiba como MCP permite que agentes de IA acessem ferramentas reais e crie seu próprio servidor MCP em apenas 10 linhas de código.

Por Ben Morss, Developer Evangelist, DeepL