Blog tecnologico

Blog tecnologico
Come abbiamo creato i modelli di linguaggio di nuova generazione di DeepL usando FP8 per l'addestramento e l'inferenza

Scopri come DeepL ha usato FP8 per l’addestramento e l’inferenza nei LLM di nuova generazione, aumentando velocità e qualità. Esplora il nostro uso della tecnologia NVIDIA per ottenere training più rapido e traduzioni di alta qualità con bassa latenza.

A cura di: Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog tecnologico
Un'analisi approfondita degli MCP, Parte 1: Ma cos'è MCP, in fin dei conti?

Scopri il Model Context Protocol (MCP) e come ha cambiato l'IA da quando è uscito nel 2024. Scopri come MCP permette agli agenti IA di usare strumenti reali e segui la guida passo passo per creare il tuo server MCP con solo 10 righe di codice.

A cura di: Ben Morss, Developer Evangelist, DeepL