Tech Blog

Tech Blog
Wie wir die DeepL-LLMs der nächsten Generation mit FP8 für Training und Inferenz entwickelt haben

Erfahren Sie, wie DeepL FP8 für das Training von LLMs der nächsten Generation genutzt hat, um Durchsatz und Modellqualität zu steigern. Lernen Sie mehr über unseren Einsatz der NVIDIA-Technologie, mit der wir bessere Übersetzungen erzielen.

Von: Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Tech Blog
Ein tiefer Einblick in MCPs, Teil 1: Was ist ein MCP überhaupt?

Entdecken Sie das Model Context Protocol (MCP) und dessen Einfluss auf KI. Erfahren Sie, wie MCP KI‑Agenten den Zugriff auf Tools ermöglicht, und erhalten Sie eine Anleitung, wie Sie mit nur 10 Zeilen Code Ihren eigenen MCP‑Server erstellen können.

Von: Ben Morss, Developer Evangelist, DeepL