Teknikblogg

Teknikblogg
Hur vi byggde DeepL:s nästa generations LLM:er med FP8 för träning och inferens

Upptäck hur DeepL använde FP8 för träning och inferens i nästa generations LLM, vilket ökade genomströmning och kvalitet. Lär dig om vår användning av NVIDIAs teknik som snabbar upp träning och ger bättre översättningar med låg latens.

Av Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Teknikblogg
En djupdykning i MCP:er, del 1: Vad är egentligen MCP?

Utforska Model Context Protocol (MCP) och dess påverkan på AI sedan 2024. Lär dig hur MCP ger AI-agenter tillgång till verkliga verktyg och bygg din egen MCP-server på bara 10 kodrader.

Av Ben Morss, Developer Evangelist, DeepL