Blog technologiczny

Blog technologiczny
Jak stworzyliśmy modele LLM nowej generacji DeepL z wykorzystaniem FP8 do trenowania i wnioskowania

Dowiedz się, jak DeepL wykorzystało FP8 do szybszego trenowania i wnioskowania LLM, zwiększając przepustowość i jakość, oraz jak technologia NVIDIA umożliwia szybkie trenowanie i lepsze tłumaczenia przy niskim opóźnieniu.

Autor: Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog technologiczny
Dogłębna analiza MCP, część 1: Czym właściwie jest MCP?

Poznaj Model Context Protocol (MCP) i jego wpływ na AI od 2024 roku. Dowiedz się, jak MCP umożliwia agentom AI dostęp do rzeczywistych narzędzi i stwórz własny serwer MCP w zaledwie 10 wierszy kodu.

Autor: Ben Morss, Developer Evangelist, DeepL