Blog Teknologi

Blog Teknologi
Bagaimana kami membangun model bahasa besar (LLM) generasi berikutnya DeepL dengan FP8 untuk melatih dan inferensi.

Temukan bagaimana DeepL memakai FP8 untuk mempercepat pelatihan dan inferensi LLM, meningkatkan throughput dan kualitas. Pelajari bagaimana teknologi NVIDIA mendukung pelatihan cepat dan terjemahan berkualitas dengan latensi rendah.

Oleh Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Blog Teknologi
Penjelajahan mendalam tentang MCPs, Bagian 1: Apa itu MCP, sih?

Jelajahi Model Context Protocol (MCP) dan dampaknya pada AI sejak 2024. Pelajari bagaimana MCP memungkinkan agen AI mengakses alat nyata dan buat server MCP Anda sendiri hanya dengan 10 baris kode.

Oleh Ben Morss, Developer Evangelist, DeepL