테크 블로그

테크 블로그
FP8을 활용한 훈련 및 추론을 통해 DeepL 차세대 대규모 언어 모델(LLM)을 구축한 방법

DeepL이 차세대 대규모 언어 모델(LLM)의 훈련 및 추론에 FP8을 활용하여 처리량과 모델 품질을 향상시킨 방법을 알아보세요. NVIDIA 기술과 함께한 우리의 여정에 대해 최신 정보를 알아보세요. 낮은 지연 시간을 유지하면서 더 빠른 훈련과 우수한 번역을 달성했습니다.

작성: Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
테크 블로그
MCP 심층 분석, 제1부: MCP가 대체 뭔가요?

모델 컨텍스트 프로토콜(MCP)과 2024년 출시 이후 AI에 미친 영향을 살펴보세요. MCP가 AI 에이전트가 실제 도구에 접근할 수 있도록 지원하는 방법을 알아보고, 단 10줄의 코드로 자신만의 MCP 서버를 구축하는 단계별 가이드를 확인하세요.

작성: Ben Morss, Developer Evangelist, DeepL