DeepL AI Labs

NVIDIA: a tecnologia por trás do DeepL AI Labs

Os novos produtos e soluções que estamos criando no DeepL AI Labs são possíveis graças à nossa colaboração de longo prazo com a NVIDIA. O marco mais recente dessa parceria envolveu a implantação pelo DeepL do primeiro NVIDIA DGX SuperPOD com sistemas DGX GB200 na Europa no início deste ano. Esse novo supercomputador está abrindo caminho para novas possibilidades em treinamento e implementação de soluções de IA.

Chamamos nosso novo NVIDIA SuperPOD de Arion. Ele usa a arquitetura Grace Blackwell da NVIDIA, que conecta “ilhas” de 72 poderosas GPUs Blackwell para que possam atuar como uma única unidade. Quanto mais GPUs um SuperPOD conecta dessa forma, mais potente ele fica, e o Arion é muito mais potente do que o Mercury, nosso supercomputador anterior da NVIDIA. O Mercury levaria 193 dias para traduzir toda a internet. Se você desse ao Arion essa tarefa hipotética, ele a realizaria mais do que 10 vezes mais rápido, em pouco mais de 18 dias.

Máquinas mais rápidas treinam modelos maiores

Traduzir a toda a web parece impressionante, mas o que o Arion representa para nossa capacidade de treinar grandes modelos de linguagem (LLMs) é ainda mais significativo. Simplificando: quanto mais rápido as GPUs puderem se comunicar, maiores serão os modelos que poderemos criar com elas. Com o Arion, podemos usar arquiteturas simples e escaláveis para criar LLMs muito maiores.

Podemos treinar esses LLMs maiores com dados de treinamento em escala usando as técnicas sofisticadas que lançamos no treinamento dos nossos modelos de IA linguística. Essa é uma abordagem comprovada para gerar dados sintéticos que nos permitiu melhorar continuamente a qualidade dos LLMs do DeepL ao longo do tempo e que nos ajudará a aproveitar todo o potencial dos modelos maiores que construímos.

Inovando com recursos emergentes

A pesquisa em IA mostra que, ao criar modelos maiores e treiná-los com quantidades maiores de dados de alta qualidade, esses modelos podem começar a exibir recursos não previstos anteriormente. 

Em geral, isso acontece quando modelo evolui muito rápido de uma tarefa extremamente difícil para uma tarefa relativamente fácil. Tais recursos emergentes recompensam os pesquisadores por ampliarem os limites do que a IA pode fazer. Com isso, eles podem imaginar novos problemas e experimentar novas maneiras de resolvê-los. Criamos o DeepL AI Labs para criar um pipeline de experimentos desse tipo. Com isso, estamos apostando alto, mas de forma inteligente, nas inúmeras possibilidades de aplicação dos modelos do DeepL. 

Fazemos isso definindo metas ambiciosas que sabemos que farão uma grande diferença na forma como as pessoas trabalham e na produtividade que terão. Em seguida, conduzimos experimentos intensivos, testando ideias para novos recursos que possam nos ajudar a atingir essas metas. Recursos emergentes significam que mesmo experimentos muito ambiciosos podem ser surpreendentemente bem-sucedidos. Expandir a variedade de metas e soluções às quais aplicamos nossos modelos faz com que novos recursos surjam ainda mais rápido.

Possibilitando experiências de IA mais interativas e valiosas

O impacto da maior capacidade de processamento e dos recursos emergentes já está moldando os recursos do DeepL e a experiência das pessoas que usam nossas ferramentas.

O Clarify, especialista em tradução sob demanda que sabe quando fazer perguntas inteligentes para esclarecer o significado, é um dos primeiros exemplos disso. Quando os modelos conseguem entender ambiguidade e detectar suposições da forma como o Clarify faz, eles são capazes de interagir com os usuários de forma mais valiosa e natural. Isso proporciona uma experiência de trabalho com IA que é mais responsivae fornece resultados muito mais relevantes e impressionantes do que um modelo que tenta raciocinar por si só.

Inicialmente, desenvolvemos esses recursos interativos para tarefas de tradução, mas eles são igualmente valiosos para quase todas as aplicações de IA. Ao desenvolver modelos que podem colaborar de forma mais natural, mais inteligente e mais produtiva com as pessoas, podemos ajudar as empresas e outras organizações a fazer muito mais com a IA.

Um pipeline de projetos de IA

Os projetos que estão tomando forma no DeepL AI Labs exploram novas maneiras inovadoras de atingir esse potencial. Ao fazerem isso, eles se beneficiam de outro resultado do nosso trabalho conjunto com a NVIDIA para maximizar o potencial da capacidade de processamento: maior velocidade de inferência

De modo geral, modelos de IA maiores vêm com maior latência, o que significa que os usuários precisam esperar mais tempo pelos resultados quando pedem à IA para realizar uma tarefa. A capacidade de processamento potencializada do Arion, combinada com o treinamento FP8 e a inferência FP4 da NVIDIA, ajuda a mudar esse cenário. Isso significa que nossos modelos maiores e mais potentes ainda podem executar tarefas com extrema rapidez. 

O Arion ajuda os agentes de IA a realizar tarefas complexas na velocidade que os usuários exigem. Além disso, possibilita projetos ambiciosos, como nossa abordagem revolucionária de tradução de voz para voz, que depende da capacidade de prever de forma inteligente o que as pessoas vão dizer e traduzir à medida que elas falam.

No DeepL, nunca tivemos interesse na inovação pela inovação. Em vez disso, buscamos ideias inovadoras que tenham impacto no mundo real, especificamente quando se trata da experiência de trabalho e de vida das pessoas. Os recursos do Arion e nossa colaboração com a NVIDIA e o EcoDataCenter nos permitem testar muito mais ideias para esse tipo de impacto no mundo real. São essas possibilidades que fazem do DeepL AI Labs um espaço tão empolgante.

Compartilhar

Fique por dentro

Confira prévias das nossas inovações em IA mais recentes.