Como funciona o DeepL?
Muitas vezes nos perguntam como o Tradutor DeepL pode funcionar melhor do que os sistemas dos principais gigantes da tecnologia. Há várias razões para isso. Como a maioria dos sistemas de tradução automática, o Tradutor DeepL traduz textos usando redes neurais artificiais. Essas redes são formadas a partir de milhões de textos previamente traduzidos. No entanto, nossos pesquisadores conseguiram aplicar inúmeras melhorias na metodologia geral das redes neurais, principalmente em quatro áreas.
Arquitetura de rede
Quase todos os sistemas de tradução disponíveis no mercado são modificações diretas da arquitetura Transformer. Naturalmente, as redes neurais do DeepL também contêm partes desta arquitetura, tais como mecanismos de atenção. Contudo, existem outras diferenças significativas na topologia das redes que levam a uma melhoria geral significativa na qualidade da tradução, especialmente quando comparada com o nível geral de tradutores automáticos. Essas diferenças na qualidade da arquitetura de rede tornam-se claramente visíveis quando treinamos os nossos modelos internamente e os comparamos com as melhores arquiteturas Transformer baseadas nos mesmos dados.
Dados de treinamento
Boa parte dos nossos concorrentes diretos são grandes empresas de tecnologia, que já há muitos anos desenvolvem web crawlers. Isso representa uma nítida vantagem da concorrência com relação à quantidade de dados de treinamento disponíveis. Nós, por outro lado, damos grande ênfase à aquisição orientada de dados de treinamento especiais que ajudam nossa rede a alcançar uma maior qualidade de tradução. Para isso, desenvolvemos, entre outras coisas, crawlers exclusivos que encontram automaticamente traduções na internet e avaliam sua qualidade.
Metodologia de treinamento
De um modo geral, as redes são treinadas utilizando o método de "aprendizagem supervisionada". Nessa abordagem, a rede é constantemente confrontada com diferentes exemplos. As suas próprias traduções são, assim, sistematicamente comparadas com as traduções dos dados de treinamento. Se houver discrepâncias, os pesos da rede são ajustados de acordo. Também usamos diversas técnicas de outras áreas de machine learning quando treinamos as redes neurais, o que nos permite alcançar melhorias significativas.
Tamanho da rede
Tal como nossos maiores concorrentes, treinamos nossas redes de tradução utilizando bilhões de parâmetros. Essas redes são tão grandes que só podem ser treinadas de forma distribuída, em grandes clusters computacionais. Ainda assim, o DeepL garante que os parâmetros da rede sejam utilizados de forma extremamente eficiente, alcançando a mesma elevada qualidade de tradução com redes menores e mais rápidas. Por esta razão, temos a capacidade de oferecer traduções de qualidade também aos usuários do nosso serviço gratuito.
Estamos sempre procurando bons matemáticos e cientistas da computação com interesse em impulsionar o desenvolvimento, melhorar ainda mais o Tradutor DeepL e quebrar barreiras linguísticas em todo o mundo. Se você tem experiência em matemática e na formação de redes neurais, além de vontade de trabalhar com um produto que é utilizado no mundo inteiro gratuitamente, não deixe de nos enviar a sua candidatura!