DeepL AI Labs
Die neuen Produkte und Lösungen, die wir in DeepL AI Labs entwickeln, sind dank unserer langjährigen Zusammenarbeit mit NVIDIA möglich. Der jüngste Meilenstein in dieser Partnerschaft war die Einführung des ersten NVIDIA DGX SuperPOD mit DGX GB200-Systemen in Europa durch DeepL Anfang dieses Jahres. Dieser Supercomputer eröffnet neue Möglichkeiten für das Training und den Einsatz von KI-Lösungen.
Wir haben unseren neuen NVIDIA SuperPOD DeepL Arion genannt. Er nutzt die Grace Blackwell-Architektur von NVIDIA, die „Inseln“ aus 72 leistungsstarken Blackwell-GPUs miteinander verbindet, sodass sie als eine Einheit agieren können. Je mehr GPUs ein SuperPOD auf diese Weise verbindet, desto leistungsfähiger wird er, und Arion ist sogar noch viel leistungsfähiger als unser bisheriger NVIDIA-Supercomputer Mercury. Mercury hätte 193 Tage gebraucht, um das gesamte Internet zu übersetzen. Würden wir Arion diese hypothetische Aufgabe übertragen, könnte er sie mehr als zehnmal so schnell bewältigen, in nur etwas mehr als 18 Tagen.
Die Übersetzung des World Wide Web klingt beeindruckend, aber was Arion hinsichtlich unserer Kapazitäten zum Trainieren großer Sprachmodelle (LLMs) leistet, ist noch bedeutender. Einfach ausgedrückt: Je schneller GPUs kommunizieren können, desto größere Modelle können wir mit ihnen erstellen. Mit Arion können wir einfache, skalierbare Architekturen nutzen, um viel größere LLMs zu erstellen.
Wir sind in der Lage, diese größeren LLMs mit skalierten Daten zu trainieren, indem wir ausgefeilte Techniken einsetzen, die wir für das Training unserer KI‑gestützten Sprachmodelle entwickelt haben. Es handelt sich um einen bewährten Ansatz zur Generierung synthetischer Daten, mit dem wir die Qualität der DeepL‑LLMs im Laufe der Zeit kontinuierlich verbessern konnten und der uns dabei helfen wird, das volle Potenzial der von uns entwickelten größeren Modelle auszuschöpfen.
Die KI‑Forschung zeigt, dass größere Modelle, die mit größeren Mengen hochwertiger Daten trainiert werden, bisher unvorhergesehene Fähigkeiten entwickeln können.
Dies äußert sich oft darin, dass sich ein Modell sehr schnell weiterentwickelt und eine Aufgabe, die zuvor als extrem schwierig galt, nun als relativ einfach empfindet. Solche neuen Fähigkeiten belohnen Forscher dafür, dass sie die Grenzen der KI erweitern, sich neue Probleme vorstellen, die gelöst werden können, und mit neuen Lösungsansätzen experimentieren. Wir haben DeepL AI Labs ins Leben gerufen, um eine Pipeline für solche Experimente zu schaffen. Damit setzen wir auf mutige, aber intelligente Weise darauf, was die Modelle von DeepL als Nächstes leisten können.
Dazu setzen wir uns ehrgeizige Ziele, von denen wir wissen, dass sie einen großen Unterschied für die Arbeitsweise und Produktivität von Menschen machen werden. Anschließend experimentieren wir ausgiebig und testen Ideen für neue Funktionen, die uns helfen können, diese Ziele zu erreichen. Dank neuer Fähigkeiten können selbst sehr ehrgeizige Experimente überraschend erfolgreich sein. Durch die Erweiterung der Ziele und Lösungen, auf die wir unsere Modelle anwenden, können neue Funktionen noch schneller entstehen.
Die Auswirkungen der höheren Rechenleistung und der neuen Fähigkeiten beeinflussen bereits die Funktionen von DeepL und die Erfahrungen der Menschen, die unsere Tools nutzen.
Clarify, unser Experte für On‑Demand-Übersetzungen, der weiß, wann er intelligente Rückfragen zur Beseitigung von Unklarheiten stellen muss, ist ein frühes Beispiel dafür. Wenn Modelle wie Clarify Mehrdeutigkeiten verstehen und Annahmen erkennen können, sind sie in der Lage, mit Nutzern auf sinnvollere, menschenähnliche Weise zu interagieren. Dies trägt dazu bei, eine Erfahrung der Zusammenarbeit mit KI zu schaffen, die reaktionsschneller ist und weitaus relevantere und beeindruckendere Ergebnisse liefert als ein Modell, das versucht, selbstständig zu argumentieren.
Wir haben diese interaktiven Funktionen zunächst für Übersetzungsaufgaben entwickelt, aber sie sind ebenso wertvoll für fast jede Anwendung von KI. Durch die Entwicklung von Modellen, die natürlicher, intelligenter und produktiver mit Menschen zusammenarbeiten können, sind wir in der Lage, Unternehmen und anderen Organisationen dabei zu helfen, viel mehr mit KI zu erreichen.
Die Projekte, die in den DeepL AI Labs Gestalt annehmen, erforschen innovative neue Wege, um dieses Potenzial auszuschöpfen. Dabei profitieren sie von einem weiteren Ergebnis unserer engen Zusammenarbeit mit NVIDIA zur Maximierung des Potenzials der Rechenleistung: erhöhter Geschwindigkeit der Inferenz.
Im Allgemeinen sind größere KI‑Modelle mit einer höheren Latenz verbunden, was bedeutet, dass Nutzer länger auf die Ergebnisse warten müssen, wenn sie die KI mit einer Aufgabe beauftragen. Die erhöhte Rechenleistung von Arion in Kombination mit der Unterstützung von FP8-Training und FP4-Inferenz durch NVIDIA trägt dazu bei, dies zu ändern. Das bedeutet, dass unsere größeren, leistungsstärkeren Modelle Aufgaben dennoch extrem schnell ausführen können.
Arion hilft KI‑Agenten dabei, komplexe Aufgaben mit der von den Nutzern geforderten Geschwindigkeit auszuführen. Es ermöglicht auch ambitionierte Projekte wie unseren revolutionären Ansatz für die Voice‑to-Voice-Übersetzung, der davon abhängt, dass wir vorhersagen können, was Menschen sagen, und es übersetzen, während sie es sagen.
Bei DeepL waren wir nie an Innovation um der Innovation willen interessiert. Vielmehr verfolgen wir innovative Ideen, die sich konkret auf das Leben und die Arbeit von Menschen auswirken. Die Fähigkeiten von DeepL Arion und unsere Zusammenarbeit mit NVIDIA und EcoDataCenter, die diese Möglichkeiten erst ermöglichen, geben uns die Chance, eine viel größere Bandbreite an Ideen für solche konkreten Auswirkungen zu testen. Es sind diese sich rasch erweiternden Möglichkeiten, die DeepL AI Labs zu einem so spannenden Ort machen.