DeepL AI Labs
Produk dan solusi baru yang kami kembangkan di DeepL AI Labs dapat terwujud berkat kolaborasi jangka panjang kami dengan NVIDIA. Pencapaian terbaru dalam kemitraan tersebut melibatkan DeepL dalam menerapkan sistem NVIDIA DGX SuperPOD pertama NVIDIA DGX SuperPOD dengan sistem DGX GB200 di Eropa pada awal tahun ini. Superkomputer baru ini membuka peluang baru dalam hal melatih dan menerapkan solusi AI.
Kami telah menamai produk baru kami NVIDIA SuperPOD DeepL Arion. Sistem ini menggunakan arsitektur Grace Blackwell dari NVIDIA, yang menghubungkan 'pulau-pulau' dari 72 GPU Blackwell yang bertenaga sehingga dapat berfungsi sebagai satu kesatuan. Semakin banyak GPU yang terhubung ke SuperPOD dengan cara ini, semakin kuat performanya, dan Arion bahkan jauh lebih kuat daripada superkomputer NVIDIA kami sebelumnya, Mercury. Mercury akan membutuhkan 193 hari untuk menerjemahkan seluruh internet. Jika kita memberikan tugas hipotetis ini kepada Arion, ia dapat menyelesaikannya lebih dari 10 kali lebih cepat, hanya dalam waktu lebih dari 18 hari!
Menerjemahkan seluruh jaringan internet terdengar mengesankan, tetapi apa yang Arion berarti bagi kemampuan kita untuk melatih Model Bahasa Besar (LLMs) jauh lebih penting. Sederhananya, semakin cepat GPU dapat berkomunikasi, semakin besar model yang dapat kita bangun dengan mereka. Dengan Arion, kita dapat menggunakan arsitektur sederhana dan terukur untuk membangun model bahasa besar (LLMs) yang jauh lebih besar.
Kami mampu melatih model bahasa besar (LLMs) ini dengan data latihan yang diperluas menggunakan teknik canggih yang kami kembangkan untuk melatih model AI bahasa kami. Ini adalah pendekatan yang telah teruji untuk menghasilkan data sintetis yang telah memungkinkan kami untuk terus memperbaiki kualitas DeepL LLMs seiring waktu, dan hal ini akan membantu kami untuk memanfaatkan potensi penuh dari model-model yang lebih besar yang kami bangun.
Penelitian kecerdasan buatan (AI) menunjukkan bahwa ketika Anda membangun model yang lebih besar dan melatihnya menggunakan jumlah data berkualitas tinggi yang lebih besar, model-model tersebut dapat mulai menunjukkan fungsi yang sebelumnya tidak terduga.
Hal ini sering kali terjadi dalam bentuk model yang berkembang dengan sangat cepat, dari awalnya merasa tugas tersebut sangat sulit hingga akhirnya merasa relatif mudah. Kemampuan fungsi baru memberikan penghargaan kepada peneliti yang mendorong batas-batas apa yang dapat dilakukan oleh AI, membayangkan masalah baru yang dapat dipecahkan, dan bereksperimen dengan cara-cara baru untuk memecahkannya. Kami telah mendirikan DeepL AI Labs untuk mengembangkan serangkaian eksperimen semacam ini. Dan dengan melakukan hal tersebut, kami sedang melakukan taruhan berani namun cerdas tentang apa yang dapat dilakukan oleh model-model DeepL selanjutnya.
Kami melakukannya dengan menyetel tujuan yang ambisius yang kami yakini akan membawa perubahan besar dalam cara orang bekerja dan seberapa produktif mereka. Kami kemudian melakukan eksperimen secara intensif, menguji ide-ide untuk fitur baru yang dapat membantu kami mencapai tujuan-tujuan tersebut. Fungsi yang muncul secara tiba-tiba berarti bahwa bahkan eksperimen yang sangat ambisius pun dapat terbukti berhasil secara mengejutkan. Memperluas jangkauan tujuan dan solusi yang kami terapkan pada model-model kami membantu fungsi baru muncul dengan lebih cepat.
Dampak dari peningkatan daya komputasi dan fungsi baru yang muncul telah mulai membentuk fitur-fitur DeepL dan pengalaman pengguna yang menggunakan alat-alat kami.
Clarify, ahli terjemahan on-demand yang tahu kapan harus mengajukan pertanyaan cerdas untuk mengklarifikasi makna, merupakan contoh awal dari hal ini. Ketika model dapat memahami ambiguitas dan mendeteksi asumsi dengan cara yang sama seperti yang dilakukan oleh Clarify, mereka mampu berinteraksi dengan pengguna secara lebih berharga dan alami. Hal ini membantu dalam memberikan pengalaman bekerja dengan AI yang lebih responsif, dan menghasilkan hasil yang jauh lebih relevan dan mengesankan daripada model yang mencoba berargumen sendiri.
Kami pertama kali mengembangkan fungsi interaktif ini untuk tugas terjemahan, tetapi mereka sama berharganya untuk hampir semua aplikasi AI. Dengan mengembangkan model yang dapat berkolaborasi secara lebih alami, lebih cerdas, dan lebih produktif dengan manusia, kami dapat membantu Enterprise dan organisasi lain untuk memanfaatkan kecerdasan buatan (AI) dengan lebih optimal.
Proyek-proyek yang sedang dikembangkan di DeepL AI Labs sedang menjajaki cara-cara inovatif baru untuk mewujudkan potensi tersebut. Dengan demikian, mereka memanfaatkan hasil lain dari kerja sama erat kami dengan NVIDIA dalam memaksimalkan potensi daya komputasi: peningkatan kecepatan inferensi.
Secara umum, model AI yang lebih besar cenderung memiliki latensi yang lebih tinggi, artinya pengguna harus menunggu lebih lama untuk mendapatkan hasil saat meminta AI untuk melakukan suatu tugas. Peningkatan daya komputasi Arion, dikombinasikan dengan dukungan NVIDIA untuk melatih FP8 dan melakukan inferensi FP4, membantu mengubah hal ini. Artinya, model-model kami yang lebih besar dan lebih bertenaga masih dapat menjalankan tugas-tugas dengan sangat cepat.
Arion membantu agen AI untuk melakukan tugas-tugas kompleks dengan kecepatan yang dibutuhkan oleh pengguna. Hal ini juga memungkinkan proyek-proyek ambisius seperti pendekatan revolusioner kami dalam terjemahan suara ke suara, yang bergantung pada kemampuan untuk secara cerdas memprediksi apa yang orang katakan, dan menerjemahkannya saat mereka mengatakannya.
Di DeepL, kami tidak pernah tertarik pada inovasi demi inovasi itu sendiri. Sebaliknya, kami mengejar ide-ide inovatif yang memiliki dampak nyata di dunia nyata — khususnya dalam hal pengalaman kerja dan kehidupan masyarakat. Fungsi DeepL Arion, serta kolaborasi kami dengan NVIDIA dan EcoDataCenter yang mendasari fungsi tersebut, memungkinkan kami untuk menguji berbagai ide yang jauh lebih luas untuk dampak nyata di dunia nyata. Inilah kemungkinan-kemungkinan yang berkembang pesat yang membuat DeepL AI Labs menjadi ruang yang begitu menarik.