Bagaimana cara kerja DeepL?
Kami sering ditanya mengapa DeepL Translator sering kali bekerja lebih baik daripada sistem terjemahan dari perusahaan teknologi besar lainnya. Ada beberapa alasan untuk hal ini. Seperti kebanyakan sistem terjemahan, DeepL Translator menerjemahkan teks menggunakan jaringan neural tiruan. Jaringan-jaringan ini dilatih menggunakan jutaan teks terjemahkan. Namun, para peneliti kami telah berhasil memperbaiki banyak hal pada metodologi jaringan neural secara keseluruhan, terutama dalam empat bidang.
Arsitektur jaringan
Sudah diketahui umum bahwa sebagian besar sistem terjemahan yang tersedia secara publik merupakan modifikasi langsung dari arsitektur Transformer. Tentu saja, jaringan neural DeepL juga mengandung bagian dari arsitektur ini, seperti mekanisme perhatian. Namun, terdapat juga perbedaan yang signifikan dalam topologi jaringan yang mengakibatkan perbaikan kualitas terjemahan secara keseluruhan yang signifikan dibandingkan dengan standar penelitian publik terkini. Kami dapat melihat perbedaan kualitas arsitektur jaringan ini dengan jelas ketika kami melatih dan membandingkan arsitektur kami sendiri dengan arsitektur Transformer terbaik yang ada pada data yang sama.
Data latihan
Sebagian besar pesaing langsung kami adalah perusahaan teknologi besar yang telah memiliki riwayat bertahun-tahun dalam mengembangkan web crawler. Mereka memiliki keunggulan yang jelas dalam jumlah data latihan yang tersedia. Di sisi lain, kami sangat menekankan pada pengadaan data latihan khusus yang ditargetkan untuk membantu jaringan kami mencapai kualitas terjemahan yang lebih tinggi. Untuk tujuan ini, kami telah mengembangkan, di antara hal-hal lain, crawler khusus yang secara otomatis menemukan terjemahan di internet dan mengevaluasi kualitasnya.
Metodologi melatih
Dalam penelitian publik, jaringan saraf tiruan biasanya dilatih menggunakan metode "pembelajaran terawasi". Jaringan tersebut terus-menerus diperlihatkan berbagai contoh yang berbeda. Jaringan secara berulang-ulang membandingkan terjemahan yang dihasilkan dengan terjemahan dari data latihan. Jika terdapat ketidaksesuaian, bobot jaringan akan disesuaikan sesuai kebutuhan. Kami juga menggunakan teknik-teknik lain dari bidang lain dalam machine learning saat melatih jaringan neural. Hal ini juga memungkinkan kami untuk memperbaiki secara signifikan.
Ukuran jaringan
Sementara itu, kami (seperti pesaing terbesar kami) melatih jaringan terjemahan dengan miliaran parameter. Jaringan-jaringan ini begitu besar sehingga hanya dapat dilatih secara terdistribusi pada kluster komputasi khusus yang sangat besar. Namun, dalam penelitian kami, kami sangat menekankan pentingnya penggunaan parameter jaringan secara efisien. Inilah cara kami berhasil mencapai kualitas terjemahan yang serupa meskipun menggunakan jaringan yang lebih kecil dan lebih cepat. Kami juga dapat menawarkan kualitas terjemahan yang sangat tinggi kepada pengguna layanan gratis kami.
Tentu saja, kami selalu mencari matematikawan dan ilmuwan komputer yang sangat berbakat yang ingin membantu mendorong pengembangan, memperbaiki kualitas DeepL Translator, dan menghilangkan hambatan bahasa di seluruh dunia. Jika Anda juga memiliki pengalaman dalam matematika dan melatih jaringan neural, dan jika Anda merasa puas bekerja pada produk yang digunakan gratis di seluruh dunia, maka silakan ajukan lamaran ke DeepL!