Jak działa DeepL?

Autor: DeepL Team

Wiele osób zastanawia się, dlaczego Tłumacz DeepL często działa lepiej niż konkurencyjne systemy dużych firm technologicznych. Dzieje się tak z kilku powodów. Podobnie jak większość podobnych systemów, Tłumacz DeepL tłumaczy teksty za pomocą sieci neuronowych. Sieci te są trenowane na wielu milionach przetłumaczonych tekstów. Nasi badacze zdołali jednak wprowadzić wiele ulepszeń do ogólnej metodologii sieci neuronowych, głównie w czterech obszarach.

Architektura sieci

Powszechnie wiadomo, że większość publicznie dostępnych systemów tłumaczeniowych to bezpośrednie modyfikacje architektury Transformer. Dotyczy to też sieci neuronowych Tłumacza DeepL, które również zawierają elementy tej architektury, takie jak mechanizmy uwagi. Widoczne są jednak wyraźne różnice w topologii sieci, które prowadzą do wyraźnej poprawy jakości tłumaczeń w stosunku do aktualnego stanu techniki. Te różnice w strukturze stają się jeszcze bardziej widoczne, gdy użyjemy tych samych danych do trenowania naszych architektur i porównamy je z najbardziej znanymi architekturami Transformer.

Dane treningowe

Większość naszych bezpośrednich konkurentów to duże firmy technologiczne, które przez lata zdobyły duże doświadczenie w tworzeniu robotów indeksujących (web crawlers). Dzięki temu macie wyraźną przewagę pod względem ilości dostępnych danych treningowych. My natomiast kładziemy duży nacisk na ukierunkowane pozyskiwanie specjalnych danych treningowych, które pomagają naszej sieci osiągnąć wyższą jakość tłumaczeń. W tym celu stworzyliśmy m.in. specjalne roboty indeksujące, które automatycznie wyszukują tłumaczenia w internecie i oceniają ich jakość.

Metodologia treningowa

Zazwyczaj sieci treningowe są trenowane przy użyciu metody zwanej „uczeniem nadzorowanym”. Polega ona na tym, że sieć jest stale konfrontowana z różnymi przykładami i nieustannie porównuje swoje własne tłumaczenia z tłumaczeniami z danych treningowych. W przypadku rozbieżności wagi sieci są odpowiednio dostosowywane. Podczas trenowania sieci neuronowych wykorzystujemy również inne techniki z innych obszarów uczenia maszynowego. Pozwala nam to osiągnąć znaczną poprawę jakości tłumaczeń.

Rozmiar sieci

Podobnie jak nasi najwięksi konkurenci, trenujemy nasze sieci neuronowe przy użyciu miliardów parametrów. Sieci te są tak duże, że można je trenować wyłącznie w sposób rozproszony na bardzo dużych, dedykowanych klastrach obliczeniowych. Jednak w waszych badaniach przywiązujemy dużą wagę do tego, aby parametry sieci były wykorzystywane bardzo efektywnie. Dzięki temu udało nam się osiągnąć podobną jakość tłumaczeń nawet przy mniejszych i szybszych sieciach. Również z tego powodu możemy zaoferować użytkownikom naszego darmowego serwisu tłumaczenia bardzo wysokiej jakości.

Stale szukamy zdolnych matematyków i informatyków, którzy mogliby pomóc nam ulepszać Tłumacza DeepL i pokonywać bariery językowe na całym świecie. Jeśli masz również doświadczenie w matematyce i trenowaniu sieci neuronowej, a praca nad produktem, z którego korzystają użytkownicy na całym świecie za darmo, sprawia ci satysfakcję, zgłoś się do DeepL!

Udostępnij