bez kategorii

MT czy AI? Najnowszy raport Intento

Najnowszy raport Intento Generative AI for Translation in 2024 wskazuje, że:

  • Jeśli mamy już ustabilizowany proces tłumaczenia z jednym lub kilkoma wybranymi i dostosowanymi modelami MT – i działa on dobrze – to nie musimy się spieszyć i zastępować go GenAI (jeszcze nie). Możemy wypróbować AI jako opcję, ale bez nerwowych ruchów.
  • Jeśli nie mamy w procesie tłumaczenia żadnego MT (a chcielibyśmy je mieć) – lub mamy, ale nienawidzimy – to wypróbujmy i MT, i GenAI.
  • Jeśli już używamy AI do generowania treści w jednym języku – lub jeśli planujemy to zrobić – sprawdźmy, czy AI może też generować treści w innych językach, których potrzebujemy, zwłaszcza jeśli są to języki popularne w Internecie (a więc takie, dla których GenAI mają dużo danych treningowych).

PRZEtłumacze o MT (i trochę AI)

Na zaproszenie firmy Diuna miałam przyjemność wystąpić 11 kwietnia 2023 w odcinku podcastu PRZEtłumacze, w którym Kacper Wawrzak poprowadził rozmowę w kierunku takich zagadnień jak:

  • prawie 100 lat historii tłumaczeń maszynowych
  • nikt nie zmyśla tak pięknie jak sieci neuronowe
  • czy można postedytować i nie oszaleć
  • kto po 3 piwach wieszczył, że za rok tłumacze stracą pracę
  • i oczywiście: czy GPT rozumie więcej niż NMT???

“Klucza daj tłumaczowi” w nowej odsłonie

Wiadomość w sam raz na Hieronimki: dokumentacja, w której Marcin Basiak opisuje krok po kroku, jak podłączać popularne silniki MT do popularnych CAT-ów, została szczęśliwie zmigrowana do portalu machinetranslate.org. Jeśli ktoś chce ją uzupełnić – na przykład opisać najnowszą wersję memoQ, podłączanie Google v3 lub pracę z MT w Acrossie, Memsource czy XTM – to może w każdej chwili dołączyć do zespołu 🙂

A portal machinetranslate.org polecam uwadze jako całość: szybko rozwijane, przystępne kompendium wiedzy o MT.

European Language Resources Coordination Workshop Warszawa 2022

Jak pozyskać duże i dobre zasoby językowe dla polskiego, żeby można było rozwijać eTranslation, a także inne technologie językowe, np. systemy do anonimizacji treści, klasyfikowania lub streszczania dokumentów itd.? Przedstawiam króciutkie notatki z dyskusji panelowej w ramach warsztatów ELRC, które zorganizowała Anna Kotarska. Organizacyjnie i formalnie poniższe pomysły to póki co / nadal wishful thinking, ale technicznie te rzeczy są jak najbardziej wykonalne, co więcej, niektóre jednostki już udowodniły, że #dasię:

  • W administracji publicznej – wprowadzić wymóg dostarczania pamięci tłumaczeń razem z każdym zleconym tłumaczeniem (zostawiając margines bezpieczeństwa dla zadań typu “przekoszony skan z muchą z łotewskiego na polski 15 stron z dziś na jutro poświadczone”).
  • W placówkach naukowych – zmienić zasadę udostępniania zasobów (np. prac naukowych, włącznie z magisterskimi) z “udostępniamy tylko to, co chcemy” na “nie udostępniamy tylko tego, czego nie możemy” 🙂

Machine Translation Marathon Praha 2022

“Maratony MT” to bardzo praktyczne konferencje: nie uświadczy się tam marketingu rynkowych produktów MT, tylko prezentacje projektów naukowo-badawczych, często w toku, przy czym badacze są i ze środowisk komercyjnych, i akademickich. Do tego popołudniami toczą się mini-projekty, które posuwają naprzód rozwiązywanie konkretnych problemów. Do tego postery z projektów bardziej niszowych (np. sieć neuronowa oceniająca jakość tłumaczenia poezji, uwzględniająca – oprócz dokładności tłumaczenia – rymy i rytm). Do tego dużo czasu (i kawy) na dyskusje w kuluarach. Do tego Praga, bo gospodarzem tegorocznego MTM był Uniwersytet Karola, a cała impreza jest bezpłatna. Wady? Bardzo wysoki poziom naukowy i techniczny, bez wektorów i logarytmów ani rusz!

A co zwróciło moją uwagę od strony praktycznej:

  1. Środowiska komercyjne (Google, Microsoft) i naukowe (WMT) zgodnie przyjęły Multidimensional Quality Metric za standard oceny MT przez ludzi – zastępując zbyt uproszczoną ocenę segmentów w skali od 0 do 5. MQM polega na klasyfikacji błędów (sens, terminologia, gramatyka itd.) oraz ich ważności (krytyczny, poważny, taki sobie) – czyli jest metodą doskonale znaną tłumaczom i weryfikatorom, a przy tym pozwalającą ocenić przydatność MT do danego zastosowania (czasem ważniejszy jest płynny język i przecinki, a kiedy indziej dokładność i terminologia).
  2. 90% prac naukowych z dziedziny MT i tak stosuje wyłącznie miary automatyczne, ale są prowadzone badania sprawdzające, jakie miary najlepiej pokrywają się z oceną przez ludzi. W skrócie: COMET > BERT >> BLEU.
  3. Kierunki prac naukowo-badawczych określiłabym jako “the usual suspects”:
    • kontekst, najlepiej całego dokumentu, a jak nie, to chociaż poprzednie i następne zdanie (są nowości, nie ma przełomu, ale przynajmniej wszyscy przyznają, że bez tego ani rusz);
    • automatyczne przewidywanie jakości MT, czy to w formie “samooceny” przez silnik, czy też oddzielnej sieci neuronowej do oceniania propozycji maszynowych (dobrym pomysłem jest używanie danych z MQM do trenowania systemów automatycznego oceniania);
    • modele wielojęzyczne, zwłaszcza w kontekście “podciągania” MT dla języków o słabo dostępnych zasobach treningowych (islandzki) przez zgrupowanie z językami o dużych zasobach (niemiecki).

Pisanie pod maszynę

Jak pisać, żeby Neural MT sobie z tym poradziło? Centrum Tłumaczeń dla organów Unii Europejskiej publikuje broszurę z praktycznymi poradami, do pobrania bezpłatnie ze strony. Przykładowo:

  • używamy spójnej terminologii,
  • nie szalejemy z zaimkami,
  • unikamy TEKSTU WIELKIMI LITERAMI.

Poleca Anna Kotarska.

A od strony technicznej? Kilka porad znajdziemy na stronie firmy ModelFront, na przykład:

  • elementy odpowiedzialne za wygląd tekstu oddzielamy od tekstu,
  • wyróżniamy elementy nietłumaczalne w rodzaju nazw czy elementów interfejsu,
  • nie tniemy zdań na kawałki.

Poleca Adam Bittlingmayer.

MT ze zmienną terminologią

Dopasowanie terminologii w MT do dziedziny, klienta lub projektu pozostaje funkcją bardzo pożądaną na rynku. Oferuje ją część dostawców MT. Tymczasem firma SAP ma taki proces wdrożony na potrzeby swego (ogromnego) działu lokalizacji oprogramowania – w tym przypadku terminologię dopasowuje się do projektu. Niewątpliwym atutem SAP-a jest tu posiadanie i własnych zasobów terminologicznych, i własnego systemu NMT 🙂 Opracowanie na ten temat zostało nagrodzone jako najlepsza publikacja na konferencji EAMT 2020 i jest dostępne wraz z resztą materiałów konferencyjnych.

Jak porównywać MT z tłumaczami

Na fali publikacji o MT tworzącym tłumaczenia nie do odróżnienia od ludzkich, tudzież drugiej fali prac podważających te twierdzenia, powstał bardzo przyzwoity zestaw dobrych praktyk przy porównywaniu MT z człowiekiem. Warto zwracać uwagę m.in. na te aspekty:

  • kto tłumaczył (amatorzy czy zawodowcy)
  • kto porównuje (amatorzy czy zawodowcy) – i dla jakich odbiorców tekst ma być przeznaczony
  • czy w porównaniu uwzględniony jest kontekst (np. cały dokument)
  • jaki był tekst źródłowy (z MT, z tłumaczenia czy pierwotnie napisany w danym języku).

Podczas prezentacji na EAMT 2020 profesor Antonio Toral zauważył przewrotnie, że większość odbiorców MT nie jest profesjonalnymi tłumaczami, więc czy ocena przez profesjonalistów jest w pełni adekwatna do ich potrzeb…? Mój ulubiony cytat z konferencyjnej dyskusji to “Just because something is better, doesn’t mean it’s correct” 🙂